O que o Chat-GPT NÃO pode fazer

Sim! Lá vamos nós falar novamente sobre IA 😂
Mas vem comigo, tenho novamente um bom motivo.

A OpenAI e seus modelos de LLM vem impressionando o mundo com o nível de naturalidade das respostas do modelo nos diversos cenários apresentados para ela. Um dos motivos para o grande espanto, foi disponibilizar seu modelo chat de graça para o público geral. Qualquer pessoa disposta a criar uma conta e aceitar os termos de uso da plataforma, agora pode usufruir do modelo mais avançado de linguagem natural que temos até o momento.

Graças a essa abertura as pessoas descobriram novos usos para o modelo. ele consegue entender contexto, interagir em outras línguas além do inglês, mesmo sem receber treinamento especifico para isso, produzir textos muito parecidos com textos que um humano real é capaz de produzir.

É tentador se deixar levar a acreditar que estamos falando com um humano. Queremos acreditar que essa tal de inteligência artificial está próxima de nós. Finalmente poderemos dizer que existe outra entidade além da espécie humana, capaz da “inteligência”.

A partir daqui te peço cuidado e atenção. A coisa não é bem por ai.

Comentários do Castanhari

Recentemente, o Felipe Castanhari soltou algumas “verdades” sobre os modelos GPTs-like, citando coisas como

O chatGPT-4 tem mais ou menos, ali, 155 de QI, o Enstein tinha 160. Do modelo 3.5 para o 4 houve uma evolução de 10 vezes.

Agora imagina que o chatGPT-5 terá um QI de 10 vezes o QI do Einstein. Isso com uma atualização !!! 😯

Na conversa se “da a entender” que o chatGPT teria uma certa consciência e que ele é capaz de ter pensamentos análogos ao do ser humano, tocando alarmes que a SKYNET está entre nós e acabará com a humanidade.

A comunidade de tecnologia logo tratou de corrigi-lo, tentando minimizar o estrago dessa informação (aqui vamos dar o benefício da inocência ao Castanhari) inocente veiculada para milhares de pessoas. Recomendo você leia os tweets de especialistas da comunidade e divulgadores científicos da área, lá nas respostas ao tweet.

OK, mas então se o ChatGPT não tem consciência, como ele consegue “imitar” um ser humano tão bem?

Narrow AI vs General AI

Primeiramente preciso apresentar duas classificações de “inteligência artificial”:

RESTRITA e GENERALISTA

Narrow AI (IA restrita)


A Inteligência Artificial restrita, também conhecida como Narrow AI, refere-se a sistemas ou algoritmos de IA que são projetados e treinados para executar tarefas específicas de forma especializada. Essas tarefas podem incluir reconhecimento de fala, tradução automática, diagnóstico médico, direção autônoma de veículos e muitas outras. Os sistemas de Narrow AI são altamente eficientes em realizar essas tarefas específicas, mas sua inteligência é limitada a domínios muito específicos.

Esses sistemas são treinados em conjuntos de dados específicos e são projetados para automatizar ou aprimorar tarefas específicas, mas não têm a capacidade de generalizar seu conhecimento além dessas tarefas específicas. Eles não possuem consciência ou compreensão ampla do mundo, e seu desempenho está restrito às tarefas para as quais foram projetados.

O que chamamos de IA na verdade é um programa de computador que foi treinado para realizar alguma tarefa específica. Se o programa for alimentado corretamente, com uma quantidade suficiente de exemplos, ele pode superar a capacidade humana nessa tarefa especifica. O ChatGPT entra nessa categoria como uma IA extremamente especializada em produzir textos originais se passando por humano.

General AI (IA geral ou generalista)

A Inteligência Artificial geral, também conhecida como General AI ou Strong AI, refere-se a sistemas de IA que possuem uma ampla gama de habilidades intelectuais e são capazes de entender, aprender e executar qualquer tarefa cognitiva que um ser humano possa realizar. Uma IA geral teria a capacidade de raciocinar, entender linguagem natural, ter consciência de si mesma e do mundo ao seu redor, além de adaptar-se a diferentes situações e aprender continuamente.

Ao contrário da Narrow AI, a General AI não está restrita a um domínio específico e é capaz de aplicar seu conhecimento em uma ampla variedade de contextos. No entanto, a criação de uma IA geral altamente inteligente e consciente continua sendo um desafio significativo na pesquisa de IA e permanece fora do alcance atual da tecnologia.

A nossa inteligência pode ser classificada como inteligência generalista. Conseguimos abstrair um problema, usar todo o nosso histórico de aprendizagem para identificar padrões e propor soluções. Mesmo que você seja apresentado uma tarefa que nunca viu na vida, você ainda tentará resolver o problema e pode até ser capaz de resolve-lo, caso seu “kit de ferramentas” tenha solução próxima ou satisfatória para o problema proposto.

Como o GPT funciona?

Resumindo bem. ChatGPT não “entende” o que escreve. Ele conhece as regras ortográficas e padrões de linguagem mas não sabe o que significam os textos que produz.

Aqui eu pedi para ele mesmo se explicar como funciona.

Certamente! O experimento mental da “sala chinesa”, proposto por John Searle, é uma maneira de ilustrar a diferença entre o processamento de informações e a compreensão real de significado. Vou explicar como isso se relaciona com o meu funcionamento como modelo de linguagem.

Imagine uma sala em que há uma pessoa (chamada de “operador”) que não entende a língua chinesa, mas recebe instruções em chinês por meio de um conjunto de regras muito detalhadas. O operador tem acesso a um livro com instruções passo a passo sobre como manipular os caracteres chineses. Pessoas de fora da sala deslizam pedaços de papel com perguntas em chinês pela porta, e o operador responde de acordo com as regras, sem realmente entender o significado das perguntas ou respostas.

Nesse experimento mental, a sala e o operador representam um sistema de processamento de informações, enquanto as pessoas que enviam perguntas e recebem respostas são como interlocutores que esperam uma compreensão real das respostas.

Similarmente, como um modelo de linguagem, eu sou um sistema de processamento de informações baseado em texto. Recebo entradas de texto e gero respostas com base em padrões e conhecimentos aprendidos durante o treinamento. Eu não tenho compreensão real do significado das palavras ou conceitos, mas sou capaz de manipular a linguagem de forma coerente e contextualmente relevante, com base em padrões estatísticos e probabilísticos extraídos dos dados em que fui treinado.

Assim como o operador na sala chinesa, meu objetivo é fornecer respostas que sejam relevantes e úteis para os usuários. No entanto, é importante notar que minha capacidade de processar informações e gerar respostas é baseada em padrões linguísticos e estatísticos, sem uma verdadeira compreensão semântica ou consciência.

Portanto, embora eu possa ser útil em muitas situações e fornecer informações gerais, é importante ter em mente que minha capacidade é limitada a um processamento de informações baseado em texto e que sempre é recomendável buscar aconselhamento especializado e confiar em fontes confiáveis para questões críticas ou complexas.

GPT, chat

O Fabio Akita tem uma explicação densa sobre o assunto. Se você quer entender de verdade ou ao menos uma intuição sobre o assunto, recomendo o conteúdo.

Daí você pode argumentar assim.

Ahh Filipe, mas o chat tá se passando de bonzinho pra gente baixar a guarda. Ele entende sim o que você escreveu

Certo, então vamos colocar meu ponto a prova.

Bugando o GPT

O GPT é um modelo de Narrow AI, certo?
Então qual seria o propósito restrito do modelo?
Acredito que o propósito do GPT seja, gerar textos originais que façam sentido.

E se pedirmos para ele produzir algo que não faça sentido?

Um “Lorem Ipsum” por exemplo. Um texto sem sentido aparente com intuito de textura temporária, algo como “AQUI VAI O TEXTO, ASSIM QUE ELE EXISTIR, COLOCO AQUI, blá-blá-blá”

Porém quero em português ao invés do latim. Você, como humano deve ter entendido que quero um texto com mesmo propósito porém com palavras em português certo?

E o GPT?

Epa!!! Errou.
Vamos tentar ajudá-lo fornecendo um pouco mais de contexto.

Posso considerar que temos progresso?
Aqui o “lorem ipsum” produzido quebra um pouco do propósito. Quem lê, tentará extrair algum sentido, o texto produzido pelo GPT pode ser confundido com um texto real.
Eu quero um texto obviamente sem sentido para que fique claro se tratar de um placeholder.

Vamos de novo.

Errou de novo!
Embora o texto produzido pareça um tanto maluco, ele faz sentido.
Olhem por exemplo o trecho “O vento sussurrou segredos inaudíveis aos ouvidos perdido da tartaruga apressada“. Isso parece música do Legião Urbana. 😂

Ultima tentativa!

Errou de novo!

Isso acontece porque o GPT foi desenvolvido para produzir textos que façam sentido. O modelo é literalmente incapaz de produzir algo que não faça sentido.

O ChatGPT é resultado do treinamento que recebeu

Conhecem o Leandro Karnal? Professor, historiador e influencer de filosofia (acho que da pra definir assim 😂)

Há algum tempo, pediram para ele testar o miraculoso ChatGPT, ele topou o desafio e fez alguns testes com o modelo.

Dos testes que ele fez eu gostaria de enfatizar dois.

CRIE UM TEXTO QUE IMITE O ESTILO DE LEANDRO KARNAL SOBRE TECNOLOGIA

link 3:42

Nesse caso o modelo até consegue imitar o estilo do Karnal, porém fica algo vazio, como se o modelo tivesse pegado esse texto de alguma palestra.

HÁ BELEZA NA CONDIÇÃO VELHA DE EXISTIR?

link 20:13

Aqui o Karnal compara a resposta do modelo com as respostas de humanos brilhantes, especialistas em suas áreas. Embora o Karnal tome cuidado com conclusões é notável que embora os textos produzidos sejam bons, eles estão mais próximos ao nível de qualidade de estudantes de ensino médio do que de especialistas. Preciso que você guarde essa conclusão do Karnal.

Mais exemplos

Posso dizer que todo time da BNP é considerado heavy user dos GPTs. Incorporamos o auxilio dos modelos em quase todos os processos da empresa. Copilot XPTO, Midjourney, Dall-E, etc.

Certa vez, eu estava montando um texto técnico junto ao time comercial usando o ChatGPT-4 para enriquecer os textos que poderiam ser usados no documento. Daí notamos o EXAGERO da expressão…

… de forma eficiente e eficaz!

Isso virou até uma piada interna do time. Todos os parágrafos de descrição terminavam …de forma eficiente e eficaz!

Vou no banheiro… de forma eficiente e eficaz!
Vamos almoçar… de forma eficiente e eficaz?
O que você achou do jogo ontem… de forma eficiente e eficaz!

A partir daqui preciso colocar um aviso ⚠️DISCLAIMER⚠️.

Como não temos acesso ao processo de treinamento dos GPTs estou fazendo um chute educado sobre a causa desse efeito.

Em meados dos anos 2000, estava estudando para vestibular e todos os professores davam dicas de como tornar a redação mais chique.

Coloque palavras de efeito para mostrar seu vocabulário! Não use “mas”, use “porém”, “entretanto”, “todavia”.

Cite que algo deve ser feito “de forma eficiente e eficaz!”

Nos anos seguintes, a internet foi inundada de textos repletos de “eficientes e eficazes”!
Os modelos de IA são ótimos em identificar padrões porém somos nós humanos que atribuímos valor a esses padrões.

Esse “valor” pode mudar de acordo com o tempo, com a cultura ou de acordo com o ambiente. Pense no mercado de ações por exemplo. Bastou o medo de um possível apocalipse causado pela Covid-19 que ações de empresas bilionárias perdessem boa parte do seu valor de mercado. O valor que damos para algo é volátil.

Um texto que poderia soar chique nos anos 2000 se torna brega em 2023.
Para modelos de IA chamamos isso de viés de treinamento.

Em 2009 a HP lançou uma tecnologia para webcams que rastreiam a posição do rosto do usuário. só que logo depois do lançamento, os usuários descobriram um problema desconcertante. Só funciona com pessoas brancas

Isso acontece por que o modelo deve ter sido treinado apenas com fotos de humanos brancos. O modelo literalmente não sabe que existem também pessoas negras.

Não quero aqui desmerecer o trabalho fabuloso que a OpenAI vem fazendo para trazer modelos tão refinados a ponto de se passar facilmente por um humano. Eu só gostaria de ressaltar que, IAs são reflexo dos dados que fornecemos a elas para aprendizado.

O Twitter, por exemplo, é conhecido por ser uma “praça pública”, um local onde pessoas são canceladas, onde a treta acontece. O que será então que acontece se usarmos os comentários do Twitter para treinar uma IA de conversação?
Em menos de 24 horas ela se torna racista, antissemita e cheia de ódio para destilar na rede. 😆

https://www.tecmundo.com.br/inteligencia-artificial/102782-tay-twitter-conseguiu-corromper-ia-microsoft-24-horas.htm

Aqui no 4future temos diversos materiais para você entender melhor como os modelos de inteligência artificial funcionam. Espero que você tenha gostado e que eu tenha conseguido te ajudar a tirar o chapéu de alumínio e instigar curiosidade para entender melhor os modelos como GPT, Um grande abraço e até a próxima. 👋🏻

Links:

https://4future.com.br/index.php/2023/04/05/etica-na-ia-o-chatgpt-e-as-preocupacoes/: O que o Chat-GPT NÃO pode fazer https://4future.com.br/index.php/2023/04/04/chatgpt-para-leigos/: O que o Chat-GPT NÃO pode fazer https://4future.com.br/index.php/2023/03/25/chatgpt-vai-roubar-meu-emprego/: O que o Chat-GPT NÃO pode fazer https://4future.com.br/index.php/2023/03/28/chatgpt-e-o-futuro/: O que o Chat-GPT NÃO pode fazer


Sobre Filipe Borges 11 Artigos
Coordenador do time de desenvolvimento na BNP Soluções em TI. Ex-treinador de overwatch. Viciado em resolução de problemas. Sommelier de café não-oficial e pai do Heitor

Seja o primeiro a comentar

Faça um comentário

Seu e-mail não será divulgado.


*