A hype dos chatbots de IA

Importante ter cuidado para um entusiasmo apenas ilusório.

Resumo

A tecnologia já viu bolhas de entusiasmo e investimento com promessas de revolução que acabaram não se concretizando, como o “boom” das empresas “dot-com”, o hype das criptomoedas, blockchain, NFTs e o metaverso. Agora, os chatbots de inteligência artificial, como o ChatGPT, estão no centro das atenções, atraindo investimentos bilionários e previsões otimistas sobre seu potencial para substituir funções humanas em diversas áreas. Porém, casos práticos revelam limitações graves, como erros e a geração de informações fictícias, mostrando que esses bots ainda estão longe de possuir uma “inteligência” similar à humana. Especialistas destacam que a IA atual é mais útil como ferramenta de suporte e organização de dados e não como substituta criativa ou decisória, e que regulamentações serão fundamentais para mitigar riscos e proteger direitos diante dessa nova onda tecnológica.

Aqueles de nós que têm acompanhado a tecnologia por décadas testemunharam diversas ondas de tendências e modismos, surgindo e desaparecendo em ciclos impulsionados por bolhas de investimento. No final dos anos 1990, as empresas “dot-com” estavam em alta; mais recentemente, foi a vez das criptomoedas, blockchain, NFTs, carros autônomos e o “metaverso”. Todas essas inovações tiveram seus momentos de glória, com promessas de transformarem o mundo ou, ao menos, setores específicos como os de finanças, arte, transporte e até a sociedade em geral. No entanto, até agora, essas promessas ficaram longe de se realizar de forma espetacular.

Isso nos leva aos chatbots de inteligência artificial. Desde outubro passado, quando levantei um alerta sobre o entusiasmo exagerado em torno da IA, o interesse dos investidores só cresceu de maneira exponencial – acompanhando também o aumento dos receios do público em relação à tecnologia.

Wall Street e investidores de capital de risco estão injetando bilhões de dólares em startups de IA; apenas a Microsoft fez um investimento de 10 bilhões de dólares na OpenAI, criadora do ChatGPT. Empresas em busca de financiamento descobriram que basta alegarem algum vínculo com IA para atrair investidores, assim como as startups adicionavam “dot-com” a seus nomes há algumas décadas. A Nvidia Corp., por exemplo, alcançou um valor de mercado de trilhões de dólares com o sucesso de um chip essencial para o processamento intensivo exigido pelos chatbots de IA.

Os defensores da IA estão empolgados com o potencial de seus produtos (e os lucros promissores). O investidor Marc Andreessen é um exemplo disso. Ele afirmou recentemente que, com a “nova era da IA”, cada criança terá um tutor de IA “infinitamente paciente, infinitamente compassivo, infinitamente conhecedor, infinitamente útil”. Cada pessoa terá um “assistente, coach, mentor, conselheiro, terapeuta” de IA. Cada cientista, um “assistente, colaborador. parceiro” de IA. Até os líderes políticos contarão com esse ajudante superinteligente.

Essa previsão é encantadora em sua ingenuidade quase infantil, considerando que, até hoje, não conseguimos fornecer conexões de internet banda larga para milhões de americanos, algo que já existe desde os anos 1990. Alguém se surpreenderia em saber que a empresa de investimentos de Andreessen tem participações em mais de 40 empresas ligadas à IA? Provavelmente, não.

Andreessen também afirmou: “Tudo o que as pessoas fazem com sua inteligência natural hoje pode ser feito muito melhor com IA”. Essa afirmação é, no mínimo, questionável. Exemplos de como a IA confunde expectativas surgem quase semanalmente.

  • Um dos casos mais conhecidos é o de um advogado em Nova York que apresentou, em um processo judicial federal, um resumo citando dezenas de casos fictícios gerados pelo ChatGPT. Quando o juiz pediu que ele verificasse as referências, o advogado, ingenuamente, questionou o próprio ChatGPT sobre a veracidade das citações. Como perguntar a uma mãe se o bebê dela é o mais bonito, o chatbot confirmou. O resultado foi que o advogado e sua equipe foram multados em 5.000 dólares e tiveram que se desculpar com as partes envolvidas e com os juízes falsamente mencionados. Ele ainda perdeu o caso.
  • Histórias de fiascos semelhantes são frequentes. Uma associação de apoio a distúrbios alimentares substituiu os atendentes humanos de sua linha de apoio por um chatbot, talvez como estratégia para evitar sindicalização, mas logo precisou desativá-lo, pois o bot incentivava práticas alimentares prejudiciais.
  • Em outro caso, um professor do Texas reprovou toda a turma porque o ChatGPT alegou ser o autor dos trabalhos dos alunos. A universidade acabou absolvendo quase todos os estudantes depois que eles provaram que o bot estava errado; um aluno chegou a enviar a tese de doutorado do professor ao ChatGPT, que também afirmou ter escrito a tese.

Muitas vezes, as promessas sobre as capacidades e os riscos dos chatbots de IA são exageradas. Pesquisadores do MIT afirmaram que o ChatGPT poderia tirar notas perfeitas em testes de matemática e ciência da computação, mas um grupo de estudantes desmascarou essa conclusão, e o artigo foi retratado. Outro exemplo foi a alegação de que um programa de IA “matou” seu operador humano em uma simulação da Força Aérea para cumprir objetivos – algo que se revelou falso.

É crucial, então, avaliar com cuidado o que os chatbots de IA realmente podem e não podem fazer. A começar pelo termo “inteligência artificial”, que pode ser enganoso. Esses programas não possuem inteligência similar à humana ou animal; eles são projetados para parecer inteligentes aos olhos de quem desconhece seus processos internos. Na verdade, usar esse termo distorce nossa compreensão de suas capacidades.

Joseph Weizenbaum, criador do chatbot ELIZA, já havia notado isso. ELIZA replicava as respostas de um psicoterapeuta de forma tão convincente que até pessoas que sabiam estar interagindo com uma máquina acreditavam que ela expressava empatia. Em 1976, Weizenbaum alertou que até programas simples de computador podiam gerar um “pensamento delirante” em pessoas normais. Ele ressaltou que tratar o computador como um “companheiro pensante” promovia uma visão simplista da inteligência.

Mesmo os computadores mais avançados não adquirem informações sem serem “alimentados” com elas, escreveu Weizenbaum. Isso ainda é verdade para os chatbots atuais, que “raspam” texto da web. A diferença é que, hoje, o poder computacional permite que eles devorem muito mais dados do que em 1976.

Os chatbots que atraem tanta atenção atualmente são da categoria “IA generativa”, que usa regras estatísticas para responder com base em dados já adquiridos. Segundo o tecnólogo David Gerard, o ChatGPT é um “previsor de palavras em grande escala”, semelhante a um corretor de texto que completa frases. Ele apenas combina palavras a partir de grandes volumes de dados de treinamento.

O entusiasmo em torno desses programas – a ideia de que eles nos aproximam de uma verdadeira inteligência artificial, que são capazes de aprender ou que podem até ser perigosos para a humanidade – pode parecer algo sem precedentes.

Mas não é. Desde o início da IA, previsões grandiosas foram feitas. Em 1970, Marvin Minsky, do MIT, afirmou que em poucos anos teríamos máquinas com inteligência humana, capazes de ler Shakespeare, lubrificar carros e fazer piadas. Minsky e outros acabaram reconhecendo que esses programas tinham limitações rígidas. Isso continua sendo verdade.

O ChatGPT consegue escrever poesia mediana, ensaios acadêmicos, passar em testes de algumas disciplinas técnicas, produzir comunicados de imprensa e redigir documentos jurídicos com boa aparência. Mas tudo isso é genérico. Quando solicitados a criar algo realmente original, os chatbots falham ou produzem informações falsas – como os advogados infelizes descobriram.

Isso pode dar uma pausa às empresas que pretendem substituir funcionários humanos por chatbots. Quando descobrem que precisarão de trabalhadores para revisar a produção dos bots para evitar processos ou reclamações de clientes, talvez repensem a ideia de atribuir a eles responsabilidades críticas.

Esse ceticismo pode apontar o destino da atual onda de investimentos em IA. A “primavera da IA” das décadas de 1960 e 1970 foi seguida por um “inverno”, quando o financiamento e o entusiasmo declinaram. Uma nova explosão nos anos 1980, com os “sistemas especialistas”, logo desapareceu. Cada década parece ter tido sua fase de boom e queda.

A IA é realmente ameaçadora? Mesmo os alertas apocalípticos sobre seus perigos e a necessidade de regulamentação podem ser campanhas de marketing disfarçadas, com o objetivo de convencer o público de que a IA é poderosa de forma única (e segura se usada “responsavelmente”).

Curiosamente, Sam Altman, CEO da OpenAI, fez lobby para que a União Europeia não “superregulasse” o setor. As regulamentações da UE, no entanto, abordam questões como perda de empregos, privacidade e direitos autorais.

Alguns desses pontos estão entre as preocupações das greves de roteiristas e atores em Hollywood, que temem perder empregos para bots de IA que produtores e executivos acreditam que o público não conseguirá diferenciar de produções humanas.

O que muitos empreendedores de IA ignoram, assim como seus predecessores, é o quão difícil será passar da classe atual de chatbots para uma inteligência verdadeiramente artificial.

A visão da inteligência humana como resultado das cem trilhões de conexões neurais no cérebro leva alguns pesquisadores a crerem que, ao alcançar essa escala, suas máquinas tornar-se-ão conscientes. Mas o último desafio da IA – alcançar a inteligência e, muito menos, a consciência – pode ser impossível: os próprios pesquisadores ainda não chegaram a um consenso sobre o que define inteligência ou onde localizar a consciência.

Os chatbots têm um papel legítimo em nossas vidas? A resposta é sim, se os enxergarmos como ferramentas de aprendizado, não como substitutos. Professores preocupam-se com o uso dos bots para fraudes, mas, com o tempo, eles adotarão métodos para detectar plágio, comparando o trabalho com o que sabem sobre seus alunos e rejeitando o que parece artificial ou contém erros detectáveis.

O ChatGPT pode ajudar estudantes, escritores, advogados e médicos a organizar grandes quantidades de informações para obter clareza ou gerar novas ideias. Ele pode ser útil, assim como a Wikipedia é um bom ponto de partida para uma pesquisa, mas não deveria ser o único recurso consultado.

Adaptado de: https://www.latimes.com/business/story/2023-07-13/column-artificial-intelligence-chatbots-are-spreading-fast-but-hype-about-them-is-spreading-faster