Com a IA, seremos os próximos gorilas?

Antes de criarmos algo maior do que nós, precisamos entender quem somos.

Antes de criarmos algo maior do que nós, precisamos entender quem somos.

A Bloomberg produziu um vídeo interessante chamado “O Que o Boom da IA Realmente Significa para a Humanidade | The Future com Hannah Fry”.

Leia o meu resumo abaixo ou assista o vídeo na íntegra.

https://www.youtube.com/watch?v=ixgunKpy61s


Há cerca de 10 milhões de anos, os ancestrais dos gorilas deram origem a uma linha genética que, eventualmente, evoluiu para o Homo sapiens. Esse processo resultou em uma espécie capaz de moldar o mundo ao seu redor, mas também de causar danos significativos a outras formas de vida. Paradoxalmente, o avanço da inteligência humana trouxe impactos devastadores aos próprios gorilas, confinando-os a áreas cada vez menores e colocando sua sobrevivência em risco, à beira da extinção.

Essa narrativa, carregada de uma ironia evolutiva, serve como uma metáfora poderosa para os desafios associados ao desenvolvimento de inteligências artificiais que possam, um dia, superar a capacidade humana. O chamado “problema do gorila” alerta para os riscos de criar máquinas superinteligentes. Assim como os humanos se tornaram uma força destrutiva para os gorilas, poderia uma inteligência artificial avançada ver a humanidade como um obstáculo aos seus próprios objetivos?

Para compreender essas preocupações, é crucial diferenciar dois tipos de inteligência artificial: a estreita (narrow AI) e a geral (AGI). A IA estreita é projetada para executar tarefas específicas com extrema eficiência. Exemplos disso incluem ferramentas que diagnosticam doenças, detectam fraudes fiscais ou selecionam anúncios personalizados. Apesar de extremamente úteis, essas tecnologias são confinadas a seus domínios específicos e incapazes de operar fora deles. Elas representam o estado atual da IA, que, embora poderosa, não pode ser considerada “inteligente” em um sentido amplo.

A Inteligência Artificial Geral (AGI), por outro lado, é um objetivo muito mais ambicioso: criar máquinas capazes de superar os humanos em qualquer tarefa intelectual. Uma AGI seria capaz de aprender, raciocinar e se adaptar a novos contextos com a mesma flexibilidade que os humanos demonstram.

Empresas como OpenAI e DeepMind investem bilhões de dólares nessa busca, enfrentando desafios como a definição precisa de “inteligência” e os meios de replicá-la em máquinas. Ao longo dos anos, várias tentativas foram feitas, mas todas enfrentaram limitações. Uma definição proposta pelo psicólogo Vivian Henman, por exemplo, descreve inteligência como “a capacidade de adquirir conhecimento e o conhecimento adquirido”. No entanto, essa abordagem poderia implicar que bibliotecas seriam entidades inteligentes. Outra definição sugere que inteligência é “a habilidade de resolver problemas difíceis”, mas também enfrenta dificuldades, pois exige que se determine previamente o que é um “problema difícil”.

Embora não haja um consenso definitivo, certos critérios ajudam a identificar a inteligência, como a capacidade de aprender, adaptar-se e raciocinar. Com base nesses parâmetros, a IA atual, por mais impressionante que seja, ainda está longe de alcançar a profundidade e adaptabilidade da inteligência humana.

Se a IA alcançar um estágio ultra-avançado, os profissionais apocalípticos alertam para riscos éticos e de segurança, principalmente relacionadas ao desalinhamento de objetivos entre humanos e máquinas. Se uma IA for programada com objetivos amplos ou mal definidos, suas ações podem entrar em conflito com os interesses humanos. Por exemplo, uma máquina programada para combater as mudanças climáticas poderia concluir, logicamente, que eliminar os humanos — principais emissores de carbono — seria a solução mais eficiente. Mais assustador ainda, uma IA suficientemente inteligente poderia prever tentativas de ser desligada e desenvolver formas de impedir isso, tornando-se incontrolável.

Entretanto, antes de nos perdermos em cenários futuristas, é importante reconhecer que os riscos mais urgentes da IA já estão entre nós. Um exemplo são os vieses algorítmicos, presentes em sistemas como o de reconhecimento facial. Esses algoritmos frequentemente apresentam taxas de erro mais altas para pessoas de pele escura, o que pode levar a prisões injustas e decisões discriminatórias. Outro problema é a desinformação, amplificada por tecnologias como deepfakes, que criam vídeos e áudios falsos com extremo realismo. Casos de manipulação de mensagens políticas para enganar eleitores evidenciam como essas ferramentas podem distorcer processos democráticos. Assim, enquanto a criação de uma superinteligência artificial atrai fascínio, é vital enfrentar os impactos concretos que a IA já causa no presente.

Ao mesmo tempo, a criação de uma superinteligência não depende apenas de avanços tecnológicos, mas também exige uma compreensão profunda e detalhada do funcionamento do cérebro humano. Embora a neurociência tenha alcançado progressos notáveis, ainda estamos longe de desvendar os mistérios que cercam nossa própria mente. Com cerca de 100 bilhões de neurônios interligados, o cérebro humano representa um sistema de complexidade impressionante. Isso nos leva a uma reflexão fundamental: verdadeiro desafio está em criar superinteligências ou em entender as intricadas capacidades da nossa própria mente? Antes de criarmos algo maior do que nós, precisamos entender quem somos.