Uma máquina pensante não implica em subjugar

Vamos deixar de lado as narrativas apocalípticas

Vamos deixar de lado as narrativas apocalípticas

Thomas Hobbes descreveu o raciocínio como “nada além de calcular”, uma fórmula simples que se destaca como uma das grandes ideias da humanidade. Essa visão de que a racionalidade pode ser obtida através de processos físicos de cálculo ganhou força no século XX com Alan Turing, que demonstrou que máquinas simples poderiam realizar qualquer tarefa computável. Pesquisas subsequentes confirmaram que redes neurais simplificadas poderiam atingir feitos similares, aproximando-se das capacidades cognitivas humanas.

Com isso, os processos cognitivos do cérebro podem ser entendidos de forma física: (1) crenças equivalem a tipos de informação, (2) pensar é uma forma de computação, e (3) motivação funciona como um sistema de feedback e controle. Embora ignore críticas mais profundas, essa perspectiva fornece um modelo funcional e abrangente.

Essa ideia é revolucionária por dois motivos principais. Primeiro, ela permite uma explicação naturalista do universo, eliminando a necessidade de entidades sobrenaturais, como almas ou espíritos. Assim como Darwin mostrou que o criacionismo podia ser descartado ao observar a natureza, Turing e seus sucessores abriram caminho para que o estudo do pensamento humano se desvinculasse de noções espirituais.

Segundo, a teoria computacional da razão pavimentou o caminho para a inteligência artificial (IA), possibilitando a criação de máquinas capazes de pensar. Em teoria, seria possível projetar um sistema que igualasse ou até superasse a mente humana. Contudo, devemos refletir sobre a viabilidade econômica disso. Assim como o carro não imitou o cavalo em todas as suas características, a IA funcional não precisará replicar todas as nuances do comportamento humano. Um sistema projetado para prever epidemias ou conduzir veículos, por exemplo, não precisará se preocupar com aspectos como atração pelo outro ou aversão à carne estragada.

No entanto, os avanços na construção de máquinas mais inteligentes reacenderam temores sobre os riscos de nossa própria invenção. Na prática, os medos de que computadores possam sair de controle são exagerados, mais comparáveis ao pânico gerado pelo Bug do Milênio do que aos perigos concretos do Projeto Manhattan.

Ainda estamos longe de alcançar uma IA com inteligência no nível humano, e muitos dos avanços recentes divulgados não têm bases sólidas. É verdade que, no passado, especialistas subestimaram o ritmo das inovações, mas o oposto também ocorreu: houve previsões grandiosas sobre avanços tecnológicos, como carros movidos a energia nuclear ou colônias em Marte, que nunca se concretizaram.

Ademais, imaginar que engenheiros e roboticistas ignorariam medidas de segurança é absurdo. Não será necessário recorrer a novas leis de robótica ou filosofias complexas para proteger a humanidade; o bom senso empregado no design de produtos como eletrodomésticos e automóveis será suficiente. O receio de que a IA evolua rapidamente e se torne incontrolável ignora o fato de que avanços nessa área também incluirão o desenvolvimento de precauções eficazes.

Sobre a hipótese de uma IA deliberadamente desativar suas salvaguardas, devemos perguntar: com que objetivo? Muitos cenários distópicos projetam uma psicologia humana, baseada em arquétipos dominadores, sobre máquinas inteligentes. Contudo, inteligência significa apenas a capacidade de usar meios novos para atingir objetivos, e esses objetivos não são intrínsecos à inteligência em si, mas definidos externamente.

Ser inteligente não implica em desejar algo. Tirania e psicopatia são características raras moldadas pela evolução em uma espécie específica de primata, e não há qualquer evidência de que sistemas inteligentes replicariam esses traços. Curiosamente, poucos tecnoprofetas consideram que a IA poderia evoluir alinhada a padrões mais cooperativos, como os tradicionalmente associados a comportamentos “femininos”: eficazes na resolução de problemas, mas sem tendências destrutivas.

Embora seja possível imaginar cenários onde humanos mal-intencionados criem robôs para fins destrutivos, concretizar tais ideias exigiria uma combinação improvável de fatores: um indivíduo maligno com genialidade técnica, uma equipe leal e competente, ausência de falhas e total sigilo. Embora não seja impossível, há questões mais urgentes a serem resolvidas no presente. Quando deixamos de lado as narrativas apocalípticas da ficção científica, a perspectiva de avanços na inteligência artificial se torna empolgante e cheia de possibilidades positivas.

Referências:
Steven Pinker, Thinking does not imply subjugating – em What to think about machines that think, org. John Brockman. Harper Perennial. 2015