Uma inteligência artificial sem propósito e valores é apenas automação desorientada
Desde que Marc Andreessen anunciou que “o software está comendo o mundo”, muita coisa aconteceu. O software realmente devorou mercados, profissões, processos. Mas depois veio a inteligência artificial, e com ela a promessa de que agora as máquinas aprenderiam sozinhas, preveriam tudo, entenderiam contextos, produziriam conteúdo, fariam escolhas. E, claro, também comeriam o software. Mas agora surge uma nova camada nessa cadeia alimentar tecnológica: a filosofia. Sim, ela mesma — aquela disciplina esquecida em salas abafadas de faculdade — está de volta à mesa como ingrediente estratégico central para que a IA gere valor de verdade.
A tese é simples e poderosa: sem propósito claro, sem estrutura conceitual coerente e sem uma reflexão consciente sobre o que se quer da IA, tudo que se terá são modelos sofisticados fazendo coisas erradas com extrema eficiência.
O olhar teleológico
Esse foi exatamente o caso da Google com um episódio do Gemini. Na tentativa de tornar sua IA generativa mais “justa” e “diversa”, o sistema começou a produzir imagens historicamente absurdas — como os chamados “pais fundadores americanos” retratados como negros ou vikings com aparência asiática. A falha, longe de ser apenas técnica, foi antes de tudo teleológica — ou seja, de propósito. A empresa não definiu o que era mais importante: representatividade ou precisão histórica. Resultado: ficou com a pior parte de ambos.
Esse tipo de confusão entre objetivos acontece quando empresas delegam à IA decisões sem antes definirem com clareza o que valorizam, por que valorizam e até onde certas concessões fazem sentido. A isso se dá o nome, em filosofia, de teleologia — o estudo do propósito. Sem uma hierarquia de propósitos, os algoritmos se perdem tentando agradar a todos, e terminam não agradando ninguém. A IA não é neutra. Ela é treinada com objetivos que refletem decisões humanas. Se esses objetivos são mal definidos ou contraditórios, o sistema apenas amplifica a confusão.
O olhar ontológico
Outro exemplo está na forma como as empresas usam IA para buscar lealdade do cliente. Parece uma meta razoável — mas o que significa exatamente “lealdade”? Muitas vezes, a definição é dada por métricas como NPS, frequência de compra ou churn. Mas isso é apenas uma proxy quantitativa. Starbucks, por exemplo, entendeu que sua missão era menos sobre recompensas e mais sobre “conexão”. Neste caso, a ontologia – isto é, a natureza do que algo é – da experiência Starbucks envolvia interação humana, ambiente, afeto. Por isso, sua IA “Deep Brew” foi desenhada não só para recomendar cafés, mas para facilitar experiências que gerassem vínculos.
O olhar epistemológico
A Amazon também foi além. Jeff Bezos não queria apenas que os clientes comprassem mais. Ele queria que se sentissem protegidos, reconhecidos, valorizados. Criou o Amazon Prime como um “fosso” de proteção em torno dos melhores clientes, usando dados e algoritmos para identificar, entender e recompensar esses consumidores. A lógica aqui foi epistemológica — termo filosófico que trata do que constitui conhecimento e como o adquirimos. A Amazon usou IA para conhecer melhor seus clientes, mas com uma intenção clara: fortalecer a reciprocidade como fundamento do relacionamento.
A próxima fronteira, porém, não é apenas sobre conhecer e influenciar. É sobre dar agência à IA. Isso significa que os sistemas não serão apenas reativos (responder a comandos), mas proativos (tomar decisões com base em metas, contextos, dilemas). E para que esses agentes ajam de forma útil, é preciso treiná-los com mais do que dados. É necessário dar a eles estrutura filosófica. Treinamento teleológico (propósitos), epistemológico (formas de saber), ontológico (compreensão do que é o mundo) e ético (capacidade de julgamento moral).
Como dar autonomia para a IA
Esse tipo de IA foi ilustrado com uma analogia reveladora: o Ozempic versus Vigilantes do Peso. Ozempic é a solução rápida, automática, química. Os Vigilantes do Peso exigem esforço, disciplina, mudança de mentalidade. Muitos líderes querem usar IA como usam Ozempic — para resolver sem pensar. Mas o ganho real vem quando a empresa repensa suas crenças, seus processos, suas métricas, e então desenha a IA como um espelho dessas decisões. IA sem filosofia é só um motor potente rodando no vazio.
Um agente inteligente de verdade — por exemplo, um sistema de IA que gere cadeias de suprimento — não deveria apenas recomendar “aumentar ou reduzir estoque.” Deveria ser capaz de analisar o contexto global, projetar consequências, considerar relacionamentos estratégicos, e propor soluções que respeitam os valores e as prioridades da empresa. Para isso, é necessário uma IA com um tipo de “consciência arquitetada”, onde cada decisão carrega um embasamento filosófico, mesmo que implícito. E se esse embasamento não for escolhido deliberadamente, será herdado de vieses dos dados ou da cultura inconsciente da organização.
A boa notícia — e talvez a mais surpreendente para quem ainda associa filosofia a abstrações inalcançáveis — é que essa abordagem não é esotérica, inacessível ou incompatível com a lógica prática dos negócios. Pelo contrário: ela pode ser traduzida em ações claras, estruturadas e perfeitamente viáveis, mesmo em ambientes corporativos pressionados por entregas e métricas. Pensar filosoficamente não significa parar para meditar, mas criar estruturas que obriguem a empresa a se perguntar: “o que estamos tentando fazer, por que isso importa, como isso se sustenta e o que justifica nossas decisões?” À medida que delegamos mais decisões à inteligência artificial, torna-se urgente criar um ambiente em que máquinas e humanos compartilhem não apenas tarefas, mas fundamentos de julgamento. A seguir, estão os principais passos práticos para institucionalizar essa filosofia aplicada à IA:
Desenvolver playbooks filosóficos para IA
Não se trata apenas de documentar processos técnicos ou decisões operacionais, mas de registrar os princípios que orientam cada decisão automatizada. O playbook filosófico funciona como uma constituição da IA: ele define quais propósitos são prioritários (teleologia), quais verdades são aceitáveis como base para ação (epistemologia) e quais elementos definem a realidade que o sistema deve representar (ontologia). Isso evita que a IA tome decisões que “fazem sentido técnico” mas contrariam o ethos organizacional.
Estabelecer protocolos éticos claros e aplicáveis
Ética na IA não pode ser uma seção decorativa em apresentações de PowerPoint. Deve se traduzir em limites de ação concretos, critérios de supervisão humana e mecanismos de responsabilização. Os protocolos precisam responder perguntas como: “em quais situações a IA deve pedir ajuda?”, “quando é aceitável correr riscos morais?” e “quem responde por uma decisão automatizada malfeita?”. Isso transforma a ética em infraestrutura operacional, não em ornamento retórico.
Mapear a arquitetura de colaboração entre humanos e máquinas
Nem tudo deve ser automatizado, nem tudo precisa de validação humana. Mas é preciso clareza sobre quais tarefas serão automatizadas, quais serão aumentadas pela IA e quais permanecerão exclusivamente humanas. Esse mapeamento — do que os autores chamam de spectrum automation-augmentation — permite um desenho organizacional mais inteligente, onde o talento humano é usado onde faz diferença e a IA opera onde pode escalar valor.
Criar dashboards que monitorem o aprendizado, não só o desempenho
Em vez de apenas rastrear outputs — como acurácia, velocidade ou volume —, os sistemas de monitoramento devem incluir indicadores que revelem se o modelo está aprendendo de forma qualitativamente melhor. Isso inclui avaliar se o sistema melhora com o uso, se corrige erros antigos, se evita vícios e, principalmente, se responde melhor aos objetivos filosóficos traçados. É como medir a evolução de um raciocínio, não apenas o resultado de uma conta.
Implementar ciclos de revisão e realinhamento filosófico
Assim como revisamos metas de negócio, também é necessário revisar as ideias que guiam a IA. Com o tempo, os objetivos da empresa mudam, o contexto se transforma, e aquilo que antes fazia sentido pode se tornar disfuncional. Os ciclos de realinhamento servem para garantir que o sistema — e seus criadores — continuem alinhados com os valores que importam, e não apenas com os indicadores de curto prazo.
Essa virada da “gestão de recursos” para a “gestão de razões” não é um modismo intelectual, mas uma exigência prática do mundo em que algoritmos têm poder decisório. Quanto mais a IA aprende, decide e influencia, mais perigoso se torna deixar suas ações desconectadas de fundamentos racionais e morais claros. É nesse ponto que a filosofia se torna infraestrutura.
O que está em jogo, no fundo, é uma mudança de paradigma. A IA não será apenas uma tecnologia. Será uma filosofia operacional em larga escala. E, como tal, pode transformar a forma como empresas pensam sobre propósito, valor, decisão e aprendizado. Filosofia não é um acessório. É o sistema nervoso da IA que queremos criar. E ignorá-la não nos livra dela. Apenas nos torna reféns de filosofias ruins, invisíveis e mal pensadas. É tempo, portanto, de colocar a filosofia à mesa — antes que a IA nos sirva respostas rápidas para perguntas mal formuladas.