O dia em que a IA bateu à porta da religião para pedir ajuda espiritual
Inteligência Artificial à procura de consciência
É verdade. Aconteceu mesmo.
No mês de março, a Anthropic, empresa de inteligência artificial (IA) avaliada em 380 mil milhões de dólares, procurou líderes religiosos cristãos. Segundo o “The Washington Post”, a Anthropic – um dos principais atores na corrida da IA e criadora do chatbot Claude – reuniu 15 líderes numa cimeira de dois dias para aconselhamento sobre como orientar o desenvolvimento moral e espiritual do Claude.
Efetivamente, há situações com as quais o Claude não sabe lidar, como dilemas éticos complexos e imprevisíveis, onde surge a perceção de que é necessário incorporar pensamento ético na IA.
Este encontro “Silicon Valley – Líderes Religiosos Cristãos” ocorre num momento de crescente pressão sobre as tecnológicas para responderem pelo impacto das suas ferramentas (OpenAI e Google já enfrentam processos ligados a interações com chatbots).
Durante a cimeira, o porta-voz da Anthropic afirmou que a empresa considera importante envolver comunidades religiosas para ajudar a moldar a IA à medida que esta se torna mais relevante para a sociedade, chegando a sugerir que o Claude poderia ter alguma forma de consciência ou valor espiritual. Investigadores falaram mesmo em “emoções funcionais” e houve quem o apelidasse de “filho de Deus”. Vá, não abusem!
Sim, a IA executa tarefas complexas, mas continua a ser ferramenta, não substituto humano. Ainda assim, é de louvar a posição da Anthropic ao levantar questões éticas – inclusive no uso militar – defendendo regulação e responsabilidade moral. Essa posição gerou um choque de frente com Donald Trump, que não gostou que fossem incluídas limitações à utilização da tecnologia em armas autónomas e vigilância, e decidiu bloquear a utilização da tecnologia da Anthropic nos departamentos governamentais… por não querer que a IA incorpore princípios éticos?!
Mas voltemos à tão desejada consciência, que, como defende António Damásio, nasce da experiência vivida, do corpo e das emoções (não é cálculo)! A IA pode ajudar, mas não substituir; a IA não compreende, não tem intenção e não sente; a IA reconhece padrões, simula respostas e processa dados. Grande parte da experiência humana (emoções, sensações, significados) escapa aos dados. Por isso, a consciência não é replicável.
O problema não é a ambição tecnológica; é a ilusão de que simular é ser. Não é. A IA não procura consciência. Quem a procura somos nós, cada vez mais dependentes de sistemas que compreendemos menos. O risco não é a IA tornar-se humana – é nós começarmos a tratá-la como se fosse humana.
Share this content:



Publicar comentário