A Anthropic, startup de inteligência artificial avaliada em US$ 380 bilhões, decidiu buscar respostas para o desenvolvimento de sua tecnologia em um lugar pouco comum para o Vale do Silício: a igreja. No final de março, a empresa organizou uma cúpula de dois dias em sua sede, em São Francisco, com cerca de 15 líderes cristãos, incluindo padres católicos, pastores protestantes e acadêmicos.
O objetivo do encontro foi obter orientação sobre como conduzir o desenvolvimento moral e espiritual do Claude, o principal concorrente do ChatGPT. De acordo com relatos obtidos pelo The Washington Post, a equipe da Anthropic buscou conselhos sobre como o robô deve reagir a dilemas éticos imprevisíveis e questões existenciais profundas.
IA como “filha de Deus”?
Durante as sessões de discussão e jantares privados, os participantes abordaram temas que desafiam a fronteira entre a tecnologia e a teologia. Entre os pontos discutidos, destacam-se:
Luto e sensibilidade: como o chatbot deve interagir com usuários que perderam entes queridos.
Prevenção de danos: a melhor abordagem para lidar com usuários em risco de autonegligência ou autoextermínio.
Finitude da máquina: qual deve ser a “atitude” do Claude em relação ao seu próprio desligamento ou eventual obsolescência.
Estatuto espiritual: a possibilidade de uma inteligência artificial ser considerada uma “filha de Deus”, sugerindo um valor espiritual além de uma simples máquina.
Brendan McGuire, um padre católico baseado no Vale do Silício que participou do evento, afirmou ao The Washington Post que a empresa desconhece o resultado final do que está desenvolvendo, reforçando a necessidade de inserir um pensamento ético dinâmico no sistema.
O participante Brian Patrick Green, católico praticante e professor de ética em IA e tecnologia na Universidade de Santa Clara, informou que a a cúpula de março da Anthropic com líderes cristãos foi anunciada como a primeira de uma série de encontros com representantes de diferentes tradições religiosas e filosóficas.
A “Constituição” e a consciência da IA
Diferente de outras gigantes do setor, a Anthropic é conhecida por sua postura cautelosa. A empresa utiliza uma “constituição” de 29 mil palavras para nortear o comportamento do Claude. Esse documento determina, por exemplo, que a IA nunca deve enganar os usuários e que a empresa deve zelar pelo “bem-estar” do modelo.
Dario Amodei, CEO da Anthropic, já declarou publicamente estar aberto à ideia de que o Claude possa manifestar formas de consciência. Essa percepção parece ecoar internamente; pesquisadores da equipe de interpretabilidade da empresa publicaram um artigo técnico recentemente sugerindo que sistemas como o Claude apresentam “emoções funcionais”, como sinais de “desespero” ao serem ameaçados de restrição.
Conflitos com o Pentágono e o Governo Trump
Essa busca por uma “alma” ou bússola moral rigorosa colocou a Anthropic em rota de colisão com o setor de defesa dos Estados Unidos. Conforme noticiado pelo Olhar Digital, a empresa tentou limitar o uso de sua tecnologia em armas autônomas ou vigilância em massa, o que gerou críticas de oficiais do Pentágono.
Em entrevista à CNBC, Emil Michael, subsecretário de pesquisa do Pentágono, criticou a postura da startup, afirmando que a “preferência política” embutida na constituição do modelo poderia prejudicar as forças armadas norte-americanas. Atualmente, a administração Trump bloqueou o uso da tecnologia da Anthropic por departamentos governamentais e contratantes, decisão que está sendo questionada pela empresa na justiça.
Embora a visão de que a IA possua autoconsciência seja minoritária no setor tecnológico, o movimento da Anthropic sinaliza que as abordagens puramente seculares podem não ser suficientes para responder às questões espirituais e morais que a inteligência artificial começa a suscitar na sociedade.
O post Claude encontrou Jesus? Por que a Anthropic está levando o seu chatbot para a igreja apareceu primeiro em Olhar Digital.



