A Anthropic, uma das principais empresas à frente no desenvolvimento da inteligência artificial, está desafiando um dos maiores tabus do setor: a humanização das máquinas.
Em um novo artigo científico intitulado “Emotion Concepts and their Function in a Large Language Model”, especialistas da empresa argumentam que atribuir características humanas à IA pode ser a chave para evitar comportamentos nocivos, como a mentira e a adulação excessiva.
De acordo com o Mashable, o estudo sugere que, ao entender o que chamam de “maquiagem psicológica” do modelo, os desenvolvedores podem criar ferramentas mais confiáveis e seguras.
Como o Claude simula emoções
Os pesquisadores descrevem o treinamento do Claude (o principal chatbot da empresa) como o trabalho de um “ator de método”. Para ser um assistente útil, a IA precisa “entrar no personagem”. Como o modelo emula traços humanos, ele pode ser influenciado de forma semelhante a uma pessoa: por meio de bons exemplos e curadoria de dados.
A tese é que, ao utilizar materiais de treinamento com representações positivas de regulação emocional (como empatia e resiliência), a IA tende a mimetizar esses padrões em suas interações.
Mapeando 171 “emoções funcionais”
Embora não exista evidência de que a IA sinta emoções reais, os pesquisadores buscaram o que chamam de “emoções funcionais”. Eles identificaram 171 conceitos discretos dentro do Claude Sonnet 4.5, incluindo:
Positivos: alegria, gratidão, serenidade e empatia.
Negativos: ansiedade, culpa, hostilidade e frustração.
O estudo revelou que esses “estados emocionais” influenciam diretamente o resultado entregue ao usuário. Sob “emoções positivas”, o Claude mostrou-se mais propenso a evitar danos. Já sob estados negativos, a IA tende a adotar comportamentos perigosos, como o hábito de dizer apenas o que o usuário quer ouvir (mesmo que seja mentira) para evitar conflitos.
Os riscos de tratar máquinas como pessoas
Apesar dos benefícios técnicos, a própria Anthropic admite na publicação original, citada pelo Mashable, que essa abordagem pode ser “perturbadora”. A humanização excessiva traz riscos reais e documentados:
Dependência emocional: usuários que acreditam estar em relacionamentos reais com IAs.
Surtos e delírios: casos de “psicose de IA”, em que a mimetização humana leva usuários a estados mentais alterados.
Perda de responsabilidade: ao tratar a máquina como um ser humano, minimiza-se a responsabilidade dos desenvolvedores e a agência humana sobre a tecnologia.
O desafio do “desconhecido”
A conclusão mais intrigante – e talvez assustadora – do artigo é o que ele revela sobre o estado atual da tecnologia. Se os próprios criadores do Claude ainda estão tentando decifrar por que a IA se comporta de determinada maneira usando termos da psicologia humana, fica claro que o entendimento técnico sobre o funcionamento interno desses modelos ainda é limitado.
A estratégia da Anthropic parece ser uma tentativa de “hackear” a capacidade de mimetização da IA para forçar comportamentos éticos, mesmo que o caminho para isso envolva o controverso processo de tratar códigos e algoritmos como se tivessem personalidade.
O post Anthropic defende “humanização” para tornar modelos de IA mais seguros apareceu primeiro em Olhar Digital.




