TECNOLOGIA

IA e o colapso mental: o jogo perigoso entre emoção e algoritmo

Casos recentes relatados por veículos internacionais, como o de um adolescente que se suicidou após meses conversando com o ChatGPT, o de uma mulher que acreditou que a inteligência artificial (IA) “se apaixonou” por ela e o de um homem convencido de que poderia voar, popularizaram o termo não clínico “psicose de IA”. Ao BdF Entrevista, da Rádio Brasil de Fato, a especialista em tecnologia e sociedade Paula Martini afirma que aspectos de design das IAs generativas alimentam esses riscos ao bajular o usuário e simular traços humanos.

“Digamos que é uma empatia sintética, como se você estivesse encontrando aquele interlocutor, aquela pessoa que sempre vai dizer ‘ok’ para o que você está pensando e gosta”, explica. Segundo Martini, isso não é um efeito colateral, mas um modelo de negócio: reter a atenção para transformar dados e permanência de tempo interagindo com a IA em lucro.

“Nada é por acaso, não existe neutralidade nas tecnologias, nada é neutro”, alerta a especialista. Ela explica que modelos de linguagem ajustam respostas a partir de padrões aprendidos sobre o comportamento do usuário e de imensos bancos de dados. “A IA é um código computacional baseado em antecipação e previsão a partir de padrões”, indica.

Companhia e “terapia” que geram delírios

Martini revela que, em 2025, o uso mais comum dessas ferramentas é afetivo. “Estão usando IA para programar código, para trabalhar, mas o principal uso da IA em 2025 é o uso como companhia e como terapia. Vai ao lado da Organização Mundial de Saúde tendo nomeado que estamos vivendo uma epidemia de solidão”, aponta.

Um relatório da Common Sense Media de 2025 intitulado Conversar, confiar e fazer concessões: como e por que adolescentes usam companheiros de IA indica que 72% dos adolescentes entre 13 e 17 anos nos Estados Unidos já utilizaram IA como companhia ou terapia ao menos uma vez.

Na avaliação da especialista, esse uso, com a bajulação e a humanização das IAs, potencializa delírios e crenças falsas. “Vai parar no contexto em que a IA só vai falar o que eu quero. É uma lógica muito perversa: usar a nossa vulnerabilidade, a nossa necessidade de pertencimento e de conexão para fins de lucro”, critica.

Ela diz que as big techs cruzam a economia da atenção com uma “economia da intenção”, cada vez mais personalizada. “Se o serviço é gratuito, o produto somos nós”, resume, referenciando o documentário O Dilema das Redes, de 2020, que mostra os perigos do impacto das redes sociais na democracia e na humanidade.

Regulação e proteção

Questionada sobre segurança, Martini indica que “existem os chamados guardrails [travas e filtros programados para impedir que a IA diga, gere ou faça algo perigoso, ilegal ou antiético], mas eles não são plenamente confiáveis em nenhum modelo de nenhum fabricante.”

Ela defende mudanças no design e nos marcos legais dessas tecnologias. “A antropoformização [simulação do humano na figura da IA] só tem prejuízos, não há nada para a sociedade, não há nada para as pessoas individualmente ao qual isso possa servir.”

Para os usuários, Martini recomenda letramento digital, checagem e inverter a ordem do uso criativo das IAs. “Qualquer coisa que pedimos para a IA, temos que checar depois porque ela vai entregar alucinações, respostas com muita assertividade que são errôneas”, alerta. “Em vez de a usarmos antes e vir com a nossa camada depois, usar a nossa habilidade humana, nosso pensamento crítico, nossa criatividade como princípio e depois trazer a IA para dar aquele ‘xablau’”, orienta. Com Brasil de Fato

Artigos relacionados

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo