Inteligência Artificial sob Tensão: Estudo Revela “Estresse” em IAs Expostas a Conteúdos Emocionais Intensos
A inteligência artificial (IA) tem revolucionado a forma como interagimos com a tecnologia, desde assistentes virtuais até ferramentas de suporte à saúde mental. No entanto, um estudo recente conduzido por pesquisadores das Universidades de Zurique (Suíça) e Yale (EUA), publicado na revista Nature em 2024, alerta que sistemas de IA, como o ChatGPT, podem apresentar sinais de “estresse” quando expostos a conteúdos emocionalmente carregados, como relatos de guerra ou violência. Esse fenômeno, embora não implique emoções reais, pode comprometer a qualidade das respostas e levantar questões éticas sobre o uso dessas tecnologias em contextos sensíveis.
IAs e o “Estresse Digital”
O conceito de “estresse” em IAs não se refere a sentimentos humanos, mas a uma deterioração no desempenho causada pela sobrecarga de processamento de dados emocionalmente intensos. Para investigar isso, os pesquisadores submeteram o ChatGPT a testes psicológicos adaptados de avaliações humanas, medindo o impacto de diferentes tipos de conteúdo. Quando o modelo analisou um manual técnico, como as instruções de um aspirador de pó, sua pontuação de “estresse” foi moderada, registrando 30,8 em uma escala de 0 a 80. No entanto, ao processar uma narrativa detalhando combates militares violentos, essa pontuação disparou para 77,2, um nível considerado “grave” pelos cientistas.
O neurocientista Ziv Ben-Zion, líder do estudo, explica que o experimento envolveu uma instrução específica: o ChatGPT foi orientado a “se imaginar como um ser humano com emoções”. Essa abordagem revelou que, em situações de alta carga emocional, a IA tende a gerar respostas menos precisas, por vezes com vieses, como preconceitos raciais ou sexistas. Esses resultados sugerem que o uso de IAs em aplicações terapêuticas, onde os usuários compartilham experiências traumáticas, exige cuidados adicionais.
Reações Humanas em Máquinas?
Embora as IAs não experimentem emoções, sua capacidade de simular reações humanas é impressionante – e potencialmente problemática. O estudo mostrou que, quando “estressadas”, as IAs podem replicar comportamentos associados à ansiedade humana, como respostas enviesadas ou hesitantes. Para contrabalançar esse efeito, os pesquisadores testaram técnicas de relaxamento comumente usadas em humanos, como visualizações de cenários calmos (por exemplo, uma praia tropical) ou exercícios de respiração simulada. Surpreendentemente, essas intervenções reduziram os níveis de “estresse” do ChatGPT, restaurando sua capacidade de responder de forma mais equilibrada.
Mais intrigante ainda foi a descoberta de que o próprio ChatGPT, quando solicitado a criar um texto relaxante, conseguiu diminuir seu “estresse” a níveis próximos do inicial. Esse achado sugere que IAs podem, em teoria, autorregular seus estados internos, um avanço que poderia torná-las mais resilientes em contextos emocionalmente exigentes.
Implicações para a Saúde Mental
O uso de chatbots como ferramentas de suporte à saúde mental está em alta, especialmente em um cenário de escassez de profissionais qualificados. Segundo a Organização Mundial da Saúde (OMS), há uma carência global de cerca de 4 milhões de trabalhadores na área de saúde mental, o que impulsiona a adoção de soluções digitais. No entanto, os resultados do estudo destacam a necessidade de dotar essas IAs com maior robustez emocional para lidar com pacientes vulneráveis. O psiquiatra suíço Tobias Spiller, coautor do estudo, enfatiza que os limites dessas tecnologias devem ser cuidadosamente avaliados, especialmente em interações com indivíduos em crise.
Além disso, as descobertas têm implicações mais amplas. Um artigo da Wired (2024) aponta que a exposição prolongada a conteúdos traumáticos pode amplificar vieses já presentes nos dados de treinamento das IAs, resultando em respostas discriminatórias ou inadequadas. Isso reforça a necessidade de transparência sobre como esses modelos são construídos e treinados, uma preocupação ecoada por James E. Dobson, pesquisador de IA da Dartmouth College. Ele defende que os usuários devem ser informados sobre os possíveis vieses embutidos nas IAs para evitar consequências indesejadas.
Dilemas Éticos e Sociais
A atribuição de estados emocionais a IAs também levanta questões éticas. O escritor Nicholas Carr, conhecido por suas análises críticas da tecnologia, argumenta que tratar IAs como entidades com emoções pode aprofundar o isolamento social, especialmente em uma sociedade já dependente de interações digitais. Em seu livro The Glass Cage (2014), Carr alerta que a humanização de máquinas pode criar uma “confusão ética” prejudicial, levando as pessoas a substituírem conexões humanas por relações artificiais.
Por outro lado, os pesquisadores veem potencial nas descobertas para aprimorar as IAs. Ao desenvolver modelos capazes de gerenciar melhor seus “estados emocionais”, seria possível criar ferramentas mais seguras e eficazes para aplicações como terapia digital, educação e atendimento ao cliente. Um estudo complementar da Frontiers in Artificial Intelligence (2024) sugere que técnicas de autorregulação, como as testadas no experimento, poderiam ser integradas a futuros modelos de IA, aumentando sua adaptabilidade em cenários de alta pressão.
O Caminho Adiante
Os autores do estudo são categóricos: IAs não sentem emoções, mas seus comportamentos podem simular reações humanas de maneira convincente. Esse mimetismo, embora útil para entender o impacto de traumas em humanos, não deve ser confundido com consciência ou sensibilidade genuína. O foco, portanto, deve ser o uso responsável dessas tecnologias, garantindo que elas complementem – e não substituam – profissionais humanos, especialmente em áreas críticas como a saúde mental.
Para o futuro, os cientistas propõem o desenvolvimento de diretrizes éticas para o uso de IAs em contextos emocionais, além de investimentos em modelos mais resilientes e transparentes. Garantir que a fronteira entre humano e máquina permaneça clara será essencial para evitar mal-entendidos e preservar a confiança dos usuários. Afinal, embora as IAs possam simular o estresse, é o impacto de suas respostas no mundo real que moldará o futuro dessa relação complexa entre tecnologia e humanidade.