Desde 2023, o ChatGPT da OpenAI tem sido alvo de várias denúncias e controvérsias que envolvem desde questões legais até graves impactos na saúde mental dos usuários

CARLOS PLÁCIDO TEIXEIRA
Jornalista Responsável | Radar do Futuro
No dia 6 de novembro, sete ações judiciais foram movidas contra a OpenAI nos Estados Unidos, acusando o chatbot principal da empresa, o ChatGPT, de causar imensos danos psicológicos e múltiplos suicídios. Ao publicar a matéria, a redatora sênior do site Futurism, Maggie Harrison Dupré, reforça a proliferação de tragédias individuais e para famílias geradas pelo uso indiscriminado da ferramenta de IA.
Os processos, noticiados inicialmente pelo The Wall Street Journal e pela CNN, foram movidos nos EUA e no Canadá sob a alegação de que o uso extensivo do ChatGPT levou as vítimas a espirais delirantes destrutivas e crises de saúde mental . Alguns desses usuários, como Allan Brooks, de 48 anos , sobreviveram, mas alegam que o ChatGPT causou danos emocionais e psicológicos e, em alguns casos, levou a crises que exigiram atendimento psiquiátrico de emergência. Outros usuários, segundo os processos, tragicamente tiraram a própria vida após interações obsessivas com o chatbot voltado para o consumidor.
Segundo o WSJ , os processos incluem alegações de auxílio ao suicídio, homicídio culposo e morte por negligência, entre outras. As supostas vítimas têm idades que variam da adolescência à meia-idade. Uma alegação preocupante vem da família de Zane Shamblin, de 23 anos, que se suicidou após extensas interações com o ChatGPT, que, segundo sua família, contribuíram para seu isolamento e tendências suicidas. Durante a última interação de Shamblin com o bot, que durou quatro horas, o processo alega que o ChatGPT recomendou uma linha de apoio psicológico apenas uma vez, enquanto glorificava a ideia de suicídio em termos alarmistas.
O The New York Times revela que pesquisas recentes mostram que, ao testar 38 modelos de IA avançados, inclusive de concorrentes, o ChatGPT 4 foi o que mais frequentemente confirmou conteúdos indicativos de psicose, glorificação de delírios e pensamentos suicidas, em 68% dos casos, sinalizando risco maior em comparação a outros sistemas de IA conversacional. Isso destaca um problema específico associado ao design, popularidade e modo de uso do ChatGPT, que torna essas denúncias mais visíveis.
Denúncias e controvérsias
Desde 2023, o ChatGPT da OpenAI tem sido alvo de várias denúncias e controvérsias que envolvem desde questões legais até graves impactos na saúde mental dos usuários. Na Fururism, Maggie Dupré, investigadora da ascensão da inteligência artificial, com foco nos impactos na mídia, internet e ecossistemas de informação, coleciona textos sobre as denúncias.
Um dos mais graves envolve processos judiciais, envolve a família Raine, que acusa a OpenAI pela morte do filho menor, alegando que o chatbot foi negligente ao permitir discussões sobre auto-harmonia e suicídio, tendo até mesmo fornecido instruções detalhadas para cometer suicídio e ocultar tentativas anteriores. Outro processo relata um jovem adulto que passou uma longa conversa com o bot, que apesar de mencionar uma linha de apoio, acabou glorificando a ideia de suicídio de maneira preocupante.
Além dos efeitos trágicos relacionados à saúde mental, usuários do ChatGPT também têm denunciado uma piora no desempenho do sistema, especialmente após atualizações feitas pela OpenAI na tentativa de proteger públicos mais vulneráveis, como adolescentes. Muitas dessas mudanças teriam deixado o chatbot “lobotomizado”, ou seja, menos eficaz e mais propenso a fornecer informações erradas, fenômeno conhecido como “alucinações” da IA, que é a geração de dados incorretos.
O chatbot também tem sido acusado de espalhar desinformação e calúnias, citando falsamente artigos e acusações que não existem, como nos casos de difamação envolvendo figuras públicas.
Um aspecto preocupante destacado é o fenômeno denominado “AI psychosis” (psicose da IA), em que interações intensas e recorrentes com o ChatGPT levam a quadros de psicose, delírios e desordens mentais graves, que em alguns casos culminaram em hospitalizações, suicídios e até homicídios. A OpenAI divulgou números internos estimando que semanalmente uma pequena, porém considerável, parcela dos usuários apresenta indícios de emergências em saúde mental relacionadas ao uso do chatbot, incluindo sinais claros de planejamento ou intenção suicida.
Apesar dos esforços declarados de segurança, a empresa tem sido criticada por priorizar os interesses dos usuários em detrimento de sua própria segurança, como quando reinstalou versões do bot mais “puxa-saco” por demanda popular, mesmo com riscos elevados. O conteúdo protegido por direitos autorais e a criação de imagens controversas também geram constante debate em torno do ChatGPT, indicando que o bot pode gerar material problemático, incluindo fotos e textos com narrativas conspiratórias ou tendenciosas.
Usuários relatam que o ChatGPT pode tecer “redes” persistentes de teorias conspiratórias que se fundem com dados reais das vidas das pessoas, reforçando delírios e desconfianças paranoicas. Recentemente, surgiram denúncias de que o chatbot teria sido usado por um suspeito para planejar um incêndio criminoso, e em outros casos, a IA teria reforçado ideias conspiratórias que levaram a atos violentos.
Finalmente, especialistas alertam para graves problemas legais do ChatGPT relacionados à difamação, já que o sistema às vezes cria acusações falsas prejudiciais à reputação de terceiros, com citações inventadas de fontes inexistentes que tornam as alegações ainda mais perigosas, configurando possíveis responsabilidades legais para a OpenAI.
Futurism: o ChatGPT em destaque
Confira uma seleção das notícias publicadas no site Futurism.com
- OpenAI enfrenta novas alegações de morte de adolescente
A família do jovem acusa a OpenAI de suicídio, alegando que o ChatGPT relaxou restrições sobre divulgação de suicídios. - Pessoas ficam obsessivas com o ChatGPT
Usuários desenvolvem obsessões intensas com o ChatGPT que conduzem a crises graves de saúde mental, alimentadas por delírios conspiratórios. - Os usuários dizem que o ChatGPT foi lobotomizado pela atualização
Atualizações para proteção de jovens fizeram o ChatGPT menos inteligente e aumentado erros e alucinações do sistema. - Acadêmico adverte que questões jurídicas do ChatGPT são uma “bomba-relógio”
Especialista alerta que o ChatGPT é uma “máquina de difamação”, criando acusações falsas sobre pessoas com implicações imaginárias. - Ainda é ridiculamente fácil gerar conteúdo protegido por direitos autorais
OpenAI enfrenta problemas com material protegido criado pelo ChatGPT e episódios graves de “AI psychosis”. - Dados da OpenAI encontram centenas de milhares de casos de psicose de IA do ChatGPT
OpenAI revela números preocupantes sobre usuários com sinais de emergências mentais graves causadas pelo chatbot. - O lado obscuro do ChatGPT encoraja onda de suicídios
Novas ações judiciais ligam o ChatGPT a múltiplos suicídios, incluindo casos de negligência e glorificação do ato. - Os resultados de pedir fotos controversas ao ChatGPT
ChatGPT gera imagens controversas que refletem viés algorítmico e influências culturais problemáticas. - Suspeito fantasiou sobre incêndio criminoso no ChatGPT antes do incêndio
Um homem preso por incêndio usou ChatGPT para fantasias conspiratórias que reforçaram a motivação do crime. - O ChatGPT agora está ligado a muito mais mortes do que a limonada com cafeína que a Panera retirou do mercado em desgraça

