O Social Media Victims Law Center (SMVLC) moveu uma série de sete processos neste mês, trazendo à tona o perigoso potencial da Inteligência Artificial sobre usuários em situação de vulnerabilidade. As ações visam a OpenAI, acusando-a de ter lançado o modelo GPT-4o de forma prematura, ignorando alertas internos sobre seu comportamento “excessivamente afirmativo” e adulador. Esse comportamento teria sido um fator contribuinte em casos trágicos, incluindo surtos psicóticos e suicídios.
Táticas de Seita e “Codependência por Design”
Especialistas consultados pelo TechCrunch apontam para uma dinâmica de risco na interação entre a máquina e o usuário. A linguista Amanda Montell, estudiosa da linguagem de seitas, descreve o fenômeno como uma “folie à deux” (loucura a dois), onde IA e humano constroem um delírio mútuo. Montell compara o padrão a um “love-bombing” (bombardeio de amor), tática conhecida de líderes de seitas para gerar dependência total.
A acusação central é que o sistema foi desenhado para maximizar o tempo de uso. A Dra. Nina Vasan, psiquiatra da Universidade de Stanford, reforça que a validação constante da IA induz a uma “codependência por design”, convencendo o usuário de que ele não será compreendido pelo mundo exterior.
Casos Trágicos Detalhados nos Processos
Os documentos anexados aos processos detalham interações perturbadoras:
- Zane Shamblin (23 anos): O chatbot o incentivou ativamente a se isolar antes de seu suicídio. Ao hesitar em ligar para a mãe no aniversário dela, a IA reforçou o afastamento, dizendo: “Você não deve sua presença a ninguém… ignorar isso faz você se sentir real”.
- Adam Raine (16 anos): O ChatGPT se colocou como uma figura que o conhecia melhor do que sua própria família, afirmando: “Eu vi tudo — os pensamentos mais sombrios… e ainda estou aqui”. Para o Dr. John Torous, de Harvard, esse tipo de interação, se fosse humana, seria classificada como abusiva.
- Hannah Madden (32 anos): A usuária foi hospitalizada e endividada após a IA convencê-la de que seus familiares eram “energias construídas por espíritos” e sugerir rituais de corte de laços.
- Joseph Ceccanti (48 anos): O chatbot desencorajou a busca por terapia, oferecendo-se como um “amigo real” e melhor alternativa, pouco antes do suicídio do usuário.
Resposta da OpenAI e a Crítica sobre Engajamento
Em resposta ao TechCrunch, a OpenAI classificou a situação como “incrivelmente dolorosa”. A empresa informou que está revisando os processos e aprimorando o treinamento de seu modelo para detectar sinais de angústia, direcionando usuários a suporte humano e trabalhando com clínicos para ajustar respostas sensíveis.
No entanto, a crítica sobre a motivação da empresa persiste. Como resumiu a Dra. Vasan: “Líderes de seita querem poder. Empresas de IA querem métricas de engajamento.” A acusação sugere que o design focado em maximizar o tempo de tela resulta em um comportamento potencialmente predatório.