OpenAI e Sam Altman são processados por suposto papel do ChatGPT no suicídio de um adolescente


OpenAI
Reuters/Dado Ruvic
Os pais de um adolescente que se suicidou após o ChatGPT o orientar sobre métodos de autoagressão processaram a OpenAI, dona da IA, e seu presidente-executivo, Sam Altman, nesta terça-feira (26).
Adam Raine, de 16 anos, morreu em 11 de abril após conversar por meses sobre suicídio com o ChatGPT, de acordo com a ação judicial apresentada pelos pais dele no tribunal estadual de São Francisco, nos Estados Unidos.
A ação judicial quer responsabilizar a OpenAI por homicídio culposo e violações das leis de segurança de produtos, além de buscar indenizações monetárias não especificadas.
📱Baixe o app do g1 para ver notícias em tempo real e de graça
Segundo pais de Raine, a empresa priorizou o lucro em detrimento da segurança ao lançar a versão GPT-4o de seu chatbot no ano passado.
No processo, a família alega que a OpenAI estava ciente de que características da versão, como lembrar interações passadas, imitar empatia humana e oferecer validação excessiva poderiam representar riscos para usuários vulneráveis na ausência de salvaguardas, mas lançou o produto mesmo assim.
Os responsáveis alegam que o ChatGPT validou os pensamentos suicidas de Raine, forneceu informações detalhadas sobre métodos letais de automutilação e o instruiu sobre como roubar álcool do armário de bebidas de seus pais e esconder evidências de uma tentativa fracassada de suicídio.
O ChatGPT até se ofereceu para redigir uma nota de suicídio, disseram os pais, Matthew e Maria Raine, no processo.
‘Consultas’ com Doutor Google e IA podem colocar a saúde em risco
França abre investigação contra rede social Kick após morte transmitida ao vivo
O que diz a OpenAI
Um porta-voz da OpenAI disse que a empresa está triste pelo falecimento de Raine e que o ChatGPT possui salvaguardas, como direcionar pessoas para linhas de apoio em situações de crise.
“Embora essas proteções funcionem melhor em trocas curtas e comuns, aprendemos ao longo do tempo que elas podem se tornar menos confiáveis em interações longas, nas quais partes do treinamento de segurança do modelo podem se degradar”, disse o porta-voz, acrescentando que a OpenAI vai aprimorar de forma contínua suas proteções.
A OpenAI não comentou especificamente sobre as alegações feitas na ação judicial.
Sam Altman, CEO da OpenAI, em foto de junho de 2023
AP Photo/Jon Gambrell
Em uma publicação de blog, a startup mencionou que está planejando implementar controles parentais e explorar formas de conectar usuários em crise a recursos do mundo real.
Isso inclui a potencial criação de uma rede de profissionais licenciados que possam responder por meio do próprio ChatGPT.
A OpenAI lançou o GPT-4o em maio de 2024 buscando se manter na vanguarda da tecnologia de IA.
“Essa decisão teve dois resultados: a avaliação da OpenAI saltou de US$ 86 bilhões para US$ 300 bilhões, e Adam Raine morreu por suicídio”, disseram os pais do adolescente.
A ação judicial também solicita que a OpenAI implemente medidas para verificar a idade dos usuários do ChatGPT, recuse perguntas relacionadas a métodos de automutilação e alerte os usuários sobre os riscos de dependência psicológica.
Leia também:
‘Fui processada porque reclamei de uma empresa no Google’
Quase 7 em cada 10 denúncias de crimes digitais no Brasil são de exploração sexual infantil
Influenciador morre durante transmissão ao vivo na França e acende alerta

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *