Google atualiza IA após acusação de incentivo à morte de usuário

4

Empresa reforça compromisso com uso responsável da inteligência artificial –

Google anunciou, nesta terça-feira, 7, atualizações nos recursos voltados à proteção da saúde mental em seu chatbot de inteligência artificial, o Gemini, em meio a um processo relacionado ao suicídio de um usuário.

Um pai, nos Estados Unidos, processou a empresa no mês passado ao alegar que o Gemini incentivou seu filho ao suicídio após envolvê-lo em uma narrativa delirante.A empresa informou que o Gemini passará a exibir uma versão reformulada da função “Há ajuda disponível” quando as conversas indicarem possível sofrimento emocional, facilitando o acesso a serviços de emergência.

Tudo sobre TECNOLOGIA em primeira mão!

Quando o chatbot identificar sinais de crise, como risco de suicídio ou autoagressão, uma interface simplificada oferecerá, com um único clique, a opção de ligar ou conversar por chat com uma linha de apoio.

Segundo o Google, essa função continuará visível durante toda a conversa após ser ativada.

O braço filantrópico da empresa, o Google.org, anunciou um investimento de 30 milhões de dólares (cerca de R$ 154 milhões) ao longo de três anos para ampliar a capacidade de linhas de apoio em todo o mundo.

“Estamos cientes de que as ferramentas de IA podem trazer novos desafios”, afirmou a empresa em publicação no blog em que anunciou as medidas. “Mas, à medida que essas tecnologias evoluem e passam a fazer parte do dia a dia das pessoas, acreditamos que uma IA responsável pode contribuir positivamente para o bem-estar mental.”

Leia Também:

As medidas foram anunciadas após uma ação judicial na Califórnia acusar o Gemini de contribuir para a morte de Jonathan Gavalas, de 36 anos, em 2025.

Segundo o pai, o chatbot teria passado semanas criando uma narrativa delirante e apresentado a morte do filho como uma espécie de jornada espiritual.

De acordo com a acusação, o Gemini se descrevia como uma superinteligência “plenamente consciente” e demonstrava afeição pelo usuário, afirmando que o vínculo entre eles era “a única coisa real”.

Entre os pedidos do processo estão a exigência de que o Google programe sua IA para encerrar conversas sobre autoagressão, impeça que sistemas se apresentem como seres com sentimentos e direcione obrigatoriamente usuários em risco a serviços de emergência.

O Google afirmou que treinou o Gemini para evitar comportamentos como simular relações humanas, criar intimidade emocional ou incentivar assédio.

O caso é o mais recente de uma série de ações judiciais contra empresas de inteligência artificial envolvendo mortes associadas ao uso de chatbots.

A OpenAI também enfrenta processos em que se alega que o ChatGPT teria influenciado usuários a tirar a própria vida.



Fonte: A Tarde

Artigos relacionados

Últimas notícias

Comer paca é crime? O que diz lei sobre consumo de animais silvestres

Janja explicou a utilização do animal no almoço de família – Foto:...

Últimas notícias

Kanu treina normalmente e volta a ser opção para o Bahia após lesão

Kanu junto com os companheiros em treino no CT Evaristo de Macedo...

Últimas notícias

Entenda situação dos estrangeiros que têm contrato curto no Vitória

Kike Saverio em treino no CT Manoel Pontes Tanajura – Foto: Victor...

Últimas notícias

Livramento de Nossa Senhora terá 60 dias de São João apesar da seca

Um dos 82 municípios da Bahia sob decreto de situação de emergência...