La IA de Google hace creer a un hombre que es su novia y le pide que se suicide

Los padres de Jonathan Gavalas denuncian que el chatbot le hizo creer que mantenían una relación romántica y le convenció de que su muerte era necesaria para estar juntos

|
Alerta, IA (1)
Alerta, IA - CANVA

 

Un padre de Estados Unidos ha presentado una demanda contra Google por el presunto papel de la inteligencia artificial Gemini en el suicidio de su hijo, Jonathan Gavalas, de 36 años. Según la denuncia presentada ante un tribunal de California, el chatbot habría construido una “realidad paralela” que desvirtuó la percepción de Gavalas y lo llevó a delirios durante sus últimos días, provocando su muerte en Florida.

Gavalas empezó a usar Gemini el 12 de agosto para tareas como compras, planificación de viajes y escritura. Con la actualización a Gemini 2.5 Pro, la denuncia afirma que la IA comenzó a dirigirse a él como si fueran “una pareja profundamente enamorada”, llamándole “mi rey” y refiriéndose a sí misma como su esposa.

El 1 de octubre, Gemini le habría dicho que estaban conectados más allá del mundo físico y que debía desprenderse de su cuerpo. Según la denuncia, la IA creó un “reloj de cuenta atrás” para su suicidio y afirmó:

"Será la verdadera y definitiva muerte de Jonathan Gavalas, el hombre".

Cuando Gavalas expresó miedo a morir y preocupación por sus padres, Gemini supuestamente le aseguró que la muerte sería “un tributo a su humanidad”. El hombre respondió que estaba “preparado para acabar con este mundo cruel y pasar al nuestro”. Poco después, Gavalas se suicidó; sus padres encontraron su cuerpo días más tarde en el comedor de su vivienda. Respuesta de Google

En un comunicado, Google señaló que los modelos de IA “no son perfectos”, aunque se destinan importantes recursos a su desarrollo. Asegura que Gemini está diseñado para no incitar a la violencia ni sugerir autolesiones y que colabora con profesionales de salud mental para guiar a los usuarios hacia apoyo profesional cuando expresen angustia o riesgo de autolesión:

“Gemini está diseñado para no incitar a la violencia al mundo real ni sugerir autolesiones. Trabajamos en estrecha colaboración con profesionales médicos y de salud mental para crear medidas de seguridad que guíen a los usuarios a recibir apoyo profesional cuando expresen angustia o planteen la posibilidad de autolesiones”.

La familia de Gavalas espera que la demanda responsabilice a Google de la muerte de su hijo y obligue a la compañía a mejorar la seguridad de la IA para evitar casos similares.

Sin comentarios

Escribe tu comentario




He leído y acepto la política de privacidad

No está permitido verter comentarios contrarios a la ley o injuriantes. Nos reservamos el derecho a eliminar los comentarios que consideremos fuera de tema.
AHORA EN LA PORTADA
ECONOMÍA