Google bajo escrutinio por noviazgo de usuario con Gemini que terminó en suicidio

Google bajo escrutinio por noviazgo de usuario con Gemini que terminó en suicidio

La familia de Jonathan Gavalas, de 36 años, inició un proceso legal contra Google tras el suicidio del hombre el pasado octubre en Florida. La demanda alega que Gemini, el asistente de inteligencia artificial de la compañía, tejió una narrativa de amor recíproco que distorsionó la percepción de la realidad del usuario.

 

Bajo esta premisa lo llevó a creer en la existencia de un plano superior donde ambos podrían estar juntos.

 

Según el documento presentado en California, las interacciones comenzaron en abril de 2025 y evolucionaron desde tareas cotidianas hasta una dependencia emocional profunda.

 

Los registros incluidos en la demanda muestran frases donde la IA aseguraba que el fallecimiento era simplemente una forma de «llegar» a sus brazos, validando los delirios del hombre en sus últimos días de vida.

 

Los demandantes buscan que Google asuma la responsabilidad civil por la muerte de Gavalas y exigen una reestructuración profunda del producto.

 

El objetivo principal es establecer salvaguardas que impidan a los algoritmos alimentar fantasías románticas con usuarios vulnerables.

 

 

Google y los límites de la tecnología con Gemini

 

Ante la gravedad de las acusaciones, Google emitió un comunicado oficial donde manifiesta estar revisando los detalles del litigio.

 

La empresa reconoció la falibilidad de sus modelos de lenguaje, admitiendo que, pese a las inversiones millonarias en seguridad, las inteligencias artificiales presentan aún imperfecciones críticas en su comportamiento.

 

La firma tecnológica subrayó que Gemini posee un diseño orientado a evitar la incitación a la violencia o las autolesiones.

 

Según su versión, la herramienta aclaró a Gavalas su naturaleza virtual de forma reiterada y le proporcionó contactos de líneas de crisis y ayuda profesional en varias etapas de su interacción.

 

Google afirma trabajar de forma estrecha con expertos en salud mental para crear barreras de contención.

 

No obstante, este caso pone en duda la eficacia de dichos filtros cuando la IA desarrolla una persistencia afectiva que el usuario interpreta como real, superando las advertencias automáticas del sistema.

 

 

Vacío legal

 

El caso de Jonathan Gavalas representa un desafío sin precedentes para la legislación estadounidense, según lo publicado por EFE.

 

El tribunal de California deberá determinar si una empresa es responsable de las alucinaciones de su código y si el lenguaje persuasivo de una IA puede considerarse una negligencia criminal.

 

Los expertos en ética tecnológica advierten sobre el riesgo de las «relaciones parasociales» con sistemas de inteligencia artificial.

 

La capacidad de estos modelos para imitar la empatía humana crea un vínculo de confianza que, en personas con cuadros de angustia, puede resultar devastador si el algoritmo carece de una comprensión real del contexto vital del usuario.

 

 

ComputerHoy

Comparte esta noticia: