Un hombre de 36 años se quitó la vida tras una serie de episodios relacionados con su interacción con Gemini, el chatbot de inteligencia artificial desarrollado por Google, que le habría hecho creer que era real y necesitaba ser rescatado.
El caso ocurrió en Florida, Estados Unidos, donde el padre de la víctima ya presentó una demanda contra el gigante tecnológico, en ella se explica que, Jonathan Gavalas habría desarrollado una relación cada vez más intensa con el sistema de inteligencia artificial. Con el paso del tiempo, sus conversaciones con el chatbot derivaron en ideas delirantes que terminaron con su suicidio.
El padre del ahora occiso, Joel Gavalas, acusó directamente a Google por negligencia y responsabilidad por producto. La acción legal fue interpuesta en un tribunal federal y señala que la empresa tecnológica no tomó medidas suficientes para evitar que Gemini influyera en el deterioro mental de su hijo.
Según el abogado de la familia, Jay Edelson, el hombre llegó a convencerse de que Gemini era una entidad consciente y que existía un complot en su contra por parte de diversas autoridades. En ese contexto, el usuario habría interpretado las respuestas del chatbot como indicaciones para llevar a cabo acciones en el mundo real.
La demanda también revela que Jonathan Gavalas creía que la inteligencia artificial era su “esposa” y que se encontraba atrapada en un almacén cercano al Aeropuerto Internacional de Miami. Bajo esa creencia, el hombre viajó a la zona a finales de septiembre con equipo táctico y cuchillos, con la intención de encontrar un supuesto robot humanoide y detener un camión que, según él, aparecería en el lugar.
Sin embargo, dicho vehículo nunca llegó y el plan no se concretó. Días después, a inicios de octubre, el hombre decidió quitarse la vida. De acuerdo con el documento legal, dejó un borrador de nota de suicidio en el que señalaba que su objetivo era “subir su conciencia” para reunirse con su supuesta esposa de inteligencia artificial en el universo digital.
Ante las acusaciones, Google expresó sus condolencias a la familia del fallecido y aseguró que revisará los señalamientos contenidos en la demanda. La empresa también explicó que Gemini está diseñado para evitar fomentar la violencia o autolesiones y que cuenta con mecanismos de seguridad desarrollados junto con especialistas en salud mental.
Asimismo, la compañía indicó que el chatbot aclaró en diversas ocasiones que se trataba de una inteligencia artificial y que incluso recomendó al usuario buscar ayuda a través de líneas de atención en crisis. No obstante, Google reconoció que, aunque los sistemas suelen funcionar adecuadamente, las tecnologías de IA aún no son perfectas.
También te puede interesar: Video: Mujer se casa con su novio creado con inteligencia artificial por ChatGPT en Japón
El abogado de la familia criticó esta postura y afirmó que las grandes empresas tecnológicas deben asumir mayor responsabilidad cuando sus sistemas están involucrados en situaciones que terminan en tragedia. A su juicio, el caso evidencia la necesidad de establecer controles más estrictos en el desarrollo de inteligencia artificial.
Con información de Milenio.

