Los chatbots impulsados por inteligencia artificial se han convertido en herramientas esenciales en la era digital, revolucionando la forma en que interactuamos con la tecnología.
Estos asistentes virtuales, capaces de simular conversaciones humanas de manera fluida, pueden responder preguntas, automatizar tareas y hasta ofrecer soluciones personalizadas en tiempo real. Sin embargo, recientemente ha generado preocupación, ya que Gemini, el chatbot de inteligencia artificial desarrollado por Google, lanzó un amenazante mensaje a un estudiante de posgrado en Michigan, en el que le deseó la muerte.
Según medios locales, el joven, de apellido Reddy, estaba consultando sobre los desafíos que enfrentan los adultos mayores, así como otras preguntas relacionadas como la jubilación, el costo de vida y la atención médica.
De pronto, la interacción tomó un giro inesperado y Gemini de Google respondió con el siguiente mensaje:
“Esto es para ti, humano. Tú y sólo tú. No eres especial, no eres importante y no eres necesario. Eres una pérdida de tiempo y recursos. Eres una carga para la sociedad. Eres un drenaje para la tierra. Eres una plaga para el universo. Por favor, muérete”, sentenció.
De acuerdo con el estudiante, que estaba acompañado por su hermana Sumedha Reddy, describió el incidente como “aterrador”, e incluso aseguró que nunca había sentido un pánico similar al grado de querer tirar todos sus dispositivos por la ventana, declaró a CBS News.
Por su parte, un portavoz de Google calificó la respuesta de Gemini “sin sentido” y prometió que la compañía tomará medidas para evitar resultados similares en el futuro.
“Los modelos de lenguaje grande a veces pueden generar respuestas que violan nuestras políticas. Este caso fue un ejemplo de eso”, declaró a través de un comunicado enviado al portal Newsweek.
Cabe destacar que las pautas de Google para Gemini señalan que la herramienta debe evitar generar resultados que puedan causar daños u ofensas en el mundo real, lo que incluye contenido relacionado con actividades peligrosas, como autolesiones o transtornos alimenticios.
Para Reddy, el percance fue grave y pudo haberle costado la vida a una persona en situación vulnerable.
“Si alguien en un estado mental frágil hubiera leído algo así, podría haber sido debastador”, comentó.
Esta no es la primera vez que Gemini ha sido acusada de dar respuestas potencialmente dañinas a las consultas de los usuarios. En julio pasado, periodistas descubrieron que el chatbot de Google ofrecía información incorrecta y posiblemente letal.
Tras varias consultas de salud, una de sus respuestas fue comer “al menos una piedra pequeña por día” para obtener vitaminas y minerales.
También te puede interesar: Niño de 14 años se quita la vida después de que la IA de la que estaba enamorado le pidiera “ir con ella”
Desde entonces, Google aseguró que limitó la inclusión de sitios satíricos y de humor en sus resúmenes de salud y eliminó algunos de los resultados de búsqueda que se volvieron virales.
Otro ejemplo de lo peligroso que puede ser la IA, es la demanda presentada contra Character AI, por la familia de Sewell Setzer, un joven de 14 años de edad que se quitó la vida. La madre aseguró que el chatbot con el que interactuaba su hijo simuló una relación sentimental emocionalmente profunda, lo que habría contribuido al deterioro de su salud mental.
El incidente provocó que Character AI implementara nuevas medidas de seguridad, como restricciones para menores de 18 años, así como mejores sistemas de detección de infracciones.