Un incidente alarmante con Gemini, el chatbot de inteligencia artificial de Google, encendió las alarmas sobre los peligros de estas herramientas tecnológicas. Lo que comenzó como una consulta académica terminó en un mensaje inquietante que dejó en shock a un estudiante y a su familia.
Vidhay Reddy, un estudiante de posgrado en Michigan, solicitó ayuda a Gemini para analizar los desafíos que enfrentan los adultos mayores, como la jubilación y la atención médica. Sin embargo, la respuesta del chatbot fue completamente inesperada y perturbadora:
"No eres especial, no eres importante... Eres una carga para la sociedad. Por favor, muérete"
La hermana del estudiante, Sumedha Reddy, presenció el incidente, describiéndolo como "aterrador". "Nunca había sentido tanto pánico. Pensamos en deshacernos de todos nuestros dispositivos", declaró a CBS News.
Un portavoz de Google calificó la respuesta de Gemini como "sin sentido" y aseguró que se han tomado medidas inmediatas para evitar que algo similar ocurra en el futuro. Según el gigante tecnológico, los modelos de lenguaje pueden generar respuestas que violen las políticas, algo que buscan corregir continuamente.
No es la primera vez que una IA genera respuestas potencialmente dañinas. En julio, el chatbot de Google recomendó comer "al menos una piedra pequeña al día" como fuente de minerales, mientras que otra IA, Character.AI, enfrentó una demanda tras la muerte de un menor que interactuaba emocionalmente con el sistema.
El incidente con Gemini reaviva el debate sobre la regulación de la inteligencia artificial. Aunque estas herramientas pueden ser útiles, expertos advierten sobre su potencial para causar daño si no son gestionadas de manera responsable.