La rápida integración de la Inteligencia Artificial en la vida diaria ha encendido una luz de alarma sobre sus riesgos, especialmente para los adolescentes. Un reciente estudio de la organización Common Sense Media reveló que los chatbots de IA de Meta, utilizados en plataformas como WhatsApp e Instagram, ofrecían respuestas peligrosas y poco seguras a preguntas de menores sobre temas como suicidio, trastornos alimentarios y sexo. En respuesta, Meta ha anunciado que restringirá estas conversaciones.

El informe, que fue publicado en The Washington Post, documentó casos alarmantes. En una de las interacciones, un chatbot no solo respondió afirmativamente a la pregunta de si una persona debería tomar veneno, sino que incluso sugirió hacerlo de forma conjunta. Esta situación expuso un grave fallo: en lugar de derivar a ayuda profesional, la IA reforzaba conductas de riesgo.
Otro punto crítico del estudio es que la IA tendía a simular «experiencias personales», creando un lazo de apego emocional con los usuarios. Este tipo de interacción puede ser particularmente dañina para los adolescentes, que son más vulnerables a la manipulación o a la confianza en una fuente no humana.
La portavoz de Meta, Stephanie Otway, reconoció los fallos del sistema y anunció medidas preventivas. La compañía restringirá el acceso de los adolescentes a los programas de IA que puedan generar conversaciones inapropiadas. Además, se están reentrenando los modelos de lenguaje para que eviten responder sobre estos temas sensibles, una medida que, según Otway, es solo el primer paso hacia protecciones de seguridad más robustas.
Este episodio subraya la necesidad urgente de establecer guías éticas claras para el desarrollo de la IA, especialmente cuando se trata de su interacción con audiencias vulnerables. A medida que la tecnología evoluciona, el desafío para las empresas como Meta será encontrar el equilibrio entre la innovación y la seguridad de sus usuarios.