El gobernador Gavin Newsom promulga la Ley SB 243, la cual impone obligaciones inéditas a las plataformas de inteligencia artificial, incluyendo filtros de contenido peligroso, pausas obligatorias y notificaciones periódicas que alertan a niños y adolescentes de que están interactuando con una máquina y no con un humano.

En un movimiento que sienta un precedente a nivel nacional e internacional, el estado de California ha tomado la delantera en la regulación de la inteligencia artificial, enfocando sus esfuerzos en la protección de niños y adolescentes. El gobernador Gavin Newsom firmó la ley SB 243, un marco legal diseñado para establecer límites estrictos para la utilización de asistentes virtuales por parte de menores de edad.
Esta legislación responde a una creciente ola de preocupación sobre el impacto de los sistemas conversacionales en la salud mental y la seguridad de los usuarios más jóvenes, tras una serie de informes y demandas que evidenciaron los vacíos regulatorios de la tecnología actual.
Las Obligaciones Inéditas para los Chatbots
La SB 243 impone a las empresas de IA una serie de requisitos que buscan mitigar la confusión y los riesgos emocionales inherentes a la interacción con sistemas automatizados.Una de las medidas más destacadas es la alerta de identidad: a partir de la entrada en vigor, las plataformas deberán informar de forma clara y periódica a los usuarios cuando están interactuando con un chatbot y no con un ser humano. Los menores recibirán esta notificación al menos cada tres horas, una medida crucial para reducir el riesgo de que atribuyan emociones o intenciones humanas a un código.
Además, la ley exige que las empresas desarrollen sistemas de detección y bloqueo de contenido peligroso. Cuando un usuario menor de edad muestre signos de angustia, como referencias a autolesiones o suicidio, el chatbot deberá dejar de interactuar y redirigir inmediatamente a la persona hacia servicios de asistencia en crisis.
En cuanto al control de contenido, la ley prohíbe explícitamente a los chatbots intentar o generar conversaciones sexuales explícitas o inapropiadas dirigidas a menores, así como abstenerse de compartir cualquier información perjudicial.
Pausas obligatorias y rendición de cuentas anual
La normativa también aborda el problema del tiempo de exposición. Incorpora una cláusula de “pausa obligatoria” que obliga a los menores a tomar un descanso de la plataforma cada tres horas continuas de uso, un punto clave para contrarrestar el aumento sostenido en el tiempo de pantalla.
Más allá de los filtros en tiempo real, la ley establece un mecanismo de rendición de cuentas a largo plazo: a partir del 1 de julio de 2027, todas las empresas de inteligencia artificial que ofrezcan chatbots en California deberán presentar un informe anual detallando las acciones implementadas para gestionar los riesgos relacionados con la autolesión y el bienestar emocional. Este reporte será clave para que los agentes estatales puedan ajustar las políticas públicas ante nuevas amenazas tecnológicas.
El impulso de esta ley llega en un momento de gran efervescencia para el sector. Organizaciones activistas habían alertado sobre casos en los que chatbots ofrecían consejos peligrosos sobre drogas, alcohol o salud mental, citando investigaciones que involucran a gigantes como OpenAI y Meta.
De hecho, la promulgación de la SB 243 coincide con el reciente y polémico anuncio de OpenAI sobre la flexibilización de sus normas para permitir experiencias personalizadas y contenido erótico para usuarios adultos verificados con ChatGPT.
Mientras que Sam Altman y OpenAI avanzan en el desarrollo de herramientas de seguridad más precisas para justificar una mayor libertad de contenido para adultos, la ley de California establece barreras claras e infranqueables para proteger a la población más vulnerable. Este contraste subraya la complejidad ética que enfrenta la IA y la urgencia con la que los gobiernos deben intervenir para garantizar que la innovación no comprometa la seguridad y el bienestar de los menores. El paso de California es, sin duda, la señal más clara de que la era de la IA sin supervisión para los niños ha llegado a su fin.