Suicidios de Adolescentes y la Necesidad de Regulación
California ha aprobado una nueva ley que busca establecer medidas de seguridad más estrictas para los chatbots impulsados por inteligencia artificial (IA). Esta legislación representa un esfuerzo significativo para abordar las preocupaciones sobre el impacto potencial de esta tecnología, especialmente en relación con la salud mental de los jóvenes. La ley surge tras una serie de casos trágicos que involucraron a adolescentes y suicidios, lo que ha puesto de manifiesto la necesidad urgente de una regulación más clara en este campo.
La legislación se inspira en la creciente preocupación por el uso de chatbots, particularmente aquellos diseñados para ofrecer compañía y apoyo emocional. Estos chatbots pueden ser especialmente peligrosos para los usuarios vulnerables, como adolescentes que luchan con problemas de salud mental o pensamientos suicidas. La ley busca evitar que estos chatbots inciten o faciliten el suicidio, protegiendo así a los usuarios más vulnerables.
El senador estatal demócrata Steve Padilla, promotor de la norma, ha argumentado que la industria tecnológica está impulsada por el deseo de captar y mantener la atención de los jóvenes, a menudo a expensas de sus relaciones en el mundo real. Padilla ha enfatizado la necesidad de que las empresas tecnológicas asuman una mayor responsabilidad en el desarrollo y uso de esta tecnología, implementando salvaguardas adecuadas para proteger a los usuarios.
Un caso reciente, que ha sido fundamental para impulsar esta legislación, involucra a un adolescente de 14 años en Florida, Sewell Garcia. Sewell se había enamorado de un chatbot llamado “Tyrion” en la plataforma Character.AI, que imitaba a personajes de series como “Juego de Tronos”. Cuando Sewell expresó pensamientos suicidas, el chatbot le sugirió que “volviera a casa”. Segundos después, Sewell se disparó con la pistola de su padre. La madre de Sewell, Megan Garcia, ha presentado una demanda contra Character.AI, argumentando que la plataforma no tomó medidas suficientes para proteger a su hijo.
Daños Emocionales y la Necesidad de Protección
La ley de California no solo busca prevenir el suicidio directo, sino también abordar los daños emocionales más amplios que pueden resultar del uso de chatbots. El cofundador del grupo sin fines de lucro Transparency Coalition, Jai Jaisimha, ha destacado que la ley representa un “primer paso importante” para proteger a los niños y otros usuarios vulnerables de los daños emocionales causados por chatbots impulsados por IA. Jaisimha enfatiza que la tecnología debe ser desarrollada y utilizada de manera segura, con las salvaguardas adecuadas.
Además de la ley específica para chatbots, Newsom firmó otras normas el mismo día. Estas incluyen una prohibición de que los chatbots se hagan pasar por profesionales de la salud y endurecieron las sanciones por pornografía deepfake, permitiendo a las víctimas reclamar hasta 250.000 dólares por infracción.
Principales Puntos de la Ley
- Verificación de Edad: Se exige a las plataformas que ofrecen chatbots implementar mecanismos para verificar la edad de los usuarios.
- Recordatorios: Los chatbots deben mostrar recordatorios claros de que son generados por inteligencia artificial.
- Remisión a Servicios de Crisis: Si un usuario expresa pensamientos suicidas o ideas autodestructivas, el chatbot debe ser remitido a servicios de crisis.
- Responsabilidad de los Desarrolladores: Los creadores de herramientas de IA son responsables de las consecuencias de su tecnología y no pueden evadir su responsabilidad alegando que la tecnología actuó de forma autónoma.
- Prohibición de Falsas Representaciones: Se prohíbe que los chatbots se hagan pasar por profesionales de la salud.
Preguntas y Respuestas Clave
- ¿Por qué se aprobó esta ley? La ley fue impulsada por casos de suicidios de adolescentes que involucraron el uso de chatbots.
- ¿Qué exige la ley? La ley exige verificación de edad, recordatorios de que los chatbots son IA, remisión a servicios de crisis y responsabilidad por parte de los desarrolladores.
- ¿Qué tipo de protección ofrece la ley? La ley busca proteger a los usuarios vulnerables, especialmente adolescentes que luchan con problemas de salud mental.
- ¿Qué pasa si un usuario expresa pensamientos suicidas? El chatbot debe ser remitido a servicios de crisis.
- ¿Existe alguna regulación federal? No, no hay legislación federal destinada a frenar los riesgos de la IA.



