El Vacío Regulatorio y la Necesidad de Estándares
La Situación Actual: Un País Usando IA sin Regulación
México se encuentra en un momento crucial de su gobernanza de datos, enfrentando el desafío de cómo regular la creciente integración de la Inteligencia Artificial (IA) en diversos sectores. Tras la extinción del Instituto Nacional de Transparencia, Acceso a la Información y Protección de Datos (INAI) y el traslado de sus funciones al Ejecutivo, se ha generado un vacío normativo en relación con esta tecnología. Especialistas advierten que, sin una regulación clara, el país corre el riesgo de replicar problemas observados en otros países donde la IA se aplica sin las debidas precauciones.
Cambio Estructural en la Gobernanza de Datos
El cambio institucional implica una reestructuración, con la Secretaría Anticorrupción y Buen Gobierno asumiendo la responsabilidad de la protección de datos personales en el sector público federal, mientras que el ámbito privado continúa siendo regulado por las mismas reglas. Sin embargo, este cambio no elimina la necesidad de un marco normativo más sólido.
Enfoque Basado en Riesgos y Auditorías
Luis Gustavo Parra, comisionado del INFOEM, propone un enfoque basado en riesgos y obligaciones proporcionales para la regulación de la IA. Este modelo sugiere evaluaciones de impacto obligatorias y auditorías algorítmicas para los sistemas de IA de alto riesgo, junto con una coordinación interinstitucional para cerrar vacíos legales. El objetivo es mitigar los riesgos asociados a la discriminación, la falta de transparencia y la exposición de datos.
El Impacto en la Vida Cotidiana: Datos en Chatbots
Más allá de las Conversaciones: La Recolección de Datos
La inteligencia artificial ya no se limita a conversaciones simples. Juan Manuel Delva, investigador de la Universidad de Guadalajara, destaca que los chatbots y modelos de lenguaje se utilizan con información real en actividades cotidianas como correos electrónicos, listados de alumnos y casos clínicos. Esto implica que los datos recopilados no se limitan a la interacción directa, sino que pueden persistir en registros y memorias de las plataformas.
El Riesgo de la Retención de Datos
Delva advierte que cerrar una pestaña no elimina los datos compartidos, ya que las plataformas pueden retener registros y derivados bajo reglas internas y condiciones específicas. Esto plantea interrogantes sobre la privacidad y la necesidad de documentar el uso de los datos.
Ataques Semánticos y Exposición de Información
Además de los ataques directos, Delva señala la posibilidad de ataques en la capa semántica a través del lenguaje. La inyección de prompts y la exposición de información sensible pueden ocurrir cuando los modelos revelan credenciales o identificadores por falta de controles. Esto subraya la importancia de una gestión cuidadosa y el control de los datos.
Suplantación de Identidad: Un Nuevo Desafío
Cintia Solís, experta en derecho digital, destaca que la suplantación de identidad ya no es un problema teórico. La ciberseguridad debe proteger las identidades y la confianza en la economía digital, ya que los deepfakes (videos falsos) y otras tecnologías generativas facilitan la ingeniería social y el engaño.
Falta de Homologación Penal
Solís señala la falta de homologación del tipo penal de usurpación de identidad y la necesidad de actualizar el marco de datos personales para atender con mayor claridad los datos biométricos sintéticos. Además, se requiere cooperación internacional efectiva para combatir el ciberdelincuencia.
Preguntas y Respuestas Clave
- ¿Cuál es la situación actual de la regulación de la IA en México? Existe un vacío normativo significativo, con una transición institucional y la necesidad de establecer estándares más consistentes.
- ¿Qué propone el INFOEM para regular la IA? Un enfoque basado en riesgos, evaluaciones de impacto y auditorías algorítmicas para sistemas de alto riesgo.
- ¿Cómo se está utilizando la IA en el ámbito de los chatbots? Los chatbots ya se utilizan con información real, como correos electrónicos y casos clínicos, lo que implica la recopilación de datos más allá de las conversaciones.
- ¿Cuáles son los riesgos asociados al uso de chatbots? El riesgo de retención de datos, ataques semánticos y la exposición de información sensible.
- ¿Qué se está haciendo para abordar el problema de la suplantación de identidad? Se requiere homologar el tipo penal, actualizar el marco de datos personales y fortalecer la cooperación internacional en ciberdelincuencia.
- ¿Por qué es importante la transparencia y la explicación en los sistemas de IA? Para que las personas comprendan cómo se toman las decisiones automatizadas y puedan cuestionarlas.
- ¿Qué tipo de herramientas se pueden utilizar para reducir la exposición de datos? Técnicas como privacidad por diseño, privacidad diferencial, aprendizaje federado y cifrado.



