a woman in a black jacket is smiling for the camera with her arms crossed and her hands folded in fr

Web Editor

Regulación de la Inteligencia Artificial en México: ¿Soberanía o Censura?

El Papel de Gabriela Jiménez Godoy en la Discusión

La Vicecoordinadora de Morena en la Cámara de Diputados, Gabriela Jiménez Godoy, ha estado involucrada en un importante debate sobre la regulación de la inteligencia artificial (IA) en México. Su reciente encuentro con representantes de Google México y Synergia Asuntos Públicos revela el intento de Morena por establecer un marco regulatorio para esta tecnología, pero también expone algunas preocupaciones sobre la naturaleza y el alcance de esa regulación.

El Proyecto de Ley: Ambigüedad y Control Gubernamental

El proyecto de ley presentado por Jiménez Godoy, titulado “Ley Federal para el Desarrollo Ético, Soberano e Inclusivo de la Inteligencia Artificial”, ha sido objeto de análisis crítico. Se argumenta que el título es más una herramienta de propaganda política que un ordenamiento jurídico sólido, caracterizado por lenguaje político vacío y una falta de técnica legislativa. El proyecto se centra en conceptos como “riesgo algorítmico”, “impacto algorítmico”, “auditoría algorítmica” y “sesgo algorítmico,” lo que sugiere una carga regulatoria excesiva para los desarrolladores de IA.

Restricciones y Posibles Censuras

El proyecto de ley incluye restricciones significativas sobre el uso de la IA. Se prohíbe explícitamente el uso de técnicas de manipulación subliminal o persuasión psicológica extrema, lo que podría afectar incluso a las formas más comunes de publicidad. También se prohíbe la vigilancia biométrica masiva en espacios públicos, a menos que esté autorizada por un juez. Esto implica que la recolección y sistematización de datos biométricos solo estaría permitida si es realizada por el Estado, creando una potencial forma de monopolio estatal sobre la vigilancia.

Soberanía Tecnológica y Posibles Conflictos

El capítulo de “Soberanía Tecnológica y Desarrollo Nacional” del proyecto busca favorecer a instituciones mexicanas y modelos con principios éticos en la asignación de contratos públicos relacionados con IA. Sin embargo, este trato diferenciado se considera ambiguo y podría ser susceptible a la corrupción, además de potencialmente violar tratados internacionales. La iniciativa busca impulsar el desarrollo tecnológico nacional, pero la forma en que se propone podría generar problemas de transparencia y equidad.

Sanciones y Responsabilidad

El proyecto contempla la posibilidad de que las autoridades desactiven sistemas de IA que hayan causado daño algorítmico, sin una definición clara de qué constituye ese “daño”. También se establecen sanciones como amonestaciones públicas, reparación de daños colectivos y multas que podrían alcanzar los 11 millones de pesos mexicanos (actualmente) para los desarrolladores que incumplan la ley. Además, se otorga a las autoridades el poder de ordenar la apertura técnica y controlada de modelos privados de IA, incluso si estos pertenecen a empresas privadas. Esta amplia gama de facultades y la falta de criterios objetivos para determinar el “daño algorítmico” sugieren un potencial para la censura y la restricción de la innovación.

Preguntas y Respuestas Clave

  • ¿Cuál es el principal objetivo de la regulación propuesta? Se busca establecer un marco para prevenir el uso indebido de la IA, construir un modelo de desarrollo tecnológico soberano, ético e inclusivo y evitar que la IA desmiente la narrativa pública del oficialismo.
  • ¿Qué tipo de restricciones se proponen en el proyecto? Se prohíbe la manipulación subliminal, la vigilancia biométrica masiva (sin autorización judicial) y se busca favorecer a instituciones mexicanas en la asignación de contratos públicos relacionados con IA.
  • ¿Qué se entiende por “daño algorítmico”? El proyecto no define claramente este concepto, lo que abre la puerta a interpretaciones subjetivas y posibles abusos.
  • ¿Qué tipo de sanciones se prevén? Se contemplan amonestaciones públicas, reparación de daños colectivos y multas que podrían alcanzar los 11 millones de pesos.
  • ¿Por qué se considera que el proyecto podría ser una forma de censura? Debido a la ambigüedad en conceptos clave como “daño algorítmico”, las restricciones sobre técnicas de persuasión y la posibilidad de que las autoridades puedan desatar sistemas de IA privados.