El Gobierno y sus Contradictorios Prácticas con la IA
El gobierno mexicano, a través de la Agencia de Transformación Digital y Telecomunicaciones (ATDT) y la Secretaría de Ciencia, Humanidades, Tecnología e Innovación (Secihti), presentó recientemente una “Declaración de ética y buenas prácticas para el uso y desarrollo de la Inteligencia Artificial”. Esta declaración, basada en los “Principios de Chapultepec”, busca guiar las políticas públicas relacionadas con la IA. Sin embargo, el documento ha generado controversia debido a las contradicciones entre los principios establecidos y las acciones reales del gobierno, así como por el lenguaje ambiguo que sugiere una posible regulación restrictiva.
El Decálogo y sus Contradicciones
El decálogo presenta principios que, en apariencia, promueven el uso ético de la IA. Sin embargo, al analizar las acciones actuales del gobierno, se revelan inconsistencias significativas.
- Principio 10: “Los datos son un bien público que deben cuidarse con responsabilidad”. Este principio se ve comprometido por la reciente filtración de 2.3 TB de información confidencial, revelada por el grupo Chronus. La ATDT minimizó la filtración al afirmar que los datos no eran “sensibles”, lo cual genera dudas sobre si realmente se están cuidando con responsabilidad.
- Principio 3: “Si una decisión no puede explicarse, no debe automatizarse”. Esta directriz se enfrenta a la realidad de que el SAT (Servicio de Administración Tributaria) ha implementado sistemas de IA para diferenciar a los contribuyentes según su comportamiento fiscal, lo que implica decisiones automatizadas que no siempre son transparentes.
Ambigüedad y Posible Regulación Restrictiva
Además de los ejemplos concretos, el lenguaje utilizado en la declaración presenta ambigüedad que podría ser interpretado para regular de manera restrictiva el uso de la IA. Los principios 4 y 5, que abogan por la toma de decisiones en colectivo y la generación de bienestar para las personas, podrían ser interpretados como una limitación a la autonomía individual y la libertad de elección.
La Neolengua y el Control de la Información
El uso de términos como “bienestar” y “decisiones en colectivo”, junto con la declaración de la Presidenta sobre la necesidad de controlar la información y “democratizarla” a través de la IA, sugieren una posible intención de regular el uso de la IA para controlar la narrativa pública y limitar la información disponible.
El Caso del SAT y la Fiscalización
La implementación de sistemas de IA por parte del SAT para identificar contribuyentes que “se porta mal” plantea una pregunta fundamental: ¿las decisiones automatizadas que toma el gobierno para fines de recaudación son éticas, o se contradicen con los principios del decálogo? Si los Principios de Chapultepec son la hoja de ruta para las políticas públicas, entonces las estrategias actuales de fiscalización del SAT deberían adaptarse y ser más transparentes.
Preguntas y Respuestas Clave
- ¿Por qué es controvertido el principio sobre los datos como un bien público? La filtración masiva de información confidencial por Chronus, y la posterior minimización de riesgos por parte de la ATDT, ponen en duda la aplicación práctica del principio.
- ¿Cómo se relaciona el principio de explicabilidad con las decisiones automatizadas del SAT? El uso de la IA para diferenciar contribuyentes y tomar decisiones fiscales sin una explicación clara plantea un problema ético.
- ¿Por qué se considera que el lenguaje ambiguo del decálogo podría conducir a una regulación restrictiva? La ambigüedad en términos como “bienestar” y “decisiones colectivas” permite una interpretación que favorece el control de la información.
- ¿Existe una contradicción entre los principios del decálogo y las prácticas actuales del gobierno en materia de fiscalización? Sí, la implementación de sistemas de IA por parte del SAT para identificar contribuyentes que “se porta mal” es inconsistente con los principios de transparencia y explicabilidad.
- ¿Qué significa la referencia a “controlar la información” en relación con la IA? Implica una posible intención de regular el uso de la IA para limitar la información disponible y controlar la narrativa pública.



