a woman sitting at a desk in front of a computer screen with a human figure on it and a man standing

Web Editor

Inteligencia Artificial en México: Una Cultura de Uso No Oficial y la Urgente Necesidad de Ética

La inteligencia artificial (IA) se ha convertido en una herramienta cotidiana para millones de trabajadores mexicanos, pero esta adopción ocurre principalmente a través de canales personales y fuera del ámbito corporativo, debido a la falta de políticas claras y una gobernanza que guíe su uso. Este escenario plantea desafíos importantes en términos de seguridad, privacidad y la necesidad urgente de establecer principios éticos para el desarrollo y aplicación de la IA en México.

Uso de la IA en el Trabajo: Infraestructura Preparada, Cultura en Desarrollo

Si bien la infraestructura tecnológica para integrar computadoras con IA está avanzando rápidamente en México, el camino hacia una cultura de uso responsable y ético aún es largo. Un estudio global de Intel muestra que nueve de cada 10 organizaciones mexicanas ya están preparadas para incorporar PCs con inteligencia artificial ejecutada localmente, incluso por encima del promedio regional. Dentro de estas organizaciones, 45% de los empleados ya utiliza funciones con IA para tareas como búsqueda optimizada, traducción en tiempo real o texto predictivo.

Sin embargo, la infraestructura lista no significa que la cultura y la gobernanza lo estén. Un estudio de KPMG revela que 56% de las empresas mexicanas aún no logra identificar el valor comercial que la IA puede aportar a su negocio, y solo 10% ha confirmado beneficios con métricas firmes. A pesar de esto, la práctica de “Shadow AI” – el uso de IA por parte de los trabajadores fuera del perímetro corporativo – se está consolidando. Trabajadores que dominan el uso de IA antes que sus empresas, que aprenden por ensayo y error y que resuelven problemas reales, pero sin el respaldo de estructuras claras de seguridad, ética y cumplimiento.

Poca Ética: Un Vacío Normativo que Exige Atención

Un estudio del IBM Institute for Business Value, realizado con el Notre Dame-IBM Tech Ethics Lab, aporta otra capa: sí hay evidencia de que invertir en IA ética paga. Las empresas que destinan más recursos a prácticas éticas de IA han logrado hasta 30% más beneficios operativos atribuibles a estos sistemas frente a las que menos invierten, y 53% de los ejecutivos mexicanos reporta una mayor confianza de los clientes y una mejor calidad de producto cuando aplican marcos éticos.

Aun así, solo 36% de los ejecutivos en México utiliza herramientas esenciales de IA ética. Y apenas 44% de las organizaciones mexicanas ha integrado la ética en su estrategia de IA; el resto opera con principios generales o iniciativas aisladas.

Consumidores Menos Confiados: La IA en la Vida Diaria

Entre los usuarios finales, la foto tampoco es cómoda. De acuerdo con el más reciente estudio de tendencias de experiencia de cliente de Zendesk, dos tercios de las personas encuestadas en México utilizan a diario alguna herramienta de IA, desde asistentes para el calendario hasta funciones de redacción de correos, pero solo alrededor de 31% dice sentirse muy cómodo y confiar totalmente en estas tecnologías.

En la oficina, los trabajadores normalizan la IA hasta el punto de usarla fuera del perímetro corporativo; como clientes, mantienen una confianza limitada y elevan la vara para las empresas con las que interactúan. Si la IA se percibe como invasiva, opaca o injusta, por ejemplo, si se usa para tomar decisiones sin explicación, o se cometen alucinaciones sin corrección visible, la confianza se erosiona rápido.

Las prácticas poco éticas de uso, o simplemente la ausencia de reglas, tienen consecuencias directas. Usar cuentas personales para subir bases de datos de clientes, copiar información sensible a un chatbot público o automatizar respuestas sin transparencia son decisiones cotidianas que, sumadas, pueden traducirse en crisis de reputación, sanciones regulatorias o pérdida de negocio.

Negocio de IA Acelera: Un Mercado en Expansión

Todo esto ocurre mientras el negocio de la IA en México se acelera. IDC estima que el mercado empresarial de inteligencia artificial cerrará 2025 con un valor de 32,884 millones de pesos y podría alcanzar 110,535 millones para 2029, impulsado por casos de uso que mejoran productividad, servicio al cliente y toma de decisiones.

La inversión está en marcha; lo que no está claro es si el país está construyendo, al mismo tiempo, las capacidades para usar esa tecnología de forma responsable. KPMG advierte que cuatro de cada diez empresas en México usan datos de forma aislada por equipos y tres de cada diez lo hacen sin principios ni procesos centrales de gestión; el gobierno de datos sigue siendo reactivo más que preventivo.

Dejar de Culpar al Trabajador: La Responsabilidad Compartida

Decir que los trabajadores mexicanos usan IA sin mucha ética no significa que exista una intención de dañar, sino que están operando en un vacío normativo que las organizaciones no han llenado.

La ética de la IA en el ámbito laboral no se agota en pedirle al colaborador que no suba datos sensibles a ChatGPT; implica construir políticas claras, herramientas corporativas competitivas, capacitación continua y marcos de gobernanza que definan quién decide, quién audita y quién responde cuando algo sale mal.

Los estudios coinciden en que la ética no es un obstáculo para la IA, sino una condición para que el mercado de miles de millones de pesos que se está formando no se convierta en una fuente de escándalos, demandas y pérdida de confianza. En la medida en que México apuesta por más IA en PC, centros de contacto y procesos de negocio, la discusión urgente ya no es si los trabajadores van a usarla; es cómo evitar que lo sigan haciendo sin reglas.