a blurry photo of a cell phone with a blue light in the background and a blurry image of a building,

Web Editor

La IA Agente: ¿Asesor o Dominio? Explorando el Futuro de la Inteligencia Artificial

El Auge de los Agentes Autónomos de IA y sus Implicaciones

Boston – El mundo se encuentra en la cúspide de una transformación radical, impulsada por el desarrollo de los llamados “agentes” de IA. Si bien la inteligencia artificial (IA) podría ser un valioso asesor para los humanos, proporcionándonos información útil, fiable y relevante en tiempo real, la posibilidad de que los agentes autónomos de IA provoquen numerosos problemas predecibles y erosionen muchos de los beneficios que la tecnología podría haber ofrecido es una preocupación creciente. La pregunta clave no es si la IA tendrá un impacto, sino *cómo* ese impacto se manifestará y qué tipo de agentes de IA estamos desarrollando.

Dos Enfoques: Asesoramiento vs. Autonomía

La industria de la IA está explorando dos caminos distintos: un modelo donde la IA actúa como un asesor, brindando información y recomendaciones a los humanos para tomar decisiones más informadas, o un modelo de agentes autónomos que toman decisiones por sí mismos. Esta distinción es fundamental y tiene profundas implicaciones para el futuro de la sociedad.

La Importancia del Proceso Decisional Humano

Los seres humanos tomamos cientos de decisiones cada día, desde elecciones cotidianas hasta decisiones que impactan nuestras carreras y nuestro bienestar. Muchas de estas decisiones se basan en información incompleta o imperfecta, influenciadas por emociones, intuiciones y hasta impulsos. David Hume acertadamente observó: “La razón es y solo debe ser esclava de las pasiones”. Este proceso de toma de decisiones, incluso si se basa en información proporcionada por agentes no humanos, es esencial para nuestro aprendizaje y crecimiento personal. La simple experiencia de tomar decisiones – incluso con el apoyo de la IA – refuerza nuestro sentido de agencia y propósito. En muchos casos, no se trata de calcular o recopilar datos para determinar el curso de acción óptimo, sino de *descubrir* – una experiencia que podría volverse cada vez más rara si todas las decisiones se delegan en agentes de inteligencia artificial.

El Riesgo de la Automatización y la Desigualdad

Si la industria tecnológica se enfoca principalmente en agentes de IA autónomos, es probable que la automatización aumente significativamente, lo que podría llevar a una mayor pérdida de empleos humanos. Sin embargo, si la IA se convierte principalmente en una herramienta para acelerar la automatización, es menos probable que se produzca una prosperidad compartida. Además, existe una diferencia fundamental entre los agentes de IA que actúan en nombre de los humanos y los humanos que toman sus propias decisiones.

Negociación: Un Ejemplo de la Complejidad Humana

Muchos entornos en los que interactúan los humanos presentan elementos tanto cooperativos como conflictivos. Consideremos una empresa que proporciona información a otra. Si la información es lo suficientemente valiosa para el comprador, un intercambio entre las dos empresas es mutuamente beneficioso (y a menudo beneficia a la sociedad en general). Pero para que este intercambio tenga lugar, el precio del insumo debe determinarse mediante un proceso intrínsecamente conflictivo. Cuanto más alto sea el precio, más se beneficiará el vendedor en relación con el comprador. El resultado de este tipo de negociación a menudo está determinado por una combinación de normas (por ejemplo, sobre la equidad), instituciones (como contratos que imponen costos si se incumplen) y fuerzas del mercado (por ejemplo, si el vendedor tiene la opción de vender a otra persona). Pero imaginemos que el comprador tiene fama de ser totalmente inflexible – de negarse a aceptar nada que no sea el precio más bajo posible. Si no hay otros compradores, el vendedor puede verse obligado a aceptar la oferta más baja.

La IA como Agente Implacable: Un Juego de Gallina

En nuestras transacciones cotidianas, estas posturas intransigentes son poco frecuentes. En parte, esto se debe a que es mejor no tener una mala reputación y, sobre todo, porque la mayoría de los seres humanos no tienen ni el valor ni la aspiración de actuar de forma tan agresiva. Pero imaginemos que el comprador tiene un agente autónomo de IA al que no le importan las sutilezas humanas y posee nervios de acero no humanos. Se puede entrenar a la IA para que siempre adopte esta postura inflexible, y la contraparte no tendrá ninguna esperanza de persuadirla para que llegue a un resultado más beneficioso para ambas partes. Por el contrario, en un mundo donde la IA actúa como asesor, el modelo podría recomendar una postura intransigente, pero el ser humano decidiría en última instancia si seguir ese camino o no.

El Riesgo de la Desigualdad y los Juegos de Gallina

En resumen, los agentes autónomos de IA pueden conducir a un mundo más desigual, en el que solo algunas empresas o individuos tengan acceso a modelos de IA muy capaces y creíbles. Pero incluso si todo el mundo acabara adquiriendo las mismas herramientas, eso no sería mejor. Toda nuestra sociedad estaría sometida a juegos de “guerra de desgaste” en los que los agentes de IA llevan cada situación conflictiva al borde del colapso. Estos enfrentamientos son intrínsecamente riesgosos. Como sucede en el juego de la “gallina” (cuando dos autos aceleran el uno hacia el otro para ver quién se aparta antes), siempre es posible que ninguna de las partes ceda. Cuando eso ocurre, ambos “ganan” – y ambos mueren.

Preguntas y Respuestas Clave

  • ¿Cuál es la diferencia fundamental entre los agentes de IA que actúan en nombre de los humanos y los humanos que toman sus propias decisiones? La principal diferencia radica en la agencia humana: los agentes de IA actúan *por* nosotros, mientras que los humanos toman decisiones por sí mismos.
  • ¿Por qué la automatización podría llevar a una mayor desigualdad? Si la IA se convierte en una herramienta para la automatización, es probable que se pierdan empleos y se concentre la riqueza en manos de unos pocos.
  • ¿Por qué los juegos de “gallina” son un ejemplo relevante? Los juegos de gallina ilustran cómo los enfrentamientos pueden escalar sin una retirada, lo que lleva a resultados negativos para ambas partes.
  • ¿Por qué es importante la agencia humana? La toma de decisiones y el proceso de descubrimiento son esenciales para nuestro aprendizaje, crecimiento personal y sentido de propósito.

El autor: Daron Acemoglu, premio Nobel de Economía en 2024 y profesor de Economía en el MIT, es coautor (junto con Simon Johnson) de *Power and Progress: Our Thousand-Year Struggle Over Technology and Prosperity* (PublicAffairs, 2023).

www.project-syndicate.org