El Caso de Derek Mobley y Workday
Miles de personas buscan empleo diariamente, enviando sus currículums a través de plataformas online. En empresas grandes y multinacionales, el proceso de selección puede ser largo y complejo, concurrido por miles de solicitudes. Es común que los candidatos reciban notificaciones automáticas indicando que su perfil ha sido rechazado, incluso después de solo unos minutos de haber postulado, a menudo sin haber tenido contacto con ningún responsable humano dentro de la empresa. Esta situación se ha visto exacerbada por el uso creciente de la Inteligencia Artificial (IA) en los procesos de selección.
En mayo de este año, la jueza Rita Lin del Tribunal de Distrito de los Estados Unidos para el Distrito Norte de California dictaminó la certificación preliminar para admitir una demanda interpuesta por Derek Mobley contra Workday Inc., una plataforma de reclutamiento que utiliza la IA para seleccionar candidatos. Mobley argumenta que las herramientas utilizadas por Workday han perjudicado sistemáticamente a él y a otros solicitantes de empleo, al discriminar a los candidatos mayores de 40 años de edad. Workday, por su parte, ha declarado que las decisiones de reclutamiento no son tomadas directamente por la Inteligencia Artificial de Workday, sino por sus clientes.
Esta demanda colectiva, que ha sido respaldada por al menos cuatro otros demandantes, representa un punto de inflexión en el debate sobre el uso de la IA en la contratación. La certificación judicial abre la puerta a una discusión más profunda sobre las responsabilidades y los posibles sesgos inherentes a estos sistemas.
Responsabilidad en la Toma de Decisiones con IA
Uno de los principales desafíos legales que se presenta es determinar quién es responsable cuando la IA toma decisiones discriminatorias. En el caso de Workday, si se demuestra que los algoritmos han descartado candidatos injustificadamente o discriminatoriamente, la pregunta es: ¿fue el propio algoritmo el que generó ese resultado, o fue el cliente de Workday quien entrenó la plataforma para excluir perfiles de candidatos mayores de cierta edad, o dentro de categorías sospechosas de discriminación?
Es fundamental recordar que la inteligencia artificial no tiene voluntad propia y no es un sujeto de derecho. Por lo tanto, si existe un sesgo ilegal en la selección de candidatos, alguien debe asumir la responsabilidad. Esto implica una revisión exhaustiva del proceso de desarrollo y entrenamiento de los algoritmos, así como la supervisión continua de sus resultados.
El Impacto Psicológico de la IA en la Contratación
Más allá de los aspectos legales, existe una preocupación creciente sobre el impacto psicológico que la IA tiene a gran escala en la población de internautas. La creciente confianza en las plataformas de IA puede llevar a generar expectativas desmedidas y, en algunos casos, incluso una dependencia emocional con la plataforma, especialmente cuando la IA emula a una persona real (Chatbots).
El rechazo reiterado y sistemático de las postulaciones, simulando una revisión humana cuidadosa, puede tener un impacto emocional significativo en los candidatos. Esta situación se agrava cuando la comunicación con la plataforma es impersonal y carece de empatía, lo que puede generar frustración, desánimo y una sensación de impotencia.
Transparencia y Advertencias
Si bien la prohibición total de la IA en la contratación no es una solución viable, se podría considerar obligar a los desarrolladores de estas plataformas a publicar advertencias claras y específicas cuando la IA simula que se trata de una inteligencia humana. Esto ayudaría a los usuarios a comprender las limitaciones y posibles sesgos del sistema, reduciendo la dependencia emocional y fomentando una mayor transparencia.
Preguntas y Respuestas Clave
- ¿Por qué se ha presentado una demanda contra Workday? Se argumenta que las herramientas de Workday discriminan a los candidatos mayores de 40 años.
- ¿Quién es responsable si la IA toma decisiones discriminatorias? Se debe determinar si el algoritmo fue el causante o si el cliente de Workday dio instrucciones para excluir ciertos perfiles.
- ¿Qué se puede hacer para mitigar el impacto psicológico de la IA? Se sugiere publicar advertencias claras cuando la IA simula ser una persona.