¿Los bots pueden discriminar? Es una gran pregunta ya que las empresas usan IA para contratar

La IA puede ser la herramienta de contratación del futuro, pero podría venir con las viejas reliquias de la discriminación.

Dado que casi todos los grandes empleadores en los Estados Unidos ahora usan inteligencia artificial y automatización en sus procesos de contratación, la agencia que hace cumplir las leyes federales contra la discriminación está considerando algunas preguntas urgentes:

¿Cómo se puede prevenir la discriminación en la contratación cuando la discriminación está siendo perpetuada por una máquina? ¿Qué tipo de barandillas podrían ayudar?

Alrededor del 83 % de los empleadores, incluido el 99 % de las empresas Fortune 500, ahora usan algún tipo de herramienta automatizada como parte de su proceso de contratación, dijo la presidenta de la Comisión de Igualdad de Oportunidades en el Empleo, Charlotte Burrows, en una audiencia el martes titulada "Navegando la discriminación laboral en AI y Automated Systems: A New Civil Rights Frontier", parte de una iniciativa de una agencia más grande que examina cómo se usa la tecnología para reclutar y contratar personas.

Todos deben hablar sobre el debate sobre estas tecnologías, dijo.

"Hay demasiado en juego como para dejar este tema solo en manos de los expertos", dijo Burrows.

Los escáneres de currículums, los chatbots y las entrevistas en video pueden introducir sesgos

El año pasado, la EEOC emitió una guía sobre el uso de herramientas de contratación de vanguardia y señaló muchas de sus deficiencias.

Los escáneres de currículums que dan prioridad a las palabras clave, los "asistentes virtuales" o los "chatbots" que clasifican a los candidatos según un conjunto de requisitos predefinidos, y los programas que evalúan las expresiones faciales y los patrones del habla de un candidato en entrevistas en video pueden perpetuar el sesgo o crear discriminación, dijo la agencia. encontró.

Tomemos, por ejemplo, una entrevista en video que analiza los patrones de habla de un solicitante para determinar su capacidad para resolver problemas. Una persona con un impedimento del habla podría obtener una puntuación baja y ser descartada automáticamente.

O bien, un chatbot programado para rechazar a los solicitantes de empleo con lagunas en su currículum. El bot puede rechazar automáticamente a un candidato calificado que tuvo que dejar de trabajar debido al tratamiento por una discapacidad o porque se tomó un tiempo libre por el nacimiento de un hijo.

Los trabajadores mayores pueden verse perjudicados por las herramientas basadas en IA de varias maneras, dijo la asesora principal de AARP, Heather Tinsley-Fix, en su testimonio durante la audiencia.

Las empresas que utilizan algoritmos para recopilar datos de las redes sociales y perfiles digitales profesionales en la búsqueda de "candidatos ideales" pueden pasar por alto a aquellos que tienen huellas digitales más pequeñas.

Además, está el aprendizaje automático, que podría crear un circuito de retroalimentación que luego perjudique a los futuros solicitantes, dijo.

"Si un candidato mayor supera el proceso de selección de currículum pero se confunde o interactúa mal con el chatbot, esos datos podrían enseñarle al algoritmo que los candidatos con perfiles similares deberían clasificarse más abajo", dijo.

Saber que ha sido discriminado puede ser difícil

El problema será que la EEOC elimine la discriminación, o evite que ocurra, cuando puede estar enterrada en lo profundo de un algoritmo. Aquellos a quienes se les ha negado el empleo no pueden conectar los puntos con la discriminación basada en su edad, raza o estado de discapacidad.

En una demanda presentada por la EEOC, una mujer que solicitó un trabajo con una empresa de tutoría solo se dio cuenta de que la empresa había establecido un límite de edad después de que ella volvió a solicitar el mismo trabajo y proporcionó una fecha de nacimiento diferente.

La EEOC está considerando las formas más apropiadas de manejar el problema.

Los panelistas del martes, un grupo que incluía a informáticos, defensores de los derechos civiles y abogados laborales, acordaron que las auditorías son necesarias para garantizar que el software utilizado por las empresas evite sesgos intencionales o no intencionales. Pero quién realizaría esas auditorías, el gobierno, las propias empresas o un tercero, es una pregunta más espinosa.

Cada opción presenta riesgos, señaló Burrows. Un tercero puede ser cooptado para tratar a sus clientes con indulgencia, mientras que una auditoría dirigida por el gobierno podría sofocar la innovación.

También se discutió el establecimiento de estándares para los proveedores y el requisito de que las empresas divulguen qué herramientas de contratación están utilizando. Queda por ver cómo se verían en la práctica.

En comentarios anteriores, Burrows ha señalado el gran potencial que tienen la IA y las herramientas algorítmicas de toma de decisiones para mejorar la vida de los estadounidenses, cuando se usan correctamente.

"Debemos trabajar para garantizar que estas nuevas tecnologías no se conviertan en un camino de alta tecnología hacia la discriminación", dijo.

 

Votos 0
Enviadme un correo electrónico cuando las personas hayan dejado sus comentarios –

¡Tienes que ser miembro de ODR LATAM para agregar comentarios!

Unirse ODR LATAM

Tutorial para registrarse

ODRLA.COM

FIMEP 2024

 

 

 Un espacio académico y de investigación en la articulación de las Nuevas Tecnologías y la Resolución de Conflictos

 

Temas por etiquetas

Archivos mensuales