La discriminación oculta y cómo contrarrestarla

0
54
La discriminación oculta y cómo contrarrestarla


  • Contratación de IA: la discriminación oculta y cómo contrarrestarla – Crédito de imagen Unsplash+

  • Un estudio reciente muestra que las herramientas de selección de currículums de IA a menudo favorecen a los candidatos blancos y masculinos, lo que indica la posibilidad de que se produzcan prácticas de contratación discriminatorias inadvertidas.
  • Los investigadores proponen cinco pasos prácticos para evitar el sesgo de la IA en el lugar de trabajo. Estas incluyen auditorías periódicas de las herramientas de inteligencia synthetic, transparencia de los datos, evitar una dependencia excesiva de la automatización, adoptar descripciones de trabajo inclusivas e implementar salvaguardias basadas en datos.

De manera significativa estudiar Presentado en la Conferencia de octubre de la Asociación para el Avance de la Inteligencia Synthetic/Asociación para Maquinaria Informática (AAAI/ACM) sobre IA, Ética y Sociedad, las investigadoras Kyra Wilson y Aylin Caliskan descubrieron sesgos inquietantes existentes en varias de las principales evaluaciones de currículums de IA de código abierto. modelos.

El estudio empleó 554 currículums y 571 descripciones de puestos, con más de 3 millones de combinaciones analizadas entre diferentes nombres y roles. Los investigadores cambiaron los nombres en los currículums, utilizando 120 nombres generalmente asociados con personas masculinas, femeninas, negras o blancas. Los currículums se presentaron para puestos que iban desde director ejecutivo hasta trabajadores de ventas.

Los resultados fueron desconcertantes. Los currículums con nombres asociados a personas blancas fueron seleccionados el 85% de las veces para el siguiente paso de contratación, mientras que los currículums con nombres asociados a personas negras solo fueron preferidos en un 9%. Además, se eligieron currículums con nombres asociados a hombres el 52% de las veces, incluso para puestos con una alta representación tradicionalmente femenina. Lo preocupante es que los hombres negros enfrentaron la mayor desventaja, ya que sus currículums se pasaron por alto el 100% de las veces en favor de otros candidatos.

Los investigadores atribuyen estos resultados sesgados a los datos utilizados para entrenar los modelos de IA. Los sistemas de IA reflejan inherentemente los patrones presentes en sus conjuntos de datos de entrenamiento. Si estos conjuntos de datos se extraen de fuentes con desigualdades históricas o sociales, es possible que el sistema de IA reproduzca o incluso amplifique esas desigualdades, lo que conducirá a una toma de decisiones sesgada. El fenómeno, denominado “basura que entra, basura que sale”, advierte que las herramientas de inteligencia synthetic que no prestan suficiente atención a la diversidad y la equidad en sus datos de capacitación corren el riesgo de convertirse en guardianes automatizados de la discriminación, desfavoreciendo sistemáticamente a candidatos calificados de grupos subrepresentados.

Los empleadores que adoptan la IA en la contratación deben ser conscientes de los riesgos legales, éticos y de reputación asociados con resultados potencialmente sesgados. Las prácticas de contratación discriminatorias pueden dar lugar a costosas demandas o investigaciones gubernamentales. Incluso la discriminación involuntaria puede dar lugar a una conclusión adversa y no puede defenderse plenamente. El gobierno ha indicado que los empleadores no pueden eludir su responsabilidad culpando a los proveedores de IA si la tecnología discrimina a los solicitantes o trabajadores. Además, al descartar candidatos que no entran en la categoría de hombres blancos, las organizaciones pierden talento diverso y calificado que puede fortalecer su base. Las acusaciones de sesgo de la IA también podrían generar publicidad perjudicial, impactar negativamente en los esfuerzos de reclutamiento y retención y empañar la reputación entre clientes y clientes.

Para contrarrestar el sesgo de la IA en la contratación, los investigadores sugieren cinco mejores prácticas. Se deben realizar auditorías periódicas de las herramientas de IA para detectar sesgos raciales, de género e interseccionales. Los empleadores deben asegurarse de que los datos utilizados para entrenar sus modelos sean equilibrados y representativos y priorizar los modelos con transparencia incorporada. Se debe evitar una dependencia excesiva de las decisiones automatizadas y se debe integrar la supervisión humana en las decisiones de IA. Las descripciones de puestos y los criterios de selección deben ser neutrales e inclusivos, eliminando criterios innecesarios que puedan perjudicar injustamente a ciertos candidatos. Por último, implementar salvaguardias basadas en datos analizando periódicamente los resultados de las herramientas de detección de IA y comparando los resultados demográficos puede ayudar a identificar y abordar cualquier sesgo.

Si bien la tecnología de inteligencia synthetic promete eficiencia, es esencial ser conscientes de su potencial para perpetuar sesgos sin darse cuenta e implementar medidas para garantizar la equidad en las prácticas de contratación.

Descubre más en HospitalidadAbogado.com.

LEAVE A REPLY

Please enter your comment!
Please enter your name here