Los procesos automatizados en recursos humanos
La automatización en recursos humanos ha surgido como una aliada poderosa para los profesionales de RRHH, permitiéndoles simplificar procesos, tomar decisiones más informadas y liberar tiempo para tareas estratégicas. Aparentemente, la automatización está transformando la gestión de personal, pero surge la pregunta: ¿Es 100% confiable?
El documental “Code Bias (Prejuicio cifrado)”, disponible en Netflix, revela cómo los algoritmos replican prejuicios sociales, como la xenofobia, el racismo y el sexismo, debido al uso incorrecto del reconocimiento facial. Joy Buolamwini, investigadora de MIT Media Lab, descubre este sesgo cuando intenta realizar un reconocimiento de su tez negra y debe recurrir a una máscara blanca para que el sistema la reconozca.
Los algoritmos se nutren de datos y aprenden a partir de ellos. Si se les proporcionan datos sesgados, los resultados serán igualmente sesgados. Buolamwini realizó pruebas con varios algoritmos, como IBM, Microsoft, Face++ y Google, y descubrió un mejor rendimiento en el reconocimiento de caras masculinas en comparación con las femeninas. Indicando que no solo esta tecnología está diseñada para personas blancas, sino que, peor aún, está orientada principalmente a hombres blancos.
La Inteligencia Artificial se basa en datos que reflejan la historia de la humanidad, incluyendo desigualdades de diversas índoles. La matemática detrás de un algoritmo no es sexista, xenófoba ni racista, pero los datos incorporan el pasado, incluido un pasado marcado por la esclavitud, la misoginia y la discriminación. Estos son los datos con los que se alimentan las nuevas tecnologías, y hay un poco de temor en que se esté perpetuando ese sesgo histórico de asumamos su falsa neutralidad.
Caso de estudio: contratación en Amazon
Uno de los casos más conocidos de discriminación debido al uso de la Inteligencia Artificial es el caso del sistema automatizado de contratación de Amazon. En 2018, se reveló que el algoritmo utilizado por la multinacional durante cuatro años en sus procesos de selección de personal era sexista. Esto se debió a que fue entrenado con base en patrones observados en currículos presentados a la empresa durante una década, la mayoría de los cuales pertenecían a hombres, dado que que es un sector fuertemente masculinizado.
¿Cuál es la solución a este problema? Susan Leavy, investigadora de la University College Dublin, sostiene que el problema de los algoritmos no se limita al género, ya que también perjudican la diversidad en general. Para contrarrestar estos sesgos discriminatorios, Leavy sugiere educar a los algoritmos a través de equipos diversos que intervengan en los datos que los algoritmos aprenden, eliminando prejuicios antes de que las máquinas los internalicen. Los equipos diversos son los que generan los mejores resultados, por lo que es fundamental que las empresas que desarrollan estas tecnologías cuenten con mujeres, personas racializadas y otras comunidades.
La Inteligencia Artificial está adquiriendo cada vez más influencia en nuestras vidas y aunque aún se plantean dudas, se ve la posibilidad de que los algoritmos puedan ayudarnos a combatir la discriminación; por ejemplo, en los procesos de contratación, si son debidamente educados los algoritmos. Una máquina podría ser más imparcial que un humano al seleccionar candidatos si el aprendizaje se realiza de manera adecuada.