Pero esta aventura no salió como esperaba.
BBC NEWS MUNDO
El algoritmo de Amazon al que no le gustan las mujeres
Amazon logró con Alexa convertirse en el rey de los asistentes personales y de la automatización. Tal vez por eso no resulte extraño que la firma quisiera poner la contratación de sus empleados en manos de la inteligencia artificial.
No es la primera vez que la inteligencia artificial resulta sexista. (Foto Prensa Libre:GETTY IMAGES)
En 2014 la compañía de comercio electrónico puso en marcha un sistema algorítmicocon el que esperaba optimizar recursos y ahorrar tiempo y mano de obra, además de encontrar un sistema neutral para contratar personal.
Pero Amazon tuvo que despedir a su nuevo reclutador porque el algoritmo resultó sersexista, de acuerdo con una investigación elaborada por Reuters*.
5 algoritmos que ya están tomando decisiones sobre tu vida y que quizás tú no sabías
El sistema recibió información sobre solicitantes de empleo en Amazon durante un periodo de 10 años, y fue entrenado para observar patrones.
Y la mayoría de ellos eran hombres, lo cual pudo resultar en el sesgo que afectó a su toma de decisiones.
Cinco miembros del equipo que trabajaron en el desarrollo de esta herramienta le contaron a Reuters que el algoritmo “se enseñó a sí mismo que los candidatos masculinos eran una preferencia”.
Según el informe de Reuters, esta tecnología funcionaba revisando solicitudes de empleo y dándoles a los candidatos un puntaje de una a cinco estrellas.
“Querían crear una máquina que recibiera 100 currículos y seleccionara los cinco mejores, para después nosotros contratarlos”, explicó uno de los ingenieros, que prefirió no revelar su identidad.
Amazon todavía no ha respondido a las acusaciones.
El sexismo de la inteligencia artificial: ¿por qué Alexa, Cortana y la gran mayoría de asistentes virtuales son femeninas?
Mujeres “penalizadas”
En 2015, quedó claro que el sistema tenía un sesgo machista a la hora de seleccionar a los solicitantes, sobre todo a quienes aspiraban a puestos técnicos típicamente asignados a hombres, como desarrollador de software.
Entonces, comenzó a penalizar a los currículos que incluían la palabra “mujer”.
“Siempre me preguntan por el hombre experto. Me da rabia”: Barbarita Lara, la primera chilena en la lista de innovadores sub-35 del MIT
El programa fue revisado para intentar erradicar el sesgo, pero Amazon ya no podía seguir confiando en él.
Finalmente, el proyecto fue abandonado, aunque Amazon nunca llegó a sacar a la luz información sobre este proyecto fallido.
Pero, de acuerdo con el informe de Reuters, el algoritmo fue usado durante algún tiempo por los reclutadores de personal de la compañía, quienes tenían en cuenta sus recomendaciones para sus decisiones (aunque no se regían únicamente por ellas).
¿Por qué “vivimos colonizados” por algoritmos y cómo la élite tecnológica se aprovecha de ello?
60/40
Amazon dice que su fuerza laboral global cumple la proporción de 60/40, a favor de los hombres. Ese ratio es el mínimo que marca la Ley de Igualdad en muchos países.
Y la compañía fue nombrada en el último análisis de la red social para contactos profesionales LinkedIn “la mejor empresa del mundo para trabajar” por su retención de talento, solicitudes del empleo y el grado de interés que despierta.
Cerca del 55% de los directores de recursos humanos en Estados Unidos dicen que la inteligencia artificial jugará un papel crucial en la contratación de personal en los próximos cinco años, de acuerdo con una entrevista elaborada por la firma de software CareerBuilder.
Algoritmos discriminadores
Esta no es la primera vez que hay dudas sobre cuán confiables son los algoritmos y cómo los datos que analizan pueden resultar en decisiones sesgadas.
En junio, un experimento del MIT, el Instituto Tecnológico de Massachusetts, EE.UU., reveló que es posible entrenar a un algoritmo para convertirlo en psicópata y que interprete la realidad de cierta manera.
Así funciona “la mente” de Norman, el algoritmo psicópata del MIT que solo ve lo más tenebroso de la red
Y en mayo del año pasado un informe sugirió que alguno programas computacionales generados por inteligencia artificial usados por un tribunal en Estados Unidos discriminaban a las personas de raza negra.
En algunos algoritmos de vigilancia predictiva también se observó el mismo sesgo: como los datos mostraban que los negros eran arrestados más veces, el sistema tomó esa pauta como norma.