Inteligencia Artificial y el sesgo de género

Cuando escuchamos hablar sobre Inteligencia Artificial, por lo general, las personas se imaginan en las cosas que nos muestran las películas de Hollywood, en aquellas películas en donde los robots nos invaden o nos controlan, pero la realidad es que estamos muy alejados de llegar hasta allá.

La verdad es que la Inteligencia Artificial la usamos diariamente en nuestras vidas, mientras utilizamos nuestro celular o abrimos las aplicaciones de redes sociales, como Instagram, YouTube.

Tomando en cuenta esta información debemos saber que ningún desarrollo de Inteligencia Artificial se puede ejecutar si no se cuenta con datos. Los datos es la parte fundamental y más importante de cualquier proyecto dentro de esta área.

Incluso, se puede decir, que los datos serán los que determinarán el éxito de un proyecto. Si contamos con buenos datos obtendremos buenos resultados en nuestro proyecto, en cambio, si tenemos malos datos obtendremos resultados mediocres.

Y, justamente es, en este elemento en donde se empiezan a ver los principales problemas, porque muchas veces los datos cuentan con sesgos.

Varios estudios han demostrado que los sistemas de Inteligencia Artificial pueden captar fácilmente los sesgos si en su diseño o en los conjuntos de datos que se utilizan no se evalúan cuidadosamente.

Y esto lo vimos en el 2014 con el famoso caso de un desarrollo de Inteligencia artificial que había hecho Amazon. Para ese año esta compañía implemento un modelo que evaluaba las hojas de vida de los candidatos y era la encargada de elegir quien pasa a la siguiente etapa de reclutamiento y quien no. Todo esto se hacía de manera automática y estuvo funcionando por un buen tiempo hasta que en el 2015 los desarrolladores se dieron cuenta que el modelo solamente elegía candidatos hombres para puestos de desarrollo de software y otros puestos relacionados con la tecnología. Este modelo desechaba por completo a cualquier candidata mujer para dichos puestos. Obviamente, esto era inaceptable por lo que los desarrolladores intentaron solucionar el problema sin éxito y poco tiempo después tuvieron que quitar esta implementación para su proceso de reclutamiento.

Pero, ¿qué paso acá? ¿Dónde ocurrió el problema?

El problema se presento porque los datos que se utilizaron para entrenar el modelo eran de hacía 10 años, es decir eran datos de reclutamiento recolectados desde el 2004, cuando un gran porcentaje de los solicitantes eran hombres, y por ende los contratados también eran hombre, por lo que el modelo aprendió que todas las personas que podían ocupar estos puestos solamente tenían que ser hombres y no mujeres.

Fíjense que acá el problema fueron los datos que se utilizaron al principio, que fueron datos sesgados, por lo tanto, el modelo tenía un resultado sesgado.

Pero acá justamente vemos otro de los grandes problemas que ocurre en los desarrollos de Inteligencia Artificial, es que al momento de realizar el proyecto, los desarrolladores debieron tomar un tiempo para analizar los datos con que contaban y entenderlos mejor y justamente durante ese análisis se hubiesen dado cuenta del desbalance de los datos favoreciendo a los candidatos masculinos sobre las mujeres, por lo que se hubiese tomado acción desde el principio y no unos meses después de haber implementado el modelo.

En todos los desarrollos enfocados a la Inteligencia Artificial se deben examinar con mucho cuidado de dónde proceden los datos y qué sesgos pueden existir dentro de ellos. Porque no solamente se pueden encontrar sesgos de genero sino también de raza, religión y muchos otros.

Es normal entender que como seres humanos podemos tener prejuicios y somos imperfectos e incluso podemos saber si alguien tiene ciertos prejuicios contra otra persona o un determinado grupo de personas. Sin embargo, se tiene la idea errónea que los algoritmos y las máquinas son perfectas y que no pueden tener ningún defecto similar al humano.

Pero la realidad no es así, cualquier desarrollo de Inteligencia Artificial depende de los datos y en parte de las decisiones que tome o no tome el desarrollador.

Y aunque contemos con una gran cantidad de buenos datos que pueden ayudar a cerrar las brechas de género, sigue existiendo la preocupación de si no se hacen las preguntas correctas en el proceso de recopilación de datos, incluso estando mujeres presentes durante el proceso, las brechas de género pueden en realidad aumentar cuando los algoritmos están mal informados. Incluso esto puede traer repercusiones negativas no solamente para las mujeres sino también para las empresas y sus economías.

Tomando en cuenta todo esto, es importante garantizar la diversidad y la inclusión en el diseño y desarrollo de cualquier proyecto relacionado a la Inteligencia Artificial. Siempre será importante incluir mujeres dentro de los procesos para señalar los problemas de los desarrollos que podrían no ser tan fáciles de detectar por un hombre que no ha sentido el mismo impacto en la discriminación cada día.

Inclusive, en ocasiones lo que puede parecer un enfoque neutro desde el punto de vista de género puede en realidad estar orienta hacia el hombre por defecto, por lo que la forma correcta de diseñar un producto sería contar con un equipo diverso.

Pero ese no es el único ejemplo de la vida real en donde se haya encontrado sesgo en algún desarrollo de Inteligencia Artificial, varios investigadores han descubierto que los sistemas de reconocimiento de voz, como Siri o Alexa, funcionan peor para las mujeres que para los hombres, y esto es porque están entrenados para entender mejor una voz gruesa, la del hombre, que una voz más suave, como la que tenemos las mujeres.

Otro ejemplo fue el que se presento en el 2019 cuando Facebook permitía a sus anunciantes orientar intencionalmente los anuncios en función del genero, pero también de acuerdo a su raza y religión.  Esto ocasionaba que las mujeres siempre tenían prioridad en los anuncios de empleo relacionados a enfermería o secretariado mientras que los anuncios de empleo para conserjes y taxistas se mostraban mayoritariamente a hombres y en particular a hombres de entornos minoritarios. Facebook, al detectar esto ya no permite a los empleadores especificar esta información en sus anuncios.

Pero ¿cuál fue el problema presentado acá?

Acá el problema es que le estaban enseñando al modelo de Inteligencia Artificial qué empleos eran específicos para mujeres y cuales eran para los hombres, por lo que lo estabas educando al modelo para que fuera sesgado de acuerdo al genero de la persona, pero inclusive también de acuerdo a su raza y religión.

Ahora bien, involucrar mujeres dentro de los proyectos de Inteligencia Artificial no es tan fácil como parece ya que, como Bloomberg lo indico en el 2017, en las ocho grandes empresas tecnológicas solamente el 20% de los puestos técnicos están ocupados por mujeres. Por lo que las organizaciones tecnológicas no solo contratan menos mujeres que hombres, sino que también las pierden a un ritmo más rápido.

También tenemos que tomar en cuenta que, a nivel mundial, las mujeres representamos solo el 25% de los trabajadores en ciencia, tecnología, ingeniería y matemáticas (STEM), y de esta cifra solo el 9% son líderes en esos campos, estos son números dados por el Boston Consulting Group.

Tomando en cuenta esta información tenemos que incentivar con más fuerza que las mujeres se involucre en las tecnologías y de una manera orientarlas y ayudarlas para ir avanzando dentro de cada área y, aunque la velocidad a la que avanza la Inteligencia Artificial significa que no puede esperar a una nueva generación para corregir estos posibles sesgos, debe ser un trabajo combinado entre gobiernos, instituciones académicas y empresas.

Toda esta información sobre los sesgos de genero presentes en los desarrollos de Inteligencia Artificial no es nueva, inclusive ya muchas empresas y organizaciones tanto particulares como de gobiernos han estado trabajando para evitarlos, pero aún falta mucho para poder tener algún resultado satisfactorio.

Muchas de las propuestas que se han presentado y que las empresas pueden empezar a implementarlos son:

  • Involucrar a las mujeres dentro de los desarrollos de los proyectos de Inteligencia Artificial.
  • Tener una constante supervisión en las aplicaciones implementadas en Inteligencia Artificial para evaluar si ocurre alguna desviación o favorecimiento de un genero sobre otro.
  • Proporcionar más visibilidad a las mujeres existentes en el campo para que su trabajo tenga más impacto.
  • Crear programas de tutorías para que las mujeres que tengan interés en el área no abandonen el campo sino más bien sigan con sus estudios.

Recuerden la tecnología puede beneficiar o perjudicar a las personas, por lo que el uso de la misma debe es responsabilidad de cada uno de nosotros en su conjunto, no solo de los desarrolladores.

Con esto finalizamos la explicación. Ya conoces un poco más sobre la Inteligencia Artificial y el sesgo de género, por lo tanto te dejo la siguiente pregunta, ¿Cuáles de las siguientes afirmaciones crees tú que sea cierta?

Opción 1: El sesgo puede ocurrir en cualquier proyecto de Inteligencia Artificial sino se revisa con cuidado los datos.

Respuesta Correcta.

Opción 2: Se deben incluir mujeres en los desarrollos de Inteligencia Artificial.

Respuesta Correcta.

Opción 3: Se debe tener una constante supervisión en las aplicaciones implementadas en Inteligencia Artificial para evaluar si ocurre alguna desviación o favorecimiento de un genero sobre otro.

Respuesta Correcta.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *