Cuando escuchamos hablar sobre Inteligencia Artificial, por lo general, las personas se imaginan en las cosas que nos muestran las películas de Hollywood, en aquellas películas en donde los robots nos invaden o nos controlan, pero la realidad es que estamos muy alejados de llegar hasta allá.

La verdad es que la Inteligencia Artificial la usamos diariamente en nuestras vidas, mientras utilizamos nuestro celular o abrimos las aplicaciones de redes sociales, como Instagram, YouTube.

Curso Teórico-Práctico: Machine Learning para no programadores

Tomando en cuenta esta informaci√≥n debemos saber que ning√ļn desarrollo de Inteligencia Artificial se puede ejecutar si no se cuenta con datos. Los datos es la parte fundamental y m√°s importante de cualquier proyecto dentro de esta √°rea.

aprende f√°cilmente inteligencia artificial - newsletter

Incluso, se puede decir, que los datos serán los que determinarán el éxito de un proyecto. Si contamos con buenos datos obtendremos buenos resultados en nuestro proyecto, en cambio, si tenemos malos datos obtendremos resultados mediocres.

Y, justamente es, en este elemento en donde se empiezan a ver los principales problemas, porque muchas veces los datos cuentan con sesgos.

Varios estudios han demostrado que los sistemas de Inteligencia Artificial pueden captar f√°cilmente los sesgos si en su dise√Īo o en los conjuntos de datos que se utilizan no se eval√ļan cuidadosamente.

Y esto lo vimos en el 2014 con el famoso caso de un desarrollo de Inteligencia artificial que hab√≠a hecho Amazon. Para ese a√Īo esta compa√Ī√≠a implemento un modelo que evaluaba las hojas de vida de los candidatos y era la encargada de elegir quien pasa a la siguiente etapa de reclutamiento y quien no. Todo esto se hac√≠a de manera autom√°tica y estuvo funcionando por un buen tiempo hasta que en el 2015 los desarrolladores se dieron cuenta que el modelo solamente eleg√≠a candidatos hombres para puestos de desarrollo de software y otros puestos relacionados con la tecnolog√≠a. Este modelo desechaba por completo a cualquier candidata mujer para dichos puestos. Obviamente, esto era inaceptable por lo que los desarrolladores intentaron solucionar el problema sin √©xito y poco tiempo despu√©s tuvieron que quitar esta implementaci√≥n para su proceso de reclutamiento.

Pero, ¬Ņqu√© paso ac√°? ¬ŅD√≥nde ocurri√≥ el problema?

Curso Te√≥rico-Pr√°ctico:Generaci¬ī√≥n de Texto con Inteligencia Artificial

El problema se presento porque los datos que se utilizaron para entrenar el modelo eran de hac√≠a 10 a√Īos, es decir eran datos de reclutamiento recolectados desde el 2004, cuando un gran porcentaje de los solicitantes eran hombres, y por ende los contratados tambi√©n eran hombre, por lo que el modelo aprendi√≥ que todas las personas que pod√≠an ocupar estos puestos solamente ten√≠an que ser hombres y no mujeres.

Fíjense que acá el problema fueron los datos que se utilizaron al principio, que fueron datos sesgados, por lo tanto, el modelo tenía un resultado sesgado.

Pero acá justamente vemos otro de los grandes problemas que ocurre en los desarrollos de Inteligencia Artificial, es que al momento de realizar el proyecto, los desarrolladores debieron tomar un tiempo para analizar los datos con que contaban y entenderlos mejor y justamente durante ese análisis se hubiesen dado cuenta del desbalance de los datos favoreciendo a los candidatos masculinos sobre las mujeres, por lo que se hubiese tomado acción desde el principio y no unos meses después de haber implementado el modelo.

En todos los desarrollos enfocados a la Inteligencia Artificial se deben examinar con mucho cuidado de dónde proceden los datos y qué sesgos pueden existir dentro de ellos. Porque no solamente se pueden encontrar sesgos de genero sino también de raza, religión y muchos otros.

Es normal entender que como seres humanos podemos tener prejuicios y somos imperfectos e incluso podemos saber si alguien tiene ciertos prejuicios contra otra persona o un determinado grupo de personas. Sin embargo, se tiene la idea err√≥nea que los algoritmos y las m√°quinas son perfectas y que no pueden tener ning√ļn defecto similar al humano.

Pero la realidad no es así, cualquier desarrollo de Inteligencia Artificial depende de los datos y en parte de las decisiones que tome o no tome el desarrollador.

Y aunque contemos con una gran cantidad de buenos datos que pueden ayudar a cerrar las brechas de género, sigue existiendo la preocupación de si no se hacen las preguntas correctas en el proceso de recopilación de datos, incluso estando mujeres presentes durante el proceso, las brechas de género pueden en realidad aumentar cuando los algoritmos están mal informados. Incluso esto puede traer repercusiones negativas no solamente para las mujeres sino también para las empresas y sus economías.

Tomando en cuenta todo esto, es importante garantizar la diversidad y la inclusi√≥n en el dise√Īo y desarrollo de cualquier proyecto relacionado a la Inteligencia Artificial. Siempre ser√° importante incluir mujeres dentro de los procesos para se√Īalar los problemas de los desarrollos que podr√≠an no ser tan f√°ciles de detectar por un hombre que no ha sentido el mismo impacto en la discriminaci√≥n cada d√≠a.

Inclusive, en ocasiones lo que puede parecer un enfoque neutro desde el punto de vista de g√©nero puede en realidad estar orienta hacia el hombre por defecto, por lo que la forma correcta de dise√Īar un producto ser√≠a contar con un equipo diverso.

Pero ese no es el √ļnico ejemplo de la vida real en donde se haya encontrado sesgo en alg√ļn desarrollo de Inteligencia Artificial, varios investigadores han descubierto que los sistemas de reconocimiento de voz, como Siri o Alexa, funcionan peor para las mujeres que para los hombres, y esto es porque est√°n entrenados para entender mejor una voz gruesa, la del hombre, que una voz m√°s suave, como la que tenemos las mujeres.

Otro ejemplo fue el que se presento en el 2019 cuando Facebook permit√≠a a sus anunciantes orientar intencionalmente los anuncios en funci√≥n del genero, pero tambi√©n de acuerdo a su raza y religi√≥n.  Esto ocasionaba que las mujeres siempre ten√≠an prioridad en los anuncios de empleo relacionados a enfermer√≠a o secretariado mientras que los anuncios de empleo para conserjes y taxistas se mostraban mayoritariamente a hombres y en particular a hombres de entornos minoritarios. Facebook, al detectar esto ya no permite a los empleadores especificar esta informaci√≥n en sus anuncios.

Pero ¬Ņcu√°l fue el problema presentado ac√°?

Ac√° el problema es que le estaban ense√Īando al modelo de Inteligencia Artificial qu√© empleos eran espec√≠ficos para mujeres y cuales eran para los hombres, por lo que lo estabas educando al modelo para que fuera sesgado de acuerdo al genero de la persona, pero inclusive tambi√©n de acuerdo a su raza y religi√≥n.

Ahora bien, involucrar mujeres dentro de los proyectos de Inteligencia Artificial no es tan fácil como parece ya que, como Bloomberg lo indico en el 2017, en las ocho grandes empresas tecnológicas solamente el 20% de los puestos técnicos están ocupados por mujeres. Por lo que las organizaciones tecnológicas no solo contratan menos mujeres que hombres, sino que también las pierden a un ritmo más rápido.

Tambi√©n tenemos que tomar en cuenta que, a nivel mundial, las mujeres representamos solo el 25% de los trabajadores en ciencia, tecnolog√≠a, ingenier√≠a y matem√°ticas (STEM), y de esta cifra solo el 9% son l√≠deres en esos campos, estos son n√ļmeros dados por el Boston Consulting Group.

Tomando en cuenta esta información tenemos que incentivar con más fuerza que las mujeres se involucre en las tecnologías y de una manera orientarlas y ayudarlas para ir avanzando dentro de cada área y, aunque la velocidad a la que avanza la Inteligencia Artificial significa que no puede esperar a una nueva generación para corregir estos posibles sesgos, debe ser un trabajo combinado entre gobiernos, instituciones académicas y empresas.

Toda esta informaci√≥n sobre los sesgos de genero presentes en los desarrollos de Inteligencia Artificial no es nueva, inclusive ya muchas empresas y organizaciones tanto particulares como de gobiernos han estado trabajando para evitarlos, pero a√ļn falta mucho para poder tener alg√ļn resultado satisfactorio.

Muchas de las propuestas que se han presentado y que las empresas pueden empezar a implementarlos son:

  • Involucrar a las mujeres dentro de los desarrollos de los proyectos de Inteligencia Artificial.
  • Tener una constante supervisi√≥n en las aplicaciones implementadas en Inteligencia Artificial para evaluar si ocurre alguna desviaci√≥n o favorecimiento de un genero sobre otro.
  • Proporcionar m√°s visibilidad a las mujeres existentes en el campo para que su trabajo tenga m√°s impacto.
  • Crear programas de tutor√≠as para que las mujeres que tengan inter√©s en el √°rea no abandonen el campo sino m√°s bien sigan con sus estudios.

Recuerden la tecnología puede beneficiar o perjudicar a las personas, por lo que el uso de la misma debe es responsabilidad de cada uno de nosotros en su conjunto, no solo de los desarrolladores.

Con esto finalizamos la explicaci√≥n. Ya conoces un poco m√°s sobre la Inteligencia Artificial y el sesgo de g√©nero, por lo tanto te dejo la siguiente pregunta, ¬ŅCu√°les de las siguientes afirmaciones crees t√ļ que sea cierta?

Opción 1: El sesgo puede ocurrir en cualquier proyecto de Inteligencia Artificial sino se revisa con cuidado los datos.

Respuesta Correcta.

Opción 2: Se deben incluir mujeres en los desarrollos de Inteligencia Artificial.

Respuesta Correcta.

Opción 3: Se debe tener una constante supervisión en las aplicaciones implementadas en Inteligencia Artificial para evaluar si ocurre alguna desviación o favorecimiento de un genero sobre otro.

Respuesta Correcta.

Deja un comentario

Tu dirección de correo electrónico no será publicada.