¿Cuáles son los problemas de la Inteligencia Artificial?

Desde 1927 hasta la fecha se han producido más de 100 películas en todo el mundo sobre la Inteligencia Artificial. Y mientras que algunos escenarios son representados de manera satisfactoria, el resto lo muestran como lo peor que nos puede ocurrir. En películas como Terminator, Matix e inclusive Avengers, la industria cinematográfica nos mostro cómo las máquinas más inteligentes se apoderaban del mundo y esclavizaban o borraban toda la humanidad. Estas películas nos muestran cómo las Inteligencias Artificiales se vuelven superiores a la inteligencia humana.

A su vez, cada día son más los países que están entrando en la carrera por desarrollar Inteligencia Artificial para implementarlos en áreas como la educación, medicina y muchas otras áreas. Inclusive la idea es que estos desarrollos de Inteligencia Artificial sean capaces de completar procesos paralelos de la inteligencia humana.

Por lo tanto, ¿qué cuestiones éticas y prácticas deberíamos considerar mientras avanzamos a todo vapor en la adopción de la tecnología de Inteligencia Artificial? ¿qué riesgos y responsabilidades deben tener en cuenta los innovadores? Si estos desarrollos carecen de empatía, instinto y sabiduría en la toma de decisiones, ¿debería limitarse su integridad en la sociedad y de ser así, de qué manera?

Veamos a continuación, algunos de las creencias que tiene la población al momento de escuchar la implementación de la Inteligencia Artificial.

El desempleo, ¿reemplazará la Inteligencia Artificial a los trabajadores humanos?

La preocupación más inmediata para muchos es que los sistemas habilitados para la Inteligencia Artificial sustituirán a los trabajadores de una amplia gama de industrias. Sin embargo, cada vez está más claro que la Inteligencia Artificial no elimina el trabajo, sino más bien, cambia la categoría del trabajo.

Como ha sucedido con cada oleada de tecnología, a medida que hemos inventado formas de automatizar los trabajos, podríamos crear un espacio para que las personas asuman más complejos, pasando del trabajo físico que dominaba el mundo preindustrial al trabajo cognitivo que caracteriza el trabajo estratégico y administrativo en nuestra sociedad globalizada.

Un ejemplo de esto lo vemos en el transporte por carretera, actualmente emplea a millones de personas solo en los Estados Unidos, ¿qué sucederá si los camiones automanejados desarrollados por Tesla se difunden ampliamente en los próximos años? Pero, por otro lado, si consideramos el menor riesgo de accidentes, los camiones automanejados parecen una elección ética. El mismo escenario podría ocurrir a los trabajadores de oficina, así como a la mayoría de la fuerza de trabajo de los países desarrollados.

Por lo tanto, veremos que el empleo se desplaza de un lugar a otro y se crean categorías de empleo totalmente nuevas. Podemos y debemos esperar lo mismo en la economía basada en la Inteligencia Artificial. La investigación y la experiencia están demostrando que es inevitable que se reemplace categorías enteras de trabajo.

Por otro lado, las empresas se liberarán para dedicar sus recursos humanos a tareas mucho mejores y de mayor valor en lugar de tomar pedidos, atender simples solicitudes o quejas de servicio al cliente, o tareas relacionadas con el ingreso de datos.

Si tenemos éxito en la transición, un día podríamos mirar hacia atrás y pensar que fue una barbaridad que los seres humanos se vieran obligados a vender la mayor parte de su tiempo de vigilia solo para poder vivir.

Seguridad, ¿queremos que la gente malvada tenga fácil acceso a la tecnología de la Inteligencia Artificial?

Cuanto más poderosa se vuelve una tecnología, más puede ser utilizada tanto por razones nefastas como buenas. Esto se aplica no solo a los robots producidos para reemplazar a los soldados humanos, o a las armas autónomas, sino también a los sistemas de Inteligencia Artificial que pueden causar daños si se usan con malicia. Debido a que estas luchas no se librarán solo en el campo de batalla, la ciberseguridad será aún más importante. Después de todo, estamos tratando con un sistema que es más rápido y más capaz que nosotros por órdenes de magnitud.

A medida que estos sistemas se vuelven más inteligentes pueden cambiar la naturaleza de las amenazas, haciéndolas más difíciles de detectar, de apariencia más aleatoria, más adaptables a os sistemas y entornos, y más eficientes en la identificación y focalización de las vulnerabilidades en los sistemas. Esto debería ser aterrador.

Por esta razón, tenemos que empezar a pensar en cómo estamos construyendo y gestionando nuestra infraestructura digital, así en cómo diseñamos y distribuimos los sistemas de Inteligencia Artificial.

Además,  los proveedores de servicios de Machine Learning, especialmente los servicios basados en la nube bajo demanda, deben tener en cuenta quiénes son sus clientes. Si los usuarios maliciosos están utilizando sus plataformas para realizar ataques distribuidos habilitados para la Inteligencia Artificial u otros actos delictivos, entonces, al igual que las instituciones financieras, los gobiernos comenzarán a tomar medidas enérgicas contra estos proveedores e impondrán nuevas formas de reglamentos. Si estos proveedores de plataformas no quieren estar en el extremo equivocado del ciclo normativo, necesitan adelantare a la curva y comenzar sus propios esfuerzos para asegurarse de que saben quiénes son sus clientes y qué están haciendo en sus plataformas.

Derechos de los robots, ¿tendrán derechos las máquinas inteligentes?

A medida que las máquinas se vuelven más inteligentes, nos preguntamos ¿cómo deben ser tratadas y vistas en la sociedad? Una vez que las máquinas puedan simular realmente las emociones y actuar de forma similar a los seres humanos, ¿cómo deben ser gobernadas?

En marzo de 2018 un vehículo autónomo golpeó y mató a un peatón. La gente estaba indignada de que una máquina matara a un ser humano. Pero, ¿por qué la gente se indignó por este accidente? Miles de personas mueren cada día en accidentes automovilísticos causados por humanos al volante. Adicionalmente, la probabilidad de eliminar todas las muertes relacionadas con el tráfico es casi seguro del 0%. Por lo tanto, si queremos tener vehículos autónomos en la carretera, este escenario se repetirá una y otra vez.

Por su parte, en 2017, el robot humanoide Hanson Robotics, Sophia, obtuvo la ciudadanía en Arabia Saudita. Aunque algunos consideran que esto es más un truco de relaciones públicas que un reconocimiento legal real, es un ejemplo del tipo de derechos que pueden concederse en el futuro.

Por lo tanto, tenemos que hacernos estas preguntas, averiguar qué podemos aceptar y qué es ético, y poner en marcha leyes y reglamentos ahora para salvaguardarnos de futuras tragedias.

La Inteligencia Artificial es imperfecta, ¿cómo podemos protegernos de los errores?

Los agentes de Inteligencia Artificial no son inmunes a cometer errores y Machine Learning toma tiempo para ser útil. Si se entrenan bien, usando buenos datos, entonces la Inteligencia Artificial puede funcionar bien. Sin embargo, si alimentamos a los sistemas con datos malos o cometemos errores con la programación interna, la Inteligencia Artificial pueden ser perjudiciales. Por ejemplo, el chatbot de Inteligencia Artificial de Teka Microsoft, Tay que fue lanzado en Twitter en 2016, en menos de un día, debido a la información que recibía y aprendía de otros usuarios de Twitter, aprendió a lanzar insultos racistas y propaganda nazi. Microsoft tuvo que cerrar el chatbot inmediatamente ya que de continuar hubiese dañado la reputación de la compañía.

Obviamente, la fase de entrenamiento no puede abarcar todos los ejemplos posibles que un sistema puede tratar en el mundo real. Estos sistemas pueden ser engañados de manera que los humanos no lo harían. Por ejemplo, los patrones de puntos aleatorios pueden llevar a una máquina a ver cosas que no están ahí. Si confiamos en la Inteligencia Artificial para que nos lleve a un nuevo mundo de trabajo, seguridad y eficiencia, tenemos que asegurarnos de que la máquina funcione como se ha planeado y que la gente no pueda dominarla para usarla para sus propios fines.

Robots racistas, ¿cómo eliminamos el sesgo de la Inteligencia Artificial?

La Inteligencia Artificial es cada vez más inherente a los sistemas de reconocimiento facial y de voz, algunos de los cuales tienen implicaciones comerciales reales y afectan directamente a las personas.

Estos sistemas son vulnerables a los sesgos y errores introducidos por sus creadores humanos. Además, los datos utilizados para entrenar estos sistemas en sí mismos pueden tener sesgos. Por ejemplo, los algoritmos de reconocimiento facial por Microsoft e IBM, todos tenían sesgos al detectar el género de las personas. Estos sistemas de Inteligencia Artificial fueron capaces de detectar el género de los hombres blancos con más precisión que el género de los hombres de piel más oscura.

De manera similar, la terminación de la contratación y reclutamiento de la Inteligencia Artificial de Amazon es otro ejemplo que demuestra que la Inteligencia Artificial no puede ser justa. El algoritmo prefería a los candidatos masculinos sobre los femeninos. Esto se debió a que el sistema de Amazon fue entrenado con datos recolectados durante un período de 10 años que provenían en su mayoría de candidatos masculinos.

Se podría argumentar que las máquinas inteligentes no tienen una brújula moral ni un conjunto de principios como nosotros los humanos. Sin embargo, incluso nuestra brújula moral y principios a veces no benefician a la humanidad en su conjunto.

No debemos olvidar que los sistemas de Inteligencia Artificial son creados por humanos, que pueden ser parciales y sentenciosos. Una vez más, si se usa correctamente, o si es usada por aquellos que se esfuerzan por el progreso social, la Inteligencia Artificial puede convertirse en un catalizador para el cambio positivo.

La idea de los sistemas de Inteligencia Artificial cada vez más presentes que superan la inteligencia humana es aterradora. Y las cuestiones éticas que vienen con la adopción de la Inteligencia Artificial son complejas. Nos gustaría pensar que con las aportaciones del público y las cuestiones y preocupaciones éticas que se plantean ahora, podemos crear un futuro que no sea tan sombrío. Siempre habrá malos actores que tratarán de influir y manipular. Las empresas, las organizaciones y los ciudadanos deberían seguir haciendo preguntas, seguir trabajando para construir una Inteligencia Artificial ética y seguir intentando luchar contra los ataques maliciosos porque la Inteligencia Artificial está llegando, estemos o no preparados.

Con esto finalizamos la explicación. Ya tienes una base de los obstáculos que tenemos que tomar en cuenta al momento de trabajar con la Inteligencia Artificial, por lo tanto te dejo la siguiente pregunta, ¿Cuáles de las siguientes afirmaciones crees tú que sea cierta?

Opción 1: La Inteligencia Artificial eliminará todos los empleos por lo que abra una alta tasa de desempleo.

Respuesta Incorrecta. la Inteligencia Artificial no elimina el trabajo, sino más bien, cambia la categoría del trabajo.

Opción 2: La ciberseguridad será un punto importante a medida que avanza los proyectos en Inteligencia Artificial.

Respuesta Correcta.

Opción 3: La Inteligencia Artificial es racista.

Respuesta Incorrecta. Los sistemas de Inteligencia Artificial son creados por humanos, que pueden ser parciales y sentenciosos.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *