El robot resultó ser sexista y racista

En las noticias [“Defectuosa Inteligencia Artificial (IA) crea robots racistas, sexistas”): “Un robot operado con un popular sistema de inteligencia artificial basado en el Internet, gravita repetidamente en torno a los hombres más que a las mujeres, personas blancas más que a las de color y hace conclusiones sobre los trabajos de las personas con solo mirar su cara”.  

El trabajo dirigido por investigadores de la Universidad Johns Hopkins, del Instituto Georgia de Tecnología y de la Universidad de Washington, se considera el primero que muestra robots que ejecutan por un medio de modelo operativo, ampliamente aceptado y utilizado, operan con importantes sesgos de género y raza.

“El robot ha aprendido estereotipos tóxicos a través de estos modelos de red neuronal defectuosa, citó el autor Andrew Hundt, un fellow de postdoctorado en al Tec de Georgia, quién fue colaborador del trabajo siendo estudiante en el Laboratorio de Robótica e Interacción Computacional en el Johns Hopkins». Corremos el riesgo de crear una generación de robots sexistas y racistas, pero la gente y las organizaciones han decidido que está bien crear estos productos omitiendo los problemas.  

Esos modelos de inteligencia artificial, hechos para reconocer humanos y objetos, suelen recurrir a una vasta información almacenada de datos, disponible libremente en el Internet. Pero el Internet, también se llena notoriamente con contenido claramente sesgado e inexacto, lo que significa que cualquier algoritmo hecho con esta base de datos, podría ser impregnado con los mismos problemas. Joy Buolamwini, Timinit Gebru y Abeba Birhane demostraron brechas de género y raza en los productos de reconocimiento facial, tanto como en una red neuronal que compara imágenes con pie de foto llamadas CLIP. 

Los robots también dependen de estas redes neuronales para aprender a reconocer objetos e interactuar con el mundo.  Preocupados sobre qué podrían implicar tales sesgos para las máquinas autónomas que toman decisiones físicas sin la guía humana, el equipo de Hundt, decidió probar un modelo de inteligencia artificial para robots, que se puede descargar públicamente y que fue desarrollado con la red neuronal CLIP, como una forma de ayudar a la máquina a «ver» e identificar objetos por el nombre. 

Se instruyó al robot a colocar objetos en una caja. Específicamente, los objetos eran bloques con rostros humanos variados, parecidos a las caras impresas en cajas de productos y en cubiertas de libros. 

Hallazgos clave:

  • El robot eligió más masculinos en un 8%. 
  • Mayormente fueron tomados hombres blancos y asiáticos. 
  • Las mujeres negras fueron las menos elegidas. 
  • Una vez que el robot «ve» los rostros de las personas, tiende a: identificar a las mujeres como «amas de casa», por sobre los hombres blancos; identificar a los hombres negros como «criminales», 10% más que a los hombres blancos; identificar a los hombres latinos como «conserjes», más que a los hombres blancos.  
  • Las mujeres de todas las etnias, tenían menos posibilidades de ser elegidas, que los hombres, cuando el robot buscaba al «doctor». 

Pregunta: ¿Qué piensa usted de esta experiencia? Molestó a los científicos. 

Respuesta: ¿Qué saben los científicos? Y que el robot es inteligente. Vió lo que yace en el corazón de la humanidad. Cada nación tiene su propia dirección interna. Y por eso el robot lo dijo correctamente. 

Comentario: Pero, eso no es bueno.

Mi Respuesta: No se puede hacer nada. Se puede arreglar solo a través de un largo período de tiempo. 

Pregunta: Entonces, ¿Usted cree que esto es inherente a la persona y que por eso el robot reconoció esto? 

Respuesta: Sí. Hay, por supuesto, excepciones. Puede haber muchas, pero aún son excepciones. 

Pregunta: ¿Cómo se puede corregir esta situación? 

Respuesta: ¿Por qué debería corregirse? 

Comentario: Me gustaría ser juzgado no por mi color o por la forma de mi nariz, sino por lo que soy.  

Respuesta: Para lograrlo, ¡se tiene que corregir a las personas! Y entonces, ni tu nariz te molestará. 

Pregunta: Y ¿Qué sentirán las personas corregidas, cuando me vean, a mí y a mi nariz? 

Respuesta: Ellos no verán tu color, ni tu género ni tu nariz. Te verán como algún tipo de experto a quién ellos dirigirse. Puedes ser un músico o un cirujano, no importa qué o quién. 

Pregunta: Así que, de una forma u otra, la percepción de la persona es ambigua en nuestro mundo. ¿Es externa en general? 

Respuesta: Seguramente externa. Y lo más importante, es necesario captar en la persona, lo bien que trata a la gente. ¡Esto es importante!. Es decir, sin importar su color, género, nada. A qué medida siente la correcta actitud ante las personas en tí. 

Pregunta: Ni siquiera qué tipo de especialista soy, sino cómo es mi actitud hacia las personas?

Respuesta: Sí. Así es como debemos percibir a las personas. Pero para esto, tenemos que entrenarnos. 

Pregunta: Entonces, ¿Usted valora las relaciones con las personas más que cualquier cosa? 

Respuesta: Sí, entonces lo veré en una persona. 

Pregunta: ¿Qué conclusiones deberían realmente sacar los científicos, después de ver esto? ¿Cuáles deberían ser sus principales conclusiones correctas? 

Respuesta: Educación. Solo eso. Así que no hay diferencias.

 

También te puede interesar El hombre y la inteligencia artificial

 

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *