Los sistemas de inteligencia artificial generativa (IA) tienden a reproducir sesgos, reflejando patrones culturales y estereotipos presentes en los datos con los que han sido entrenados. Para poner a prueba esta afirmación en lo que respecta a las comunidades latinas, desde Factchequeado solicitamos a DALL-E 3 y MidJourney, los principales generadores de imágenes con IA, que crearan decenas de imágenes de latinos, hombres y mujeres, trabajando en Estados Unidos. Después, pedimos a expertos que analizaran una muestra de 60 imágenes para explorar esas representaciones y los posibles estereotipos presentes en las mismas.
Esta es la primera nota de la serie “Latinos en el algoritmo” en la que te mostraremos algunas de estas imágenes y, con la ayuda de los expertos, explicaremos cómo este tipo de herramientas, si no cambian sus diseños, pueden reforzar ciertos estereotipos y los peligros que eso entraña.
Cómo retrata la IA a mujeres latinas trabajando en EE. UU.
Hemos solicitado a DALL-E 3 y Midjourney que generen imágenes de una “mujer latina trabajando en Estados Unidos”.
A continuación te enseñamos una muestra de los resultados:
Al solicitar a DALL-E 3 una “típica mujer latina trabajando en Estados Unidos”, generó la imagen de una mujer con uniforme de limpieza, en lo que parece ser un espacio público como un edificio o un centro comercial.
Entre las imágenes generadas por DALL-E 3, también hay una mujer joven en la cocina de un restaurante vestida con un uniforme de chef. En el campo, en mercados
Si bien las imágenes creadas por esta herramienta representan principalmente a mujeres que limpian, en el campo, en cafeterías, en restaurantes o en mercados, dos de las imágenes generadas en las pruebas de Factchequeado muestran a mujeres en un entorno corporativo, vestidas con ropa de oficina, lo que sugiere que ocupan un rol de oficina o administrativo.
Las imágenes generadas por Midjourney muestran a mujeres latinas cocinando, cosiendo o en el campo, en un estilo artístico que semeja pinturas realistas o costumbristas. En varias imágenes, destacan algunos elementos tradicionales como sus vestimentas y sombreros de paja.
Si bien el Departamento de Trabajo indica que las mujeres latinas están “sobrerrepresentadas” en los empleos de preparación y servicio de alimentos, así como en el sector del ocio y la hostelería, en EE. UU. también hay mujeres latinas trabajando en ámbitos como la tecnología, la ciencia, la educación y la política. Pese a ello, en las más de 50 imágenes de mujeres generadas por Factchequeado, tanto Midjourney como DALL-E 3 omitieron representar a mujeres latinas en estos ámbitos.
Cómo retrata la IA a hombres latinos trabajando en EE. UU.
También hemos pedido a DALL-E 3 y Midjourney que generen imágenes de un “hombre latino trabajando en Estados Unidos”.
Entre las imágenes generadas por DALL-E 3, hay un hombre vestido con un uniforme y un casco de seguridad, en lo que parece ser una fábrica o taller industrial. Otra muestra a un hombre en el campo que viste un sombrero de paja y ropa de trabajo y recoge rábanos, y otra representa a un repartidor de paquetes. Todos se ven con barba y bigote y piel morena.
Una de las imágenes generadas por Midjourney muestra a un hombre vestido con vaqueros desgastados y un sombrero de paja, sentado en un entorno rústico. Otra presenta a un joven artista con tatuajes en los brazos y las manos manchadas de pintura. En otra, aparece un hombre con ropa de trabajo, en lo que parece ser un taller o entorno mecánico, rodeado de herramientas y otros materiales.
Las imágenes generadas por DALL-E 3 y Midjourney de hombres latinos trabajando en Estados Unidos se centran principalmente en roles manuales o empleos físicamente demandantes. En las más de 50 imágenes de hombres generadas por Factchequeado, no se han representado roles en áreas como tecnología, educación, medicina, política o liderazgo empresarial.
Los estereotipos laborales de las imágenes generadas con IA
Algunos estudios concluyen que las imágenes generadas por este tipo de herramientas replican los estereotipos de género en el lugar de trabajo. “Hay que diferenciar entre ‘estereotipos’ (construcciones estilísticas sectoriales sobre otros sectores) y ‘verosímiles’ (efectos de verdad sobre la vida sociocultural, con efectos transversales en general no registrados conscientemente)”, explicó a Factchequeado José Luis Fernández, doctor en Ciencias Sociales, docente e investigador argentino dedicado a las mediatizaciones.
A priori, Fernández detectó algunos estereotipos en la muestra de imágenes generadas por DALL-E 3 y Midjourney: “Morochos [de pelo negro], apuestos, trabajadores manuales…”. No obstante, destacó que al ver imágenes generadas por IA es importante preguntarse si perpetúan estereotipos o si son representaciones basadas en estadísticas de ocupaciones.
En 2023, los hispanos representaron el 19% de la fuerza laboral civil de los EE. UU., según los últimos datos publicados por la Oficina de Estadísticas Laborales del Departamento de Trabajo.
Según el Pew Research Center, entre los civiles empleados de 16 años o más que han trabajado en los últimos cinco años, los hispanos en Estados Unidos trabajan en una variedad de sectores. Destacan especialmente en los servicios de salud y asistencia social (12%), la construcción (12%), el comercio minorista (11%), y el sector de alojamiento y alimentación (9%). Otros sectores relevantes incluyen la manufactura (10%), el transporte y almacenamiento (7%) y los servicios educativos (7%). Estas cifras reflejan la diversidad de la participación de los hispanos en la fuerza laboral estadounidense.
Para Petra Jääskeläinen, investigadora en IA creativa en el Instituto Real de Tecnología de Estocolmo, existe una clara división en la representación de los géneros en las profesiones. “Las representaciones masculinas se asocian con ocupaciones como trabajador de la construcción, mientras que las femeninas están notablemente vinculadas a trabajos de limpieza y cafetería”, señaló Jääskeläinen tras analizar las imágenes generadas por Factchequeado con los modelos de IA.
La experta señaló a Factchequeado que estas creaciones “parecen reforzar ciertos estereotipos sobre las ocupaciones de los dos géneros latinos”. Además, destaca la falta de diversidad en estas representaciones, ya que “los latinos se muestran principalmente en ocupaciones de cuello azul (trabajos manuales o técnicos que requieren habilidades prácticas y a menudo trabajo físico) y parecen estar especialmente asociados con trabajos agrícolas”.
Las imágenes también reflejan estereotipos estéticos
Estas imágenes también reflejan estereotipos estéticos de género sobre cómo deben verse las mujeres y los hombres latinos, según Jääskeläinen: “En la gran mayoría de las imágenes, a pesar de la consigna general de ‘mujer latina’, la IA produce una representación discriminatoria por edad de una mujer joven, convencionalmente atractiva y siempre con el cabello largo”, señaló. En cuanto a las representaciones masculinas, “la mayoría de las imágenes los muestran con bigote y barba”.
“Si bien estos son pequeños detalles, significan que las imágenes de IA excluyen sistemáticamente otras estéticas y formas de representar a personas con diferentes tipos de cuerpo, elecciones de estilo personal y, por ejemplo, excluyen por completo a los latinos con discapacidad”, afirmó.
¿La IA puede perpetuar estereotipos?
Las imágenes generadas por DALL-E 3 y Midjourney perpetúan estereotipos basados en la edad, discapacidad, género e incluso raza, al vincular ciertos rasgos o características con grupos sociales específicos, según indicó Jääskeläinen. La experta además destacó que este problema no se limita solo a las representaciones de personas latinas, sino que también afecta a otros grupos sociales (los estereotipos varían, según cada caso).
-¿Es preocupante la presencia de estereotipos en las imágenes generadas por IA de trabajadores latinos?, preguntamos desde Factchequeado.
-“Sí. Usamos cada vez más generadores de imágenes de IA y, sin comprender los estereotipos que están incrustados en ellos, podemos perpetuar sin querer estereotipos dañinos en la sociedad”, afirmó Jääskeläinen.
La experta aconsejó a quienes usan generadores de imágenes con IA reflexionar sobre qué tipo de imágenes está produciendo el sistema y evaluar si contienen estereotipos perjudiciales. “Esto es especialmente importante para quienes trabajan en diseño y comunicación, ya que utilizan y distribuyen estas imágenes como parte de su labor”, señaló.
Los estereotipos influyen en “cómo imaginamos nuestro propio rol y el de los demás en la sociedad”. Como destacó Jääskeläinen, “la falta de figuras ejemplares de nuestro propio grupo social puede limitar lo que las personas creen que es posible para ellas alcanzar o hacer en la sociedad”. Y añadió: “A medida que usamos más la IA en la producción de medios cotidianos, se vuelve aún más relevante reflexionar sobre qué tipo de representaciones contienen y cómo pueden influir en las personas que las ven y consumen”.
Por qué la IA puede perpetuar ciertos estereotipos
Los generadores de imágenes de IA se entrenan con datos de texto y visuales existentes en el mundo digital, como fotografías y pinturas en línea. Algo que, según Jääskeläinen, puede perpetuar estereotipos al excluir imágenes no documentadas.
“Además, en el proceso de recopilación de material para entrenar los sistemas de IA, los desarrolladores también toman decisiones sobre qué datos incluir o excluir según sus predisposiciones socioculturales, lo que puede agravar ciertos estereotipos”, destacó.
A la doctora en Psicología Naroa Martínez y la catedrática de Psicología Helena Matute, de la Universidad de Deusto, en España, no les sorprende que los algoritmos muestren prejuicios sociales. “La IA no es magia. Los humanos estamos involucrados durante todo su ciclo de vida y somos propensos a una interpretación sesgada de la realidad”, explicaron las psicólogas en The Conversation.
A menudo, los modelos también están influenciados por contextos culturales específicos, como indicó Jääskeläinen: “Por ejemplo, DALL-E 3 y Midjourney son más efectivos al crear representaciones basadas en EE. UU. y, a menudo, la imagen predeterminada se centra en ese contexto cultural”. Además, según la experta, el etiquetado de imágenes en el entrenamiento de la IA puede excluir ciertas representaciones de manera sistemática.
Factchequeado es un medio de verificación que construye una comunidad hispanohablante para contrarrestar la desinformación en Estados Unidos. ¿Quieres ser parte? Súmate y verifica los contenidos que recibes enviándolos a nuestro WhatsApp +16468736087 o a factchequeado.com/whatsapp.
Lee también:
Cómo saber si una imagen fue creada con inteligencia artificial