banner
Hogar / Blog / Las imágenes de IA de mujeres de todo el mundo se han vuelto virales. ¿Promueven el colorismo y los estándares culturales de belleza?
Blog

Las imágenes de IA de mujeres de todo el mundo se han vuelto virales. ¿Promueven el colorismo y los estándares culturales de belleza?

Jul 19, 2023Jul 19, 2023

¿Cómo es una mujer "hermosa" de la India?

¿Qué pasa con Filipinas o Laos?

La Inteligencia Artificial (IA) pretende tener la respuesta.

Las imágenes generadas por IA de "mujeres hermosas" de todo el mundo se han vuelto virales durante meses.

Un vídeo de TikTok que presenta imágenes de IA de mujeres del sur y este de Asia, publicado recientemente por una cuenta llamada AI World Beauties, tiene más de 1,7 millones de visitas.

Sin embargo, los expertos dicen que debido a que están "entrenados" en conjuntos de datos sesgados y estereotipos, las imágenes pueden perpetuar ideales limitados, excluyentes y potencialmente dañinos.

Las imágenes que se vuelven virales son creadas por programas conocidos como "IA generativa" o "GenAI".

"GenAI es un tipo de inteligencia artificial impulsada por modelos de aprendizaje automático", dijo a ABC Shibani Antonette, profesora de ciencia de datos e innovación en la Universidad Tecnológica de Sydney.

"Utiliza patrones e información aprendida de millones de puntos de datos para crear contenido nuevo que nunca antes existió".

La Dra. Antonette dice que la calidad y diversidad de los datos de entrenamiento determinan el resultado de un generador de imágenes.

Al ser contactado por ABC, el creador del vídeo viral dijo que utilizaron un modelo de difusión llamado Midjourney para generar las imágenes.

Se negaron a ser nombrados en la historia o hacer más comentarios.

Piel clara, narices finas, labios carnosos y pómulos altos.

Según los videos virales, las mujeres "hermosas" comparten estos mismos rasgos.

El sesgo es "un problema grave" en las tecnologías de generación de imágenes y reconocimiento facial, afirma la Dra. Antonette.

"Los modelos pueden crear una realidad distorsionada al amplificar los prejuicios y estereotipos sobre raza y género", afirma.

"La mayoría de las imágenes generadas perpetúan el colorismo y los estándares culturales de belleza".

Al observar las imágenes virales de IA, la Dra. Antonette dice que el modelo que las generó probablemente "no tenía un conjunto de datos de entrenamiento diverso que contuviera muchas caras de personas de color con diferentes tonos y formas de piel".

"Después de todo, los datos para estos modelos se extraen de todo Internet durante las últimas décadas (sin responsabilidad sobre la cobertura, la diversidad y la inclusión) para atender aplicaciones específicas".

Asia Jackson a menudo hace que la gente adivine su origen étnico y, por lo general, dice "no te ves así" cuando se lo dice a la gente.

La actriz y creadora de contenido negra y filipina dice que cuando era niña, ser "mixta" le creaba "muchos problemas de identidad".

Jackson, que ahora tiene 29 años, dice que tiene un sentido de sí misma y de identidad más fuerte.

"Definitivamente me ofendo mucho más cuando alguien me dice 'no parezco negro' o 'no parezco asiático'.

"Porque ambas categorías raciales contienen un espectro muy amplio de colores y rasgos de piel".

Lo mismo ocurre cuando la gente le dice a Jackson que "no parece filipina".

"Filipinas es un país con más de 7.100 islas y cientos de grupos étnicos diferentes", afirma.

Jackson se siente "bastante indiferente" ante las imágenes virales de IA.

"La IA no hace más que copiar el comportamiento humano, por no inclusivo o políticamente correcto que sea", afirma.

"Esto no es nada diferente de lo que sucede en la vida real.

"Al mismo tiempo, realmente no creo que sea posible incluir la gran diversidad de características o etnias de cada país en un vídeo de 30 segundos".

Cuando Ishara Sahama vio por primera vez las imágenes de arriba, las encontró "casi etéreas".

Entonces se dio cuenta de que lo que estaba viendo eran "los estándares de belleza más aceptados de cada grupo étnico".

"La diversidad de grupos étnicos dentro de cada país se generaliza en un modelo. Es reduccionista y está lejos de reflejar la diversidad de esos países", dice.

El cofundador de 25 años de la agencia de diseño estratégico Echo Impact Group ha sido confundido con indios, paquistaníes, árabes e indígenas australianos.

Ella es de Sri Lanka, de origen cingalés, tamil y malayo.

"Asumir la propia etnia y luego asociarlos con ella sin preguntar es lo que más me molesta".

Ella dice que son los "estereotipos de belleza" que se ven en estas imágenes de IA los que hacen que la gente piense que hay "una mirada" para cada etnia.

"Cuando la gente ve estas imágenes de mujeres hechas por IA, pueden asociar esas características con el aspecto de una mujer india, paquistaní o, en mi caso, de Sri Lanka", dice.

"Claramente no me parezco a esas imágenes.

"Creo que esta IA tiene la capacidad de desafiar perspectivas e identidades. Pero desafortunadamente, el arte de la IA sólo puede responder a los datos que tiene".

Cada característica de estas imágenes generadas por IA encaja en lo que se considera "la minoría modelo", dice Kriti Gupta.

"Son todas las partes de nuestro grupo étnico las que Internet [que se basa en las preferencias de la sociedad] considera atractivas".

Gupta, una india australiana de 27 años que trabaja en consultoría y estrategia de redes sociales, dice que no se ve en ninguna de las imágenes.

"Son en lo que todo hombre piensa cuando tiene un 'fetiche por las chicas morenas'", dice.

Gupta dice que la gente ha asumido que es española, mexicana, marroquí o de otros países latinoamericanos.

"Creo que siempre estoy en un punto medio: ¿por qué asumes mi origen étnico? ¿Qué valor aporta eso a esta conversación?". ella dice.

"Sólo menciono mis antecedentes cuando siento que son relevantes para la conversación".

Como muchas mujeres del sur de Asia, Gupta hizo cambios en su apariencia en Australia.

Se tiñó de rubio y no se preocupó por dejar que su piel morena se oscureciera por estar bajo el sol, admitiendo que era para hacerse más atractiva a la mirada masculina aquí.

"Pero luego iba a la India y me bañaba en crema blanqueadora para encajar allí", dice.

Aun así, Gupta sabe que en realidad no ve cómo lucen la mayoría de las mujeres del sur de Asia en esas imágenes de IA.

"Estamos viendo imágenes blanqueadas", dice.

"La mayoría de las veces, estas plataformas de IA son creadas por hombres, y la mayor parte de la codificación que se incluye en estos algoritmos para crear estas imágenes a partir del uso mundial de Internet está obsesionada con el uso occidental".

Académicos y activistas han advertido que los conjuntos de datos utilizados para entrenar modelos de IA están sesgados.

Y puede resultar problemático.

Un estudio de investigación de la Universidad de Cornell de marzo de este año reveló cómo los populares modelos de IA producían imágenes de hombres con tonos de piel más claros para trabajos bien remunerados como "abogado", "juez" o "CEO".

Mientras que las personas de piel más oscura estaban sobrerrepresentadas en profesiones peor pagadas, como "conserje" y "trabajador de comida rápida".

Si bien no hay una respuesta que lo abarque todo, la Dra. Antonette señala algunas acciones clave.

"Los desarrolladores de tecnología y las empresas que implementan servicios deberían garantizar que su IA sea justa y equitativa diversificando sus conjuntos de datos y evitando la sobrerrepresentación de ciertos grupos de personas", afirma.

"Deberían considerar las implicaciones de cómo su tecnología podría extenderse a contextos distintos de aquellos para los que fue construida originalmente".

La Dra. Antonette afirma que también es fundamental que los investigadores mejoren su rendición de cuentas y su transparencia.

"Esto se logra mediante la publicación de modelos de código abierto que otros pueden criticar y desarrollar agregando datos más diversos", dice.

Quienes también usan y ven la IA deben hacerlo de manera crítica y responsable, dice la Dra. Antonette.

"La creación de imágenes sintéticas sesgadas puede alimentar sin darse cuenta sesgos futuros, enredándonos en un círculo vicioso.

"Aceptar la diversidad de datos, defender la transparencia y utilizar cuidadosamente las herramientas de IA puede llevarnos hacia un futuro en el que la IA beneficie a todos, sin perpetuar estereotipos dañinos".