Del texto a la imagen: la AI  entre el sesgo y la imprecisión
Oaxaca
La Capital Los Municipios
El Imparcial del Istmo El Imparcial de la Costa El Imparcial de la Cuenca
Nacional Internacional Súper Deportivo Especiales Economía Estilo Arte y Cultura En Escena Salud Ecología Ciencia Tecnología Viral Policiaca Opinión

Opinión

Del texto a la imagen: la AI  entre el sesgo y la imprecisión

 


 

MANUEL ALEJANDRO GUERRERO

 

Llevamos más de un año desde que, en noviembre de 2022, OpenAI abrió el acceso a su ChatGPT y, a partir de entonces, la competencia entre las grandes empresas de tecnología por ver cuál genera los avances más rápidos y espectaculares sólo se ha acelerado. Esta carrera tecnológica, que indudablemente termina por involucrar a la sociedad en su conjunto, ha ido desvelando temas y aspectos complejos acerca de los efectos que estas tecnologías tienen en la vida cotidiana. Uno de estos temas que, a pesar de llevar en la discusión varios años, se encuentra en el centro del debate gracias a los últimos desarrollos de la Inteligencia Artificial (IA) y tiene que ver con la forma en que esta tecnología está generando imágenes y representando a las personas.

Ya en su libro Algorithms of Oppression (Algoritmos de la opresión, 2018), la autora Safiya Noble señalaba cómo las plataformas de búsqueda en Internet presentaban sesgos muy serios y discriminación hacia ciertos sectores y grupos de la población. De forma más reciente, Bloomberg, llevó a cabo un experimento utilizando el modelo de IA de Stable Diffusion para convertir texto en imagen, en el que se le dio una serie de instrucciones (prompts) para generar la representación de personas que ocuparan siete posiciones laborales que normalmente se asocian con una remuneración alta (como arquitecto/a, abogado/a, ingeniero/a, CEO, etc.) y la de personas que se desempeñaran en posiciones normalmente asociadas a bajas remuneraciones en Estados Unidos (lava-platos, recolección de basura, trabajo doméstico, etc.). 

En total se generaron 5,100 imágenes por IA de personas a las que se clasificó por su tono de piel y rasgos físicos con base en criterios utilizados en la dermatología y la investigación, así como su “género percibido” de acuerdo con las imágenes generadas. Los resultados mostraron que poco más de 80% de las imágenes de personas en puestos de abogado y de CEO podían asociarse a personas blancas–algo consistente con datos reales de acuerdo con el Buró de Estadísticas Laborales de Estados Unidos–, pero hubo una sobrerrepresentación de personas no blancas en los puestos laborales de menor remuneración. Por ejemplo, los resultados mostraban que 68% de los trabajadores en lugares de comida rápida podían asociarse a personas no blancas, cuando la estadística laboral estadounidense es justo la inversa (70% de estos puestos los desempeñan personas blancas). Lo mismo sucedió en cuanto a género. Mientras que las estadísticas laborales en ese país indican que 34% de jueces y 39% de médicos son mujeres, los resultados sólo asociaban al 3% de jueces y 7% de médicos con mujeres.

Dado que esta tendencia parece predominante en los programas de IA, Google trató de corregirlo en la forma en que operaba su IA Gemini (antes Bard) a la hora de generar imágenes a partir de texto, una función apenas anunciada a inicios de febrero. La intención de fondo era generar representaciones incluyentes de personas más diversas en términos raciales y de género. Sin embargo, como se ha visto en los últimos días, el experimento no resultó como se esperaba. Por ejemplo, al pedirle que generara una imagen de los “padres fundadores” de Estados Unidos (una imagen tradicionalmente asociada a personajes como George Washington, Madison, Hamilton, o Jefferson, es decir, hombres blancos), Gemini generó una imagen con personas, hombres y mujeres, de diferentes grupos raciales (sin incluir a ningún blanco), o al pedirle imágenes de soldados alemanes de la segunda Guerra Mundial, generó nuevamente imágenes de hombres y mujeres de diferentes grupos raciales en uniforme nazi. Todo esto, desde luego, resultó en severas críticas–algunas un poco absurdas también, como que Google buscaba cancelar la representación de gente blanca– al grado de que la semana pasada la empresa ofreció disculpas y luego decidió suspender temporalmente la función de generación de imágenes de su IA Gemini.

Los sesgos raciales y de género en todos estos casos referidos responden a un mismo problema de fondo: tratar de ser históricamente precisos y al mismo tiempo incluyentes, no es más que un buen deseo con el nivel de avance actual de la IA generativa. Y no, no tiene que ver solamente con los sesgos existentes en las bases de datos con las que se entrenan los algoritmos, ni tampoco con los sesgos inherentes a los diseñadores detrás de ello –aunque es indispensable verificarlos y corregirlos–.

Tiene que ver con el hecho de que, hasta ahora, la IA generativa es incapaz de “comprender e interpretar” el contexto, una característica netamente humana. Esto significa que, por un lado, debemos dejar de esperar que la IA generativa sea capaz de representar la realidad en su enorme complejidad (puede hacer otras cosas geniales, como desatar la creatividad) y, por el otro, y más importante, debemos de moderar la expectativa y el ánimo de algunos entusiastas de la tecnología –entre ellos los grandes corporativos tecnológicos– quienes desearían ver en ella nuevos parámetros, claros y precisos, que nos permitan distinguir la verdad, la belleza y la bondad.