¿Es discriminatoria la Inteligencia Artificial?
Oaxaca
La Capital Los Municipios
El Imparcial del Istmo El Imparcial de la Costa El Imparcial de la Cuenca
Nacional Internacional Súper Deportivo Especiales Economía Estilo Arte y Cultura En Escena Salud Ecología Ciencia Tecnología Viral Policiaca Opinión

Tecnología

¿Es discriminatoria la Inteligencia Artificial?

Expertas en derechos digitales alertan sobre la discriminación inherente en los sistemas de inteligencia artificial (IA), destacando que la idea de neutralidad de la IA es una falacia.


¿Es discriminatoria la Inteligencia Artificial? | El Imparcial de Oaxaca
FOTO: INTERNET

 

Expertas en derechos digitales alertan sobre la discriminación inherente en los sistemas de inteligencia artificial (IA), destacando que la idea de neutralidad de la IA es una falacia. Se subraya que estos sistemas, desarrollados por seres humanos con sus propios sesgos y perspectivas del mundo, dejan en desventaja a mujeres y minorías.

Paola Ricaurte Quijano, profesora del Instituto Tecnológico y de Estudios Superiores de Monterrey, destaca que la IA, lejos de ser neutral, favorece a un grupo específico: personas blancas, heteronormativas, angloparlantes y con movilidad. “Para las demás personas, estos sistemas representan una tecnología no diseñada ni por ellas ni para ellas”, afirma.

Joana Varón, fundadora de la organización Coding Rights, añade que los sesgos en la IA son evidentes, como en el caso de los sistemas de reconocimiento facial, que muestran precisión preferencial hacia rostros blancos, aumentando el margen de error en rostros negros, especialmente en mujeres.

La discriminación resultante de estos sesgos puede tener consecuencias graves, como la identificación errónea por parte de la policía, destacando la vulnerabilidad de las mujeres negras ante la violencia policial.

La profesora Ricaurte Quijano resalta que la discriminación también se evidencia en búsquedas de imágenes, donde términos como “jefe y secretaria” generan imágenes sexualizadas que denigran a las mujeres. Además, ciertos oficios, como el de astronauta, suelen presentarse solo con imágenes masculinas.

Beatriz Busaniche, directora de la Fundación Vía Libre, explica que los sistemas de IA no predicen el futuro, sino que sintetizan probabilidades basadas en datos del pasado. Sin embargo, estos datos reflejan una sociedad estructurada en torno a un sistema patriarcal y machista.

La experta argentina destaca que los sistemas de IA carecen de moral y principios, simplemente siguen patrones. Si históricamente un empleo de alto nivel fue ocupado mayormente por hombres, el sistema replicará esa tendencia.

La lista de sesgos abarca la falta de representación de minorías en los conjuntos de datos, lo que contribuye a la automatización de opresiones históricas. Las expertas advierten sobre el riesgo de que la inteligencia artificial acentúe problemas en lugar de resolverlos, especialmente cuando está en manos de pocas grandes tecnológicas.

En palabras de Joana Varón, “el principal riesgo de la inteligencia artificial es automatizar las opresiones históricas”. La discusión en torno a la ética y la equidad en la inteligencia artificial se vuelve cada vez más apremiante en el contexto actual.