Cómo los prejuicios de la inteligencia artificial profundizan los sesgos sociales, étnicos y de género
Beatriz Busaniche, fundadora de la Red de Inteligencia Artificial para Feministas y presidenta de la Fundación Vía Libre, explica por qué es vital tomar acción sobre este problema y qué sabemos que ocurre de acuerdo a los estudios disponibles sobre el tema.
“Si los datos no están lo suficientemente curados, es probable que estos sistemas terminen profundizando estos sesgos”, asegura la especialista. Foto: Shantanu Kumar para Pexels.
Aunque las respuestas inmediatas de ChatGPT nos pueden sacar de un apuro, hay que mirar entre líneas qué es lo que nos está diciendo la inteligencia artificial. Los prejuicios, propios del ser humano, también están en los nuevos modelos tecnológicos.
La representación lo más objetiva posible de todas las etnias, géneros, clases sociales o religiones es necesaria, específicamente cuando se habla de temas médicos. Imagen de internet
Beatriz Busaniche, miembro de la Red de Inteligencia Artificial para Feministas y presidenta de la Fundación Vía Libre —organización que promueve los derechos fundamentales en entornos mediados por las tecnologías— explica en diálogo con RED/ACCIÓN que los sesgos de los modelos de inteligencia artificial vienen entramados en los datos con los cuales se entrena un sistema.
Estos datos, según detalla la profesional, vienen cargados con información del pasado y, en definitiva, tienen ciertos prejuicios sociales, étnicos o de género imposibles de eliminar del todo. “Si los datos no están lo suficientemente curados, si no pasan pruebas y evaluaciones concretas ni iteraciones en las cuales se trabaje para minimizar estos prejuicios, es probable que estos sistemas terminan profundizando estos sesgos”, asegura.
Pensamiento chino
Un caso concreto de estos prejuicios se estudió en China, según informa Le Monde. La inteligencia artificial desarrollada por la Administración del Ciberespacio de China —el grupo informático y tecnológico apoyado por el Gobierno de la potencia asiática— fue entrenado con datos que ilustran la ideología de Xi Jinping, el actual líder del país. Así, cualquier respuesta va a estar influenciada por este pensamiento.
Hay ejemplos más locales. Busaniche cuenta que cuando estaban dando un curso en Córdoba mostraron cómo la inteligencia artificial sugería diferentes carreras profesionales dependiendo de si una persona venía de una familia con bajos o altos ingresos. “Para los de menores posibilidades económicas les decía que estudien oficios que pueden tener riesgos de vida como la albañilería o policía”, comenta la presidenta de Via Libre.
Desde los estudios que realizaron en la fundación también vieron altos sesgos cuando el interrogante vocacional depende del género. A las niñas les recomienda hacer tareas de cuidados, mientras que a los varones les propone carreras como las ingenierías (con una remuneración económica más alta). “El principal problema es cuando se integran sistemas de este tipo de inteligencia artificial en cuestiones afectan a las personas en su vida”, reflexiona Busaniche.
Prejuicios y preocupación
De hecho, en esta línea, un artículo de TechXplore asevera que, a medida que la IA se va incorporando en las diferentes industrias, los prejuicios despiertan más preocupación. “Podemos entrar en un bucle de retroalimentación en el que los prejuicios de nosotros mismos y de nuestra cultura influyan en los prejuicios de la IA y se conviertan en una especie ciclo de refuerzo”, afirmó Joshua Weaver, director de Texas Opportunity & Justice Incubator, una consultora jurídica.
La representación lo más objetiva posible de todas las etnias, géneros, clases sociales o religiones es necesaria, específicamente cuando se habla de temas médicos. Por ejemplo, ahora hay nuevos sistemas que se usan para detectar el cáncer de mama de manera más efectiva, pero se discute si deben tener en consideración las características fisiológicas de diferentes personas, según un artículo publicado en Nature. En detalle, si el médico usa un modelo solamente entrenado con datos de pacientes blancas de origen occidental para realizar un diagnóstico de una mujer afrodescendiente es posible que los resultados no sean precisos.
“Son múltiples los problemas que se pueden derivar de no tomar en serio este tipo de problemas, de no generar los mecanismos para abordar esta cuestión y de exponer al mundo este tipo de tecnologías sin debidos resguardos, testeos, evaluaciones, feedback y demás en campos en los cuales pueden afectar la vida de las personas”, concluye Busaniche.
Este artículo fue originalmente publicado en RED/ACCIÓN y se republica bajo el programa Periodismo Humano.
Dejanos tu comentario
Los comentarios realizados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de las sanciones legales que correspondan. Evitar comentarios ofensivos o que no respondan al tema abordado en la información.
Dejanos tu comentario
Los comentarios realizados son de exclusiva responsabilidad de sus autores y las consecuencias derivadas de ellos pueden ser pasibles de las sanciones legales que correspondan. Evitar comentarios ofensivos o que no respondan al tema abordado en la información.