Skip to main content

Texto: Samantha Proaño, María Laura Molina, Emilia Holstein

Valentina Priore

 

Alejandra ingresa a la página de Chat GPT3 para hacerle algunas preguntas. Está intrigada. Ha visto que personas cercanas la usan mucho, así que decide probarla. Luego de varias consultas, le pregunta por diez personas influyentes en la filosofía mundial. El chatbot le responde en cuestión de segundos, pero algo no le convence: de la lista, nueve son filósofos varones y ninguno es latinoamericano. La misma proporción se mantiene cuando se le pregunta por personas influyentes en política, medicina y otras ciencias. 

¿Cuál es el problema aquí? ¿Estas respuestas tienen que ver con la participación histórica de las mujeres en estas áreas o hay algo más detrás? ¿Por qué las personas de Latinoamérica no suelen estar representadas en estas enumeraciones? ¿Cuáles son los sesgos en la Inteligencia Artificial y por qué la humanidad debería ocuparse de ellos? 

Lucía Ortiz de Zárate es investigadora española especializada en Ética y Gobernanza de la Inteligencia Artificial en la Universidad Autónoma de Madrid (UAM). Ella retoma la definición de Kate Crawford sobre IA: “La Inteligencia Artificial es una idea, una infraestructura, una industria, una forma de ejercer el poder y una forma de verlo”. En Latinoamérica, este poder tiene efectos concretos sobre la vida de las personas que no se encuentran representadas en las bases de datos de las IAs, en general porque existe menos información sobre los grupos marginalizados. 

No es la tecnología, somos nosotros

Para Ariana Guevara, investigadora predoctoral venezolana de la Universidad Autónoma de Madrid y experta en género, feminismos, tecnología, Inteligencia Artificial, innovación y administración pública, ninguna tecnología es neutra. “A la tecnología en general, y a la Inteligencia Artificial también, se le imprimen los valores de las personas que la diseñan y la usan”, sostiene. Si bien las IAs no son machistas o racistas por naturaleza, sí pueden perpetuar los prejuicios de quienes las crean. 

La discriminación no es solamente por razones de género. Como en casi todos los ámbitos de la vida, esta se da de manera interseccional: identidad de género, raza y orientación sexual son algunas de las variables por las cuales ciertos grupos se ven invisibilizados frente al funcionamiento de estos algoritmos. 

Pero, ¿cómo aparecen estos prejuicios o sesgos en las inteligencias artificiales? Hay distintas maneras en que una visión sesgada de la realidad llega a los outputs que brindan las IA. Según la UNESCO, puede deberse a los conjuntos de datos utilizados, o a los sesgos de quienes desarrollan los algoritmos y sistemas de aprendizaje. 

“Todas estas tecnologías son tan buenas como los datos que las alimentan. Ese es su talón de Aquiles”, sentencia el uruguayo Fabrizio Scrollini, director ejecutivo de la Iniciativa Latinoamericana de Datos Abiertos (ILDA), y miembro de la Red de Datos Abiertos para el Desarrollo (OD4D).

Los sesgos que aparecen en las IAs no son un problema nuevo, sino que reflejan relaciones de poder previas. “Lo hace no porque el software sea inteligente y estemos en presencia de una nueva evolución, sino porque tiene acceso a millones de datos con los que todas y todos hemos contribuido”, explica Scrollini.

Ortiz de Zárate reflexiona sobre ello desde una perspectiva de género: “La tecnología y la ciencia son esencialmente androcéntricas. Porque han estado diseñadas y pensadas desde el principio por y para hombres. No es solamente una cuestión de incluir más mujeres, sino de cambiar los fundamentos y la forma que tenemos de entender la ciencia y la tecnología”. 

Ciertamente hay una menor cantidad de mujeres que estudian carreras relacionadas con la ciencia, la tecnología, la ingeniería y las matemáticas (CTIM). Por ejemplo, en Argentina las mujeres representan el 33 por ciento de quienes cursan este tipo de carreras, según una investigación de Chicas en Tecnología y el Banco Interamericano de Desarrollo.  

Según un informe publicado por ONU Mujeres en 2020, en 16 países latinoamericanos sobre los que se consultó información, las mujeres promedian apenas el 25 % de quienes estudian carreras relacionadas con tecnologías de la información y la comunicación.

La información disponible en los reportes anuales sobre diversidad de las principales empresas tecnológicas en el 2020 confirma que no son precisamente diversas. El 68 por ciento de los trabajadores de Google son varones y solamente el 5,7 por ciento son latinos. El 70 por ciento de los empleados de Microsoft son varones y un 6,3 por ciento provienen de Latinoamérica. En Amazon estas estadísticas son del 57  y el 10 por ciento, respectivamente. La mayor parte del personal masculino es blanco.

Una mirada desde el sur global

¿Alguna vez te preguntaste por qué los asistentes como Siri o Alexa tienen nombre de mujer y hablan con voces femeninas? Según Ariana Guevara, esto tiene que ver con que las tareas de asistencia y cuidado han estado históricamente ligadas a las identidades femeninas. 

Pone como ejemplo el “dilema de la novia”: en una base de imágenes utilizada para entrenar sistemas de Inteligencia Artificial, las fotos en las que aparecían mujeres con vestidos blancos eran etiquetadas como “traje de novia”. Esto dejaba afuera a las novias de la India, por ejemplo, que se casan con trajes coloridos, que a su vez eran etiquetados como “traje tradicional” o “típico”. “Aquí vemos un sesgo importante, no solamente en cuanto a mujeres, sino en cuanto a mujeres del norte y del sur global, entre países occidentales y orientales”, asegura. 

Los ejemplos de sesgos discriminatorios por parte de las inteligencias artificiales están a la orden del día. Desde sistemas de reconocimiento facial que fallan al identificar los rostros de personas negras, hasta aquellos que priorizan perfiles masculinos antes que femeninos para ciertos trabajos. Incluso es posible ver cómo ciertos estereotipos de belleza y de nacionalidad se perpetúan en las páginas que producen imágenes a partir de inputs de texto. 

Isidora Ruggereni, abogada de la Fundación Derechos Digitales, sostiene que uno de los desafíos globales en torno a la regulación de la Inteligencia Artificial es la subrepresentación de áreas geográficas como África, Asia Central y América del Sur y Central en el debate sobre la IA., Este hecho indica una falta de participación de estas regiones en la discusión, lo que revela un desequilibrio de poder en el discurso internacional.

Asimismo, indica que la mayoría de marcadores y parámetros para entrenar datos y detectar patrones “han sido desarrollados por países del norte global, y por ende, incompatibles con la realidad latinoamericana”. Además, dice que los países económicamente más desarrollados participan y dan forma a este debate más que el resto, lo que genera preocupaciones sobre el descuido del conocimiento local, el pluralismo cultural y las demandas de equidad global

¿Qué efectos podría tener esto en América Latina? Para las personas consultadas en este artículo hay un principal problema que tiene que ver con la producción de información y con la representación. “Cuanto más minoría seas, menos datos tuyos hay y por lo tanto más discriminación”, explica Lucía Ortiz. 

Es decir, las minorías étnicas, raciales, de género suelen producir menos datos que los varones blancos occidentales porque tienen menos acceso a la tecnología, lo que provoca que estos grupos sean invisibilizados en las IAs. 

Ortiz explica que muchas IAs están orientadas a emancipar a la humanidad del trabajo, pero nunca se hace alusión al trabajo no remunerado, al mundo de los cuidados. “La Inteligencia Artificial está para emancipar a los hombres, porque los únicos que pasan del trabajo remunerado al ocio son ellos”. 

Más allá de los impactos en cuanto a género, los efectos de esta tecnología se vislumbran tanto en lo medioambiental como en los derechos humanos. Para construir el hardware que necesitan las inteligencias artificiales es necesario utilizar minerales como el litio, cuyas mayores reservas se encuentran en Chile, Bolivia y Argentina. Las multinacionales de Europa o Estados Unidos vienen al continente, las extraen y luego se retiran sin preguntarse demasiado por el reguero que dejan detrás. 

“En Occidente estamos construyendo nuestro futuro, nuestro progreso, sobre los hombros de América Latina sin tener ningún tipo de miramientos. Ahí hay un problema importante que es histórico y que se vincula a cómo Estados Unidos y Europa explotan el continente llevándose los recursos naturales”, explica Lucía Ortiz y agrega: “Pero esta explotación también conlleva, por ejemplo, condiciones laborales. ¿En qué condiciones trabajan las personas que están explotando esos yacimientos mineros?”. 

“Me parece que el tema requiere un poco de cautela”, reflexiona Fabrizio Scrollini. Y si bien su perspectiva se aleja mucho de las visiones que presagian el fin del mundo a partir del uso de IAs, sostiene: “Si vamos a usar esto para que, por ejemplo, nuestras fuerzas de seguridad clasifiquen y automaticen arrestos o nuestros jueces empiecen a armar sentencias en base a lo que el chat GPT3 les dice, me parece que no es por ahí”.

Ni apocalípticos ni integrados

El director de ILDA pone paños fríos ante la escalada de popularidad que tienen las inteligencias artificiales. Según él, estamos muy lejos de fantasías apocalípticas estilo Terminator o Yo Robot. Estos discursos son solamente un show que nos distrae de discutir los efectos negativos reales de estas tecnologías. Entonces, ¿qué debería hacer la humanidad? ¿Desterrar para siempre estos sistemas? ¿Abrazarlos acríticamente? 

“Proponemos desarrollar criterios y estándares que nos permitan calificar estas tecnologías según sus riesgos de manera clara y transparente, para avanzar en políticas públicas que protejan el bien común sin obturar los beneficios del desarrollo tecnológico”, manifiestan en la Declaración de Montevideo sobre Inteligencia Artificial y su impacto en América Latina

Más de 100 profesionales que trabajan con Inteligencia Artificial firmaron este artículo. Allí dejaron claras sus posturas en torno al desarrollo de estas tecnologías: deben ser puestas al servicio de las personas, respetar los derechos humanos, representar diferencias culturales, geográficas, económicas, ideológicas y religiosas, entre otras; y no reforzar estereotipos o profundizar la desigualdad. Y sobre todo deben estar pensadas desde y para este continente. 

Lucía Ortiz, Fabrizio Scrollini y Ariana Guevara coinciden en que es necesario diseñar una serie de mecanismos regulatorios y técnicos para utilizar la IA desde una perspectiva situada y de derechos humanos. “Las regulaciones y las políticas tienen que tener en cuenta que los sistemas de Inteligencia Artificial no son positivos en todos los ámbitos, ni hay recetas para todos los casos. Es importante que estos respondan a una reflexión crítica sobre lo que se quiere lograr y si efectivamente nos van a ayudar a llegar a ese punto”, afirma Guevara.