top of page
  • Writer's picturePIT Policy Lab

Inteligencia Artificial Feminista en América Latina

Por Luz Elena González Zepeda, Líder de Proyectos y Comunicaciones en PIT Policy Lab

Pensar en una Inteligencia Artificial (IA) que se fundamente en principios de igualdad e inclusión de todas las personas, y que contribuya a corregir las desigualdades estructurales a las que nos enfrentamos, es francamente difícil.

Por un lado, la justificación histórica prevalente para el desarrollo de tecnologías se enmarca en la lógica de la eficiencia y el progreso. Cuando mis padres interactuaron por primera vez con computadoras, internet y correos electrónicos, no estaban seguros de cómo sería, pero tenían la noción de que estos avances podrían facilitarles algunas tareas, y de que el incorporarse como usuarios de éstas implicaba un acercamiento a lo moderno, un paso más cerca en el camino del progreso económico y social. Darle una forma nueva a la historia que nos contamos sobre la tecnología es un proceso de diálogo, uno que hasta hace poco no era un tema atractivo ni en política, ni en la conversación casual.

Por otro lado, en búsqueda de dicha eficiencia, las soluciones basadas en sistemas de Inteligencia Artificial cuentan con un sesgo (también histórico) en términos de falta de datos representativos sobre mujeres, personas LGBTQ+, pueblos indígenas, personas con discapacidad, niños, niñas y adolescentes, personas migrantes y en tránsito, entre otros grupos. Además de contar con menor información representativa para alimentar los modelos de Aprendizaje de Máquina (ML, por sus siglas en inglés), el diseño de estos sistemas pocas veces toma en cuenta las particularidades del contexto entre regiones, países, barrios o unidades de análisis. En Chile, investigadoras en colaboración con el Banco Interamericano del Desarrollo (BID) sugieren que la aprobación de créditos de consumo realizada por personas ejecutivas a partir de la discriminación por preferencia está basado en el sesgo de exceso de confianza; es decir, que la prevalencia de sesgo de género exhibida por ejecutivos que realizan la toma de decisión reduce la probabilidad de aprobación de un crédito solicitado por mujeres. Lo anterior nos indica que las diferencias más difíciles de medir, y que muchas veces son determinantes para la resolución de un problema público, son culturales, sociales y políticas.

Sin la construcción ética y justa de sistemas de IA los sesgos que presentan las y los individuos estarán embebidos en los datos, variables y análisis realizados, y el uso de nuevas tecnologías representará poco más que la digitalización de la inequidad, por encima del potencial de la transformación digital para la inclusión de las personas en el desarrollo económico y social sostenible. Afortunadamente existen activistas, investigadoras y tomadoras de decisiones quienes reconocemos estos retos y quienes hemos puesto manos a la obra.

Con el apoyo del Centro Internacional de Investigaciones para el Desarrollo (IDRC) de Canadá, la alianza <A+> Alliance creó la Red de Investigación Feminista en Inteligencia Artificial, f<a+i>r, con el propósito de construir una comunidad global de investigadoras de Inteligencia Artificial, académicas, activistas y profesionales que avancen una agenda de investigación-acción feminista. Como parte de su programa anual, lanzan convocatorias para proyectos de investigación y pruebas de concepto alrededor de temáticas específicas. Durante la segunda mitad de 2022, desde PIT Policy Lab fuimos seleccionadas para formar parte de la segunda cohorte de investigaciones sobre IA Feminista, y coincidimos con proyectos fascinantes, liderados por equipos basados en América Latina, en temas de violencia digital en razón de género, diseño de políticas públicas inclusivas con ciencia de datos, e interpretación de lenguas indígenas en el ámbito legal.

El primero, desarrollado por Patricia Peña Miranda, propone utilizar un chatbot que reciba denuncias de casos de violencia de género digital, especialmente en situaciones de acoso digital en plataformas de redes sociales, y que oriente en la presentación de denuncias y apoyo jurídico-psicológico con organizaciones de la sociedad civil chilena que abordan estas situaciones. También busca desarrollar un algoritmo automatizado que identifique situaciones de ataques de odio contra las mujeres en la plataforma Twitter, levantando alertas que generen una sugerencia automatizada de acceso al chabot feminista.

En otro proyecto, Virginia Brussa y Maria Paz Hermosilla buscan llevar los proyectos de ciencia de datos al sector público, con una perspectiva crítica y feminista que incluya dimensiones de justicia de datos, interseccionalidad, justicia climática y diseño participativo. Para ello, reformularon, con base en criterios feministas, un modelo de formulación de proyectos de ciencia de datos para personas funcionarias públicas. Teniendo en cuenta la necesidad de diseñar con las personas que utilizarán la herramienta, el equipo incluye la realización de dos talleres de validación (y un taller en Futuros Abrelatam) con personas funcionarias, investigadoras y activistas de la región.

Sobre el uso de IA como herramienta la interpretación de lenguas indígenas en el ámbito jurídico, el agente conversacional propuesto por Sofía Trejo e Iván Meza Ruiz buscó ser de apoyo en tres niveles: a nivel personal, recogiendo experiencias de trabajo con intérpretes; a nivel comunitario, el agente facilitando acceder a información sobre el quehacer de las personas intérpretes; y finalmente, de manera global, recogiendo evidencias de los problemas que enfrentan los intérpretes de las lenguas indígenas. Esta investigación ha puesto el foco en la importancia de co-crear con las personas usuarias y no necesariamente priorizar el desarrollo de tecnología, sino la creación de comunidad para mejorar el entendimiento de sus necesidades.

Finalmente, la iniciativa que avanzamos desde PIT Policy Lab, en colaboración con el Laboratorio de IA Cívica de la Universidad Northwestern, el Laboratorio de Innovación Cívica de la UNAM y Puentech Lab, se basó en metodologías para la transversalización de la perspectiva de género y análisis de políticas públicas para diseñar herramientas inteligentes que empoderen a la fuerza de trabajo de etiquetado de datos que sostiene el crecimiento de la IA (donde 1 de cada 5 trabajadores son mujeres). Para ello, analizamos el estado actual del trabajo colectivo relacionado con la IA en la región de América Latina y el Caribe, y ofrecemos recomendaciones de política pública basadas en las mejores prácticas y casos de uso internacionales. En una segunda etapa, proponemos desarrollar una herramienta inteligente que pueda proporcionar oportunidades de contacto entre trabajadoras colectivas, y que reúna recursos útiles para su crecimiento profesional y bienestar.

Durante las presentaciones finales de los proyectos de investigación pudimos constatar el esfuerzo que todos los equipos han puesto para avanzar sus iniciativas, y reconocimos que, al mismo tiempo que buscamos encauzar las tecnologías hacia la igualdad y la mejora de resultados en el ámbito público, es posible que no todos los problemas públicos necesiten de ellas. Este ejercicio de investigación nos recuerda que el tecnosolucionismo se resuelve y supera a partir del contexto, del entendimiento cultural y de las dinámicas sociales de las poblaciones junto a las que trabajamos. Desde PIT Policy Lab nos emociona pensar que la publicación de los resultados de las investigaciones de esta cohorte tiene el potencial de servir como compás para seguir imaginando y diseñando soluciones en comunidad, basadas en el cuidado y la participación, que logren cuestionar los principios de eficiencia y progreso, y respondan a las necesidades, intereses y deseos de las personas.

13 views
bottom of page