El uso de la inteligencia artificial (“IA”) está creciendo rápidamente, y con ese crecimiento, también aumentan las preocupaciones sobre cómo la IA podrá generar riesgos desproporcionados para más del 50% de la población del mundo. Es decir, para las mujeres.
La UNESCO y la Organización para la Cooperación y el Desarrollo Económico (“OCDE”) afirman que la participación de las mujeres en el campo laboral de ciencia y tecnología representa solo el 29.3%, lo que significa que las mujeres influyen en menor medida en la creación y funcionamiento de la IA. Lo anterior representa un reto, ya que, si la IA no es desarrollada por grupos que le permitan recibir perspectivas diversas, será menos probable que la IA pueda satisfacer necesidades de múltiples usuarios o alinearse a los derechos humanos.
Existe un sesgo importante en el diseño e implementación de la IA. De acuerdo con la Doctora Susan Leavy de University College Dublin, la sobrerrepresentación masculina en la IA puede peligrosamente afectar aún más la brecha de género existente. Afirma que la IA aprende principalmente observando los datos que se le presentan, mismos que están plagados con conceptos estereotípicos de género. Como ejemplo de lo anterior, Microsoft desarrolló un chatbot alimentado con información de publicaciones en Twitter, el cual se refería al feminismo como un “culto” y un “cáncer”. Se requiere una plantilla de trabajo en el campo de IA que sea más diversa, y que esté preparada para identificar y poder eliminar los sesgos, específicamente, en cuanto al género. ,
Como parte del sesgo de género, también está la objetificación de la mujer como personaje de asistencia y servicial. A pesar de que la IA es incapaz de adoptar características humanas para atribuirse un género u otro, es innegable que los asistentes de voz y los chatbots claramente presentan atributos asociados al género femenino. Ejemplos de lo anterior son “Alexa” de Amazon, nombrada por la biblioteca antigua de Alejandría; “Siri” de Apple, cuyo nombre en noruego significa “mujer hermosa que te lleva a la victoria”, y “Cortana” de Microsoft, nombrada por el sistema de inteligencia artificial que forma parte de la franquicia de los videojuegos de HALO y que es una mujer. Los asistentes de voz tienen voces y tonalidades suaves y complacientes, que claramente presentan atributos femeninos y subordinados. Estudios de la UNESCO analizan que este enfoque perpetúa una arcaica visión de las mujeres como objetos y personajes de asistencia, y contribuye a ampliar la desigualdad de género en la era digital.,, LA IA debe buscar un enfoque neutro e inclusivo. Otro ejemplo de objetificación, se encuentra claramente en la deshumanización y sexualización de la mujer, a través de la creación de avatares que resaltan ciertas partes del cuerpo femenino, e incluso a través de la generación de imágenes falsas de mujeres desnudas. Por el contrario, estudios de la Red de Rendición de Cuentas sobre IA del Centro Pulitzer (Pulitzer Center’s AI Accountability Network) muestran que los algoritmos que utilizan las redes sociales a través de IA ayudan a decidir qué contenido amplificar y cuál suprimir. Estos algoritmos tienen un sesgo de género, que censura y suprime el alcance del contenido que muestra el cuerpo femenino, catalogándolo de “contenido explícito”, ya sea tratándose de la foto de una mujer embarazada, en traje de baño, en campaña contra el cáncer de mama, o simplemente con un top enseñando los brazos. Lo anterior contribuye a la objetificación de las mujeres y amplifica las disparidades sociales. Se debe combatir los sesgos de la IA para lograr que sea inclusiva y libre de estereotipos.
La UNESCO y la OCDE reconocen que otro riesgo importante del rápido crecimiento de la IA, es que las mujeres carecen de herramientas necesarias para enfrentar la era digital, debido a la falta de educación para mujeres, a las normas sociales y culturales que excluyen a las mujeres del mundo digital, y a la falta de independencia financiera de las mujeres para poseer aparatos digitales o pagar por conexión de internet. Lo anterior es preocupante, ya que es un hecho que en el futuro la IA reemplazará a por lo menos dos tercios de los trabajos realizados por humanos, y quienes se verán más impactadas por la falta de trabajo serán las mujeres, debido a las barreras actuales que existen para su preparación.
La IA se debe utilizar para disminuir y no para aumentar la brecha de género existente. Para lograr lo anterior, se requiere más investigación sobre cómo la IA impacta la brecha de género y cuáles deben ser las acciones que se deben implementar para disminuirla. En segundo lugar, se requiere de un marco regulatorio que funja como base para la elaboración de legislación sobre IA que tenga por objetivo la adopción de compromisos para desarrollar tecnología que busque disminuir la brecha de género y la discriminación. Dicho marco regulatorio deberá fomentar la formación de talento femenino en el campo tecnológico y la elaboración de reportes de transparencia sobre el desarrollo de IA considerando herramientas éticas, valores y respeto a los derechos humanos. El nuevo Reglamento Europeo de IA promete ser la primera normativa integral sobre IA en el mundo, que será la guía para la regulación que diversos países adoptarán en la materia. Esperemos que con estos esfuerzos de regulación se logre garantizar mejores condiciones de desarrollo y uso de la IA, que beneficien al otro 50% de la población.
Referencias:
UNESCO, OECD, IDB (2022). The Effects of AI on the Working Lives of Women. Página 22. Consultado en: https://publications.iadb.org/en/publications/english/viewer/The-Effects-of-AI-on-the-Working-Lives-of-Women.pdf
Deloitte (2021). Women in IA. Página 10. Consultado en: https://www2.deloitte.com/content/dam/Deloitte/us/Documents/deloitte-analytics/us-consulting-women-in-ai.pdf
Duboust, O. (2023). Euro News. ‘We need to demand more scrutiny’: How can tech companies better address the problem of AI bias? Consultado en: https://www.euronews.com/next/2023/08/08/we-need-to-demand-more-scrutiny-how-can-tech-companies-better-address-the-problem-of-ai-bi
Ortiz de Zárate, L. y Guevara, A. (2021). Universidad Autónoma de Madrid. Inteligencia Artificial e igualdad de género en la UE, España y Suecia. Consultado en: https://itgespub.net/en/inteligencia-artificial-e-igualdad-de-genero-en-la-ue-espana-y-suecia/
Hullin, V. (2024). Euro News. AI and gender: Why does artificial intelligence often have feminine traits? Consultado en: https://www.euronews.com/next/2023/10/30/ai-and-gender-why-does-artificial-intelligence-often-have-feminine-traits
Organización de las Naciones Unidas (2019). La ausencia de mujeres en el campo de la inteligencia artificial reproduce el sexismo. Consultado en: https://news.un.org/es/story/2019/06/1456961
https://www.technologyreview.com/2022/12/13/1064810/how-it-feels-to-be-sexually-objectified-by-an-ai
Mauro, G. y Schellmann, H. (2023). The Guardian. ‘There is no standard’: investigation finds AI algorithms objectify women’s bodies. Consultado en: https://www.theguardian.com/technology/2023/feb/08/biased-ai-algorithms-racy-women-bodies
UNESCO, OECD, IDB (2022). The Effects of AI on the Working Lives of Women. Consultado en: https://publications.iadb.org/en/publications/english/viewer/The-Effects-of-AI-on-the-Working-Lives-of-Women.pdf
UNESCO (2023). What are the effects of AI on the Working Lives of Women? Consultado en: https://www.unesco.org/en/articles/what-are-effects-ai-working-lives-women
Parlamento Europeo. (2024). Ley de IA de la UE: primera normativa sobre inteligencia artificial. Consultado en: https://www.europarl.europa.eu/topics/es/article/20230601STO93804/ley-de-ia-de-la-ue-primera-normativa-sobre-inteligencia-artificial
Ana Paola s asociada en Kuri Breña, Sánchez Ugarte y Aznar, S.C. Es abogada egresada de la Escuela Libre de Derecho, especializada en derecho corporativo y protección de datos personales y se encuentra estudiando una doble titulación de derecho por la Universidad Internacional de la Rioja en España.
*Este artículo es publicado bajo la responsabilidad exclusiva de su autora y no necesariamente refleja la posición de Abogadas MX.