En esta época de avances tecnológicos sin precedentes, la inteligencia artificial (IA) es una herramienta que nos ofrece grandes posibilidades en ámbitos como la medicina, la eficiencia energética, el desarrollo sostenible, el medioambiente, el cambio climático o las emergencias humanitarias, entre otros. Sin embargo, la IA también plantea desafíos, especialmente en la lucha contra la discriminación digital, en la que se incluye la discriminación de género.
Un claro ejemplo es el de los sistemas recomendadores o buscadores de nuestros dispositivos móviles debido a que pueden discriminar a la hora de ofrecernos determinados productos o servicios por cuestiones de género. De manera similar, debido a la existencia de prejuicios históricos o culturales, los algoritmos de la IA que procesan datos de personas en herramientas de selección de personal pueden favorecer más a una clase que a otra. Por clase entendemos un determinado género, grupo de edad, comunidad o colectivo.
En el Día Internacional de la Mujer, mujeres y hombres por igual podemos afrontar este desafío ético en relación con la IA. Por un lado, como consumidores (dispositivos IoT, robots, plataformas digitales, etc.) debemos asumir la responsabilidad de tomar decisiones informadas que nos permitan elegir opciones justas, respetuosas con los demás y sostenibles: nuestras elecciones tienen el poder de transformar aquellos algoritmos que aprenden de los datos (algoritmos de aprendizaje de las máquinas o machine learning) para promover la igualdad.
Construir proyectos justos e igualitarios
Por otro lado, los equipos de mujeres y hombres que trabajan con datos reales para desarrollar e implementar herramientas de IA deben apostar por construir proyectos justos e igualitarios con impacto social. Estos proyectos no contemplarían exclusivamente prevenir la discriminación digital, también descubrir patrones de discriminación o estigmatización en la sociedad que permitan diseñar estrategias destinadas a garantizar la igualdad.
Si bien la IA automatiza los procesos que intelectualmente son propios de los seres humanos, esta definición se convierte hoy más que nunca en un compromiso de los profesionales y docentes que trabajan en este campo para garantizar la calidad de vida de todas las personas sin discriminación de ningún tipo. Este debe ser el fin último detrás de cada algoritmo y el que ineludiblemente siempre redundará en beneficio de la sociedad. ¿No es acaso el servicio hacia los demás un proceso intelectual propio de los seres humanos que trasciende fronteras? A este respecto, en el Día Internacional de la Mujer se nos hace imprescindible compartir este “espacio para la igualdad” con todos los grupos vulnerables: niñas y niños, jóvenes adolescentes, personas mayores, personas con discapacidad, personas en situación de marginalidad, etc.
En este contexto, es importante abordar las siguientes preguntas: ¿puede la IA combatir la discriminación? ¿Qué pasos se pueden dar hacia la igualdad? Para responder debemos tomar un enfoque multifactorial.
Desde la diversidad y la educación
Creando equipos multidisciplinares de desarrolladores de IA que estén equitativamente representados por mujeres y hombres. Dichos equipos deben contar con el apoyo de un equipo directivo igualmente representado y comprometido con la justicia, la ética y la calidad. Para poder alcanzar esta diversidad es esencial potenciar las capacidades y el espíritu crítico de los más jóvenes desde la educación en todos los ámbitos.
Todavía tenemos mucho trabajo por delante. Nuevamente aquí, este día que hemos designado como un espacio para la igualdad se convierte en la plataforma perfecta para apoyar el esfuerzo de todas las niñas, adolescentes y mujeres con perfil científico-tecnológico o STEM (Science, Technology, Engineering and Mathematics) para que puedan perseguir sus objetivos y conquistar sus metas sin “techos de cristal”.
Desde el debate social y la acción política
Promoviendo campañas de concienciación y políticas que fomenten la igualdad de oportunidades en el mundo académico, en el mundo empresarial y en la producción industrial o cultural. Por ejemplo, en la U.E. existe el Instituto Europeo para la Igualdad de Género (EIGE) que quiere ser un canal de asesoramiento que permita a los países llevar a cabo políticas de igualdad en diversas áreas. Fuera de la U.E. existen iniciativas como el proyecto Gender Shades del MIT que tiene por objetivo identificar la discriminación de género en la IA.
Desde la regulación normativa
Creando un marco ético y político adecuado para la gestión de la IA. Propuestas desde la Comisión Europea (The AI Act, 2022), EE. UU. (Blueprint for an AI Bill of Rights, 2022) u organismos internacionales como la UNESCO (Recommendation on the Ethics of Artificial Intelligence, 2022) están dirigiendo sus esfuerzos hacia la formulación de unas directrices que promuevan la igualdad en los algoritmos.
Desde un punto de vista técnico
La representatividad de los datos de entrada (inputs) es fundamental, ya que los modelos “supervisados” de IA aprenden y entrenan a partir de estos datos, lo que significa que todas las clases deben estar igualmente representadas.
Asimismo, la transparencia y la accesibilidad de los algoritmos es necesaria para poder comprobar que no están vinculados a estereotipos de género, raza, edad, religión o nacionalidad y puedan ser validados mediante auditorías. Compañías como IBM (AI Fairness 360) y Google (What-if) están desarrollando librerías de código abierto con el objetivo de detectar posibles sesgos mediante métricas de equidad en los algoritmos antes de su implantación.
Para concluir, les voy a contar que como profesora de cursos en la Universidad de Navarra, donde utilizamos herramientas de inteligencia artificial sobre casos de uso reales, año tras año los grupos formados por alumnas y alumnos demuestran su inquietud y compromiso para que los algoritmos no perjudiquen a los más vulnerables dirimiendo estas cuestiones éticas con tesón. Los futuros profesionales de la IA buscan apoyo y soluciones para construir un mundo más justo e igualitario.
Montserrat-Ana Miranda does not work for, consult, own shares in or receive funding from any company or organisation that would benefit from this article, and has disclosed no relevant affiliations beyond their academic appointment.
ÚLTIMAS ENTRADAS
El lobby nuclear disfrazado de divulgación científica
Una campaña mediática que distorsiona la crisis climática para intereses empresariales.
Quedan 7 días para conseguir 30 000 euros: financiación popular en apoyo a Las 6 de La Suiza
Esta campaña no es solo por Las 6 de La Suiza, sino por todas las personas que defienden los derechos laborales y sindicales.
Juez Katharine Parker: conflictos de interés en el caso de Luigi Mangione
¿Es posible confiar en un sistema en el que las decisiones judiciales podrían estar condicionadas por intereses económicos personales?
Vídeo | ¿TE REFERÍAS A ESTO, MACARENA? 🛑 Marina Lobo analiza las denuncias de abuso contra Eduard Cortés
¡Ojo a esto! Un director de renombre nominado a los Goya, Eduard Cortés, está en el punto de mira. 27 mujeres relatan abusos disfrazados de “oportunidades laborales”. Marina Lobo desentraña el caso en HECD.
Vídeo | 🚨 DE LOS POLLOFRES AL ULTRALIBERALISMO: Marina Lobo analiza a Pedro Buerbaum
¿Un ejemplo de esfuerzo y éxito? Pedro Buerbaum, el influencer ultraliberal que va de “self-made man”, esconde un pasado lleno de privilegios y unas afirmaciones económicas que hacen agua por todas partes. Lo que no te cuenta sobre sus negocios y su cruzada contra los impuestos, aquí te lo revelamos.