Nuestras identidades digitales se han vuelto tan cruciales como las físicas, y la desigualdad existe dentro del espacio de la identidad digital tanto como en cualquier parte de la vida humana. La discriminación de género se puede ver en la falta de identificación que poseen las mujeres en comparación con los hombres a escala global, así como en los sesgos de la inteligencia artificial debido a la entrada desigual de datos. Las mujeres, en particular las mujeres de color, se están quedando atrás en la revolución de la identidad digital, ya que las tecnologías de verificación de identidad (IDV) tienen tasas de error mucho más altas para las mujeres que para los hombres. No se trata solo de un problema tecnológico: es una crisis de derechos humanos con consecuencias de largo alcance.

La brecha mundial de identidad
Imagínese no poder abrir una cuenta bancaria, votar o acceder a atención médica simplemente porque no tiene un documento de identidad o un código digital. 1 de cada 4 mujeres En todo el mundo, esta es la realidad. Carecen de un documento de identidad válido, lo que las vuelve invisibles para muchos sistemas y servicios que damos por sentados. Sin la documentación necesaria, estas mujeres enfrentan muchas desventajas, incluidos problemas para acceder a la atención médica, la educación, el empleo y las protecciones legales.
1 de cada 4 mujeres mundial carecen de una identificación digital.
“Sin un documento de identidad, las mujeres suelen quedar atrapadas en un ciclo de pobreza y dependencia”, afirma la Dra. Amina Sayed, investigadora del Banco Mundial. “No se trata solo de un documento de identidad, sino de libertad, oportunidades y dignidad”.
Pero aquí es donde la cosa se pone aún más alarmante: el Grupo del Banco Mundial descubrió que en los países de bajos ingresos, 44% de mujeres No tienen documento de identidad, en comparación con el 281% de los hombres. Esto representa casi la mitad de todas las mujeres de estas naciones, privadas de la participación plena en la sociedad y la economía.
En los países de bajos ingresos, 44% de mujeres no tienen identificación, en comparación con el 28% de los hombres.
En 37 países, las mujeres casadas enfrentan más obstáculos que los hombres casados a la hora de solicitar pasaportes. En varias naciones, las mujeres también enfrentan desafíos legales adicionales que limitan su acceso a los servicios financieros digitales. Por ejemplo, a las mujeres casadas se les puede exigir que presenten un certificado de matrimonio, adopten el apellido de su esposo o busquen la aprobación de un miembro masculino de la familia para obtener una identificación.

El informe Mujer, empresa y el derecho 2024 del Banco Mundial destaca que en 14 países las mujeres enfrentan restricciones que les impiden viajar libremente fuera del hogar. Además, las mujeres pueden encontrar resistencia o falta de apoyo por parte de los miembros de la familia, lo que puede dificultar su acceso a la identificación digital.
Cuando la IA tiene favoritismos: el sesgo en la máquina
A menudo se piensa que la inteligencia artificial es un factor de igualación, ya que puede eliminar los sesgos humanos en los procesos de toma de decisiones. Sin embargo, lo que está ocurriendo es que los datos que se introducen en los sistemas de reconocimiento facial de IA son desiguales, lo que genera mayores tasas de error en el caso de las mujeres y las personas de color.
Estos sistemas identifican erróneamente sólo a los hombres de piel clara 0,8% del tiempo, la tasa de error se dispara a 34.7% para mujeres de piel más oscura.
Si bien estos sistemas identifican erróneamente a los hombres de piel clara solo el 0,81% de las veces, la tasa de error se dispara hasta el 34,71% en el caso de las mujeres de piel más oscura. No se trata de una diferencia pequeña: es un reflejo muy claro de la desigualdad presente en las sociedades globales.

“Es como si estos sistemas fueran Diseñado con anteojeras“Simplemente no 'ven' con precisión a una gran parte de la población mundial”, señala la Dra. Joy Buolamwini, especialista en ética de la inteligencia artificial. El sesgo de reconocimiento facial demuestra que las mujeres están en desventaja incluso en las sociedades occidentales, donde la biometría facial aún posee una tasa de error más alta para las mujeres que para los hombres.
Las mujeres de color están en una situación de gran desventaja
Para las mujeres de color, estos problemas crean una tormenta perfecta de exclusión. Tienen más probabilidades de no tener documentos de identidad tradicionales y de ser identificadas erróneamente por los sistemas de inteligencia artificial cuando interactúan con plataformas de identificación digital. Prueba 2019 El Gobierno federal de Estados Unidos concluyó que la tecnología funciona mejor en hombres blancos de mediana edad. Los índices de precisión no fueron impresionantes en el caso de las personas de color, las mujeres, los niños y las personas mayores.
Estamos viendo cómo la tecnología del siglo XXI se amplifica Sesgos del siglo XX.
“Estamos viendo que la tecnología del siglo XXI amplifica los prejuicios del siglo XX”, advierte la abogada de derechos civiles Maya Johnson. “Es una discriminación digital, pura y simple”. La desigualdad en la tecnología de verificación facial se produce porque estos sistemas se entrenan con conjuntos de datos con más rostros masculinos, en particular rostros masculinos blancos, lo que conduce a una mayor precisión para estos grupos. Esto sucede porque muchos de los primeros conjuntos de datos fueron creados por investigadores predominantemente masculinos o se obtuvieron de datos con una diversidad limitada. Como resultado, las mujeres, especialmente las mujeres de color, están subrepresentadas, lo que hace que el sistema funcione mal para ellas y conduce a una identificación errónea o a falsos negativos.
Cerrar la brecha: un llamado a la acción
¿Qué se puede hacer entonces? Los expertos coinciden en que es necesario adoptar un enfoque multifacético:
- Iniciativas sociales:Programas para ayudar a las mujeres a obtener documentos de identificación tradicionales, especialmente en zonas rurales y de bajos ingresos.
- Reforma legal:Desafiar las leyes discriminatorias que dificultan que las mujeres obtengan documentos de identidad.
- Revisión de la IA:Diversificar los equipos de desarrollo de IA y los datos de entrenamiento para crear sistemas más inclusivos.
- Responsabilidad:Implementar una supervisión estricta y probar los sistemas de IA para detectar sesgos.
“Esto es un problema solucionable”, “Pero es necesario reconocer el problema y comprometer recursos para solucionarlo. No podemos permitirnos dejar a la mitad de la población mundial atrás en la era digital”, insiste la empresaria tecnológica Aisha Kahn.
A medida que nuestro futuro se vuelve cada vez más digital, es importante que cada plataforma que ofrece tecnología de reconocimiento facial haga su parte para garantizar el uso de una IA ética e imparcial. En ComplyCube, las consideraciones éticas de la IA han sido fundamentales para nuestro proceso de desarrollo. Hemos implementado sistemas de IA/ML con detección de desviaciones sensible a sesgos incorporada para garantizar que los modelos mantengan la imparcialidad en diversos grupos demográficos. Nuestros procesos de validación independientes garantizan un rendimiento casi uniforme en todos los grupos y seguimos perfeccionando nuestros sistemas para reducir los sesgos y mejorar la precisión.
Para obtener más información sobre cómo asociarse con un socio de IDV centrado en IA ética, comuníquese con uno de nuestros Expertos en cumplimiento.
