Sesgo de la IA en las finanzas personales:paridad de género y equidad
La inteligencia artificial está transformando nuestro mundo y los servicios financieros no son una excepción. La IA está remodelando el sector de la banca personal, pero ¿cuál es su situación actual en materia de paridad de género, transparencia y equidad?
Cuando alguien solicita un préstamo hoy en día, existe una posibilidad cada vez mayor de que ningún ser humano lea su solicitud. Un algoritmo basado en datos decide si califican, cuánto pueden pedir prestado y qué tan riesgosos se consideran, a menudo en cuestión de segundos y sin explicación, dando forma silenciosamente a oportunidades financieras de maneras que la mayoría de las personas nunca ven pero que sienten en su vida cotidiana.
Estos sistemas suelen presentarse como herramientas neutrales:más rápidos que las personas, más consistentes y menos propensos a prejuicios.
En un sector criticado durante mucho tiempo por su opacidad y parcialidad, esa promesa es atractiva y con frecuencia tiene eco en los debates industriales y políticos. Pero esa promesa se basa en una suposición frágil, rara vez explícita, de que los datos de los que aprenden estos sistemas reflejan las vidas de todos por igual.
Un informe reciente de la Agencia de los Derechos Fundamentales de la UE, basado en trabajo de campo en cinco estados miembros, examinó cómo los sistemas de IA de alto riesgo se rigen por la Ley de IA de la UE en áreas como el empleo, los beneficios públicos y la aplicación de la ley. Encontró una sorprendente brecha entre la ambición legal y la práctica:si bien los riesgos de discriminación son ampliamente reconocidos, los proveedores y los implementadores a menudo carecen de las herramientas, la experiencia y la orientación para evaluarlos sistemáticamente. Las autoevaluaciones tienden a ser inconsistentes y la supervisión sigue siendo escasa.
Ésta es una cuestión importante. Cuando los datos que alimentan estos sistemas no logran captar la realidad de la vida financiera de las mujeres con la misma profundidad y precisión que la de los hombres, el resultado no es sólo una deficiencia técnica sino una distorsión estructural, que determina quién tiene acceso al crédito, en qué términos y con qué consecuencias a largo plazo. Para que las finanzas impulsadas por la IA sean justas, las mujeres primero deben ser “visibles” en los datos en los que se basan estos sistemas.
Los algoritmos no juzgan la equidad ni preguntan si un resultado tiene sentido, sino que estiman lo que es más probable que sea correcto basándose en los datos que se les proporcionan, dibujando patrones y proyectándolos hacia adelante. Cuando los datos están incompletos o distorsionados, las conclusiones del sistema se basan en suposiciones inestables desde el principio.
Si las mujeres están subrepresentadas, mal medidas o nunca analizadas por separado de los hombres, el sistema no puede ver resultados desiguales y lo que no puede ver, no lo puede corregir. El prejuicio simplemente se lleva adelante y se convierte en una rutina.
Esta dinámica es fácil de pasar por alto cuando las discusiones se centran en los modelos y la regulación, pero sus efectos se vuelven claros tan pronto como se observan sistemas automatizados en la práctica. En diferentes países, la evidencia muestra cuán rápidamente la desigualdad puede integrarse en las decisiones algorítmicas, no porque los sistemas estén diseñados para discriminar, sino porque reproducen fielmente las distorsiones ya presentes en los datos de los que aprenden.
Kenia ofrece un ejemplo revelador. Según estudios publicados, un algoritmo de préstamos digitales ampliamente utilizado ofrecía sistemáticamente a las mujeres préstamos más pequeños que a los hombres, en algunos casos en más de un tercio, a pesar de un mejor rendimiento de los pagos. El sistema no destacó deliberadamente a las mujeres:simplemente aprendió de los datos moldeados por disparidades sociales y económicas de larga data y luego aplicó esos patrones a escala.
Lo que importa en este ejemplo no es Kenia en sí, sino lo que el caso hace visible. El algoritmo hizo exactamente aquello para lo que fue diseñado:aprendió del comportamiento pasado y aplicó esos patrones de manera consistente; sin embargo, sin la capacidad de distinguir entre los resultados de las mujeres y los de los hombres, no había forma de detectar que la desigualdad se estaba reproduciendo en tiempo real. El problema no era la automatización, sino la ceguera.
¿Cómo pueden las finanzas superar el punto ciego de género?
Ahí es donde los datos desglosados por sexo se vuelven esenciales. Al clasificar los datos financieros por género, los reguladores, las instituciones financieras y los diseñadores de tecnología pueden descubrir los impactos de los sistemas automatizados, identificar quién tiene acceso a la financiación y señalar áreas donde los resultados comienzan a divergir. Sin esa visibilidad, las brechas de género permanecen ocultas y tienen la costumbre de volverse permanentes. En las finanzas digitales, los datos son “el mejor amigo de una niña”, no como un eslogan, sino como una condición práctica para la rendición de cuentas.
La mayoría de las instituciones financieras ya registran el género del cliente como parte de la identificación básica. En papel, la información está ahí, integrada en informes de rutina y registros básicos de clientes. Sin embargo, en la práctica registrar una variable no es lo mismo que utilizarla. En muchos países, el sexo del cliente aparece en las bases de datos pero nunca es analizado, informado o monitoreado por los supervisores, incluso en marcos de supervisión básicos como los informes prudenciales. Con demasiada frecuencia, los datos ya existen, pero se recopilan, se archivan y luego se ignoran silenciosamente. El problema no está en lo que se puede hacer, sino en lo que se hace.
Finanzas más justas:los países en desarrollo están liderando el camino
El panorama es muy diferente en países que a menudo se supone que tienen menos recursos. En algunas partes de América Latina y África, los reguladores han exigido durante años informes desglosados por sexo y publican periódicamente datos sobre las brechas de género en las finanzas.
En Chile, las autoridades financieras han seguido las diferencias de género en préstamos y depósitos durante más de dos décadas, publicando periódicamente estadísticas financieras desagregadas por sexo.
En México, los reguladores combinan datos bancarios con encuestas nacionales de hogares para comprender cómo mujeres y hombres utilizan los servicios financieros y cómo se desempeñan como prestatarios.
Esa visibilidad ha tenido consecuencias prácticas. En México, los datos de supervisión mostraron que los préstamos a mujeres eran más pequeños pero menos riesgosos, evidencia que alimentó cambios en las reglas de provisión para pérdidas crediticias.
En Chile, los datos revelaron que la igualdad de acceso a las cuentas no se traducía en resultados iguales en ahorros o seguros, lo que provocó respuestas políticas más específicas. Una vez que estas brechas se hicieron visibles, se volvió mucho más difícil ignorarlas.
Vista desde esta perspectiva, la situación en muchas economías de altos ingresos parece menos un rezago técnico y más una vacilación institucional. En gran parte de Europa, los datos de género siguen siendo voluntarios o fragmentados a pesar de las infraestructuras de datos avanzadas, una falla no de capacidad técnica sino de elección institucional. Mi próximo documento de política, “Los datos son los mejores amigos de las niñas:abordar la desigualdad financiera digital a través de datos desagregados por sexo”, que se publicará en mayo, explora esto.
A medida que la inteligencia artificial se integra más profundamente en la toma de decisiones financieras, esa elección se vuelve más difícil de defender. En un momento en que Europa está implementando la Ley de IA de la UE y debatiendo cómo regular la toma de decisiones algorítmicas en las finanzas, la ausencia de datos sistemáticos de género plantea una pregunta básica:¿cómo se puede monitorear la equidad si los datos necesarios para detectar la desigualdad nunca se analizan?
Hacer visibles a las mujeres en los datos no es simbólico. Sin él, una financiación justa es poco más que un reclamo.
Un correo electrónico semanal en inglés que presenta la experiencia de académicos e investigadores. Proporciona una introducción a la diversidad de investigaciones que surgen del continente y considera algunas de las cuestiones clave que enfrentan los países europeos. ¡Recibe el boletín!
Artículos Destacados
- Protección de la soberanía financiera de Canadá:la amenaza de la influencia bancaria extranjera
- Cómo estos 5 bancos están luchando contra el cambio climático
- Algunas recompensas de tarjetas de crédito están siendo descontinuadas. ¿Qué debe hacer ahora?
- Productos financieros del futuro:¿Cómo administraremos nuestro dinero en 2030?
- ¡Tienes que luchar! ¡Por tu derecho! ... a una banca justa
- Cómo obtener un préstamo con mal crédito
- Tarjeta prepaga versus tarjeta de débito:¿Cómo se comparan?
- 5 razones por las que se le puede negar una cuenta bancaria y qué hacer al respecto
- Cómo convertir $ 25 por semana en casi $ 7000 en 5 años
-
Estrategias probadas:8 pasos para generar riqueza y convertirse en millonario No hay nada misterioso en convertirse en millonario. La mayoría de las personas que alcanzan ese hito no comenzaron siendo ricas ni ganaron la lotería. Simplemente siguieron un sistema:se fijaron obje...
-
Cómo comprar un auto usado sin que te estafen Todo el mundo sabe que puede ahorrar mucho dinero comprando un vehículo usado en lugar de uno nuevo. Pero, ¿cómo se supone que debes comprar un auto usado sin que te estafen? Los vendedores de autos...
