Usamos cookies. Más información  aquí Aceptar

Machine Learning para aprobar préstamos hipotecarios de forma ética

Un modelo de Inteligencia Artificial lucha contra la discriminación en las hipotecas

Una nueva técnica para eliminar el sesgo en los conjuntos de datos puede permitir que los modelos de aprendizaje automático hagan predicciones de aprobación de préstamos que sean justas y precisas

Aunque la Ley de Igualdad de Oportunidades de Crédito de EE. UU. prohíbe la discriminación en los préstamos hipotecarios, los sesgos aún afectan a muchos prestatarios. Un estudio del Journal of Financial Economics de 2021 descubrió que a los prestatarios de grupos minoritarios se les cobraban tasas de interés casi un 8 % más altas y se les rechazaban préstamos un 14 % más a menudo que a los de grupos privilegiados.



Cuando estos sesgos se filtran en los modelos de aprendizaje automático que los prestamistas utilizan para agilizar la toma de decisiones, pueden tener consecuencias de gran alcance para la equidad en la vivienda e incluso contribuir a ampliar la brecha de riqueza racial.



Si un modelo se entrena en un conjunto de datos injusto, como uno en el que se negaron préstamos a una mayor proporción de prestatarios negros en comparación con los prestatarios blancos con el mismo ingreso, puntaje crediticio, etc., esos sesgos afectarán las predicciones del modelo cuando se aplica a situaciones reales Para detener la propagación de la discriminación en los préstamos hipotecarios, los investigadores del MIT crearon un proceso que elimina el sesgo en los datos que se utilizan para entrenar estos modelos de aprendizaje automático.



Mientras que otros métodos intentan abordar este sesgo, la técnica de los investigadores es nueva en el dominio de los préstamos hipotecarios porque puede eliminar el sesgo de un conjunto de datos que tiene múltiples atributos sensibles, como la raza y el origen étnico, así como varias opciones "sensibles" para cada uno. atributo, como negro o blanco, e hispano o latino o no hispano o latino. Los atributos y opciones confidenciales son características que distinguen a un grupo privilegiado de un grupo desfavorecido.



Los investigadores utilizaron su técnica, a la que llaman DualFair, para entrenar un clasificador de aprendizaje automático que hace predicciones justas sobre si los prestatarios recibirán un préstamo hipotecario. Cuando lo aplicaron a los datos de préstamos hipotecarios de varios estados de EE. UU., su método redujo significativamente la discriminación en las predicciones y mantuvo una alta precisión.



“Como estadounidenses sij, lidiamos con el sesgo con frecuencia y creemos que es inaceptable ver que se transforme en algoritmos en aplicaciones del mundo real. Para cosas como préstamos hipotecarios y sistemas financieros, es muy importante que el sesgo no se infiltre en estos sistemas porque puede enfatizar las brechas que ya existen contra ciertos grupos”, dice Jashandeep Singh, estudiante de último año en Floyd Buchanan High School y codirector autor del artículo con su hermano gemelo, Arashdeep. Los hermanos Singh fueron aceptados recientemente en el MIT.



Junto a Arashdeep y Jashandeep Singh en el artículo están el estudiante de segundo año del MIT, Ariba Khan, y el autor principal Amar Gupta, investigador del Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT, que estudia el uso de la tecnología en evolución para abordar la inequidad y otros problemas sociales. La investigación se publicó recientemente en línea y aparecerá en una edición especial de Machine Learning and Knowledge Extraction.



Reacción tardía



DualFair aborda dos tipos de sesgo en un conjunto de datos de préstamos hipotecarios: sesgo de etiqueta y sesgo de selección. El sesgo de etiqueta ocurre cuando el balance de resultados favorables o desfavorables para un grupo en particular es injusto. (A los solicitantes negros se les niegan préstamos con más frecuencia de lo que deberían). Se crea un sesgo de selección cuando los datos no son representativos de la población en general. (El conjunto de datos solo incluye personas de un vecindario donde los ingresos son históricamente bajos).



El proceso DualFair elimina el sesgo de etiqueta al subdividir un conjunto de datos en la mayor cantidad de subgrupos en función de combinaciones de atributos y opciones confidenciales, como hombres blancos que no son hispanos ni latinos, mujeres negras que son hispanas o latinas, etc.



Al dividir el conjunto de datos en tantos subgrupos como sea posible, DualFair puede abordar simultáneamente la discriminación basada en múltiples atributos.



“Hasta ahora, los investigadores en su mayoría han tratado de clasificar los casos sesgados como binarios. Hay múltiples parámetros para sesgar, y estos múltiples parámetros tienen su propio impacto en diferentes casos. No tienen el mismo peso. Nuestro método puede calibrarlo mucho mejor”, dice Gupta.



Una vez que se han generado los subgrupos, DualFair iguala el número de prestatarios en cada subgrupo duplicando individuos de grupos minoritarios y eliminando individuos del grupo mayoritario. DualFair luego equilibra la proporción de aceptaciones y rechazos de préstamos en cada subgrupo para que coincidan con la mediana en el conjunto de datos original antes de recombinar los subgrupos.



DualFair luego elimina el sesgo de selección iterando en cada punto de datos para ver si hay discriminación. Por ejemplo, si una persona es una mujer negra no hispana o latina que fue rechazada para un préstamo, el sistema ajustará su raza, etnia y género uno a la vez para ver si el resultado cambia. Si a este prestatario se le otorga un préstamo cuando su raza cambia a blanca, DualFair considera que ese punto de datos está sesgado y lo elimina del conjunto de datos.



Imparcialidad frente a precisión



Para probar DualFair, los investigadores utilizaron el conjunto de datos de la Ley de Divulgación de Hipotecas de Vivienda disponible públicamente, que abarca el 88 por ciento de todos los préstamos hipotecarios en los EE. UU. en 2019 e incluye 21 características, que incluyen raza, sexo y etnia. Usaron DualFair para "eliminar el sesgo" de todo el conjunto de datos y conjuntos de datos más pequeños para seis estados, y luego entrenaron un modelo de aprendizaje automático para predecir aceptaciones y rechazos de préstamos.



Después de aplicar DualFair, la imparcialidad de las predicciones aumentó, mientras que el nivel de precisión se mantuvo alto en todos los estados. Utilizaron una métrica de equidad existente conocida como diferencia de probabilidades promedio, pero solo puede medir la equidad en un atributo sensible a la vez.



Entonces, crearon su propia métrica de equidad, llamada índice mundial alternativo, que considera el sesgo de múltiples atributos y opciones sensibles en su conjunto. Usando esta métrica, encontraron que DualFair aumentó la equidad en las predicciones para cuatro de los seis estados mientras mantenía una alta precisión.



“Es la creencia común que si quieres ser preciso, tienes que renunciar a la imparcialidad, o si quieres ser justo, tienes que renunciar a la exactitud. Demostramos que podemos avanzar hacia la reducción de esa brecha”, dice Khan.



Los investigadores ahora quieren aplicar su método para eliminar el sesgo de diferentes tipos de conjuntos de datos, como los que capturan los resultados de la atención médica, las tarifas de seguros de automóviles o las solicitudes de empleo. También planean abordar las limitaciones de DualFair, incluida su inestabilidad cuando hay pequeñas cantidades de datos con múltiples atributos y opciones confidenciales.



Si bien este es solo un primer paso, los investigadores tienen la esperanza de que su trabajo algún día pueda tener un impacto en la mitigación del sesgo en los préstamos y más allá.



“La tecnología, sin rodeos, funciona solo para un determinado grupo de personas. En el ámbito de los préstamos hipotecarios en particular, las mujeres afroamericanas históricamente han sido discriminadas. Nos apasiona asegurarnos de que el racismo sistémico no se extienda a los modelos algorítmicos. No tiene sentido crear un algoritmo que pueda automatizar un proceso si no funciona para todos por igual”, dice Khan.



Este artículo ha sido elaborado tomando el MIT como fuente.


Solicítanos ahora tu presupuesto para proyecto de Inteligencia Artificial y uno de nuestros consultores especializados te atenderá personalmente.


Blog sobre Inteligencia Artificial