OPINIóN | 03-03-2022 14:04

¿Por qué nos dan un crédito?

Mitos y evolución de los modelos de scoring. El peso del machine learning y el big data.

Los modelos de scoring nacieron como una herramienta de análisis basada en esquemas matemáticos que tienen como variable objetivo, determinar la probabilidad de pago de una persona que toma crédito.

Estos modelos se construyen tomando indicadores socioeconómicos duros, como por ejemplo, tipo de empleo, remuneraciones, localización geográfica, edad, historial crediticio, entre otras.

En su origen, funcionaban como un complemento del análisis de riesgo tradicional basado en el estudio de documentación y del historial del sujeto de crédito pero con la subjetividad del analista. Con el tiempo se fueron perfeccionando y quienes otorgan préstamos, por una cuestión de efectividad y de eficiencia, empezaron a adoptarlos como única regla de decisión.

Sin embargo lo que podemos ver de estos modelos es que solo pueden explicar parcialmente lo que se busca determinar, y tienen como falencia la imposibilidad de segmentar poblaciones a partir de otras variables que son probabilísticamente más asertivas.

Gracias al avance de la tecnología se logró abaratar costos de procesamiento de datos y con esto el aumento de las variables disponibles para el análisis. Hoy se desarrollan modelos basados en datos comportamentales de las personas que alcanzan esquemas de segmentación más precisos y predictivos.

Estas herramientas se vuelven muy útiles en economías donde el segmento informal es grande, es decir, no hay suficiente porcentaje de bancarización. Según el Banco Mundial, en 2020 sólo el 7% de la población accedió a un crédito, y en Argentina en oposición, 20 millones de personas no pudieron calificar.

La situación se agrava cuando analizamos el contexto mundial, el acceso al crédito a nivel global fue restringido, y mas de 1.700 millones de personas no pudieron obtener una financiación, algo más de un sexto de estas personas excluidas corresponden a habitantes de Latino América.

Mitos

Existe una tendencia a plantear que una variable en particular es la que determina el puntaje, como la edad o una determinada zona geográfica. Pero esto es mucho más complejo, sobre todo por la precisión de datos que hoy tenemos a disposición que pueden ser procesados mediante sistemas muy sofisticados.

Hoy se toman una gran cantidad de variables que se ponderan en función de la combinación de estas variable,  y no tan solo por el peso que puede tener una u otra en sí misma.

Los modelos actuales combinan las variables sociodemográficas con otras tales como el uso de dispositivos tecnológicos como los celulares, la circulación a partir del seguimiento de aplicaciones o el comportamiento en redes sociales (aquí hay que resaltar la importancia de contar con la autorización de la persona a ser calificada).

Hoy estamos viviendo un mundo que hace 15 años era impensado para cualquier empresa, sin importar su tamaño. Es que hoy tienen la posibilidad de almacenar grandísimas cantidades de datos sobre los cuales se desarrollan modelos a partir de machine learning.

Y con la llegada y maduración de las tecnologías cloud, no solo se pueden almacenar sino que no requiere grandes inversiones como las de hardware. Con esto quiero decir que la big data genera las condiciones para realizar análisis descriptivos del comportamiento de una población tomando en cuenta una gran cantidad de variables.

El próximo paso dentro de la evolución de los modelos es la utilización de esquemas de redes neuronales basado en análisis dinámicos, autónomos y retroalimentado en tiempo real.

Inclusión 

Existe un gran porcentaje de la población sin historial crediticio o que no cumple con los requisitos del análisis tradicional y, sin eufemismos, quedan excluidas del sistema de préstamos o tarjetas de crédito.

A partir de este gran repertorio de datos disponibles, las fintechs pueden desarrollar modelos de scoring basados en la propia experiencia de la cartera, y con esto generar mejores condiciones para la inclusión financiera de las personas.

Los modelos de scoring que utilizan variables alternativas potencian la posibilidad de realizar evaluación a personas que no son asistidas, en estos días el nivel de bancarización promedio de América Latina, entendiéndose como bancarizado aquella persona que haya recibido algún tipo de asistencia financiera, no supera el 40% es decir 6 de cada 10 personas que están en etapa productiva no tienen acceso a créditos ni para consumo, ni para producción.

El desarrollo de nuevas tecnologías posibilita que se puedan analizar y procesar millones de datos almacenados en diferentes fuentes. El uso cada vez más común de las APIs, combinado con las capacidades que genera el despliegue de soluciones de análisis y explotación en la nube habilita un camino directo a poder trabajar sin más información que la disponible en las bases de datos.

El trabajo con datos sensibles de personas debe ser tomado con muchísima responsabilidad por parte de las empresas del sector financiero y también de quienes le damos soporte tecnológico, como hacemos en Alprestamo.

Tenemos la obligación de contar con el consentimiento de los usuarios para el uso de sus datos y darles el destino por el que fueron autorizados. De hecho la Ley 25326 de Protección de Datos Personales así lo establece. Además, también es clave aplicar herramientas de seguridad informática que protejan cualquier tipo de filtración de las bases de datos con control y medidas preventivas.

Por Pablo Blanco. CFO de Alprestamo

 

por Pablo Blanco

Galería de imágenes

En esta Nota

Comentarios