Las máquinas de vectores de soporte son un tipo de Machine Learning que tiene una presencia muy importante en los procesos de inteligencia de negocios. Este modelo de aprendizaje supervisado que funciona con algoritmos poderosos para reconocer patrones de comportamiento de datos es una herramienta ampliamente implementada como apoyo a estrategias de prevención y detección de fraude bancario.
A continuación haremos un breve recorrido por su concepto y funcionamiento para comprender de mejor manera cómo podemos aprovechar las máquinas de vectores de soporte para la prevención de fraude bancario.
¿Qué son las máquinas de vectores de soporte?
Conocidas en ingles como Support Vector Machine o SVM, son modelos de aprendizaje automatizado de tipo supervisado que funcionan con algoritmos complejos que analizan los datos, los clasifican y determinan patrones en los conjuntos de datos. Estas máquinas de vectores de soporte son comunes en procesos de inteligencia de negocios, prevención de fraude y en otras estrategias empresariales donde el análisis de regresión sea importante para tomar decisiones.
Las SMV toman un conjunto de datos de entrada y construye en base a sus características una predicción para cada entrada, estimando su pertenencia a dos clases de salida. Esto, apoyándose en un proceso de clasificación no probabilistico de tipo lineal binario. Cada una de estas clases de salida pertenecen o dependen de una categoría especifica. Gracias a estos los algoritmos de entrenamiento automatizado construyen un modelo que asignan los datos nuevos o entrantes a las categorías predeterminadas.
,Estos modelos sueles ser usados en análisis en los cuales se puedan realizar clasificaciones de solamente dos categorías. Por ejemplo en el sector bancario las clasificaciones suelen ser fraude o no fraude. En las operaciones bancarias este tipo de máquinas de soporte de vectores apoyan los estudios de capacidad crediticia para recomendar aprobar o negar una solicitud de crédito.
¿Cómo funciona una máquina de soporte de vectores?
Los modelos de máquinas de soporte de vectores representan los datos como puntos en un espacio, formando una división para la separación por categorías definidas. Estos espacios deben ser lo más amplios posibles para que los nuevos datos de entrada tengan cabida en la representación. Estos modelos se basan en que cualquier dato que ingrese contará con la posibilidad de ser clasificado dentro de algunas de las dos categorías que corresponden al modelo de aprendizaje de los datos a estudiar.
Las SVM buscan crear un hiperplano que separe de forma óptima a los puntos que conforman una categoría. Esta separación óptima es la característica más importante de estas máquinas. Los algoritmos buscan diseñar que el hiperplano a conformar tenga la máxima distancia posible con los puntos que estén más cerca de él mismo. Esta es la razón por la que podemos encontrar definiciones de estos modelos de aprendizaje supervisado como clasificadores de margen máximo.
Con esto se busca que los puntos del vector que son etiquetados pertenecerán a una sección del hiperplano y no sufrirán una doble calificación.
En ocasiones las SVM producen el hiperplano pero las características deseadas no lográn un espectro de separación perfecta. Esto produce un resultado dentro del modelo que no puede ser generalizado para otros datos, este proceso se conoce como sobre-ajuste. Para permitir cierto nivel de flexibilidad que permita compensar este tipo de errores de entrenamiento se crea una brecha mínima que sirva para captar los errores y las penalizaciones de datos del modelo. Esto es lo que se conoce cómo margen blando.
¿Cómo conforman las SVM la división del hiperplano para clasificar los datos?
La división del plano de clasificación de los datos es sumamente importante, debido a que en un modelo de fraude bancario es lo que fija el patron de que operaciones son fraude y cuales no. La forma más sencilla de realizar esta división es con la construcción de una línea recta en un plano n-dimensional. Desafortunadamente los universos de datos en ocasiones muy extrañas presentan esta condición. Así que los algoritmos de las máquinas de vectores de soporte deben tratar con diversos factores.
Generalmente deben tratar con más de dos variables de predicción, curvas no lineales de separación, casos donde los conjuntos de datos no pueden separarse por completo o recurrir a modelos multi dimensionales para clasificar más de dos categorías.
La forma más eficiente para representar este tipo de lineas divisoras es mediante la aplicación de funciones de kernel. Este tipo de función soluciona el problema de fondo, proyectando la información a un espacio de características de mayor dimensión en el que se incrementa significativamente la capacidad computacional de una maquina de aprendizaje lineal.
Esperamos que esta información sea de utilidad para conocer más a fondo la funcionalidad de las máquinas de vectores de soporte y su rol en la detección de fraude bancario.
Visita más de Grapheverywhere para descubrir todo lo que necesitas saber sobre Machine Learning.