Clientes y ajustes de oferta: así es la revolución de los Big Data dentro de la banca

4 min lectura
Clientes y ajustes de oferta: así es la  revolución de los Big Data dentro de la banca
Clientes y ajustes de oferta: así es la  revolución de los Big Data dentro de la banca

BBVA API Market

Las búsquedas y el consumo de información en la Red, teléfonos, relojes y pulseras inteligentes, dispositivos móviles como tabletas o GPS, Internet de las Cosas, las redes sociales… El número de receptores habituales de datos personales se han multiplicado en los últimos años. Hoy en día los usuarios y las empresas disponen de la mayor cantidad de datos no estructurados de la historia de la humanidad. Y con la Ciencia de Datos, la forma más eficiente, más rápida y más barata de ordenarlos y analizarlos para extraer conclusiones útiles para el negocio. 

En el escenario presente y futuro de los bancos como Plataformas como Servicio (PaaS), la recepción, gestión, estructuración y análisis de los grandes datos se convertirán en una diferencia competitiva con respecto a los demás. No sólo son ingresos a partir del uso de APIs por terceras startups o desarrolladores, también son productos finalistas (aplicaciones) que acumulan datos personales, hábitos de consumo y operatividad del día a día y que son un paraíso de oportunidades. En gran medida haría posible que los bancos fueran capaces de reinventar su negocio. 

El cliente, centro de los Big Data

La gestión de los Big Data tiene varios objetivos con el centro lógico de toda la operativa bancaria: los clientes. La recopilación masiva de datos, su estructuración y análisis tiene una primera meta que es la identificación de los perfiles de cliente. Así es posible conocer sus hábitos de consumo, sus intereses, sus necesidades… Y con ello es más fácil adaptar las campañas de marketing a los distintos perfiles de cliente y mejorar los servicios en la medida en que se pueden personalizar. Al final los bancos, como cualquier empresa, quieren mejorar su imagen de marca.

Los otros dos grandes objetivos son entender cómo los clientes se relacionan con los productos financieros y cuál es su compromiso real con lo que les ofrece su entidad, ya sea un crédito personal, la relación con los empleados o una aplicación en el móvil. El tercero, y no menos importante, detectar quiénes son los clientes cansados, disgustados y, en último término, con una alta predisposición a abandonar a un banco para recalar en otra entidad financiera. El uso del aprendizaje automático (machine learning), una mezcla eficaz de Big Data e inteligencia artificial, permite a las entidades evitar rupturas con los clientes

Hoy en día los bancos utilizan numerosos tipos de algoritmos para predecir conductas relacionadas con sus clientes, incluso también sus propios empleados: árboles de decisión, clústeres, redes neuronales, análisis de texto, enlaces y búsquedas o análisis de supervivencia son métodos utilizados para mejorar la experiencia del consumidor o retenerlo. En este caso, el análisis de supervivencia es el método por el cual un banco puede establecer el momento en el que un usuario puede abandonar la entidad porque es capaz, con el análisis de millones de datos de usuarios del banco, de establecer el ciclo de vida del cliente (el análisis normalmente tiene dos ejes, uno de 1 a 0 que mide el compromiso y otro que establece el tiempo de la relación entre la entidad financiera y el consumidor). Algunos de los elementos a los que da respuesta un análisis de supervivencia son:
 

● Cuándo podría abandonar la entidad financiera un cliente concreto.

● Cuándo debería pasar a un nuevo segmento con nuevos servicios y ventajas.

● Efectos que facilitan una mejor o peor relación entre banco y usuario.

Big Data y segmentación de clientes

La segmentación de clientes es el método por el que una entidad financiera puede crear tipologías de consumidor que comparten necesidades e intereses. Es el camino hacia la banca personalizada. Cómo ajustar los productos financieros a las necesidades de cada individuo es una quimera, la segmentación por grupos, al menos acerca a los bancos a ese objetivo de adaptar la oferta financiera.

Un caso de uso habitual dentro de las entidades es la recopilación de datos de uso de tarjetas de crédito y el análisis de los hábitos de consumo en torno a esa utilización. Y a partir de ese trabajo de Big Data, los bancos adaptan su oferta. Pero también establecen escalas de precios por producto financiero en función de la tipología de usuario, por ejemplo, para la segmentación de los solicitantes de créditos financieros (cada uno está dispuesto a pagar un precio justo por oferta).

El método de Big Data más utilizado en la segmentación de clientes son los clústeres K-means, un método de agrupamiento usado en minería de datos para hacer subdivisiones de un conjunto a partir de distintas observaciones en la medida en que se ajustan a la media. Es la forma más eficaz de encontrar tipologías de usuarios o clientes alrededor de tendencias de mercado

 

Análisis de sentimiento

Las redes sociales se han convertido en un escenario ideal para buscar, informar, ofrecer y entender el estado de ánimo de los consumidores. Pero son millones de usuarios emitiendo millones de opiniones a la vez en numerosas plataformas (Twitter, Facebook, LinkedIn… ). No sólo la redes sociales, también comentarios en foros o agregadores de noticias, por ejemplo. Los métodos de recopilación y análisis de datos son esenciales para medir la temperatura de ese entorno y tomar medidas concretas para fidelizar clientes o solucionar crisis de reputación

Existen dos algoritmos perfectos para el análisis de sentimiento:

● Clasificador bayesiano ingenuo o Naïve Bayes: es un clasificador probabilístico basado en el teorema de Bayes y en hipótesis simplificadoras. ¿Qué quiere decir esto? Hay una frase hecha que puede resumir a la perfección el funcionamiento del algoritmo Naïve Bayes: si parece un pato, nada como un pato y grazna como un pato, probablemente sea un pato. Este clasificador ingenuo establece cómo cada una de esas características contribuye de forma independiente a la probabilidad de la premisa final.

● Máquinas de Vectores de Soporte o SVM: conjunto de algoritmos de aprendizaje supervisado desarrollados por Vladimir Vapnik en AT&T, hoy trabajando dentro del equipo de inteligencia artificial de Facebook. Es un método de minería de datos muy usado dentro del aprendizaje automático: a partir de un conjunto de datos de muestra se puede entrenar una máquina de vectores de soporte para predecir las clases de una tercera muestra. Este método de Big Data permite, por ejemplo, pronosticar los incumplimientos de pago de clientes dentro de la gestión de riesgos. 

 

Si quieres conocer más sobre las APIs financieras de BBVA, visita esta web.

Si quieres probar las APIs de BBVA, testéalas aquí.

También podría interesarte