Funciones a realizar
| - ETL vía pyspark de datos desde un Data Warehouse Oracle y logs en XML y JSON a Datalake en HDFS, Hive y HBase. - Modelos predictivos de venta, upselling, downselling, cross-selling y fuga de diferentes productos bancarios con Spark y R, aplicando inteligencia artificial. - Modelos de clasificación supervisada y de segmentación no supervisada de nuevos clientes mediante redes neuronales. - Desarrollo en Shiny de aplicaciones de visualización de los modelos analíticos implementados. (no es muy común en el mercado, lo puede aprender aquí) . |
Requisitos Mínimos
| Grado en Física, Matemáticas, Ingeniería. Valorable postgrado o especialización en Data Science, Big Data… (capacidad de síntesis y análisis). Herramientas: - Base de datos: Oracle, MySQL, HBase - Lenguajes de programación: SQL, Javascript, R, Phyton y Spark. - Big Data: Hadoop, Spark, Hive, Real Time (Spark Streaming, Kafka, etc.) - Experiencia en alguna plataforma de Business Intelligence (IBI, MicroStrategy, Qlick, Tableau, Grafana…) Otros: - Curiosidad para analizar e interpretar datos - Experto en el manejo de datos - Capacidad de resolución de problemas - Capacidad de aprendizaje |
Requisitos Deseados
| - Experiencia como científico de datos en entorno Big Data con productos bancarios. - Experiencia en modelización y explotación de datos - Experiencia en creación de consultas para facilitar la explotación de la información por parte del cliente solicitante. - Experiencia en el uso de herramientas Big Data, BBDD No SQL, Spark, Kafka, R y Python para la elaboración de modelos estadísticos predictivos con Inteligencia Artificial; Machine Learning y Deep Learning. |