Data Engineer developing and operating banking data solutions. Collaborating with cross-functional teams to ensure data quality and availability.
Responsibilities
Serás responsable de diseñar, construir y operar soluciones de datos para un cliente del sector bancario, habilitando analítica, reporting regulatorio/gerencial, modelos de riesgo y casos de negocio.
Trabajarás con equipos de producto, BI, analítica, ingeniería y seguridad para garantizar calidad, disponibilidad, trazabilidad y gobierno de los datos.
Diseñar y desarrollar pipelines ETL/ELT (batch y/o streaming) para ingestión, transformación y publicación de datos.
Implementar y mantener modelos de datos en data lake / data warehouse (modelos dimensionales, data marts, capas bronze/silver/gold).
Optimizar performance de consultas y procesos (particionado, clustering, manejo eficiente de archivos/tablas).
Asegurar calidad de datos (validaciones, reconciliaciones, reglas de negocio, monitoreo de pipelines).
Implementar linaje, catálogo y documentación de datasets, definiendo estándares de nombres y metadatos.
Gestionar accesos y seguridad de datos (principio de mínimo privilegio, cifrado, clasificación de datos sensibles).
Monitorear pipelines y plataformas, gestionar incidentes y establecer SLAs/controles operativos.
Automatizar despliegues con CI/CD e Infraestructura como Código cuando aplique.
Levantar requerimientos con áreas de negocio (canales, riesgo, finanzas, operaciones) y traducirlos a soluciones de datos.
Colaborar con analistas/DS/BI para habilitar datasets confiables y reutilizables.
Requirements
+3 a 5 años de experiencia en ingeniería de datos en entornos productivos.
Experiencia comprobada en sector bancario/financiero (datos transaccionales, auditoría, calidad, trazabilidad).
Dominio de SQL avanzado (optimización, ventanas, CTEs, modelado).
Experiencia con al menos una tecnología de procesamiento: Spark / PySpark (deseable fuerte) o Python para procesamiento (pandas) en pipelines orquestados.
Experiencia con herramientas de orquestación: Airflow, Prefect, Dagster u otras.
Manejo de data warehouse/lakehouse: Snowflake, BigQuery, Redshift, Databricks, Synapse (según stack).
Conocimiento de formatos y almacenamiento: Parquet/ORC, particionado, compresión (Deseable) Delta Lake / Iceberg / Hudi.
Experiencia con control de versiones Git y prácticas de entrega continua (CI/CD deseable).
Buenas prácticas de seguridad y gobierno de datos.
Deseables (no excluyentes) Streaming y mensajería: Kafka/Kinesis/PubSub.
Nube (ideal AWS ): S3, Glue, Athena, EMR, Redshift, Lake Formation (o equivalentes).
Data quality frameworks: Great Expectations, Deequ u otros.
Conocimiento de regulaciones/procesos bancarios: conciliaciones, riesgo, AML/KYC, reportes, auditoría.
Experiencia con herramientas de catálogo/linaje: DataHub, Collibra, Amundsen, OpenMetadata.
Modelado orientado a analítica: Kimball, Data Vault (deseable).
Benefits
Salario competitivo acorde a tu experiencia.
Desarrollo profesional : apoyo para formación continua y certificaciones.
Bonificaciones por desempeño.
Un ambiente centrado en tu crecimiento humano y profesional.
Proyectos retadores con impacto real en banca y transformación digital.
AWS Data Engineer designing data models and supporting data architecture for various clients at EXL. Collaborating to deliver data solutions for improved business outcomes in a hybrid work environment.
Senior Data Engineer at Noda creating scalable data solutions for smarter, sustainable buildings. Collaborating with teams to optimize data for high - performance analytics.
Leading Technology Consulting as Associate Director at Protiviti, focusing on Microsoft Fabric and Databricks. Strengthening client relationships through analytics and mentoring teams in consulting engagements.
Senior Consultant position at Protiviti mentoring teams on data analytics and engineering solutions using Microsoft technologies, enhancing efficiency and client relationship management.
GCP Data Engineer specializing in data governance, architecture, and quality. Collaborates in a hybrid environment across multiple locations in Mexico.
Director of Data Engineering leading data architecture and analytics at Petfolk. Overseeing data infrastructure and managing a data team to drive AI and business intelligence solutions.
Senior Data Engineer managing end - to - end data pipelines with Google Cloud Platform. Collaborating closely with product teams to deliver scalable data solutions in a hybrid setting.
GCP Data Engineer designing, building, and optimising data solutions on Google Cloud Platform. Collaborating with clients to solve complex data challenges and enhance AI capabilities.
Data Engineer developing scalable data solutions across multi - cloud environments for clients. Mentoring junior engineers while ensuring data quality and promoting best practices within the team.