Data Engineer developing and maintaining ETL processes using Azure Data Factory and Snowflake. Collaborating with teams to ensure reliable data for analytical purposes.
Responsibilities
Diseñar, desarrollar y mantener pipelines en Azure Data Factory para ingesta y movimiento de datos desde bases de datos, ficheros, APIs y entornos cloud.
Implementar procesos de transformación y carga hacia Snowflake, siguiendo buenas prácticas de arquitectura por capas (raw, staging y modelo final).
Construir transformaciones en Snowflake mediante SQL, adaptadas a requisitos funcionales.
Definir e implementar estrategias de carga incremental y control de cambios.
Monitorizar los procesos ETL, identificar incidencias y colaborar en su resolución.
Colaborar con equipos funcionales y de BI para traducir requerimientos de negocio en soluciones técnicas.
Contribuir a la documentación técnica y a la mejora continua de los estándares de desarrollo.
Requirements
Experiencia de 2 a 4 años en desarrollo ETL o integración de datos en entornos cloud.
Experiencia práctica en Azure Data Factory (diseño y mantenimiento de pipelines).
Conocimientos sólidos de SQL para transformación y manipulación de datos.
Experiencia con Snowflake u otras bases de datos analíticas.
Conocimientos básicos de arquitectura de datos: Data Warehouse, ETL/ELT y modelado de datos.
Orientación a la calidad del dato, trabajo estructurado y atención al detalle.
Experiencia en proyectos con impacto directo en reporting o análisis.
Familiaridad con entornos Azure.
Conocimientos básicos de Git o metodologías colaborativas.
Motivación por continuar desarrollándote en Data Engineering.
Benefits
Participación en proyectos corporativos globales y de alto impacto.
Equipo diverso que valora la colaboración y el aprendizaje continuo.
Flexibilidad y conciliación: teletrabajo parcial, horario flexible y jornada intensiva los viernes y en julio y agosto.
Plan de formación continua: idiomas, formación técnica y certificaciones.
Plan de carrera individualizado y autonomía para impulsar nuevas iniciativas.
Programa de retribución flexible: guardería, restaurante, transporte, seguro médico.
Descuentos exclusivos en tecnología, ocio y viajes.
Participación en iniciativas solidarias y medioambientales.
Presencia internacional en 45 países con oportunidades de movilidad.
Data Engineer designing and implementing scalable data pipelines and interactive dashboards for military clients. Collaborating with teams to support advanced analytics and modernize legacy environments.
Data Migration Consultant for Capgemini Engineering focusing on Teamcenter data migration. Join a team contributing to innovative engineering solutions in a dynamic environment.
Data Engineer Intern gaining hands - on experience in TD's big data platform. Collaborating on software development and system enhancements while learning about analytical tools and technologies.
Data Engineer II providing data engineering functions within the Azure cloud environment at TD. Collaborating with stakeholders for efficient and reliable data solutions.
Building and operating data services and pipelines for a healthcare AI platform. Developing systems for large - scale healthcare data to ensure high performance and compliance.
Data Engineer constructing and managing data warehouses for travel technology solutions at Onfly. Collaborating across teams to optimize data processing and integration solutions in a hybrid environment.
Data Engineer developing and maintaining efficient data pipelines for strategic client projects. Collaborating with teams to deliver valuable data insights and ensuring data quality and governance.
Data Engineer building and maintaining ETL pipelines for Northstrat's agile development team. Collaborating in a fast - paced environment with a focus on high - quality solutions.
Data Engineering Lead at BlackStone eIT managing a team and driving data solutions aligned with strategic goals. Collaborating with departments to ensure effective data management.
Data engineer designing custom data architectures at Zenika. Developing and maintaining data transformation pipelines, optimizing performance, and collaborating with cross - functional teams.