Estamos buscando un Ingeniero de Datos Senior para liderar el diseño, desarrollo y optimización de nuestra arquitectura de datos de extremo a extremo. Serás responsable de construir pipelines escalables y seguros que integren datos estructurados y no estructurados de múltiples fuentes internas y externas, alimentando sistemas críticos como nuestro Data Warehouse (DWH) y Customer Data Platform (CDP). Tu trabajo apoyará directamente la analítica avanzada, aplicaciones de machine learning y la toma de decisiones en tiempo real.
Responsabilidades clave:
Diseñar e implementar pipelines ETL/ELT para ingerir, transformar y entregar datos desde diversas fuentes hacia nuestras plataformas centralizadas de DWH y CDP.
Desarrollar y optimizar pipelines de datos en batch y en tiempo real utilizando herramientas como Apache Spark, Kafka, Airflow o DBT.
Colaborar con los equipos de analítica, ciencia de datos, marketing y producto para asegurar que los modelos de datos soporten tableros de BI, personalización y modelos de machine learning.
Asegurar alta calidad de datos y trazabilidad mediante validación, perfilamiento y herramientas de monitoreo.
Integrar y normalizar datos provenientes de puntos de contacto digitales (como sitios web, aplicaciones, CRM, campañas) en la CDP para apoyar la segmentación y el marketing basado en el ciclo de vida del cliente.
Liderar iniciativas de gobernanza de datos, privacidad y cumplimiento, incluyendo consideraciones de GDPR y CCPA en los flujos de trabajo del CDP y DWH.
Mantener prácticas sólidas de catalogación de datos y documentación.
¿Qué estamos buscando?
Título profesional o de maestría en Ingeniería de Sistemas, Ingeniería de Datos o carreras afines.
Más de 5 años de experiencia en ingeniería de datos, desarrollo de big data o roles similares.
Experto en SQL y con dominio de Python para manipulación y orquestación de datos.
Conocimiento profundo de plataformas de datos modernas, incluyendo experiencia con data lakes, data warehouses (como Snowflake, Redshift, BigQuery) y CDPs (como Segment, mParticle, Tealium).
Amplia experiencia práctica con frameworks de orquestación de datos (Airflow, DBT), procesamiento de flujos (Kafka, Flink) y herramientas de transformación de datos.
Experiencia comprobada trabajando en arquitecturas basadas en la nube (AWS Glue, GCP Dataflow, Azure Synapse, entre otros).
Sólida comprensión de modelado de datos (esquemas estrella y copos de nieve), ciclo de vida del dato y optimización del rendimiento para cargas analíticas.
Excelentes habilidades de comunicación y capacidad para liderar la colaboración transversal entre equipos de ingeniería, ciencia de datos y negocios.
Dominio del idioma inglés.
¿Qué ofrecemos?
Contrato a término indefinido.
Salario competitivo.
Fondo de empleados.
Días libres (cumpleaños, graduación y más).
EXCELENTE ambiente laboral, estabilidad, aprendizaje, oportunidades de crecimiento, ¡y un fondo de empleados que te ayudará a cumplir tus sueños, metas y mucho más!
Si tu hoja de vida es seleccionada, revisa tu correo (incluyendo la bandeja de spam), donde te enviaremos información muy importante que te permitirá avanzar dentro de nuestra compañía.