Information Technology

Senior Data Engineer (Snowflake Expert)

Madrid, Madrid
Tipo de trabajo: Contrato

Buscamos un perfil Senior Data Engineer especializado en Snowflake que quiera desarrollar su carrera profesional integrando grandes volúmenes de datos en soluciones de IA de vanguardia.


CONTEXTO & RESPONSABILIDADES

La persona seleccionada se incorporará al equipo Funcional con la misión crítica de conectar el "Core" de datos de la compañía con los nuevos agentes de IA. El Data Engineer deberá diseñar y construir pipelines robustos de extracción, transformación y carga (ELT) que alimenten los sistemas inteligentes, garantizando la calidad y disponibilidad del dato. Será imprescindible contar con un dominio experto de Snowflake y habilidades sólidas en Python, SQL y entorno AWS.


PROYECTO & EQUIPO

El proyecto requiere desbloquear el valor de los datos almacenados en el Data Lake corporativo para su consumo por modelos de IA Generativa. Esto implica la creación de conectores seguros, optimización de queries complejas y la estructuración de datos no estructurados.

Para el éxito del proyecto, necesitamos especialistas que entiendan cómo modelar el dato para ser consumido por un LLM. Este perfil trabajará en estrecha colaboración con los AI Engineers y el equipo de Backend, bajo la supervisión del Product Manager y siguiendo las directrices del Arquitecto.


EXPERIENCIA & CONOCIMIENTOS

El perfil a incorporar deberá contar con al menos 5 años de experiencia en Ingeniería de Datos, con una especialización profunda y demostrable en Snowflake en entornos productivos. Deberá tener un fuerte background en desarrollo de pipelines ETL/ELT escalables.

Se valorará experiencia previa integrando plataformas de datos con servicios de Machine Learning o IA.

Será necesario tener experiencia previa con tecnologías:

  • Core Data: Snowflake (Experto), SQL Avanzado, Python (Pandas, PySpark)

  • Orquestación: Airflow, AWS Glue, dbt

  • Cloud: AWS (S3, Lambda, Kinesis)

  • Ingeniería de Software: Git, CI/CD para datos, Testing de datos


Además se valorará positivamente contar con experiencia o conocimientos en:

  • Databricks: PySpark, Delta Lake

  • Vector Databases: Preparación de datos para vectorización

  • Formatos: Manejo de JSON, Parquet, Avro y datos no estructurados


CONTRATACIÓN & UBICACIÓN

La posición tiene sede en Madrid y se rige por un contrato a tiempo completo con vocación de estabilidad. Dada la criticidad del proyecto y la necesidad de una colaboración estrecha con los equipos de negocio y técnicos, el rol requiere presencialidad en las oficinas (operando bajo un modelo híbrido, habitualmente de 3 días presenciales y 2 de teletrabajo).

Envíe su solicitud

Su aplicación se ha enviado con éxito
  • Su aplicación tiene algún error