Humanizando la Tecnología.
Somos una gran empresa con alma de start-up. Nos organizamos por unidades de conocimiento expertas que colaboran entre sí.
Por ello buscamos personas inquietas, que les motiven los retos y con ganas de crecer personal y profesionalmente, que se unan a nuestro equipo para tener un impacto positivo en el mundo a través de la tecnología
¿QUÉ HARÁS EN TU DÍA A DÍA?
Como Ingeniero de Datos en Databricks , serás responsable de diseñar, desarrollar y optimizar pipelines de datos y modelos analíticos sobre la plataforma Databricks, garantizando un flujo de datos eficiente, seguro y escalable. Trabajarás estrechamente con equipos técnicos y de negocio para construir arquitecturas modernas que impulsen la analítica avanzada y la toma de decisiones basada en datos.
- INGENIERÍA Y MODELADO DE DATOS
- Diseñar, implementar y optimizar pipelines de datos en Databricks (PySpark, SQL, Delta Live Tables, etc.).
- Modelar datos en capas bronze, silver y gold, asegurando su calidad, trazabilidad y rendimiento.
- Integrar Databricks con diferentes fuentes (APIs, bases de datos, cloud storage, etc.) y herramientas del ecosistema (dbt, Airflow, Azure Data Factory, etc.).
- Desarrollar y mantener notebooks, jobs y workflows de producción.
- Colaborar con analistas y científicos de datos para garantizar que los modelos sean accesibles, consistentes y de alto valor.
- OPTIMIZACIÓN Y ESCALABILIDAD
- Monitorizar y optimizar costes, rendimiento y tiempos de ejecución en clusters Databricks.
- Aplicar buenas prácticas de gestión de recursos y versionado (Unity Catalog, Git, repositorios).
- Asegurar la gobernanza y seguridad del entorno (roles, permisos, data lineage).
- Identificar oportunidades de automatización y mejora continua en la infraestructura de datos.
- COLABORACIÓN Y TRANSVERSALIDAD
- Trabajar con equipos de negocio para entender requerimientos y transformarlos en soluciones técnicas.
- Colaborar con arquitectos de datos y equipos cloud (Azure, AWS o GCP) en el diseño de arquitecturas escalables.
- Participar en la definición de estándares y buenas prácticas en ingeniería y analítica de datos.
- Documentar procesos, flujos y componentes para asegurar la mantenibilidad y transferencia de conocimiento.
- OPTIMIZACIÓN DE COSTES
- Analizar y monitorizar costes asociados al uso de plataformas cloud, especialmente en Looker.
- Desarrollar dashboards de control y seguimiento de gasto en Looker para identificar oportunidades de optimización.
- Colaborar con equipos cross para definir estrategias de eficiencia y ahorro en costes.
- LIDERAZGO (PARA PERFILES MÁS SENIORS)
- Liderar workshops técnicos con clientes para definir arquitecturas y estrategias de datos sobre Databricks.
- Asesorar en la adopción de buenas prácticas de ingeniería, CI / CD y gobierno de datos.
- Guiar a equipos técnicos en el uso eficiente de la plataforma y la integración con otras herramientas cloud.
- Mentoring a perfiles junior en programación PySpark, modelado Delta y optimización de pipelines.
¿QUÉ ESPERAMOS DE TI?
Experiencia mínima de 2 años trabajando con Databricks en entornos cloud (Azure, AWS o GCP).Dominio de PySpark, SQL y modelado de datos.Conocimientos en Delta Lake, Unity Catalog y herramientas de orquestación (Airflow, ADF, etc.).Experiencia en integración de datos desde distintas fuentes y diseño de arquitecturas escalables.Capacidad para interactuar con equipos técnicos y de negocio, comunicando de forma clara y orientada a valor.Se valorarán certificaciones en Databricks o Cloud.¿QUE ENCONTRARÁS EN SEIDOR?
Un equipo diverso. Respetamos las diferencias que nos hacen más humanos.Compañerismo. Trabajamos en equipo y aprendemos los unos de los otros.Flexibilidad y conciliación. El teletrabajo está en nuestro ADN. Promovemos la flexibilidad horaria, y tenemos jornada intensiva los viernes y los meses de julio y agosto.