Overview
Buscamos a un profesional experimentado para diseñar y optimizar sistemas de procesamiento de datos a gran escala.
La empresa está buscando un Data Engineer que pueda crear soluciones efectivas y escalables para integrar y transformar grandes volúmenes de información de diversas fuentes.
Funciones
Diseño y desarrollo de pipelines de datos : El candidato debe ser capaz de diseñar y desarrollar pipelines de datos eficientes y escalables para integrar y transformar grandes volúmenes de información de diversas fuentes.
Gestión de la infraestructura de datos : La persona seleccionada gestionará y optimizará la infraestructura de datos garantizando su seguridad, rendimiento y escalabilidad.
Colaboración con los equipos : Colaborará con los equipos para facilitar el acceso a los datos, desarrollando APIs y asegurando que la calidad de los datos sea adecuada para su explotación.
Análisis de rendimiento y optimización : Realizará análisis de rendimiento y optimización de las consultas a las bases de datos, minimizando tiempos de respuesta y costos asociados al procesamiento.
Implementación de procesos de automatización : Implementará procesos de automatización para la integración continua de datos de diversas fuentes.
Desarrollo e implementación de flujos de trabajo ETL y ELT : Desarrollará e implementará flujos de trabajo ETL (Extract, Transform, Load) y procesos ELT según las necesidades del negocio.
Solución de problemas en los sistemas de procesamiento de datos : Supervisará y resolverá problemas en los sistemas de procesamiento de datos, manteniendo la continuidad operativa.
Requisitos y habilidades
Licenciatura en Informática, Ingeniería de Sistemas o carreras afines.
Experiencia en Big Data : conocimiento profundo de tecnologías como Hadoop, Spark, Hive y Kafka.
Dominio avanzado de SQL : dominio avanzado de SQL para la gestión y optimización de bases de datos.
Programación en lenguajes como Java o Scala : sólidos conocimientos de programación en lenguajes como Java o Scala para manipulación de datos y desarrollo de scripts.
Herramientas de versionado de código y CI / CD : familiaridad con herramientas de versionado de código y CI / CD (Git, Jenkins).
Familiaridad con herramientas de visualización y análisis de datos : familiaridad con herramientas de visualización y análisis de datos (como Tableau o Microstrategy), aunque no esencial.
Capacidad analítica y atención al detalle : capacidad analítica y atención al detalle, con un enfoque riguroso en la calidad de los datos.
Experiencia en aplicaciones de metodologías Agile : experiencia en la aplicación de metodologías Agile (Scrum, Kanban) para el desarrollo de proyectos y entrega continua.
Proactividad y disposición para aprender nuevas herramientas y tecnologías de datos : proactividad y disposición para aprender nuevas herramientas y tecnologías de datos en constante evolución.
Habilidad para documentar de manera clara y precisa : habilidad para documentar de manera clara y precisa, asegurando que otros puedan aprovechar la infraestructura de datos creada.
#J-18808-Ljbffr
Ingeniero Datos • Barcelona, SPAIN