Overview
Buscamos a un profesional experimentado para diseñar y optimizar sistemas de procesamiento de datos a gran escala.
La empresa está buscando un Data Engineer que pueda crear soluciones efectivas y escalables para integrar y transformar grandes volúmenes de información de diversas fuentes.
Funciones
- Diseño y desarrollo de pipelines de datos : El candidato debe ser capaz de diseñar y desarrollar pipelines de datos eficientes y escalables para integrar y transformar grandes volúmenes de información de diversas fuentes.
- Gestión de la infraestructura de datos : La persona seleccionada gestionará y optimizará la infraestructura de datos garantizando su seguridad, rendimiento y escalabilidad.
- Colaboración con los equipos : Colaborará con los equipos para facilitar el acceso a los datos, desarrollando APIs y asegurando que la calidad de los datos sea adecuada para su explotación.
- Análisis de rendimiento y optimización : Realizará análisis de rendimiento y optimización de las consultas a las bases de datos, minimizando tiempos de respuesta y costos asociados al procesamiento.
- Implementación de procesos de automatización : Implementará procesos de automatización para la integración continua de datos de diversas fuentes.
- Desarrollo e implementación de flujos de trabajo ETL y ELT : Desarrollará e implementará flujos de trabajo ETL (Extract, Transform, Load) y procesos ELT según las necesidades del negocio.
- Solución de problemas en los sistemas de procesamiento de datos : Supervisará y resolverá problemas en los sistemas de procesamiento de datos, manteniendo la continuidad operativa.
Requisitos y habilidades
Licenciatura en Informática, Ingeniería de Sistemas o carreras afines.Experiencia en Big Data : conocimiento profundo de tecnologías como Hadoop, Spark, Hive y Kafka.Dominio avanzado de SQL : dominio avanzado de SQL para la gestión y optimización de bases de datos.Programación en lenguajes como Java o Scala : sólidos conocimientos de programación en lenguajes como Java o Scala para manipulación de datos y desarrollo de scripts.Herramientas de versionado de código y CI / CD : familiaridad con herramientas de versionado de código y CI / CD (Git, Jenkins).Familiaridad con herramientas de visualización y análisis de datos : familiaridad con herramientas de visualización y análisis de datos (como Tableau o Microstrategy), aunque no esencial.Capacidad analítica y atención al detalle : capacidad analítica y atención al detalle, con un enfoque riguroso en la calidad de los datos.Experiencia en aplicaciones de metodologías Agile : experiencia en la aplicación de metodologías Agile (Scrum, Kanban) para el desarrollo de proyectos y entrega continua.Proactividad y disposición para aprender nuevas herramientas y tecnologías de datos : proactividad y disposición para aprender nuevas herramientas y tecnologías de datos en constante evolución.Habilidad para documentar de manera clara y precisa : habilidad para documentar de manera clara y precisa, asegurando que otros puedan aprovechar la infraestructura de datos creada.#J-18808-Ljbffr