Talent.com
Esta oferta de trabajo no está disponible en tu país.
Data Architect (gn)

Data Architect (gn)

SoftwareONE Deutschland GmbHMadrid, Comunidad de Madrid, España
Hace 18 días
Descripción del trabajo

Why SoftwareOne?

SoftwareOne es un proveedor líder mundial de software y soluciones en la nube que está redefiniendo cómo las empresas construyen, compran y gestionan todo en la nube. Al ayudar a los clientes a migrar y modernizar sus cargas de trabajo y aplicaciones, SoftwareOne desbloquea el valor de la tecnología. Los 8.900 empleados de la empresa están motivados para ofrecer una cartera de 7.500 marcas de software con capacidades de venta y entrega en 60 países. Con sede en Suiza, SoftwareOne cotiza en la bolsa SIX Swiss Exchange con el símbolo SWON. Visítenos en

The role

Vas a participar como Arquitecto en los proyectos de Data & IA que se llevan a cabo.

¿Qué harás?

  • Serás responsable de diseñar y establecer la arquitectura de datos adecuada para nuestros proyectos en la nube (generalmente AWS y GCP). Esto implica comprender los requisitos empresariales y técnicos, identificar las necesidades de almacenamiento, procesamiento y análisis de datos, y diseñar soluciones escalables y eficientes utilizando los servicios de la nube de AWS y GCP.
  • Trabajarás en estrecha colaboración con el equipo de Ingenieros de Datos y Científicos de Datos para comprender los requisitos y desafíos del cliente. Brindar orientación y asesoramiento técnico en la implementación de soluciones de datos, asegurando que se sigan las mejores prácticas y estándares de la industria.
  • Evaluar y seleccionar los servicios y herramientas de AWS y GCP más adecuados para cada proyecto. Esto implica comprender las fortalezas y limitaciones de los servicios de la nube, así como mantenerse actualizado sobre las últimas tendencias y características en el campo de la ingeniería y ciencia de datos en la nube.
  • Diseñar y desarrollar pipelines de datos eficientes y confiables utilizando las capacidades de procesamiento y almacenamiento de datos de AWS y GCP. Esto incluye la integración de diferentes fuentes de datos, la transformación de datos, la limpieza de datos y la carga en almacenes de datos o plataformas de análisis.
  • Proporcionar asesoramiento técnico al equipo de Ingenieros de Datos y Científicos de Datos en la selección de algoritmos, técnicas de modelado de datos y estrategias de análisis. Participar en revisiones de código y garantizar la calidad y robustez de las soluciones implementadas
  • Estar en contacto permanente con lassoluciones de terceros que complementan el ecosistema de Data & IA, asegurando el conocimiento de las mismas dentro del equipo.

What we need to see from you

Si tienes más de 4-5 años de experiencia trabajando en el área de Data e IA y sobre todo, experiencia en proyectos como arquitecto de datos en entornos cloud , te estamos buscando.

Necesitamos que tengas un perfil técnico en Data e IA , pero además que tengas buena capacidad para entender las necesidades funcionales del negocio.

Queremos ver en ti

  • Un sólido entendimiento de los principios y las mejores prácticas de diseño de arquitecturas de datos, incluyendo la selección de modelos de datos apropiados, la elección de almacenes de datos y la implementación de pipelines de datos eficientes.
  • Experiencia en diseño e implementación de datalakes, deltalakes y / o datawarehouses.
  • Conocimiento profundo de los servicios y herramientas ofrecidos por AWS (Amazon Web Services) y / o GCP (Google Cloud Platform). Esto incluye servicios de almacenamiento de datos como S3, Cloud Storage y BigQuery, servicios de procesamiento de datos como AWS Glue y Cloud Dataflow, así como servicios de análisis y aprendizaje automático como AWS Redshift y GCP BigQuery ML.
  • Lenguajes de programación : Experiencia en Python.
  • Tecnologías de bases de datos : Familiaridad con diferentes tipos de bases de datos, como bases de datos relacionales (por ejemplo, MySQL, PostgreSQL) y bases de datos NoSQL (por ejemplo, MongoDB, Cassandra).
  • ETL / ELT y procesamiento de datos : Conocimiento de técnicas y herramientas de extracción, transformación y carga (ETL) o extracción, carga y transformación (ELT) utilizadas para manipular y transformar datos. Experiencia en el uso de herramientas como AWS Glue, GCP Dataflow o Apache Spark para el procesamiento distribuido de datos.
  • MLOps : Experiencia en la implementación de prácticas de MLOps.
  • Análisis y visualización de datos : Comprender los conceptos y técnicas de análisis de datos, incluyendo el uso de bibliotecas y herramientas populares como Tableau, Quicksight, Looker o Power BI para el análisis y visualización de datos.
  • Seguridad y cumplimiento normativo : Conocimiento de las prácticas y medidas de seguridad para proteger los datos confidenciales y garantizar el cumplimiento normativo.
  • Buenas prácticas y estándares : Conocimiento de las mejores prácticas y estándares en el campo de la ingeniería y la ciencia de datos, incluyendo la gestión de la calidad de los datos, la gobernanza de datos, la documentación de código y el trabajo en equipo colaborativo.
  • Habilidades de comunicación : Capacidad para comunicarse eficazmente con el equipo técnico y no técnico.
  • Si tu experiencia es en Azure, y apenas has trabajado con AWS o GCP, también podemos valorar tus capacidades.
  • Job Function

    Software & Cloud

    #J-18808-Ljbffr

    Crear una alerta de empleo para esta búsqueda

    Data Architect • Madrid, Comunidad de Madrid, España