Descripción del empleo
- Desplegar prácticas de DevOps, DataOps y MLOps en el marco de las tecnologías Big Data existentes en la organización.
- Elaborar y mantener documentación técnica en espacios colaborativos.
- Definir el ámbito tecnológico y diseñar la arquitectura de la plataforma de datos corporativa.
- Integrar componentes de arquitecturas Big Data según los casos de uso.
- Asegurar que las plataformas cumplen con los requisitos del negocio.
- Dar soporte técnico en la implantación alineada con metodologías ágiles.
- Diseñar la arquitectura del dato y el modelo del dato desde una visión organizativa.
- Definir una arquitectura de metadatos para interoperabilidad y gobernanza.
- Implementar políticas de seguridad en plataformas Big Data.
- Garantizar la calidad del dato en su ciclo de vida mediante mecanismos y auditorías.
- Diseñar soluciones de analítica avanzada e inteligencia artificial alineadas con el plan estratégico.
- Administrar y operar plataformas Big Data, incluyendo despliegue de software en entornos de desarrollo, pruebas y producción.
- Participar en el diseño e implementación de soluciones de Business Intelligence.
Requisitos
Experiencia Profesional Mínima
Al menos 5 años de experiencia en proyectos Big Data en entornos híbridos (Apache Hadoop y Apache Spark).Experiencia como arquitecto / a técnico / a de Big Data.Liderazgo en implantación y definición técnica / arquitectura de datos.Participación activa en arquitecturas técnicas en entornos híbridos durante al menos 2 años.Herramientas y tecnologías críticas :
Máquinas Linux, instalación de paquetes ( Crítico )Lenguaje de comandos Unix, Bash, JSONPythonProtocolos de internet : HTTP, HTTPS, SSLHerramientas Unix : CURL, NETCAT, IPAPI RESTSOLR : instalación, manejo de APIs, backup, restore ( Crítico )Entorno On-premiseOPENSHIFTCLOUDERA : administración, Spark, Yarn, Kerberos ( Crítico )SE DESCARTARÁN CANDIDATURAS QUE NO TENGAN EXPERIENCIA EN SOLR, OPENSHIFT, CLOUDERA, LINUX Y PYTHON.
Entornos Cloud :
Fundamentos de AWSFundamentos de AzureInformación adicional
Formación :
Mínimo 250 horas en tecnologías relacionadas con Big Data e Inteligencia Artificial.Certificaciones valoradas :
Especial Interés :
CDP Generalist
MapR Certified Spark DeveloperCDP Administrator – Private Cloud BaseCCA Spark and Hadoop DeveloperCCA AdministratorOtras : CCA Data Analyst
CCP Data EngineerAPM – Certified Associate in Project ManagementPrince2 FoundationCertificaciones en Scrum / Scrum MasterPMI-ACP : PMI Agile Certified PractitionerPrince2 AgileCualquier otra certificación oficial relacionada con tecnologías Big Data#J-18808-Ljbffr