Talent.com
Esta oferta de trabajo no está disponible en tu país.
DevOps Hibrido, CABA ID #00201

DevOps Hibrido, CABA ID #00201

Werben HRArgentina
Hace más de 30 días
Descripción del trabajo

Resumen del puesto :

Buscamos un Especialista en DevOps con experiencia en entornos multinube (Azure, AWS, GCP) y habilidades avanzadas en ingeniería de Big Data. El candidato ideal deberá ser capaz de trabajar en equipos globales, garantizar la automatización de procesos, realizar implementaciones seguras y monitorear aplicaciones críticas. Este rol requiere disponibilidad ocasional para soporte durante fines de semana en caso de despliegues importantes.

Responsabilidades principales :

  • Gestión de lanzamientos : Crear planes de gestión de lanzamientos, definir etapas (planificación, pruebas, despliegue), roles y responsabilidades, herramientas a utilizar y criterios de preparación para el lanzamiento.
  • Estrategia de ramas : Implementar convenciones de nomenclatura, definir momentos para la creación de ramas (funcionales, de lanzamiento) y establecer pautas para la integración de cambios.
  • Monitoreo de aplicaciones : Configurar métricas, dashboards visuales y alertas para umbrales críticos.
  • Automatización con Terraform : Provisionar infraestructura en la nube mediante scripts para recursos como máquinas virtuales y bases de datos en proveedores como Azure o AWS.
  • Implementación CI / CD : Configurar pipelines para automatizar procesos de construcción, pruebas (unitarias e integradas) y despliegue en entornos de prueba.
  • Sec DevOps : Realizar evaluaciones de seguridad en pipelines CI / CD, identificando vulnerabilidades y aplicando medidas correctivas como escaneos automatizados y actualizaciones de dependencias.
  • Gestión de plataformas : Construcción avanzada de pipelines (Azure DevOps, GCG DevOps) y soporte técnico relacionado con herramientas como Neo4J.
  • Pruebas automatizadas : Uso de herramientas de pruebas automatizadas para regresión.
  • Experto en componentes de GCP : BigQuery, DataFlow, BigTable, GCS, DataForm, Python, Kafka, Data Lakes, SQL, SPARK y SCALA, Tensorflow.
  • Experto en componentes de Azure : Azure Functions, ADF, Databricks, EventHub, Synapse, Datawarehouse, Cosmos DB, ADLS, SPARK y SCALA.
  • Automatización : Conocimiento avanzado en Terraform, HELM y otras herramientas DevOps.
  • Desempeño : Optimización de rendimiento, diseño y desarrollo de frameworks.
  • Integración : Experiencia con herramientas y tecnologías de integración.

Requisitos adicionales :

  • Inglés avanzado para colaboración con equipos internacionales. (excluyente)
  • Capacidad para realizar pruebas conceptuales (PoC) sobre nuevos componentes tecnológicos.
  • Experiencia trabajando con equipos de ingeniería y proveedores para implementar nuevas soluciones.
  • Disponibilidad :

    Se requiere disponibilidad ocasional para soporte durante fines de semana (aproximadamente una vez al mes o por trimestre).

    Competencias clave :

  • Resolución de problemas técnicos en plataformas.
  • Trabajo colaborativo con equipos multidisciplinarios.
  • Adaptabilidad a entornos dinámicos y tecnologías emergentes.
  • J-18808-Ljbffr

    Crear una alerta de empleo para esta búsqueda

    Caba • Argentina