Descripción del trabajo

Buscamos un ingeniero de datos capacitado y experimentado que domine Hadoop MapReduce y Scala para unirse al equipo dinámico. Como ingeniero de datos, desempeñará un papel crucial en el diseño, desarrollo y mantenimiento de la infraestructura y canales de datos. Su experiencia en Hadoop MapReduce y Scala será esencial para crear soluciones de datos escalables y eficientes que permitan la toma de decisiones basada en datos en toda la organización. 

Responsabilidades:

  • Cree y mantenga una arquitectura óptima de canalización de datos en múltiples fuentes de datos, incluidos datos con licencia y extraídos.
  • Diseñar y desarrollar técnicas óptimas de procesamiento de datos: automatización de procesos manuales, entrega de datos, validación de datos y aumento de datos.
  • Diseñe, desarrolle y optimice canalizaciones de datos y procesos ETL utilizando Hadoop MapReduce y Scala.
  • Administre herramientas de análisis que brinden información procesable sobre el uso, la adquisición de clientes, la eficiencia operativa y otras métricas clave de desempeño empresarial.
  • Diseñar y desarrollar integraciones API para alimentar diferentes modelos de datos.
  • Diseñe e implemente nuevas funciones desde cero, asociándose con ingenieros de IA/ML para identificar fuentes de datos, brechas y dependencias.
  • Identifique errores y problemas de rendimiento en toda la pila, incluidas herramientas de prueba y monitoreo del rendimiento para garantizar la integridad de los datos y una experiencia de usuario de calidad.
  • Cree una infraestructura altamente escalable utilizando tecnologías de big data de SQL y AWS.
  • Mantenga los datos seguros y cumpla con las reglas internacionales de manejo de datos.

Requisitos:

  • Más de 7 años de experiencia profesional en el envío de código de alta calidad listo para producción.
  • Sólidos fundamentos informáticos, incluidas estructuras y algoritmos de datos, sistemas operativos, redes informáticas, bases de datos, algoritmos y programación orientada a objetos.
  • Experiencia en data pipelines, Hadoop MapReduce, Spark, Airflow y Scala.
  • Experiencia en la configuración de canalizaciones de datos utilizando bases de datos SQL relacionales y NoSQL, incluidas Postgres, Cassandra o MongoDB.
  • Experiencia con servicios en la nube para el manejo de infraestructura de datos como: Databricks, Snowflake, GCP, Azure o AWS.
  • Éxito comprobado en la manipulación, procesamiento y extracción de valor de grandes conjuntos de datos heterogéneos.
  • Fuertes habilidades analíticas relacionadas con el trabajo con conjuntos de datos no estructurados.
  • Experiencia con sistemas de control de versiones, como Git.
  • Excelentes habilidades de comunicación verbal y escrita en inglés.

Agradable tener:

  • Licenciatura en Informática, Matemáticas o campo similar; Maestría o doctorado es una ventaja.
  • Experiencia con diseño de ETL usando Apache Airflow.
  • Se valorará la experiencia con escenarios en tiempo real, sistemas de baja latencia y entornos con uso intensivo de datos.

 

Salario a percibir

A convenir
Ver más trabajos remotos de   

Para ver este contenido y los contactos hacias las ofertas, debes tener una Subscripción .

⭐ Suscríbete

  • Por qué ser remoter

    ✔️ Podrás solicitar las ofertas de empleo remoto.

    ✔️ Verás los enlaces y páginas de publicación de cada oferta.

    ✔️ Te avisaremos cada vez que salga una nueva oferta de empleo.

    ✔️ Podrás añadir a remoters a tu equipo de trabajo remoto para que las empresas se fijen más en ti.

  • Únete a la Comunidad Nómada Digital

    Crea tu perfil ahora y encuentra oportunidades en decenas de empresas que contratan de forma remota 👉 Únete aquí

  • Últimos remoters

  • ¿Eres Remoter? Accede aquí

  • Ir arriba