Descripción del trabajo

Estamos en la búsqueda de un ingeniero de datos con amplia experiencia y habilidades técnicas, que se una al equipo de trabajo especializado en datos. La persona seleccionada se encargará de diseñar, desarrollar y mantener arquitecturas y pipelines de datos robustos, escalables y eficientes para apoyar diversas iniciativas orientadas a datos. Trabajarás con científicos de datos, analistas y otros equipos para asegurar la calidad, disponibilidad y seguridad de los datos.

Responsabilidades:

Diseño y desarrollo de pipelines de datos:

  • Crear, implementar, probar y optimizar pipelines que permitan la ingesta, procesamiento y almacenamiento de grandes volúmenes de datos provenientes de múltiples fuentes.
  • Optimizar las arquitecturas de datos tanto para datos estructurados como no estructurados, asegurando el procesamiento eficiente de datos en tiempo real y por lotes.

Integración y manejo de datos:

  • Integrar datos desde diversas fuentes (APIs, bases de datos, servicios en la nube) 
  • Desarrollar y gestionar procesos ETL (Extracción, Transformación, Carga) para asegurar la manipulación y transformación de datos de manera eficiente.
  • Asegurar la calidad y consistencia de los datos mediante validaciones y pruebas exhaustivas.

Soluciones de almacenamiento y bases de datos:

  • Diseñar y gestionar soluciones de bases de datos que faciliten el almacenamiento y consulta de datos de manera eficiente.
  • Desarrollar infraestructuras de almacenamiento que satisfagan las necesidades de análisis e inteligencia de negocio de la empresa.

Infraestructura en la nube:

  • Utilizar plataformas en la nube como AWS, Azure o Google Cloud para implementar y administrar arquitecturas de almacenamiento y procesamiento de datos.
  • Configurar la infraestructura de datos basada en la nube, garantizando su escalabilidad, seguridad y rendimiento.

Colaboración y gestión de stakeholders:

  • Trabajar junto a científicos de datos, analistas, equipos de software y áreas de negocio para comprender los requisitos y ofrecer soluciones que cumplan sus expectativas.
  • Documentar detalladamente los flujos de datos y pipelines, facilitando la transparencia y la comprensión dentro del equipo.

Gobernanza y seguridad de datos:

  • Implementar estándares de gobernanza, seguridad y cumplimiento de datos, protegiendo la información sensible.
  • Asegurar que la gestión de los datos cumpla con normativas como GDPR, CCPA, entre otras.
  • Establecer y mantener políticas de retención de datos siguiendo las mejores prácticas del sector.

Monitoreo y mejora continua:

  • Supervisar el rendimiento de las pipelines de datos.
  • Optimizar continuamente los procesos de datos para asegurar que sean eficientes y escalables conforme crecen los conjuntos de datos.

Automatización y desarrollo de herramientas:

  • Automatizar tareas repetitivas para mejorar los flujos de trabajo y aumentar la eficiencia.
  • Desarrollar herramientas internas que permitan a la organización acceder y gestionar los datos de manera más eficiente.

Requisitos:

  • Título en Ciencias de la Computación, Ingeniería o disciplinas afines.
  • Experiencia comprobada en roles similares como ingeniero de datos o ingeniero de software, con participación en proyectos de gran escala (equipos de 10+ personas o proyectos de 6 meses o más).
  • Conocimiento avanzado de SQL y experiencia con bases de datos relacionales como MySQL, PostgreSQL o Oracle.
  • Competencia en lenguajes como Python, Java o Scala para la manipulación de datos y desarrollo de procesos ETL.
  • Al menos 5 años de experiencia trabajando con herramientas ETL como Apache Nifi, Talend o Informatica.
  • Familiaridad con tecnologías de big data como Hadoop, Spark, Kafka, entre otras.
  • Mínimo 3 años de experiencia práctica en servicios de datos en la nube (por ejemplo, AWS S3, Azure Data Lake, Google BigQuery).

Habilidades deseadas:

  • Experiencia con bases de datos NoSQL como MongoDB o Cassandra.
  • Familiaridad con Databricks y Dataiku.
  • Conocimiento de pipelines CI/CD y herramientas como Jenkins, Docker o Kubernetes.
  • Experiencia con procesamiento de datos en tiempo real usando Apache Flink o Storm.
  • Comprensión de regulaciones de privacidad de datos como GDPR, CCPA, HIPAA.

Salario a percibir

A convenir
Ver más trabajos remotos de   

Para ver este contenido y los contactos hacias las ofertas, debes tener una Subscripción .

⭐ Suscríbete

  • Por qué ser remoter

    ✔️ Podrás solicitar las ofertas de empleo remoto.

    ✔️ Verás los enlaces y páginas de publicación de cada oferta.

    ✔️ Te avisaremos cada vez que salga una nueva oferta de empleo.

    ✔️ Podrás añadir a remoters a tu equipo de trabajo remoto para que las empresas se fijen más en ti.

  • Únete a la Comunidad Nómada Digital

    Crea tu perfil ahora y encuentra oportunidades en decenas de empresas que contratan de forma remota 👉 Únete aquí

  • Últimos remoters

  • ¿Eres Remoter? Accede aquí

  • Ir arriba