Descripción del trabajo
Responsabilidades:
- Trabaje tanto en la exploración de datos como en la creación de canalizaciones de datos.
- Ayudar a los líderes de ingeniería con los que trabajamos a comprender sus datos y problemas que pueden resolverse utilizando la plataforma.
- Desempeñar un papel activo en las reuniones de equipo y talleres con los clientes.
- Alterne entre el trabajo del proyecto del cliente y el desarrollo de productos internos en consonancia con su plan de desarrollo personal.
Habilidades:
- Cómodo trabajando en un entorno no estructurado.
- Se preocupa por escribir código limpio y bien documentado en Python y / o Scala (y Spark).
- Ha construido canalizaciones de datos que garantizan la precisión de los datos requeridos mediante pruebas unitarias de integración.
- Es competente en marcos de computación distribuida como Apache Beam, Spark.
- Ha trabajado con herramientas de programación como airflow, kubeflow, luigi, dagster.
- Es capaz de usar SQL para obtener información rápida de las bases de datos.
- Se siente cómodo implementando datos / código en la nube (GCP / AWS).
Requisitos:
- Experiencia con alojamiento de bases de datos para potenciar productos SaaS basados en la web.
- Más de 3 años de experiencia en la industria construyendo canalizaciones de datos.
- Experiencia con herramientas / bibliotecas de análisis de datos ad-hoc como jupyter notebooks / pandas.
- Experiencia con una empresa en crecimiento.
- Experiencia trabajando con empresas aeroespaciales y automotrices.
- Experiencia con MongoDB.
- Experiencia con GraphQL.
Beneficios:
- Compensación altamente competitiva.
- Equidad significativa.
- Desarrollo de carrera y oportunidades de liderazgo.
Salario a percibir
130,000$ - 160,000$ / al año
Para ver este contenido y los contactos hacias las ofertas, debes tener una Subscripción .