Descripción del trabajo
Merkle está buscando profesionales con experiencia en Databricks para que formen parte de su práctica en la nube.
Trabajará en plataformas de nube pública líderes en la industria, como Amazon Web Services, Microsoft Azure y Google Cloud Platform, para diseñar, desarrollar e implementar soluciones de marketing de próxima generación que aprovechen las tecnologías de big data nativas de la nube y comerciales de código abierto.
Será responsable de diseñar e implementar soluciones de inteligencia de datos a gran escala en torno a Databricks Lakehouse Architecture.
Una sólida experiencia y comprensión de la arquitectura, el diseño y la puesta en funcionamiento de soluciones de análisis y datos a gran escala en Databricks es imprescindible. Es bueno tener conocimientos profesionales de Snowflake, Google BigQuery, AWS Redshift u otra base de datos en la nube.
Responsabilidades:
- Colabore con arquitectos en la nube, líderes tecnológicos, desarrolladores front-end, desarrolladores back-end, control de calidad, partes interesadas comerciales y gerentes de proyectos para diseñar y crear servicios en Azure / GCP / AWS para aplicaciones en la Web o en dispositivos perimetrales.
- Debe comprender y desarrollar canalizaciones de datos y utilizar formas modernas de automatizar datos utilizando tecnologías locales y basadas en la nube.
- Buena comprensión de las arquitecturas basadas en eventos para la integración en tiempo real y el análisis de flujo.
- Desarrolle arquitecturas de referencia y una biblioteca de patrones de diseño para implementaciones típicas de soluciones basadas en la nube.
- Asesorar sobre la configuración de proyectos en la nube, implementación de seguridad y acceso basado en roles, y optimizaciones de red.
- Llevar a cabo programas de capacitación y capacitación para los equipos de entrega internos de Merkle.
- Trabajo práctico como parte de un equipo global y entrenador de desarrolladores en el extranjero.
- Participar en interacciones técnicas con los ejecutivos y la alta dirección del cliente.
- Participe en compromisos técnicos con clientes, como prueba de conceptos, entrega de proyectos para oportunidades estratégicas clave.
- Desarrolle soluciones conceptuales de nivel empresarial de extremo a extremo, facilite debates con las partes interesadas de negocios y TI y destaque los resultados que se pueden entregar a través de estas soluciones.
Requisitos:
- Más de 3 años con SQL y diseño de tablas de bases de datos: Capaz de escribir consultas estructuradas y eficientes en grandes conjuntos de datos.
- Más de 3 años de experiencia en Databricks en cualquier plataforma en la nube (AWS, Azure o GCP).
- Más de 3 años de experiencia implementando procesamiento casi en tiempo real utilizando Kafka u otro mecanismo de cola [Confluent o Apache].
- Más de 3 años de diseño y / o implementación de aplicaciones empresariales.
- Más de 2 años de experiencia en canalizaciones ETL utilizando herramientas como Airflow, Azure Data Factory, NiFi, etc.
- Experiencia en cargas de trabajo locales a una o más nubes públicas líderes en la industria.
- Más de 2 años de experiencia en el desarrollo de Scala y Python, bibliotecas de big data PySpark y Python como pandas, tensorflow, scipy, numpy.
- Experiencia en desarrollo AGILE, SCRUM y Application Lifecycle Management (ALM).
- Experiencia práctica en el ciclo de vida completo del desarrollo de software o metodología utilizando Agile Scrum / Kanban, etc. Análisis de requisitos, diseño, pruebas de desarrollo e implementación.
- Capaz de trabajar con equipos ágiles mientras realizan diseño, desarrollo, pruebas y análisis de rendimiento a nivel de características.
- Desarrolle los módulos técnicos requeridos / soluciones de extremo a extremo para aplicaciones de múltiples capas en una variedad de pilas de tecnología.
- Historial comprobado de construcción de relaciones técnicas y comerciales con las partes interesadas.
- Capacidad de conectar la tecnología con un valor comercial medible.
- Liderazgo de pensamiento técnico demostrado en situaciones de cara al cliente.
- Las certificaciones de Databricks son una ventaja.
Salario a percibir
Regístrate o identifícate
- Debes estar registrado para solicitar una oferta.
- El tener un perfil completo en Remotojob.com garantizaque tu currículum tendrá mayor exposición.
- Estar registrado nos ayuda a prevenir el spam y los convocantes fantasma.
- Las empresas otorgan mayor credibilidad a los perfilescon descripciones e imágenes completas.
¿No tienes una cuenta? ¡Regístrate ahora!