Descripción del puesto:
El puesto de Ingeniero de Datos desempeñará un papel crucial en el equipo dedicado a concebir, ejecutar y mantener soluciones de gestión y procesamiento de datos en entornos Cloud. Esta posición será esencial para garantizar la eficacia, confiabilidad y escalabilidad de nuestras soluciones de gestión de datos.
Responsabilidades:
- Diseño e implementación de arquitecturas de datos en la nube: Se espera que el titular del puesto aplique su amplio conocimiento de Microsoft Azure para diseñar y
crear arquitecturas de datos escalables y eficientes. Esto incluirá la configuración y supervisión de recursos en la nube, como bases de datos, almacenamiento y servicios analíticos, como Azure Monitor, Azure Data Factory, Databricks y Azure Data Lake.
- Desarrollo de flujos de trabajo de datos: El Ingeniero de Datos Senior utilizará sus habilidades en programación Python para desarrollar y mantener flujos de trabajo sólidos y flexibles. Estos flujos de trabajo gestionarán la extracción, transformación y carga (ETL) de datos desde diversas fuentes hacia nuestros sistemas de almacenamiento y análisis.
- Integración de la plataforma Kafka: El titular de este puesto asumirá la responsabilidad de la implementación y administración de flujos de datos en tiempo real. Esto incluirá la configuración de productores y consumidores, así como el mantenimiento de la integridad y disponibilidad de los mensajes en tiempo real.
- Optimización del rendimiento: Esto implicará ajustes y optimizaciones para mejorar la velocidad y eficiencia de los flujos de trabajo y los procesos ETL.
- Mantenimiento y supervisión: supervisar la operación diaria de los sistemas y flujos de trabajo, además implementará sistemas de monitoreo y alertas para la detección temprana de problemas.
Requisitos:
- Experiencia de al menos 3 años en roles de Ingeniero de Datos o funciones similares, con énfasis en el diseño y desarrollo de soluciones de datos.
- Conocimiento de Microsoft Azure, con experiencia deseable en servicios como Azure Monitor, Azure Key Vault, Azure Purview, Azure Data Factory, Databricks, Azure Data Lake y Azure Synapse Analytics.
- Habilidades avanzadas en programación Python para el desarrollo de scripts y flujos de trabajo ETL.
- Experiencia demostrable en la implementación y administración de flujos de datos mediante la plataforma Kafka.
- Conocimiento de PySpark y experiencia en la manipulación de datos estructurados y no estructurados.
- Familiaridad con metodologías de diseño y arquitectura de datos.
- Capacidad probada para resolver problemas de manera efectiva y creativa, tomando decisiones fundamentadas.
- Excelentes habilidades de comunicación y trabajo en equipo.
- Certificaciones pertinentes de Azure y Kafka serán consideradas como un activo.
Si sos Junior y estás buscando tu primera oportunidad, postulate
acá
https://www.empleosit.com.ar