Publicar Oferta Registrarme

Data Engineer - Remoto

col-narrow-left   

ID Oferta:

39531

Ubicación:

Ciudad Autónoma de Buenos Aires, Buenos Aires 

Categoría:

Data Analytics, Data Science
col-narrow-right   

Tipo de Puesto:

Full-time, Remoto

Fecha:

03/06/2021
col-wide   

Descripción de la Oferta:

En Experis nos encontramos en la busqueda de un Data Engineer para sumarse al equipo de importante compañia de inteligencia comercial del mundo ecommerce.
La relacion de dependencia es directa con la empresa y podes trabajar 100% remoto desde cualquier punto del pais.
 
 
Requisitos:
Graduado, estudiante o persona con experiencia en carreras afines a informática, tecnologías de la información e ingeniería en sistemas.
Conocimiento y experiencia en ANSI SQL. Trabajo con bases de datos relacionales. Familiaridad con tipos de datos no estructurados.
Experiencia en la construcción y operacionalización de procesos de Extracción, transformación y carga de datos para datos estructurados y no estructurados (Jsons, Csv, etcétera)
Conocimientos en procesos y transformaciones típicas que son necesarias realizarles a los datos crudos para convertirlas en información útil: data cleansing y data enrichment.
Conocimiento de tecnologías de procesamiento distribuido a gran escala. Especialmente Apache Spark.
Conocimientos en Git y Github.
Conocimiento y utilización de procesos de integración de datos. Por ejemplo, Azure Data Factory, AWS Data Pipeline, SSIS, Pentaho Data Integration, Talend Data Integration.
Experiencia y predisposición al armado de la documentación pertinente de los procesos: diagramas de flujo de las transformaciones, pipelines de datos y casos de uso.
Buena capacidad comunicativa, especialmente de manera escrita. Esto quiere decir: brevedad, economía de lenguaje y precisión.
Capacidad de trabajar de manera remota, asíncrona y autónoma.
 
Conocimientos extra valorados:
Conocimiento en lenguaje de programación Scala. Si trabaja en Python también es útil.
Conocimiento en buenas prácticas de desarrollo de software. No sólo conocimiento en el desarrollo de ETLs
Conocimiento en Apache Hadoop.
Conocimiento en entornos Cloud. Especialmente en Azure.
Conocimientos en Azure Data Factory.
 
Funciones principales:  
Realizar tareas de procesamiento de datos a fuentes de datos semi estructuradas.
Generar procesos de control del trackeo de la información que funciona como proceso generador de las fuentes de datos.  
Optimización del procesamiento de datos a través de mejores usos de los clusters en un entorno cloud.
Analizar y resolver problemáticas asociadas a la calidad de los datos a través de la unificación de las fuentes de datos primarias.  
Integrar diferentes tipos de datos: Información de ítems, seller, categorías en una sola fuente de información consumible.  
Trabajar con grandes volúmenes y diversas fuentes de información.
Operacionalización de los diferentes procesamientos a través de Azure Data Factory.
 
Beneficios:
OSDE 210, grupo familiar
Almuerzo a cargo de la empresa en la oficina (remoto se ofrece una gift en Carrefour de $9000)  
Clases de inglés o portugues por zoom  
Licencia por maternidad y paternidad extendidas. Vuelta paulatina luego de licencias por maternidad  
Horario flexible, ingresan 8, 9 o 10 hs  
UDEMY a cargo 100% de la empresa  
Vacaciones, después de los dos años se va sumando un día adicional
En la oficina alimentación saludable  
Ayuda económica para guardería (presentando factura)
 
Empresa
Experis
Experis Esmeralda 950
Ciudad Autónoma de Buenos Aires, Buenos Aires, Argentina
Web: www.experis.com.ar
Más ofertas




Empresa


Experis
Esmeralda 950
Ciudad Autónoma de Buenos Aires, Buenos Aires, Argentina
Teléfono: 11111111
Web: www.experis.com.ar

Data Engineer - Remoto

col-narrow-left   

ID Oferta:

39531

Ubicación:

Ciudad Autónoma de Buenos Aires, Buenos Aires 

Categoría:

Data Analytics, Data Science
col-narrow-right   

Tipo de Puesto:

Full-time, Remoto

Fecha:

03/06/2021
col-wide   

Descripción de la Oferta:

En Experis nos encontramos en la busqueda de un Data Engineer para sumarse al equipo de importante compañia de inteligencia comercial del mundo ecommerce.
La relacion de dependencia es directa con la empresa y podes trabajar 100% remoto desde cualquier punto del pais.
 
 
Requisitos:
Graduado, estudiante o persona con experiencia en carreras afines a informática, tecnologías de la información e ingeniería en sistemas.
Conocimiento y experiencia en ANSI SQL. Trabajo con bases de datos relacionales. Familiaridad con tipos de datos no estructurados.
Experiencia en la construcción y operacionalización de procesos de Extracción, transformación y carga de datos para datos estructurados y no estructurados (Jsons, Csv, etcétera)
Conocimientos en procesos y transformaciones típicas que son necesarias realizarles a los datos crudos para convertirlas en información útil: data cleansing y data enrichment.
Conocimiento de tecnologías de procesamiento distribuido a gran escala. Especialmente Apache Spark.
Conocimientos en Git y Github.
Conocimiento y utilización de procesos de integración de datos. Por ejemplo, Azure Data Factory, AWS Data Pipeline, SSIS, Pentaho Data Integration, Talend Data Integration.
Experiencia y predisposición al armado de la documentación pertinente de los procesos: diagramas de flujo de las transformaciones, pipelines de datos y casos de uso.
Buena capacidad comunicativa, especialmente de manera escrita. Esto quiere decir: brevedad, economía de lenguaje y precisión.
Capacidad de trabajar de manera remota, asíncrona y autónoma.
 
Conocimientos extra valorados:
Conocimiento en lenguaje de programación Scala. Si trabaja en Python también es útil.
Conocimiento en buenas prácticas de desarrollo de software. No sólo conocimiento en el desarrollo de ETLs
Conocimiento en Apache Hadoop.
Conocimiento en entornos Cloud. Especialmente en Azure.
Conocimientos en Azure Data Factory.
 
Funciones principales:  
Realizar tareas de procesamiento de datos a fuentes de datos semi estructuradas.
Generar procesos de control del trackeo de la información que funciona como proceso generador de las fuentes de datos.  
Optimización del procesamiento de datos a través de mejores usos de los clusters en un entorno cloud.
Analizar y resolver problemáticas asociadas a la calidad de los datos a través de la unificación de las fuentes de datos primarias.  
Integrar diferentes tipos de datos: Información de ítems, seller, categorías en una sola fuente de información consumible.  
Trabajar con grandes volúmenes y diversas fuentes de información.
Operacionalización de los diferentes procesamientos a través de Azure Data Factory.
 
Beneficios:
OSDE 210, grupo familiar
Almuerzo a cargo de la empresa en la oficina (remoto se ofrece una gift en Carrefour de $9000)  
Clases de inglés o portugues por zoom  
Licencia por maternidad y paternidad extendidas. Vuelta paulatina luego de licencias por maternidad  
Horario flexible, ingresan 8, 9 o 10 hs  
UDEMY a cargo 100% de la empresa  
Vacaciones, después de los dos años se va sumando un día adicional
En la oficina alimentación saludable  
Ayuda económica para guardería (presentando factura)