¿Qué hace la compañía?
Empresa líder en el sector de medios digitales de Argentina con una amplia trayectoria en el mercado, se destaca por ofrecer contenido periodístico de calidad y de actualidad a través de su plataforma online.
¿Qué necesitás para ser parte del equipo?
A nivel personal:
Capacidad para el pensamiento crítico y la resolución de problemas complejos basados en datos.
Habilidad para trabajar de forma independiente, tomar decisiones técnicas y llevar proyectos de principio a fin.
Claridad y precisión para comunicar resultados a los equipos de Producto y Tecnología.
A nivel técnico:
Experiencia de al menos 2 años como Data Science o Machine Learning.
Experiencia de al menos 3 años con Python y SQL | Excluyente.
Experiencia con Google Cloud Platform (GCP), incluyendo bigquery, cloud storage y cloud functions | Excluyente.
Dominio de notebooks para experimentación y prototipado.
Experiencia en modelado de datos, definición de métricas de productividad y automatización de reporting.
Conocimientos y/o experiencia práctica en MLOps, monitoreo y despliegue de modelos de machine learning.
Es un plus si:
Contas experiencia con: Vertex AI o ML flow e infraestructura como código (terraform, cloud build, etc.).
Conocimiento en mantenimiento de modelos en producción (monitoring, retraining, drift detection).
¿Qué vas a hacer?
Como Ingeniero/a en Machine Learning Ssr:
Diseñar, entrenar y optimizar modelos de machine learning en entornos jupyter notebooks.
Implementar pipelines de datos y workflows en GCP (bigquery, cloud functions, workflows, vertex ai).
Desarrollar y mantener scripts de procesamiento y transformación de datos para entrenamiento y validación de modelos.
Asegurar la calidad, integridad y trazabilidad de los datos mediante buenas prácticas de versionado y documentación.
Aplicar técnicas avanzadas de natural language processing (nlp): embeddings, clasificación, modelado de lenguaje, extracción de entidades.
Utilizar frameworks de machine learning como scikit-learn, pytorch o tensorflow según el caso de uso.
Participar en el ciclo completo del modelo: desde exploración de datos hasta despliegue y monitoreo en producción.
Colaborar con equipos multidisciplinarios bajo metodologías ágiles, proponiendo mejoras técnicas y de proceso.
¿Cuál es el desafío de la posición?
El principal desafío será desarrollar soluciones de machine learning y data pipelines escalables en Google Cloud Platform (GCP). Este rol combina experimentación, ingeniería y despliegue en producción, siendo clave dentro de nuestro equipo de datos.
¿Cuándo y dónde trabajarás?
Trabajarás en una modalidad 100% Virtual, exclusivamente para residentes en AMBA, Buenos Aires (Argentina). De Lunes a viernes, de 09:00 a 18:00 hs.
¿Con quién trabajarás?
Trabajarás con el equipo de Data Science, y colaborarás de manera crucial con los equipos de Producto y Tecnología, siendo un puente clave para la comunicación de resultados y la implementación técnica de las soluciones.
¿Con qué herramienta trabajarás?
Python, SQL, Google Cloud Platform (GCP), BigQuery, Dataflow y Vertex AI. Además de herramientas y frameworks para MLOps, monitoreo y despliegue de modelos.
¿Qué ofrecen?
Relación de dependencia directa.
Home Office.
Plataforma de descuentos/beneficios.
Prepaga para empleado/a y grupo familiar.
Proyección de carrera.
¿De qué fases consta el proceso de selección?
Tendrás una primera entrevista con nuestra Recruiter, Lorena Dos Santos Moraes, para conocer tus experiencias laborales e intereses.
Luego, con la empresa empleadora tendrás dos instancias con Recursos Humanos y el equipo técnico.