




**Postúlese ahora** Habilite para guardar este trabajo en su lista de deseos INGENIERO LÍDER EN INGENIERÍA DE DATOS **Postúlese ahora** Habilite para guardar este trabajo en su lista de deseos PAÍS Argentina FORMATO Remoto PUBLICADO hace 0 día(s) Svitla Systems Inc. está buscando un **Ingeniero Líder en Ingeniería de Datos** para un puesto remoto a tiempo completo (40 horas por semana) en Argentina. Nuestro cliente es una empresa SaaS en etapa de crecimiento que está reinventando la forma en que los miembros interactúan y aprenden dentro de comunidades modernas de práctica. La plataforma fomenta la participación de los miembros tanto con contenido como con conexiones humanas, con el objetivo de crear experiencias comunitarias vibrantes que aporten mayor valor y apoyen el crecimiento organizacional. Usted liderará la migración de la infraestructura de datos y construirá pipelines de ML/IA en producción. Este rol establecerá las mejores prácticas de ingeniería de datos para la organización mientras se cumplen iniciativas críticas para 2026 (50 % de migración de pipelines de datos, con énfasis particular en los primeros meses). Los equipos de Producto e Ingeniería reportan directamente al CTO. Se trata de un equipo completamente virtual distribuido en cuatro zonas horarias del territorio continental de Estados Unidos. La mayoría del equipo trabaja en horario comercial de la zona central. Tienen una cultura de colaboración profunda entre todos los equipos. Producto, Ingeniería, Infraestructura y Servicios al Cliente trabajan estrechamente todos los días. El equipo de ingeniería practica el desarrollo guiado por pruebas (TDD), con énfasis en la programación en parejas. Los ingenieros rotan regularmente entre parejas, garantizando así una comprensión amplia de la plataforma y sus funcionalidades. El equipo utiliza un sistema CI/CD que permite despliegues frecuentes a producción. Realizan despliegues diarios, pero liberan funciones detrás de banderas de características como parte de su ciclo de lanzamiento de productos. ***Infraestructura actual de datos:*** * *Fuentes de datos: Segment (datos de eventos), base de datos de producción Postgres;* * *Procesamiento: AWS Glue (ETL, Catálogo de Datos), Spark, PySpark, Pandas, Notebooks de Jupyter;* * *Cómputo: funciones Lambda para orquestación y transformación;* * *Almacenamiento: archivos Parquet, S3;* * *Análisis: Athena (actual), Redshift (estado objetivo);* * *Orquestación: EventBridge para programación;* * *Observabilidad: CloudWatch para registro y monitoreo.* ***Pila de ML/IA:*** * *Entrenamiento de modelos: VM personalizadas con contenedores Docker basados en Linux;* * *Despliegue de modelos: contenedores Docker desplegados en endpoints de AWS SageMaker para inferencia;* * *AWS Step Functions para orquestación de pipelines;* * *CI/CD mediante GitHub Actions;* * *Integración con aplicaciones de producción Ruby on Rails.* REQUISITOS: * 5 o más años de experiencia práctica en ingeniería de datos. * Antecedentes en entornos de análisis o inteligencia empresarial. * Conocimiento avanzado de SQL para consultas complejas, optimización y ajuste de rendimiento. * Amplios conocimientos de Python, con experiencia en Pandas y PySpark para transformación de datos. * Experiencia en producción con Apache Spark para procesamiento de datos a gran escala. * Profundo conocimiento de AWS Glue (ETL, Crawlers, Catálogo de Datos). * Experiencia en el diseño e implementación de funciones Lambda en pipelines de datos. * Conocimiento práctico de Parquet y formatos de datos columnares. * Experiencia en producción con Redshift, Snowflake o Databricks. * Familiaridad con plataformas de transmisión de eventos (Segment o similares). * Comprensión de marcos de calidad y pruebas de datos. * Experiencia trabajando con científicos de datos para llevar modelos a producción. * Experticia en la arquitectura de soluciones de almacenamiento de datos y su optimización en términos de costos y rendimiento. * Experiencia en la migración de cargas de trabajo entre plataformas de datos. * Experiencia con pipelines de CI/CD, específicamente con GitHub Actions. * Trayectoria comprobada en la construcción de pipelines de inferencia de ML en producción. * Comprensión de cómo desplegar modelos contenerizados en entornos de producción. * Experiencia práctica con endpoints de AWS SageMaker para la prestación de modelos. * Experiencia con AWS Step Functions para la orquestación de flujos de trabajo. * Conocimiento de Docker para contenerizar aplicaciones y trabajar con modelos contenerizados. * Comprensión de los principios y mejores prácticas de MLOps. * Conocimiento de Terraform y mentalidad de infraestructura como código (IaC). * Conocimiento de EventBridge, CloudWatch y herramientas de monitoreo de AWS. * Experticia en la escritura de código limpio, mantenible y de calidad para producción. * Resolvedor de problemas autodirigido capaz de identificar incidencias y conducir su resolución. * Nivel avanzado de inglés. DESEABLE: * Experiencia en la construcción de pipelines de ML. * Experiencia en MLOps. RESPONSABILIDADES: * Liderar la migración del pipeline de datos de producción desde la infraestructura heredada de EE.UU. Oeste al nuevo entorno AWS de EE.UU. Este-1. * Migrar y rediseñar aproximadamente 80 procesos ETL de Domo a Redshift, incluyendo un rediseño arquitectónico completo (no migración directa). * Convertir 40+ consultas de Athena programadas regularmente y 6 Notebooks de Jupyter a Redshift. * Reconstruir vistas de datos y optimizar el rendimiento de las consultas en el nuevo entorno. * Garantizar la integridad de los datos durante toda la migración mediante pruebas y validaciones exhaustivas. * Asumir la ejecución técnica del proyecto de modernización de pipelines de 6 meses (50 % — con énfasis creciente hasta 2026). * Trabajar de forma independiente con mínima supervisión técnica. * Establecer patrones y mejores prácticas de ingeniería de datos para la organización. * Tomar decisiones arquitectónicas y recomendar soluciones. * Brindar informes al Vicepresidente de Datos y Analítica. * Colaboración estrecha con el Director de Infraestructura en la arquitectura y despliegue en AWS. * Asociación constante con científicos de datos para operacionalizar modelos, asumiendo la responsabilidad de las partes de entrada de datos y despliegue de inferencia del pipeline (pero sin diseñar ni entrenar modelos). * Participar en la coordinación con ingenieros de DevOps en infraestructura y despliegue. * Participar en trabajos de integración con el equipo de ingeniería Ruby on Rails en endpoints de producción. * Incorporar monitoreo y observabilidad en los pipelines de ML utilizando CloudWatch. * Establecer mejores prácticas de MLOps utilizando endpoints de SageMaker, Step Functions y otras herramientas de AWS relacionadas. * Implementar flujos de datos escalables y confiables que alimenten modelos de ML y entreguen predicciones a sistemas de producción. PLAN GENERAL DEL PROYECTO: **Primeros 3 meses:** * Completar QA del pipeline y migración de datos históricos a EE.UU. Este-1. * Completar la implementación de Redshift. * Iniciar el trabajo de rediseño de ETL en Redshift, estableciendo claramente patrones arquitectónicos. * Completar la migración de 80+ procesos ETL a Redshift. Entregar el primer pipeline de inferencia de ML en producción. * **Meses 4–6:** * Establecer patrones repetibles para el desarrollo de pipelines de ML. Escalabilidad de los despliegues de pipelines de inferencia de ML con una arquitectura consistente y reproducible. * **Continuo:** * Mejorar continuamente la confiabilidad y el rendimiento de la infraestructura de datos. * Escalar las capacidades de ML/IA para respaldar la hoja de ruta de productos de 2026. * Mentorizar a los miembros del equipo y transferir conocimientos para desarrollar capacidades internas de ingeniería de datos. OFRECEMOS * Proyectos en EE.UU. y la UE basados en tecnologías avanzadas. * Remuneración competitiva según habilidades y experiencia. * Seguro médico privado integral. * Evaluaciones periódicas del desempeño para apoyar su crecimiento. * Flexibilidad en el lugar de trabajo: remoto, nuestra acogedora oficina o coworking local. * Bonos por recomendación de nuevos empleados. * Bonos por redacción de artículos, charlas públicas y otras actividades. * 15 días de vacaciones, 10 días festivos nacionales y licencias por enfermedad. * Programa de aprendizaje personalizado adaptado a sus intereses y desarrollo de habilidades. * Webinars técnicos gratuitos y encuentros organizados por Svitla. * Celebraciones y actividades corporativas online y offline divertidas. * Cultura remota bien establecida. * ¡Un equipo excepcional, amigable y solidario! SOBRE SVITLA **Svitla Systems** es una empresa global de soluciones digitales con sede en Estados Unidos y operaciones en las Américas, Europa, Asia y APAC. Desde 2003, hemos atendido a una amplia gama de clientes, desde startups innovadoras hasta empresas de la lista Fortune 500. Nuestro éxito se basa en la asociación. Al integrarnos perfectamente con los equipos de nuestros clientes, creamos colaboraciones duraderas que generan resultados reales. Somos firmes defensores de la flexibilidad laboral, la cultura remota y el enfoque individualizado para el crecimiento profesional y personal. Svitla se enorgullece de ser una empresa que ofrece igualdad de oportunidades. Todos los candidatos calificados recibirán consideración para colaborar sin importar edad, identidad de género, orientación sexual, religión, raza, color, origen nacional, discapacidad o cualquier otra característica protegida por la ley aplicable. Nuestra misión global es construir un negocio que contribuya al bienestar de nuestros socios, personal y sus familias, mejore nuestras comunidades y genere un impacto duradero en el mundo. Juntos, estamos codificando un mañana más brillante — y viviéndolo. **¡Únase a nosotros!** CONÓZCANOS EN PERSONA ### **Anastasia****Tkachenko** ### **RECLUTADORA** Correo electrónico: a.tkachenko@svitla.com LinkedIn: Anastasia Tkachenko


