Ingeniero de Datos
✨ ¿Estás buscando nuevos desafíos y un lugar donde puedas disfrutar de un ambiente cercano mientras aprendes constantemente?
¡Bienvenido a un equipo con un propósito claro: "TRANSFORMAR la vida de las personas siendo el aliado TECNOLÓGICO más confiable"! 🚀
¡Prepárate y únete a esta aventura!
¿Qué encontrarás?
Retos técnicos y personales que te mantendrán en constante crecimiento.
Un equipo conectado, enfocado en tu bienestar físico y mental.🌱
Cultura de mejora continua, fresca y colaborativa, con oportunidades de aprendizaje y gente dispuesta a apoyarte.
KaizenHub, un programa diseñado para potenciar tus talentos, con feedback, mentorías y coaching a través de Sofka U. ¡Será un reto y un juego a la vez! 🧠
Programas como Happy Kaizen y WeSofka que cuidan tu bienestar físico y emocional.
¿Qué buscamos?
Un/a Ingeniero/a de Datos Master con una trayectoria sólida de más de 4 años apasionado por la construcción de ecosistemas de datos robustos y escalables. Un dominio avanzado de Python (PySpark), SQL y experiencia experta en el ecosistema Azure (Databricks, Synapse, Data Factory).
Esta es una oportunidad excepcional para transformar el activo de la compañía mediante la implementación de arquitecturas Lakehouse y soluciones Event-Driven. Participarás en retos de negocio reales utilizando las herramientas más potentes de la nube de Microsoft, impactando directamente en la estrategia analítica de una organización de vanguardia.
Responsabilidades
Diseñar y construir procesos ETL/ELT complejos utilizando PySpark, Python y SQL para el procesamiento de grandes volúmenes de datos.
Implementar arquitecturas modernas de Data Lake y Lakehouse, integrando flujos de datos tanto en tiempo real como por lotes.
Configurar y optimizar soluciones integrales dentro del ecosistema Azure, incluyendo Databricks, Synapse Analytics y Data Factory.
Consumir y exponer datos a través de APIs REST bajo estándares OpenAPI y documentación en Swagger.
Garantizar la integridad y disponibilidad del dato durante todo su ciclo de vida, desde la ingesta hasta la capa de analítica final.
Colaborar en equipos ágiles bajo cultura DevOps, gestionando el control de versiones con Git y despliegues en Azure DevOps.
Optimizar la eficiencia y escalabilidad del código para asegurar el rendimiento de los pipelines de datos.
Requisitos
Formación: Profesional en Ingeniería de Sistemas, Computación o carreras afines al manejo de datos.
Experiencia: Trayectoria comprobable superior a 4 años en el diseño, desarrollo y optimización de canales de datos complejos en entornos Cloud.
Conocimientos Técnicos
Dominio avanzado de Python y PySpark.
Manejo experto de SQL.
Azure Databricks y Azure Synapse Analytics.
Azure Data Factory para orquestación.
Arquitecturas Event-Driven y Medallion (Bronze/Silver/Gold).
Azure SQL Database.
APIs REST, OpenAPI y Swagger.
Herramientas de CI/CD, Git y Azure DevOps.
Jupyter Notebooks y VS Code.
¡PRESENTATE y sé parte de esta historia!
Condiciones
¿Buscas crecimiento profesional? En Sofka, te ofrecemos un ecosistema de aprendizaje con múltiples herramientas para cerrar brechas y potenciar tus habilidades. ¡Tú decides cómo quieres crecer!
- División
- Operaciones
- Área
- Data & Analytics
- Puesto
- Ingeniero de Datos
- Ubicaciones
- Bogotá
- Estado remoto
- Híbrido
¿Ya trabajas en Sofka?
Ayúdanos a encontrar a tu próximo compañero/a.