Vill du vara med och bygga framtidens data- och AI-lösningar? Vi söker en Senior Data Engineer som vill utveckla avancerade data pipelines, AI-drivna arbetsflöden och MLOps-lösningar för att optimera beslutsfattande och operativ effektivitet.
I denna roll får du arbeta med de senaste teknologierna inom Google Cloud, storskalig datahantering, AI-automation och DevOps. Du blir en nyckelspelare i vårt team och samarbetar tätt med Data Scientists, AI-experter och affärsteam för att leverera kraftfulla, data-drivna lösningar.
Dina huvudsakliga ansvarsområden
🔹 Data Engineering & Lösningsutveckling
Designa och utveckla skalbara data pipelines med BigQuery, DBT och SQL-optimering
Implementera real-time data streaming med Kafka, Pub/Sub och Cloud Composer (Apache Airflow)
Bygga och underhålla ETL-processer, data lakes och data warehouses för AI och analys
Använda Infrastructure as Code (IaC) med Terraform för säkerhet och automation
Säkerställa data governance, lineage och access control med IAM och Data Catalog
🔹 MLOps & AI-Driven Solutions
Utveckla end-to-end machine learning pipelines med Vertex AI Pipelines, Kubeflow och Dataflow
Automatisera feature engineering, modellimplementering och monitorering
Arbeta med AI prompt engineering, GenAI, Retrieval-Augmented Generation (RAGs) och agentic workflows
Optimera modellprestanda och säkerställa skalbara AI-lösningar i samarbete med Data Scientists
🔹 DevOps & Software Engineering
Säkerställa hög kodkvalitet med Python (OOP, Pytest, Unittest), flake8, mypy, black och SonarQube
Bygga CI/CD pipelines med GitHub Actions, Azure DevOps och Docker
Implementera GitOps-baserad versionering och automatiserade deployment-processer
🔹 Stakeholder Collaboration
Översätta affärsbehov till data- och AI-lösningar
Driva samarbete mellan Data Science, AI och affärsteam
Säkerställa att tekniska lösningar ligger i linje med företagets strategiska mål
🔹 Dashboarding & Data Visualization
Skapa interaktiva dashboards i Power BI, Tableau eller Looker
Integrera BigQuery/cloud-databaser för realtidsanalys
Säkerställa best practices i datamodellering och visualisering
🔹 Dokumentation & Continuous Improvement
Dokumentera arkitektur, dataflöden och tekniska beslut
Hålla kunskapsdelningssessioner och driva innovation inom AI, MLOps och cloud engineering
Din profil
✅ Utbildning & Erfarenhet
✔ Examen inom Datavetenskap, Data Science eller liknande
✔ Minst 5 års erfarenhet inom data engineering, cloud-arkitektur och ML-pipelines
✔ Expertis inom Google Cloud (GCP), MLOps och storskalig datahantering
✔ Erfarenhet av att designa data- och AI-lösningar för automation och avancerad analys
✅ Teknisk kompetens
💡 Google Cloud (GCP): BigQuery, Pub/Sub, Dataflow, Cloud Composer (Airflow), Vertex AI Pipelines, Kubeflow
💡 Programmering & DevOps: Python, SQL, Terraform, Unix, Shell scripting, GitHub Actions, Azure DevOps
💡 MLOps & AI: Feature engineering, modellimplementering, AI prompt engineering, GenAI, RAGs
💡 Dashboarding & Data Visualization: Power BI, Tableau, Looker, datamodellering för analys
✅ Personliga egenskaper
🚀 Datadriven och kundfokuserad
🚀 Proaktiv och anpassningsbar med ett stort intresse för kontinuerligt lärande
🚀 Lagspelare som kan arbeta tvärfunktionellt över team och avdelningar
Låter detta som din nästa utmaning? Ansök idag! 🚀
Är du intresserad eller vill veta mer? Vid frågor vänligen kontakta Vanja Soro 070-43 66 660 alt maila till vanja.soro@sorosconsulting.se