Data Engineer/Scientist (Advanced) – Gauteng/Hybrid – ISB1501210
Recrutement : Data Engineer/Scientist Avancé
iSanqa Resourcing – Afrique du Sud
Description du poste :
Vous êtes passionné par les solutions basées sur le cloud, le big data, et la conception de pipelines de données résilients ? Ce poste de Data Engineer/Scientist (Advanced) vous offre l’opportunité de rejoindre une équipe intégrée à l’échelle mondiale, dédiée à façonner l’avenir de la mobilité grâce à la technologie des véhicules connectés. Vous contribuerez à la construction de systèmes de données intelligents au sein d’une entreprise IT agile et performante.
Voici quelques avantages du poste :
- ✨ Participation à des initiatives de données à l’échelle mondiale
- 🔄 Modèle de travail hybride flexible
- ☁️ Technologies modernes basées sur le cloud
- 🤝 Culture d’ingénierie agile et collaborative
Détails sur le contrat :
- Durée : Jusqu’en décembre 2027
- Expérience requise : 4 à 6 ans dans un domaine lié
- Date de commencement : 1er août 2025
Qualifications et Expérience Requises
Pour postuler, les candidats doivent posséder :
- Diplôme : Licence ou Master en Informatique, Ingénierie Logicielle ou domaine connexe
- Expérience : Minimum de 3 ans en tant que Data Engineer et 2 ans avec les services AWS
- Compétences : Expérience prouvée dans la construction et la maintenance de pipelines de données pour des ensembles de données à grande échelle, ainsi qu’une expérience en milieu agile.
Compétences Essentielles
Les compétences requises pour ce poste incluent :
- Langages : Maîtrise de Python 3.x pour le traitement et l’automatisation des données
- Outils : Expérience avec AWS Glue, AWS Athena, AWS Lambda, AWS EC2, et AWS CloudWatch
- Base de données : Compétences en gestion de bases de données PostgreSQL RDS
- Visualisation : Expérience avec AWS QuickSight
- Contrôle de version : Proficient avec Git et GitHub, y compris les pipelines CI/CD GitHub
Compétences Avantageuses
Une expérience supplémentaire serait appréciée en matière de :
- Infrastructure : Maîtrise de Terraform pour l’infrastructure en tant que code
- Big Data : Familiarité avec des technologies et frameworks Big Data
- Outils de qualité des données : Connaissance d’outils comme Great Expectations
Rôle et Responsabilités
Le/la candidat(e) sélectionné(e) sera chargé(e) de :
- Dessiner, développer et maintenir des pipelines d’ingestion de données pour la flotte connectée du groupe, en mettant l’accent sur les Call Detail Records (CDRs)
- Utiliser AWS Glue pour les processus ETL
- Créer des solutions de requêtage efficaces avec AWS Athena
- Développer des applications et des workflows sans serveur avec AWS Lambda
- Surveiller et optimiser les pipelines de données via AWS CloudWatch
- Créer des tableaux de bord interactifs et des rapports avec AWS QuickSight
Note Importante :
En postulant, vous consentez à être ajouté(e) à la base de données d’iSanqa et à recevoir des mises à jour jusqu’à votre désinscription. Si vous ne recevez pas de réponse dans un délai de deux semaines, cela signifie que votre candidature n’a pas été retenue. Les candidats doivent être basés dans le Gauteng ou être prêts à déménager.
Localisation : Midrand, Johannesburg
Date de publication : 14 juin 2025
Postulez dès maintenant !
Cette annonce met en avant une opportunité enrichissante pour les professionnels de la data en Afrique du Sud, tout en respectant des valeurs d’inclusion et d’équité. Les intéressés sont encouragés à évaluer les qualifications requises et à s’engager dans un processus de candidature transparent.
📅 Date de publication de l’offre : Sat, 14 Jun 2025 23:09:48 GMT
🏢 Entreprise : iSanqa Resourcing
📍 Lieu : Midrand, Johannesburg
💼 Intitulé du poste : Data Engineer/Scientist (Advanced) – Gauteng/Hybrid – ISB1501210
💶 Rémunération proposée :
📝 Description du poste : Are you a Data Engineer passionate about cloud-based solutions, big data, and designing resilient data pipelines?Join a globally integrated team shaping the future of mobility through connected vehicle technology.Be part of building smart data systems with a high-performing, agile IT powerhouse.✅ Global-scale data initiatives✅ Flexible hybrid work model✅ Modern cloud-native tech stack✅ Agile & collaborative engineering culturePOSITION: Contract until December 2027EXPERIENCE: 4-6 Years related working experienceCOMMENCEMENT: 01 August 2025Qualifications / Experience RequiredBachelor’s or Master’s degree in Computer Science, Software Engineering, or a related fieldMinimum of 3 years’ experience as a Data EngineerAt least 2 years of experience working with AWS servicesProven experience in building and maintaining data pipelines for large-scale datasetsAgile working experienceEssential Skills RequirementsProficiency in Python 3.x for data processing and automationExperience with AWS Glue for ETL processesStrong knowledge of AWS Athena for querying large datasetsHands-on experience with AWS Lambda for serverless computingFamiliarity with AWS EC2 for scalable computing resourcesExpertise in AWS CloudWatch for monitoring and loggingProficiency in working with PostgreSQL RDS for database managementExperience with AWS QuickSight for data visualization and reportingStrong understanding of data ingestion pipelines, particularly for Call Detail Records (CDRs)Proficiency in Git and GitHub for version control and collaboration, including experience with GitHub CI/CD pipelinesAny additional responsibilities assigned in the Agile Working Model (AWM) CharterAdvantageous Skills RequirementsExtensive experience with Terraform for infrastructure as codeExperience with other AWS services such as S3, Kinesis, and DynamoDBKnowledge of data formats such as Parquet, AVRO, JSON, and CSVExperience with Docker for containerizationUnderstanding of Big Data technologies and frameworksFamiliarity with Agile working models and tools like JIRA and ConfluenceExperience with data quality tools such as Great ExpectationsKnowledge of REST API development and integrationStrong analytical skills for troubleshooting and optimizing data pipelinesExperience in developing technical documentation and artefactsRole & ResponsibilitiesDesign, develop, and maintain data ingestion pipelines for the Groups connected fleet, focusing on Call Detail Records (CDRs)Utilize AWS Glue for ETL processes to transform and load data into the analytics platformImplement efficient querying solutions using AWS AthenaDevelop serverless applications and workflows using AWS LambdaMonitor and optimize data pipelines using AWS CloudWatchManage and maintain PostgreSQL RDS databases for data storage and retrievalCreate interactive dashboards and reports using AWS QuickSightLeverage Terraform extensively to define, deploy, and manage AWS infrastructure as codeUse Git and GitHub for version control and collaborationImplement and manage GitHub CI/CD pipelines to automate testing, deployment, and delivery processesEnsure data security and compliance with the Groups information classification requirementsStay updated with the latest data engineering tools, technologies, and industry trendsIdentify opportunities for process improvements and automationCollaborate with cross-functional teams to understand data requirements and deliver solutionsDevelop and maintain technical documentation for data engineering processes and solutionsPLEASE NOTE:By applying for this role, you consent to be added to the iSanqa database and to receive updates until you unsubscribe.
Also note, that if you have not received a response from us within 2 weeks, your application was unsuccessful.
Candidates MUST be based in Gauteng or WILLING TO RELOCATE!#isanqa #isanqaresourcing #DataEngineer #AWSJobs #Python #DataPipelines #ETL #BigData #TechCareersSA #NowHiring #GroupCareers #CloudEngineering #FuelledByPassionIntegrityExcellence
🔎 Offre d’emploi vérifiée et enrichie selon la ligne éditoriale de l’Association Artia13 : éthique, inclusion, transparence et vigilance contre les annonces trompeuses.
🌍 Retrouvez d’autres offres sur artia13.world