Hongrie

Senior Data Engineer

Offre d’emploi : Senior Data Engineer chez MP Solutions

Présentation de l’entreprise et du poste

MP Solutions est à la recherche d’un Senior Data Engineer pour rejoindre son équipe dynamique à Budapest. Ce poste clé impliquera une étroite collaboration avec diverses équipes fonctionnelles pour concevoir et mettre en œuvre des processus ETL (Extraction, Transformation, Chargement) efficaces, évolutifs et fiables, principalement à l’aide de Python et DataBricks.

Responsabilités du poste

Le candidat retenu sera responsable de diverses tâches essentielles, notamment :

  • Collaboration cross-fonctionnelle : Travailler avec différentes parties prenantes pour comprendre les besoins en matière de données.
  • Développement de processus ETL : Créer et déployer des procédures pour extraire des données de sources variées tout en les transformant pour répondre aux exigences commerciales.
  • Gestion du cycle de vie des données : Prendre en charge l’extraction, le nettoyage, la transformation et le chargement des données, garantissant leur précision et leur cohérence.
  • Création de pipelines de données : Assurer une gestion adéquate des erreurs, du monitoring et des optimisations de performance.
  • Travail en environnement agile : Participer activement à la planification des sprints et aux réunions d’équipe quotidiennes.
  • Revue de code : Offrir des commentaires constructifs tout en maintenant des standards de codage élevés.
  • Automatisation : Développer et maintenir des outils et des scripts pour simplifier des tâches répétitives.
  • Tests : Mettre en œuvre des méthodologies de test pour assurer la fiabilité des processus ETL.
  • Intégration des données : Exploiter des API REST et d’autres techniques pour connecter différentes sources de données.
  • Documentation : Maintenir à jour la documentation technique, y compris des diagrammes de flux de données.

Conditions requises

Les candidats doivent remplir certains critères pour être considérés pour ce poste :

  • Niveau d’études : Diplôme de Bachelor ou Master en informatique, mathématiques ou dans un domaine connexe.
  • Expérience professionnelle : Minimum de 7 ans dans l’ingénierie des données.
  • Compétences techniques : Maîtrise de Python, expérience avec DataBricks et compréhension des principes ETL.
  • Connaissance des services cloud : Expérience avec des solutions de data warehousing telles que Snowflake.
  • Agilité : Capacité à travailler dans un environnement agile et dynamique.
  • Systèmes d’exploitation : Familiarité avec Linux.
  • Compétences en communication : Commande de l’anglais et bonnes compétences interpersonnelles.
  • Citoyenneté : Une citoyenneté hongroise et des compétences linguistiques en hongrois et en anglais sont impératives.

Avis et avantages

Ce poste offre diverses opportunités et avantages :

  • Innovation : Participer à des projets à long terme aux enjeux passionnants.
  • Environnement multiculturel : Trabajer au sein d’une équipe d’ingénieurs diversifiée.
  • Cafétéria : Avantages de restauration sur site.

Les candidats ayant des familiarités telles que les outils de visualisation de données (Power BI), des connaissances en administration de bases de données, ou une exposition aux technologies big data comme Hadoop et Spark seront considérés comme avantageux.

Modalités pratiques

  • Salaire : À discuter selon le profil et l’expérience.
  • Localisation : Budapest, Hongrie.
  • Date de publication de l’annonce : 30 mai 2025.

Postulez dès maintenant !

Si vous êtes motivé par ce défi et souhaitez contribuer à la réussite des projets de MP Solutions, nous vous encourageons à postuler maintenant.

Cette offre respecte les principes d’égalité des chances et vise à valoriser tous les candidats, sans distinction d’origine, de sexe ou d’orientation.


📅 Date de publication de l’offre : Fri, 30 May 2025 22:22:14 GMT

🏢 Entreprise : MP Solutions

📍 Lieu : Budapest

💼 Intitulé du poste : Senior Data Engineer

💶 Rémunération proposée :

📝 Description du poste :

  • Collaborating with cross-functional teams to understand data requirements, and design efficient, scalable, and reliable ETL processes using Python and DataBricks.
  • Developing and deploying ETL jobs that extract data from various sources, transforming it to meet business needs.
  • Taking ownership of the end-to-end engineering lifecycle, including data extraction, cleansing, transformation, and loading, ensuring accuracy and consistency.
  • Creating and manage data pipelines, ensuring proper error handling, monitoring and performance optimizations.
  • Working in an agile environment, participating in sprint planning, daily stand-ups, and retrospectives.
  • Conducting code reviews, provide constructive feedback, and enforce coding standards to maintain a high quality.
  • Developing and maintain tooling and automation scripts to streamline repetitive tasks.
  • Implementing unit, integration, and other testing methodologies to ensure the reliability of the ETL processes.
  • Utilizing REST APIs and other integration techniques to connect various data sources.
  • Maintaining documentation, including data flow diagrams, technical specifications, and processes.

Requirements

  • Bachelor’s/Master’s Degree in Computer Science, Mathematics or a related discipline.
  • 7+ years of experience in data engineering.
  • Proficiency in Python programming, including experience in writing efficient and maintainable code.
  • Hands-on experience with cloud services, especially DataBricks, for building and managing scalable data pipelines.
  • Proficiency in working with Snowflake or similar cloud-based data warehousing solutions.
  • Solid understanding of ETL principles, data modelling, data warehousing concepts, and data integration best practices.
  • Familiarity with agile methodologies and the ability to work collaboratively in a fast-paced, dynamic environment.
  • Knowledge of Linux operating systems.
  • Familiarity with REST APIs and integration techniques.
  • Experience with code versioning tools (e.g., Git).
  • Meticulous attention to detail and a passion for problem solving.
  • A good command of English and in general good communication skills.
  • Strong analytical and problem solving skills.
  • Strong collaboration and communication skills.
  • Hungarian citizenship and fluent Hungarian/English language skills is a must.

Advantages

  • Familiarity with data visualization tools and libraries (e.g., Power BI).
  • Background in database administration or performance tuning.
  • Familiarity with data orchestration tools, such as Apache Airflow
  • Previous exposure to big data technologies (e.g., Hadoop, Spark) for large data processing.

Benefits

  • You will have the opportunity to gain experience in exciting, long-term, innovative projects,
  • Work in a multinational environment,
  • A team of great engineers,
  • Cafeteria.

➡️ Candidater en ligne


🔎 Offre d’emploi vérifiée et enrichie selon la ligne éditoriale de l’Association Artia13 : éthique, inclusion, transparence et vigilance contre les annonces trompeuses.

🌍 Retrouvez d’autres offres sur artia13.world

Artia13

Depuis 1998, je poursuis une introspection constante qui m’a conduit à analyser les mécanismes de l’information, de la manipulation et du pouvoir symbolique. Mon engagement est clair : défendre la vérité, outiller les citoyens, et sécuriser les espaces numériques. Spécialiste en analyse des médias, en enquêtes sensibles et en cybersécurité, je mets mes compétences au service de projets éducatifs et sociaux, via l’association Artia13. On me décrit comme quelqu’un de méthodique, engagé, intuitif et lucide. Je crois profondément qu’une société informée est une société plus libre.

Artia13 has 3982 posts and counting. See all posts by Artia13