En tant que Data Engineer senior en freelance, vous rejoindrez les équipes de la Supply Chain de notre client, une entreprise de premier plan dans le secteur de la logistique et de la distribution. Votre mission principale sera de concevoir, développer et maintenir des solutions de traitement de données massives en utilisant les technologies Big Data et les outils Google Cloud Platform (GCP). Vous serez responsable de la mise en place et de l’optimisation des pipelines de données, de l’analyse des performances et de l’amélioration continue des solutions existantes.
Vous devrez maîtriser les technologies Cloud de Google Cloud Platform (GCP) pour la gestion des données, l’orchestration et le déploiement des solutions Big Data. Vous devez avoir une expertise approfondie de BigQuery et BigTable pour le stockage, la manipulation et l’analyse de données à grande échelle. Vous devez également maîtriser les langages de programmation Scala ou Java pour le développement de solutions Big Data, avec une expérience significative dans l’un des deux.
Votre expérience pratique avec l’écosystème Hadoop et ses outils associés comme Spark et Apache Kafka pour le traitement distribué de données est indispensable. Vous serez capable de concevoir et d’implémenter des pipelines de données complexes en utilisant des outils comme Apache Kafka et Avro pour la gestion des flux de données. Vous maîtriserez les concepts de base de Kafka pour la conception et la mise en œuvre de systèmes de messagerie distribués.
Vous devez avoir une bonne compréhension des bases de données NoSQL, notamment Cassandra et BigTable, pour le stockage et la récupération de données non structurées. Vous devez également avoir une expérience avec les moteurs de recherche comme Elasticsearch pour la recherche et l’analyse de données textuelles. Vous maîtriserez les outils de CI/CD et les pratiques de développement logiciel pour l’automatisation du déploiement et de l’intégration continue.
Vous devez avoir une expérience pratique avec les outils de déploiement et d’orchestration comme Jenkins, GitLab, Kubernetes, Docker et Ansible. Vous serez capable de travailler avec Docker pour la création et la gestion des conteneurs d’applications. Vous maîtriserez les concepts d’Agilité (Scrum, Sprint Planning, Backlog…).
En termes de méthodes, d’organisations et d’interactions, vous devrez démontrer une excellente communication écrite et orale en français pour des interactions fluides avec le métier. Vous devrez faire preuve d’esprit d’analyse et d’amélioration continue, en évaluant le code et ses impacts, et en remettant en question les solutions existantes pour les améliorer. Vous devrez également faire preuve de capacité de prise de recul, d’évaluation objective des problématiques et de proposition de solutions d’amélioration.
Vous devrez respecter les délais tout en maintenant des standards élevés et collaborer efficacement avec les membres de l’équipe pour atteindre des objectifs communs. Vous devrez être capable de travailler de manière autonome tout en étant un membre d’équipe engagé.
Vous devez être diplômé(e) d’un Bac+5 en école d’ingénieur ou équivalent universitaire avec une spécialisation en informatique, ou justifier d’une expérience significative équivalente. Vous devez avoir plus de 7 ans d’expérience en GCP. Une expérience dans le secteur du commerce de détail ou de la grande distribution serait un plus.
La durée de la prestation est de 6 mois renouvelable (220 à 225 JH). Vous travaillerez principalement à Casablanca, Maroc, mais la flexibilité du travail en freelance vous permet d’être présent sur site ou à distance selon les besoins du client.
En résumé, ce poste exige un professionnel expérimenté, capable de gérer des projets Big Data complexes sur GCP, de travailler avec une stack technologique moderne, et de collaborer efficacement avec les équipes métier et techniques. Vous devrez être autonome, rigoureux, et capable de livrer des solutions performantes et évolutives dans un environnement dynamique.