Recherche par mots-clés
Recherche
    Recherches populaires :
    marocingenieurengineernom pays devit
    Laissez les employeurs vous trouver
    Accueil
    >
    big data engineer
    Trier par :
    Pertinence
    |
    Date
    69
    Offres trouvées
    Ingénieur Machine Learning & Développement Python
    SQLI
    casablanca
    Présentiel

    SQLI, acteur majeur de la transformation digitale et de l’expérience client, recherche un Ingénieur Machine Learning & Développement Python à Casablanca. Le poste consiste à concevoir, entraîner et déployer des modèles prédictifs en production, tout en intégrant des pipelines Big Data et des solutions cloud. Vous travaillerez sur des projets d’envergure, en étroite collaboration avec les équipes data et cloud, en utilisant Python, Spark, Docker, Kubernetes et CI/CD. Le candidat idéal possède un diplôme d’ingénieur (Bac+5), trois ans d’expérience en data science, maîtrise du Big Data et des technologies de conteneurisation, et une forte capacité d’optimisation et de déploiement de modèles.

    Aujourd'hui
    Ingénieur Big Data Senior Freelance
    Novancy Consulting
    rabat
    Présentiel

    Data Engineer Sénior Freelance – Casablanca/Rabat. Vous rejoindrez l’équipe DF Supply Chain de Novancy Consulting pour concevoir, développer et maintenir des solutions Big Data sur Google Cloud Platform. Vous piloterez la création de pipelines, l’optimisation des performances et la mise en œuvre d’outils tels que BigQuery, BigTable, Spark, Kafka, et Elasticsearch. Vous assurerez l’intégration continue via Jenkins, GitLab, Docker, Kubernetes et Ansible, tout en appliquant les principes Agile. Le poste requiert plus de 7 ans d’expérience, un Bac+5 en informatique, et une maîtrise du français. Vous travaillerez en mode freelance, avec une flexibilité d’hybridation et un engagement sur 6 mois renouvelables.

    Aujourd'hui
    Senior Data Engineer – Big Data & Analytics
    SQLI
    rabat
    Hybride

    En tant que Senior Data Engineer chez SQLI à Rabat, vous piloterez les projets de gestion et d’analyse de données à grande échelle. Vous serez responsable de la qualité du code, de la mise en place de bonnes pratiques DevOps, et de la conception de solutions Big Data (Teradata, BigQuery, Hive, Impala). Vous développerez des pipelines ETL, orchestrerez des flux de streaming (Kafka, RabbitMQ) et assurerez la montée en compétence technique de l’équipe. Vous collaborerez étroitement avec les métiers pour transformer les besoins en solutions logicielles robustes, tout en garantissant la sécurité et la performance. Ce poste exige un Bac+5 en informatique, 6 ans d’expérience et une maîtrise avancée des technologies Hadoop, SparkSQL et des outils DevOps.

    Aujourd'hui