Missions freelance
Architecte DATA AWS

Démarrage  
ASAP
T.J.M
600 - 650€ HT
Localisation
Paris
Télétravail
2 jours min.
Freelance

Description de la mission

Notre client recherche un Architecte Data pour concevoir et superviser la convergence des données issues de sources hétérogènes au sein d’une plateforme cloud AWS à grande échelle.
L’objectif est de définir l’architecture cible, modéliser le schéma global, et assurer la cohérence technique et la performance de la plateforme.

L’environnement technique inclut :

  • Outils et plateformes : AWS (S3, Kinesis, DMS, Lambda…), Airflow, Terraform, GitLab CI/CD, Python, Snowflake, Dataiku, Braze, Power BI, IA/ML
  • Bases de données : Exadata, Oracle, SQL Server, Snowflake
  • Architectures : Data Lake, Event-driven, Streaming (+100 To/jour)
  • Cas d’usage : chatbot IA, moteur de recommandation, feature store, socle vidéo, plateforme de contenu, partage de données partenaires, data self-service

Missions :


  • Définir l’architecture cible du data layer convergé dans un environnement AWS.
  • Modéliser les données (conceptuel, logique, physique) sur Snowflake et autres bases cibles.
  • Sélectionner les outils et normes d’intégration adaptés aux besoins.
  • Participer au développement et à l’automatisation des pipelines et transformations de données.
  • Superviser la convergence des données multi-source et garantir leur cohérence.
  • Contribuer aux déploiements via Terraform et GitLab CI/CD.
  • Documenter l’architecture et les référentiels techniques.
  • Appliquer les bonnes pratiques de gouvernance, qualité et sécurité des données.
Profil Recherché : 

Formation et expérience

  • Minimum 8 ans d’expérience en tant qu’Architecte Data dans un environnement similaire.
  • Une ou plusieurs certifications cloud (AWS, Terraform, Kubernetes…) sont un atout.

Compétences techniques

  • Expertise avancée AWS (S3, Kinesis, DMS, Lambda…) en architecture, sécurité et performance.
  • Solide maîtrise des bases de données (Oracle, SQL Server, Exadata, Snowflake).
  • Langages : SQL, Python.
  • Maîtrise des outils d’orchestration et de traitement (Airflow, dbt, Python).
  • Très bonne expérience en Infrastructure as Code (Terraform).
  • Maîtrise de GitLab CI/CD pour l’automatisation des déploiements.
  • Expérience avec des environnements CRM.
  • Bonne connaissance des problématiques de qualité, modélisation, monitoring et alerting des données.

Qualités personnelles

  • Dynamisme, proactivité et autonomie.
  • Esprit d’ouverture et curiosité technique.
  • Bon communicant, capable de travailler en environnement international.