Projet Pratique

DataShop Analytics - Mise en place de l'infrastructure Azure

Projet Unifié : DataShop Analytics

Construisez une plateforme d'analytics e-commerce complète en utilisant Azure, Synapse, DevOps et MongoDB. Ce module couvre la mise en place de l'infrastructure de base.

Durée estimée : 45-60 minutes | Cout : Gratuit (Azure Free Tier)

Objectifs de ce module

Prérequis

1 Créer un compte Azure gratuit GRATUIT

Rendez-vous sur azure.microsoft.com/free

  1. Cliquez sur "Commencer gratuitement"
  2. Connectez-vous avec un compte Microsoft (ou créez-en un)
  3. Remplissez vos informations personnelles
  4. Vérifiez par téléphone
  5. Entrez les informations de carte (vérification uniquement)
Ce que vous obtenez :
  • $200 de crédits utilisables pendant 30 jours
  • 12 mois de services gratuits (VM B1S, stockage, etc.)
  • 65+ services toujours gratuits

2 Accéder au portail Azure

Connectez-vous au Portail Azure

Familiarisez-vous avec l'interface :

  • Barre de recherche (en haut) : Trouvez rapidement des services
  • Menu hamburger (gauche) : Navigation principale
  • Cloud Shell (icone terminal) : CLI dans le navigateur
  • Notifications (cloche) : Suivi des operations

3 Créer le Resource Group

Le Resource Group contiendra toutes les ressources du projet DataShop.

Via le Portail :
  1. Recherchez "Resource groups" dans la barre de recherche
  2. Cliquez sur "+ Create"
  3. Configurez :
    • Subscription : Votre subscription gratuite
    • Resource group : rg-datashop-dev-weu-001
    • Region : West Europe
  4. Onglet Tags (Name = clé, Value = valeur) :
    NameValue
    ProjectDataShop
    EnvironmentDev
    Ownervotre-email
  5. Cliquez sur "Review + create" puis "Create"
Via Azure CLI (PowerShell - Cloud Shell) :
# Ouvrez Cloud Shell (icone terminal en haut)
# Créer le Resource Group
az group create --name rg-datashop-dev-weu-001 --location westeurope --tags Project=DataShop Environment=Dev Owner=votre-email

# Vérifier la création
az group show --name rg-datashop-dev-weu-001 --output table
Version Bash (cliquez pour afficher)
# Tapez d'abord: bash
az group create \
    --name rg-datashop-dev-weu-001 \
    --location westeurope \
    --tags Project=DataShop Environment=Dev Owner=votre-email

az group show --name rg-datashop-dev-weu-001 --output table

4 Créer le Storage Account avec Data Lake Gen2 5 Go GRATUITS

Ce Storage Account servira de Data Lake pour stocker les données d'analytics.

Via le Portail :
  1. Recherchez "Storage accounts"
  2. Cliquez sur "+ Create"
  3. Onglet Basics :
    • Resource group : rg-datashop-dev-weu-001
    • Storage account name : stdatashopdevweu001
    • Region : West Europe
    • Performance : Standard
    • Redundancy : LRS (moins cher)
  4. Onglet Advanced :
    • Enable hierarchical namespace : Cochez cette case (Active Data Lake Gen2)
  5. Cliquez sur "Review + create" puis "Create"
Via Azure CLI (PowerShell) :
# Créer le Storage Account avec Data Lake Gen2
az storage account create --name stdatashopdevweu001 --resource-group rg-datashop-dev-weu-001 --location westeurope --sku Standard_LRS --kind StorageV2 --enable-hierarchical-namespace true --tags Project=DataShop Environment=Dev

# Vérifier
az storage account show --name stdatashopdevweu001 --resource-group rg-datashop-dev-weu-001 --query "[name, primaryEndpoints.dfs]" --output table
Version Bash (cliquez pour afficher)
az storage account create \
    --name stdatashopdevweu001 \
    --resource-group rg-datashop-dev-weu-001 \
    --location westeurope \
    --sku Standard_LRS \
    --kind StorageV2 \
    --enable-hierarchical-namespace true \
    --tags Project=DataShop Environment=Dev

az storage account show \
    --name stdatashopdevweu001 \
    --resource-group rg-datashop-dev-weu-001 \
    --query "[name, primaryEndpoints.dfs]" \
    --output table
Important : Le nom du Storage Account doit être unique globalement et ne contenir que des lettres minuscules et chiffres (3-24 caractères). Si stdatashopdevweu001 est pris, ajoutez vos initiales.

5 Créer les containers Data Lake

Créez la structure de dossiers pour organiser les données :

  1. Allez dans votre Storage Account
  2. Menu gauche : "Containers"
  3. Cliquez "+ Container" et crééz :
    • raw - Données brutes
    • processed - Données transformées
    • curated - Données finales pour reporting
Via Azure CLI (PowerShell) :
# Récupérer la clé du storage
$STORAGE_KEY = az storage account keys list --account-name stdatashopdevweu001 --resource-group rg-datashop-dev-weu-001 --query "[0].value" -o tsv

# Créer les containers
az storage container create --name raw --account-name stdatashopdevweu001 --account-key $STORAGE_KEY
az storage container create --name processed --account-name stdatashopdevweu001 --account-key $STORAGE_KEY
az storage container create --name curated --account-name stdatashopdevweu001 --account-key $STORAGE_KEY

# Vérifier
az storage container list --account-name stdatashopdevweu001 --account-key $STORAGE_KEY --output table
Version Bash (cliquez pour afficher)
# Récupérer la clé du storage
STORAGE_KEY=$(az storage account keys list \
    --account-name stdatashopdevweu001 \
    --resource-group rg-datashop-dev-weu-001 \
    --query "[0].value" -o tsv)

# Créer les containers
az storage container create --name raw \
    --account-name stdatashopdevweu001 --account-key $STORAGE_KEY

az storage container create --name processed \
    --account-name stdatashopdevweu001 --account-key $STORAGE_KEY

az storage container create --name curated \
    --account-name stdatashopdevweu001 --account-key $STORAGE_KEY

# Vérifier
az storage container list \
    --account-name stdatashopdevweu001 \
    --account-key $STORAGE_KEY \
    --output table

6 Charger les données de test

Télécharger et charger les données de démonstration :

  1. Téléchargez le fichier CSV de test : products.csv
  2. Dans le portail, allez dans Containers > raw
  3. Cliquez "Upload" et sélectionnez le fichier
Contenu du fichier products.csv :
product_id,name,category,price,stock,created_at
1,Laptop Pro 15,Electronics,1299.99,50,2024-01-15
2,Wireless Mouse,Electronics,29.99,200,2024-01-16
3,USB-C Hub,Electronics,49.99,150,2024-01-17
4,Mechanical Keyboard,Electronics,89.99,100,2024-01-18
5,Monitor 27inch,Electronics,399.99,75,2024-01-19
6,Webcam HD,Electronics,79.99,120,2024-01-20
7,Headphones BT,Electronics,149.99,90,2024-02-01
8,Tablet 10inch,Electronics,449.99,60,2024-02-05
9,Smartwatch,Electronics,299.99,80,2024-02-10
10,Portable SSD 1TB,Electronics,129.99,110,2024-02-15
Astuce : Vous pouvez créer ce fichier localement avec un éditeur de texte, puis l'uploadér via le portail.

7 Configurer les permissions RBAC

Donnez-vous les permissions nécessaires sur le Data Lake :

  1. Allez dans le Storage Account
  2. Menu gauche : "Access Control (IAM)"
  3. Cliquez "+ Add" > "Add role assignment"
  4. Sélectionnez le role : "Storage Blob Data Contributor"
  5. Onglet Members : Sélectionnez votre utilisateur
  6. Cliquez "Review + assign"
Pourquoi ce role ?
"Storage Blob Data Contributor" permet de lire, écrire et supprimer les blobs. C'est le role minimum pour travailler avec les données. Synapse aura besoin de ce role pour accéder aux fichiers.

Vérification - Cochez quand terminé

Ressources créées

Ressource Nom Cout
Resource Group rg-datashop-dev-weu-001 Gratuit
Storage Account (ADLS Gen2) stdatashopdevweu001 5 Go gratuits/mois

Prochaine étape

Infrastructure prête ! Continuez avec Synapse pour analyser les données.

Module suivant : Azure Synapse Analytics - Pratique →