La plateforme Microsoft Fabric a été présentée avec plusieurs atouts séduisants sur le papier pour les spécialistes de la data. Parmi ces atouts :
- Un environnement unifié end-to-end permettant d’avoir, en une interface, les outils nécessaires à la collecte, la transformation, le stockage et l’analyse de données ;
- La possibilité d’intégrer en plusieurs temporalités : ad hoc, planifié ou streaming ;
- Différents modes de stockage permettant d’utiliser les bases de données relationnelles ou les modes de stockage NoSQL ;
- Une intégration native de Power BI et de Copilot
- La fourniture d’outils permettant de faire des transformations de données en low code ou via des langages tels que SQL ou Python ;
- Un mode de pricing à la capacité, permettant de profiter de toutes les fonctionnalités de la plateforme.
Des atouts indéniables…
Un setup et une prise en main rapide
Après un provisionnement de la plateforme au travers de l’interface Azure et le paramétrage des droits, la plateforme est disponible et immédiatement prête à l’emploi avec toutes ses fonctionnalités sans autres installations nécessaires.Pour des entreprises disposant déjà de la structure Azure, la mise en place de l’environnement nécessaire pour travailler peut se faire dans la journée.
La prise en main des différents composants est également rapide. Microsoft Fabric s’appuie largement sur des briques existantes telles que Synapse, SQL Server, Azure Databricks, Power Query … Un utilisateur rompu à ces outils retrouvera assez facilement ses marques.
La mise à disposition d’un environnement intégré de notebooks, outil très prisé pour les manipulations et analyses interactives de données, constitue selon nous une fonctionnalité remarquable.
Un large choix d’outils et de modes de travail
Le choix de la plateforme ne préjuge pas du mode de travail et de la technicité qu’on souhaite adopter.
- Pour notre client, nous avons privilégié une approche orientée vers l’industrialisation, incluant un LakeHouse (données stockées en Parquet) ; un traitement des données avec du code via des notebook en utilisant PySpark ; une récupération des données sources mises à disposition via des containers Azure ; un paramétrage à base de fichiers json permettant de limiter les interactions avec le code en cas de changements.
- En réponse à un besoin interne, nous avons plutôt fait le choix de connecter à une base de données et d’utiliser le « Dataflow Gen2 », qui est basée sur le moteur de Power Query et offre un moyen d’implémentation un peu plus low code.
La plateforme offre ainsi différents types d’outils qui pourront répondre au mode de fonctionnement de l’équipe, que ce soit dans une optique d’intégration industrielle essentiellement faite par des développeurs ou dans une approche de manipulation des données avec du low-code faite par des utilisateurs à tendance plus métier.
Avec Fabric, une interaction simplifiée entre les différentes briques
Microsoft Fabric étant pensée comme une solution plateforme « tout-en-un », l’intercommunication entre les différents composants s’en trouve simplifiée. Il est par exemple possible de lier les sources de données à un notebook via l’interface visuelle. Cela simplifie ainsi l’interaction avec cette source de donnée.
De même, la plateforme propose le concept du « OneLake », son datalake, présenté comme un « OneDrive pour les données ». Ce datalake référence les données au travers de l’espace de travail. Et ces données référencées peuvent être exploitées simultanément par différents services sans nécessiter de réplication.
Une gestion de code intégrée
Si la plateforme propose actuellement une intégration avec GitHub et Azure DevOps, des fonctionnalités natives de gestions de code sont intégrées. Il est ainsi possible de remonter dans l’historique de modification des notebooks et de restaurer les versions antérieures, sans nécessiter de paramétrage spécifique.
La plateforme propose également son propre pipeline de livraison, permettant de « livrer » les composants d’un espace de travail à un autre de manière simple.
… et des points d’attention
Le coût à évaluer
Si le pricing de Microsoft Fabric est simple, il est en revanche difficile de prédire le type de capacité nécessaire. Les complexités de traitement, le nombre d’utilisateurs et les volumes de données à traiter évoluent et la taille de la capacité estimée initialement peut s’avérer inadéquate. La maîtrise du coût final n’est donc pas toujours assurée.
Les fonctionnalités en cours d’arrivée
Autre point à considérer : la maturité de certaines fonctionnalités. Plusieurs d’entre elles sont encore proposées en « preview » ou en beta, ce qui reflète l’évolution rapide de la plateforme mais pose un souci d’adoption immédiate. La manière actuelle de répondre à une problématique peut se révéler différente de la manière dont elle doit être traitée à terme sur la plateforme …
En illustration, sur le thème de l’Infrastructure-as-Code (IaC), le provider Terraform pour Microsoft Fabric a été mis à disposition globale en mai 2025 (auparavant en beta). Les projets ayant été implémentés avant cette mise à disposition globale ont dû choisir entre l’utilisation d’une version beta et la non-utilisation lorsque que le choix d’usage de l’IaC via Terraform aurait pu être pertinent.
La tentation est donc d’attendre plus de maturité avant d’adopter la solution.
Notre écosystème d’évaluation
Notre retour d’expérience est principalement basé sur des environnements avec un écosystème Microsoft (notamment des sources disponibles dans Azure et une restitution via Power BI). Les avantages de la plateforme dans un tel écosystème sont de fait plus facilement mis en avant. Une intégration dans un environnement plus hétéroclite peut amener à d’autres conclusions.
En conclusion
Si Microsoft Fabric ne représente pas pour nous une révolution technologique, la facilité de déploiement et d’usage de la plateforme ainsi que la diversité des outils proposés représentent un vrai plus pour les équipes amenées concevoir et exploiter des systèmes de données analytiques.
Nous voyons notamment une pertinence de la plateforme dans les cas suivants :
- Environnements où les exigences de flexibilité et de variété des traitements prévalent sur les exigences de volumétrie et de performances difficilement prédictibles ;
- Intégration dans un écosystème déjà à base de composants Microsoft ;
- Besoin d’une plateforme complète rapidement disponible et avec peu de gestion IT, les briques étant déjà assemblées.