lundi 23 février 2026
Démocratiser l’usage de la donnée, avec l’IA et une Data Platform flexible

Yoann JASEMIN
Responsable du Domaine Microsoft Data

L’intérêt généralisé des entreprises pour l’IA replace en pleine lumière l’importance de la structuration et de la mise à disposition des données. Sans data bien ordonnée, pas d’application d’IA réellement productive ! Or, historiquement, la constitution de plateformes consolidant les données de l’organisation se traduisait par des projets lourds, en particulier en raison des travaux nécessaires à la reprise de l’existant. « Au cours de ces dernières années, sont enfin apparus des services permettant de positionner simplement la data au centre du fonctionnement d’une entreprise », assure Frédéric Gisbert, architecte data et IA dans la division partenaires de Microsoft EMEA. Une opportunité permettant aux organisations de devenir réellement data-centric, autrement dit de structurer leurs activités autour de la data plutôt que de leurs produits. « Leur produit d’appel va s’enrichir de cette data, qui peut être demain deviendra elle-même un produit à part entière », reprend l’expert. Et de citer le cas de l’automobile, où la donnée est déjà un actif essentiel, notamment pour vendre des services supplémentaires et proposer des offres premium aux consommateurs.
Cette mutation suppose que les entreprises soient en mesure de capitaliser sur leur intelligence, soit la masse de données qu’elles ont accumulées sur des années, voire des décennies. Un objectif qui se heurtait jusqu’à récemment à la complexité des plateformes techniques sous-jacentes et au poids des systèmes Legacy, les organisations ayant toutes effectué des choix en matière de stockage et d’organisation des données au gré des projets. « Dans la plupart des organisations, changer de plateforme s’avérait jusqu’à récemment très complexe, en raison de la nécessité de préserver les connexions avec tous les services existants, souligne Yoann Jasemin, responsable du domaine Microsoft Data au sein de Talan. Mais, aujourd’hui, les plateformes de données sont plus adaptables, en étant pensées davantage comme des systèmes d’échange. »
Traduction : là où auparavant les projets de mise en œuvre d’une Data Platform constituaient une rupture avec l’existant, ils apparaissent désormais plutôt comme une évolution en souplesse de celui-ci.
Temps d’intégration divisé par deux
« Auparavant, la phase de construction de l’entrepôt de données supposait de faire converger vers ce système toutes les sources existantes, détaille Frédéric Gisbert. Désormais, la stratégie consiste plutôt à simplifier les connexions avec les systèmes déjà en production, à faciliter l’interopérabilité. A chaque fois que c’est possible, on laisse la donnée là où elle est déjà pour ne récupérer que les métadonnées au sein de la Data Platform. » Pour ce faire, les solutions comme Microsoft Fabric s’enrichissent de services les connectant à des systèmes externes, afin de bâtir des applications reposant par exemple sur du mirroring ou de la virtualisation de données résidant dans des bases tierces. « Et cette évolution n’est pas limitée à Microsoft, elle s’étend à tous les éditeurs », dit Frédéric Gisbert, qui précise que la volonté du premier éditeur mondial est de rendre sa plateforme Fabric la plus ouverte possible.
Les conséquences sur les projets des entreprises sont immédiates et se traduisent par une accélération de la mise à disposition des services pour les utilisateurs. « L’intelligence existante peut être conservée et récupérée, note Yoann Jasemin. Sans oublier le fait que les politiques de sécurité embarquées dans les systèmes source sont préservées, évitant la réalisation d’une nouvelle étude de risques, obligatoire en cas de migration vers une nouvelle plateforme. » Sur la partie intégration, l’expert de Talan estime que ces mécanismes permettent d’économiser pas moins de la moitié du temps par rapport aux durées habituellement dévolues à cette phase avec les Data Platform de première génération.
Même volonté d’accélération concernant la mise en qualité des données. Auparavant traité par des itérations et opérations manuelles lors de l’intégration, cet effort mise désormais davantage sur l’automatisation. « On laisse les outils de Microsoft Fabric proposer des corrections simples pour les appliquer rapidement », détaille Yoann Jasemin. Par ailleurs, quand des corrections de données brutes restent nécessaires, les Data Scientists perdent désormais moins de temps sur la conception d’algorithmes de transformation, laissant les LLM prendre la main sur ce terrain, pour se concentrer sur la validation des résultats et l’amélioration des scores. « En trois à six mois, certaines entreprises mettent ainsi en production leur plateforme de données », assure Frédéric Gisbert.
Ingénieur data : un métier en transformation
Pour ce dernier, au-delà de cette accélération, c’est la nature même des projets qui change. Plutôt que de construire une plateforme de données, il s’agit de faciliter l’accès au savoir de l’entreprise, « par exemple en simplifiant l’accès à 60 bases réparties dans l’organisation », dit Frédéric Gisbert. Ce qui se traduit par une mutation des tâches demandées aux ingénieurs data. « Au début, on leur demandait avant tout de créer des indicateurs, puis leur métier s’est recentré sur la mise à disposition de sources de données au profit des métiers, raconte Yoann Jasemin. Aujourd’hui, il s’agit plutôt de fournir des outils permettant aux utilisateurs d’effectuer des liens entre différentes sources de données. Le métier de l’ingénieur data consiste donc d’abord à construire ces liens permettant de fiabiliser les résultats des requêtes des utilisateurs. »
Une mutation qui se reflète dans les évolutions de la plateforme Microsoft Fabric elle-même, comme en témoignent les annonces de l’éditeur lors de sa dernière conférence Ignite, qui s’est tenue en novembre 2025 à San Francisco (Californie). Au-delà des croisements de données et des modèles sémantiques, la solution s’attache aujourd’hui à construire des ontologies, soit des modèles de données contenant des concepts et relations permettant de modéliser des ensembles de connaissances dans des domaines donnés. « C’est là que se situe désormais la valeur des ingénieurs data des entreprises et des ESN », fait valoir Frédéric Gisbert. L’objectif premier de ces profils consiste désormais à bâtir ces ontologies modélisant un ensemble de relations au sein d’un domaine (par exemple, le marketing, la production industrielle, etc.).
L’objectif ? Proposer, dans chaque cas, un modèle de données qui puisse être consommé par des agents IA accédant ainsi à un ensemble de sources (données non structurées, SGBD, cartes, graphes…).
Vers la BI conversationnelle
Cette évolution des projets data, couplée à la montée en puissance de l’IA, porte également en elle une transformation des usages au sein des métiers. « On va passer d’une BI centrée sur le reporting à une BI conversationnelle, où les utilisateurs dialoguent avec les données », résume Frédéric Gisbert. Même si, pour ce dernier, le reporting classique ne va pas pour autant disparaître. « Mais, à mesure que les LLM comprennent de mieux en mieux les questions des utilisateurs, on va laisser davantage de liberté aux métiers, limitant ainsi les échanges avec les analystes de données pour créer des rapports ou indicateurs. La conséquence ? On va avoir besoin de moins de créateurs de rapports », précise l’expert de Microsoft. Mais de davantage d’ingénieurs data pour créer les ontologies et les modèles sémantiques adaptés au LLM. « L’équilibre entre ces deux grands métiers va évoluer, pour passer, par exemple, de 50-50 à 70-30 », illustre Frédéric Gisbert.
« Et cela correspond aux attentes des entreprises depuis le début, souligne de son côté Yoann Jasemin. Car une des limites de la démocratisation de la BI résidait dans l’absence d’utilisateurs formés au sein de certains services ». Pour tenter de dépasser ce blocage, des entreprises ont créé des postes d’analystes data au sein des métiers. Mais ce choix s’est avéré coûteux ; cantonnés dans leur ligne métier, ces analystes étaient souvent sous-utilisés. « Nous sentions donc cette transformation poindre. La démocratisation de l’IA va permettre d’interroger la data au travers d’un simple prompt, ce qui rend les métiers plus autonomes et permet de ne conserver que le nombre strictement suffisant d’analystes de la donnée », dit l’expert de Talan.
Gouvernance et sécurité pour priorités
Par ricochet, alors que les plateformes data simplifient la mise à disposition des données et que l’IA en facilite la consommation par les métiers, les centres de services BI qu’ont créés de nombreuses grandes entreprises doivent se recentrer sur des sujets devenus encore plus essentiels avec ces mutations : la gouvernance, la sécurité et la confiance dans les résultats. D’abord parce que la généralisation des usages de l’IA pour interagir avec la data suppose de développer une faculté à monitorer et expliquer les décisions prises par les algorithmes. Et ce, d’autant plus que l’arrivée de l’IA agentique va se traduire par un certain degré d’autonomie de la technologie dans des décisions métiers.
« La sécurité devient le sujet le plus important pour ces centres de services », assure ainsi Frédéric Gisbert. Une évolution qui se traduit déjà dans la plateforme Microsoft Fabric. D’abord via une évolution de la logique de sécurité d’accès. « Auparavant, cette couche de sécurisation était assurée par le moteur. Désormais, les tables de données portent également les droits d’accès des lignes et colonnes qu’elles renferment. Quel que soit le moteur qui les consomme ! », souligne l’expert.
Une sécurité pensée pour l’IA
La sécurité périmétrique, qui protège les données contre les tentatives d’exfiltration et gère les aspects de conformité (comme le RGPD), est, elle, portée par un alignement des niveaux de sensibilité de la data entre le datalake de Microsoft (OneLake) et Microsoft 365 sur le poste de travail des utilisateurs. Enfin, un troisième niveau s’attache à encadrer les usages de la data avec l’IA, via la mise en place de garde-fous permettant de contrôler les prompts des utilisateurs et de vérifier les résultats en sortie. Un volet déjà indispensable dans certains secteurs ou métiers, selon Yoann Jasemin : « c’est notamment le cas des RH, un métier très attentif aux accès externes, mais aussi internes. Pour empêcher le partage de données sensibles, la plateforme Microsoft sait déjà bloquer les agents IA tentant d’accéder à des données étiquetées sensibles. »