Basé sur le replay de la conférence Aligro lors de notre événement Data, IA & UX au service de vos métiers, cet article révèle comment l'IA offre des opportunités de vente inédites.
L'intelligence artificielle fascine, mais sa réussite repose sur une réalité opérationnelle souvent négligée : la qualité de la matière première. Issu du replay de la conférence de Vincent Teyssier (Data Architect à l’ECA) lors de l'événement Data, IA & UX 2025, cet article décrypte pourquoi la gouvernance des données est le prérequis absolu à toute stratégie d'IA performante.
La diversité des données : un défi structurel pour l’ECA
L’ECA possède une structure singulière qui agrège trois métiers distincts : une compagnie d'assurance, une entité de prévention des risques et un service d'intervention (pompiers) . Cette configuration génère une hétérogénéité complexe dans les typologies de données à traiter.
On y trouve d'abord des données classiques de type « Banque-Assurance » (primes, sinistres, provisions financières). S'y ajoutent des données de prévention, majoritairement textuelles, issues des retours d'expérience des pompiers. Enfin, le volet intervention requiert des données en temps réel pour alimenter les « command cars » connectés, nécessitant un accès immédiat aux plans des bâtiments et à leurs attributs de risque.
Cette complexité illustre un impératif fondamental : avant même de concevoir un modèle d'IA, il convient de cartographier et de comprendre la nature du « carburant » disponible. Sans cette étape, le moteur risque de tourner à vide.
Les 5 piliers de la Data Quality pour l'IA :
Pour qu'une donnée soit exploitable par une IA générative ou prédictive, elle doit répondre à 5 critères de "Data Quality" :
- Exactitude : Fidélité de la donnée au phénomène réel.
- Complétude : Absence de lacunes dans les attributs critiques.
- Cohérence : Harmonisation des données entre les silos applicatifs.
- Actualité : Fraîcheur de l'information (cruciale pour les modèles temps réel).
- Traçabilité : Documentation de la provenance et des transformations (Lineage).
« Si vous fournissez une matière délétère, vous aurez des réponses délétères » – Vincent Teyssier.
Gouvernance et référentiels : le cadre de confiance
Pour garantir cette qualité, la mise en place de référentiels d'entreprise s'avère indispensable. Il s'agit de créer une source de données unique et consensuelle (le « Master Record ») pour des entités clés comme les clients, les contrats ou les bâtiments. L’ECA a par exemple fusionné ses référentiels clients, fournisseurs et employés en une entité unique nommée « Tiers », partant du constat qu'un assuré peut simultanément être un collaborateur ou un fournisseur.
Ces référentiels doivent être soutenus par une gouvernance rigoureuse. Celle-ci repose sur quatre axes majeurs :
- La clarté des rôles (qui est propriétaire de la donnée ?).
- La documentation et le catalogage (savoir où se trouve l'information et comprendre son sens).
- La sécurité et la confidentialité (gestion des accès et conformité RGPD).
- La traçabilité des transformations.
Bien que cette démarche puisse paraître austère ou bureaucratique, elle sécurise le capital informationnel de l'entreprise et permet de gérer les données correctement.
L'accélérateur technologique : La Data Virtualisation
Sur le plan technique, l'organisation a fait le choix stratégique de la data virtualisation (via la solution Denodo) pour alimenter ses moteurs d'IA. Cette approche présente un avantage décisif : elle offre un accès rapide à des vues virtuelles sans nécessiter la duplication ou le déplacement physique des données.
Cette technologie supprime le besoin de pipelines ETL (Extract, Transform, Load) complexes et chronophages. Elle permet d'exposer la donnée sous forme de service (API), garantissant ainsi que l'IA accède toujours à l'information la plus fraîche issue des systèmes de production. De plus, la virtualisation facilite le catalogage automatique, puisque toute source virtualisée est de facto indexée.
La réalité du terrain : quand une feuille morte perturbe l'IA
La théorie de la qualité des données se heurte parfois à des réalités matérielles imprévues. Pendant son intervention, Vincent Teyssier a partagé une anecdote révélatrice concernant le projet « Sinistre Express », un outil d'automatisation de déclaration de sinistres utilisant l'OCR (reconnaissance optique de caractères) pour analyser des devis.
Durant le développement, l'un des trois scanners utilisés produisait systématiquement des données erronées, induisant le moteur d'IA en erreur. L'investigation a révélé qu'une simple feuille d'arbre, entrée par une fenêtre ouverte en été, s'était décomposée sur la lentille du scanner située au sol. Cet exemple démontre que la « Data Quality » ne dépend pas uniquement de code ou de bases de données, mais aussi de l'environnement physique de capture (le « device »).
L'humain au centre de la décision
L'automatisation a ses limites, notamment lorsqu'il s'agit de décisions sensibles. Le cas d'usage sur les sanctions économiques illustre parfaitement ce principe. L'IA effectue un « record linkage » pour comparer la base client avec des fichiers internationaux de sanctions.
Le système attribue un score de probabilité, mais ne prend jamais la décision finale. Si le score dépasse un certain seuil (par exemple 90 %), le dossier est transmis au service juridique. L'IA agit ici comme un filtre intelligent, épargnant aux équipes le traitement de milliers de dossiers, tout en laissant la décision finale à l'humain.
Vers un cercle vertueux : le Metadata Feedback
Enfin, cette conférence ouvre une perspective intéressante : l'IA comme actrice de sa propre amélioration. C'est le concept de « Metadata Feedback ». En traitant les données, l'IA peut détecter des incohérences ou capturer des informations supplémentaires (via un OCR performant par exemple) et les renvoyer vers le système de gestion documentaire.
Ainsi, l'intelligence artificielle contribue à densifier et nettoyer les données de l'entreprise, créant une boucle vertueuse où le moteur améliore la qualité de son propre carburant pour les traitements futurs. Cette approche transforme la gestion de la qualité des données d'une contrainte préalable en un processus dynamique et évolutif.
Ce retour d'expérience de l'ECA illustre l'expertise de Smile et Synotis dans l'accompagnement de projets Smart Applications et Intelligent Data. Que ce soit via la Data Virtualization (Denodo) ou la mise en place de référentiels Master Data, nos experts sécurisent votre capital informationnel.
Pour en savoir davantage sur cette initiative, visionnez le replay ou contactez-nous !