Découvrez le retour d'expérience de Frédéric Pastore, architecte senior Data & IA chez Smile, sur la création de l’Agent AI conversationnel Smile. De la maîtrise de la data quality au prompt engineering, il vous explique les coulisses de la conception de notre jumeau numérique.
L'ère du web-AI : quand l'IA devient le cœur des nouvelles expériences utilisateur.
Le web vit une métamorphose profonde. Hier, simples vitrines statiques, les sites internet deviennent aujourd'hui des plateformes interactives et intelligentes. Désormais, ce n'est plus à l'utilisateur de se plier à l'architecture du site ; c'est l'interface qui doit se reconfigurer pour apporter une réponse plus fluide, immédiate et précise grâce à l'IA.
Chez Smile, nous avons fait le choix de saisir cette opportunité technologique pour réinventer les expériences de nos visiteurs. Notre objectif étant de nous transformer nous-mêmes comme nous le faisons avec nos clients.
Je souhaitais vous partager ici mon retour d’expérience en tant qu'architecte IA sur ce projet : nos choix technologiques, les difficultés et pièges à éviter mais aussi l’enjeu de la data quality et d’une bonne gouvernance.
Même si l'innovation est inscrite dans notre code source, de nos fonctions commerciales au delivery, ce fut un projet intense qui n’a pas été aussi simple que nous l’aurions pensé. Avec le déploiement de notre Agent IA conversationnel, nous marquons une rupture avec le passé : nous passons de la simple diffusion de contenus à une ère d'interaction pure.
Relever le défi de l'IA générative
Avoir un agent IA en 2026 n'a, en soi, rien d'extraordinaire. Toutefois, déployer une véritable intelligence générative ne s'improvise pas. L'ingénierie derrière un tel projet ne se résume pas à monter une tuyauterie logicielle, à en vérifier l'étanchéité et à ouvrir les vannes de l'information. L'ambition va bien au-delà de la simple infrastructure. Notre premier grand enjeu a consisté à faire oublier le chatbot traditionnel et ses arborescences de décision rigides. Nous entrons dans une nouvelle dimension : celle d'une IA générative qui est, par nature, organique, et dont les réponses se construisent et évoluent au gré des interactions
La data quality : le socle de la vérité
Pour canaliser la fluidité de l'IA, l'exigence d'une donnée source irréprochable s'est imposée. Ce travail drastique de data quality est le seul rempart contre l'imprécision et les hallucinations. Dompter cette technologie demande une maîtrise technique couplée à une pédagogie constante auprès des parties prenantes. Mais concrètement, comment avons-nous structuré cette vérité ?
La gouvernance : le nerf de la guerre.
C'est ici qu'intervient l'enjeu majeur. Alimenter un système d'intelligence artificielle ne consiste surtout pas à déverser l'intégralité des données d'entreprise dans un serveur ! Il faut une gouvernance chirurgicale : valider ce qui relève du secret industriel et ce qui peut être exposé au public, s'assurer que les documents techniques de nos expertises (comme celles d'Alter Way ou SensioLabs) sont à jour, et expurger les données obsolètes. C'est sur ce point précis que l'effort de pédagogie est le plus intense en interne : faire comprendre aux équipes que la pertinence et la sécurité de notre agent dépendent exclusivement de la qualité, du tri et de la validation stricte de la donnée qu'on l'autorise à ingérer.
La mécanique RAG (Retrieval-Augmented Generation) : une maîtrise de bout en bout.
Une fois cette donnée assainie, elle doit être rendue intelligible pour l'IA. L'intelligence de notre jumeau numérique ne repose pas sur des suppositions, mais sur une maîtrise théorique et technique absolue de l'architecture RAG (Retrieval-Augmented Generation). Pour que l'agent soit performant, nous avons déployé et paramétré l'intégralité de la chaîne de traitement de la donnée :
- Le découpage et le chunking : Chaque ressource ingérée fait l'objet d'un découpage méthodique. Nous fragmentons l'information en "chunks" (blocs sémantiques de texte) de taille optimale, suffisamment petits pour être précis, mais suffisamment larges pour conserver leur contexte.
- La vectorisation (embeddings) : Ces fragments sont ensuite transformés en vecteurs mathématiques dans nos bases de données. Cela permet à l'IA de comprendre non pas de simples mots-clés, mais la signification profonde et le contexte de chaque phrase.
- Le retrieve (la récupération) : Lorsqu'un utilisateur pose une question, le système effectue une recherche de similarité vectorielle ultra-rapide pour n'extraire (retrieve) que les "chunks" les plus pertinents par rapport à l'intention de la requête.
- L'inférence sous contrôle : Enfin, ces fragments de vérité sont injectés dans le contexte du modèle de langage. L'étape de génération (l'inférence) est alors sous contrôle strict : le LLM rédige sa réponse finale en s'appuyant exclusivement sur les données récupérées, garantissant une information fiable et totalement ancrée dans notre réalité.
Le RAG : notre réalité, l'enjeu de tous
La maîtrise du RAG et de la gouvernance des données sous-jacente est l'enjeu stratégique absolu de toutes les entreprises pour les années à venir, et il commence dès aujourd'hui. Chez Smile, notre conviction est claire : le seul moyen d'être légitime sur ces sujets critiques, d'en parler avec pertinence et d'accompagner nos clients dans cette transformation, c'est de l'avoir fait pour nous-mêmes. Nous ne vendons pas des concepts théoriques sur l'intelligence artificielle ; nous vendons une réalité technologique fonctionnelle, que nous avons éprouvée et que nous maîtrisons au quotidien.
L'art du prompt engineering
Le second défi ? Le prompt engineering. Maintenir une harmonie entre des dizaines d'instructions parfois paradoxales ressemble à un numéro d'équilibriste. Un mot-clé mal dosé, et le jumeau numérique peut s'écarter de sa trajectoire. Nous avons donc forgé des directives de fer pour :
- Annihiler les hallucinations par l'ancrage : interdiction formelle pour l'IA de répondre sans avoir interrogé nos bases de recherche au préalable, filet de sécurité en cas de manque de données, proposition d'un contact humain, et verrouillage absolu des URL de redirection.
- Prioriser l'information (data dynamique vs statique) : apprendre à l’agent conversationnel à croiser les connaissances figées de son système avec les actualités fraîches du site, en donnant toujours la priorité à la donnée la plus récente.
- Restreindre le périmètre : verrouiller le contexte pour que l'IA reste strictement focalisée sur l'écosystème Smile, sans jamais divaguer sur des sujets extérieurs.
- Imposer une neutralité linguistique : exiger de l'IA une traduction instantanée des données internes (majoritairement en français) tout en s'alignant avec une stricte fidélité sur la langue maternelle détectée chez l'utilisateur.
- Sanctuariser l'IA avec des Garde-fous : déployer un filtre de sécurité en temps réel chargé d'analyser et de bloquer instantanément toute requête malveillante, qu'il s'agisse de tentatives de manipulation (prompt injection), d'usurpation d'identité ou de génération de code.
Mission : modéliser le "cerveau" collectif de Smile
Notre objectif était de créer un véritable jumeau numérique doté de la mémoire exhaustive de l'entreprise. Pour qu’il soit véritablement pertinent, il ne pouvait se contenter d'un savoir figé dans son code. C'est ici qu'intervient l'architecture RAG. L'enjeu était de doter l'agent d'une capacité de recherche et d'analyse en temps réel, lui permettant de construire systématiquement la réponse la plus proche possible de la réalité de Smile.
Le véritable enjeux a consisté à orchestrer la convergence de deux univers de données distincts mais profondément complémentaires :
- Le pouls de l'entreprise (les données dynamiques) : l'agent est connecté en permanence au flux continu de notre écosystème en ligne. Il capte les dernières actualités, les chiffres récents et les cas clients fraîchement publiés. Ce flux lui confère une véritable "conscience temporelle" : il sait que l'actualité chaude doit toujours primer sur une donnée plus ancienne, garantissant ainsi à l'utilisateur une information d'une fraîcheur absolue.
- Le patrimoine d'expertise (les données historiques) : en parallèle, l'IA a accès à une riche bibliothèque de documents internes bruts, rigoureusement validés pour un usage public. Ces ressources plus denses (comme nos livres blancs, nos manifestes technologiques ou nos retours d'expérience approfondis) viennent ancrer ses réponses dans l'historique et la culture de l'entreprise. Elles apportent le recul et l'épaisseur nécessaires pour passer d'une simple information de surface à une véritable démonstration de savoir-faire.
Tout l'art de ce système réside dans le croisement de ces deux mondes. Avant de formuler la moindre phrase, notre agent mène l'enquête : il confronte l'instantanéité des données web avec la profondeur de nos documents historiques.
Grâce à cette double motorisation, Smile.AI ne se contente pas de deviner ou de générer du texte aléatoire. Il délivre une réponse hybride, sourcée, et parfaitement calibrée, qui reflète avec une fidélité absolue la vérité technologique, géographique et commerciale de Smile à l'instant T.
Les coulisses du projet
Monter un agent conversationnel ne nécessite pas une armée, mais une synergie d'expertises. Ce projet a été porté par une équipe de cinq personnes, associant chef de projet, développeurs front et back, un architecte IA et un UX designer qui ont su donner vie à Smile.AI en moins de deux mois.
Le projet s'appuie sur le socle historique de Drupal et les standards du web (HTML, CSS, JS). L'intelligence et la sécurité sont propulsées par GCP (Google Cloud Platform), garantissant une puissance de calcul tout en protégeant l'architecture des tentatives de manipulation externe.
Pourquoi avoir bâti cette première itération sur GCP (Vertex AI) ? En tant qu'architecte, la réalité du terrain impose souvent un arbitrage strict entre l'idéal théorique et le Time-to-Market. Face à une échéance critique, nous avons privilégié la solution intégrée de Google qui nous a permis de passer du concept à la production en un temps record. Vertex AI offrait une robustesse immédiate et garantissait une performance linguistique native indispensable pour nos besoins internationaux (notamment l'anglais et l'ukrainien), là où le déploiement d'une solution 100 % souveraine from scratch aurait exigé une phase d'intégration et de fine-tuning incompatible avec notre calendrier.
Et la souveraineté alors ? Et c'est précisément pour cela que nous avons déjà amorcé la Phase 2. Après avoir éprouvé notre architecture RAG sur ce premier périmètre, nous prenons aujourd'hui le temps de la mettre à l'échelle en entamant notre transition vers une version souveraine propulsée par le modèle Mistral.
Si cette évolution profitera au site web, son véritable terrain de jeu sera l'usage interne. L'objectif est d'infuser cette IA souveraine dans l'intégralité des processus vitaux de notre ESN, pour transformer nos collaborateurs en "super-consultants" :
- Performance commerciale : analyse automatisée des appels d'offres (RFP) complexes et pré-rédaction des propositions commerciales en s'appuyant sur notre socle de réponses historiques.
- Staffing & RH : matching intelligent entre les compétences requises par une mission et l'analyse sémantique des CV de nos milliers d'experts.
- Juridique & administratif : analyse de conformité instantanée des contrats (NDA, partenariats) et recherche accélérée dans nos politiques internes.
- Delivery & gestion de projet : synthèse automatique des meetings, génération de comptes rendus et détection des risques dans les rapports de projets.
- Capitalisation tech : création d'un moteur de recherche interne type "StackOverflow privatif" permettant à nos développeurs de trouver instantanément des extraits de code validés par nos CTO.
LLMOps et Monitoring : l'analyse des logs comme mine d'or stratégique
Lancer un Jumeau Numérique en production n'est pas une fin en soi ; c'est le véritable point de départ. Une fois notre "félin" relâché dans l'écosystème du site web, il est hors de question de le laisser sans surveillance. C’est ici qu’entre en jeu la dimension LLMOps (Large Language Model Operations). L'analyse continue des logs de conversation au sein de notre architecture GCP ne sert pas uniquement à surveiller l'état des serveurs, elle nous offre une visibilité critique sur trois axes majeurs :
- La sécurité proactive (les GuardRails en action) : Nos logs nous permettent d'observer en direct l'efficacité de notre filtre de sécurité. En traquant les requêtes classifiées comme « TRIGGER » par rapport à celles validées « OK », nous pouvons analyser le comportement des utilisateurs malveillants. Nous monitorons précisément les tentatives de prompt injection, les essais d'usurpation d'identité ou les requêtes visant à forcer la génération de code informatique. Cette boucle de surveillance nous permet de durcir continuellement la robustesse de notre système face aux attaques émergentes.
- L'intelligence économique et commerciale : L'analyse sémantique des requêtes est une véritable étude de marché en temps réel. En lisant ce que les utilisateurs demandent directement à notre IA, nous captons les signaux faibles et les tendances du secteur. Quelles sont les technologies de nos 7 piliers d'expertise les plus sollicitées ? Quelles problématiques métiers reviennent le plus souvent ? Ces logs sont le carburant de notre Self-Learning : ils nous aident à identifier les futurs besoins du marché avant même qu'ils ne soient officiellement formulés par nos clients.
- L'amélioration continue du moteur RAG : Les logs nous permettent d'identifier immédiatement les "trous dans la raquette" de notre gouvernance de données.
En somme, dans cette ère du Web-AI, les logs de conversation ne sont plus de simples lignes de code destinées aux développeurs. Ils sont devenus la voix directe de nos utilisateurs, un outil de pilotage stratégique qui nourrit aussi bien nos experts en cybersécurité que nos directions commerciales.
Résultats : efficacité et pertinence
Le résultat ? Un conseiller virtuel capable de générer des réponses structurées : diagnostic du besoin, proposition d'expertise, illustration par un cas client et partage de livres blancs. Nous avons réussi à stabiliser le comportement de l'IA tout en respectant scrupuleusement la vérité géographique et technologique de Smile. L'interaction homme-machine ne se limite plus à une navigation cliquable, elle devient une conversation à forte valeur ajoutée.
Perspectives : vers une hyper personnalisation du web
Ce jumeau numérique n'est que la première brique de l'ère Web-AI. Demain, propulsées par la maîtrise technique de notre architecture RAG, les perspectives d'évolution sont immenses :
- Hyper-personnalisation et offres commerciales : L'interconnexion de notre moteur RAG avec des flux de données en temps réel et des applications internes permettra à l'agent de devenir un véritable apporteur d'affaires proactif, capable d'automatiser des tâches et offres commerciales.
- Talk to Data (l'hybridation structurée / non-structurée) : l'étape suivante consiste à connecter ce moteur avec nos bases de données relationnelles complexes au sein d'un même écosystème. Permettre à un LLM d'orchestrer ces requêtes simultanées en langage naturel soulève de vrais défis en matière de gouvernance, d'unification des pipelines et de sécurité des accès.
- Self-learning : L'analyse minutieuse des requêtes nous servira à identifier les futurs besoins du marché pour affiner en permanence l'entraînement de l'IA.
- Déclinaison interne : L'utilisation de la puissance de l'écosystème Vertex AI ouvre la voie à la création d'agents conversationnels internes, dédiés à l'augmentation de la productivité de nos propres collaborateurs.
- Le RAG comme levier de souveraineté : Ce que nous avons bâti pour nous-mêmes démontre notre capacité à déployer des moteurs de recherche augmentés (RAG) sur des architectures hybrides. Cela appuie directement notre vision pragmatique de la souveraineté numérique : celle-ci ne consiste pas à s'enfermer aveuglément "chez soi", mais bien à avoir systématiquement le choix de s'appuyer sur les meilleures solutions du marché, qu'elles soient open source ou propriétaires.
En transformant l'information en conversation, les équipes Smile prouvent une fois de plus que l'innovation fait partie intégrante de notre code source. Mieux encore, elles démontrent notre conviction la plus profonde : l'intelligence artificielle ne se discute pas, elle se vit.