Le 23 septembre 2025, sur la scène emblématique du Bang au sommet Big, Jacques Pommeraud, président‑directeur général du groupe Inetum, est intervenu sur un thème aussi simple en apparence que radical dans ses implications : « Vérité ». Au cœur de son intervention : la place de l’intelligence artificielle dans la production et la diffusion de l’information, et les conditions à réunir pour que cette IA reste un levier de confiance, et non de défiance.
Son message résonne avec les priorités des dirigeants en 2025 : gouvernance des données et de l’IA, éthique, responsabilité et confiance numérique. Loin d’un discours anxiogène, cette intervention invite à une posture lucide et exigeante : accepter le doute, réhabiliter le « je ne sais pas », affronter les biais, les hallucinations et les usages malveillants, et bâtir des dispositifs de gouvernance solides pour garantir la véracité et la valorisation des systèmes d’IA.
Dans cet article, nous revenons sur les enjeux mis en lumière à Big 2025 et sur ce qu’ils signifient concrètement pour les entreprises qui veulent tirer parti de l’IA tout en protégeant leur capital de confiance.
1. Big 2025, scène Bang : pourquoi parler de « vérité » maintenant ?
L’intervention de Jacques Pommeraud s’inscrit dans un contexte très particulier : en 2025, l’IA n’est plus un sujet de laboratoire. Elle est massivement intégrée dans les processus métiers, dans les outils de productivité, dans les parcours clients, dans les services publics, et même au cœur de la création de contenus.
Parallèlement, plusieurs dynamiques se croisent :
- Une explosion des usages de l’IA générative dans les entreprises, de la production de texte au support client en passant par la conception.
- Une surabondance informationnelle où humains et machines produisent et relayent en continu des contenus difficiles à vérifier.
- Un agenda réglementaire et sociétal qui met la question de la transparence, de la responsabilité et de l’éthique au premier plan.
Dans ce paysage, la question posée sur la scène Bang est frontale : que vaut encore la notion de vérité quand une machine peut produire du texte crédible en quelques millisecondes, mais aussi se tromper spectaculairement ?
Pour les entreprises, ce n’est pas un débat théorique. C’est un enjeu de :
- Réputation: une information erronée publiée au nom de la marque entame durablement la confiance.
- Conformité: une décision prise sur la base d’une recommandation d’IA non maîtrisée peut exposer à un risque juridique ou réglementaire.
- Performance: une IA efficace mais non fiable détruit de la valeur au lieu d’en créer.
2. Trois défis majeurs : biais, hallucinations, usages malveillants
L’intervention met en lumière trois grandes familles de risques liés à l’IA dans la production d’information. Les reconnaître, c’est déjà se donner les moyens d’agir.
2.1. Biais algorithmiques : quand l’IA reflète (et amplifie) nos angles morts
Toute IA est entraînée sur des données. Lorsque ces données sont incomplètes, déséquilibrées ou porteuses de stéréotypes, le système produit des résultats biaisés. Ces biais peuvent concerner :
- La représentation de certains groupes (genre, âge, origine, territoire, catégorie socio‑professionnelle).
- La priorisation de certaines sources d’information au détriment d’autres.
- La manière de formuler des recommandations ou des scores de risque.
Pour une entreprise, les conséquences peuvent être lourdes :
- Décisions discriminatoires (recrutement, scoring client, octroi de crédit, sélection de dossiers).
- Perte de crédibilité si des résultats biaisés sont détectés par le public, les médias ou les régulateurs.
- Manque à gagner lié à une sous‑valorisation de segments de marché mal représentés dans les données.
L’enjeu n’est pas de promettre une IA « neutre » (ce qui serait illusoire), mais de rendre visibles et maîtrisables ces biais grâce à :
- Des audits réguliers des jeux de données et des modèles.
- Une diversité des équipes qui conçoivent et valident les systèmes.
- Des mécanismes d’alerte permettant aux utilisateurs de signaler des résultats problématiques.
2.2. Hallucinations des modèles : quand l’IA parle avec assurance de choses fausses
Les grands modèles de langage sont capables de produire des textes cohérents, bien structurés et convaincants. Mais ils peuvent aussi « halluciner »: inventer une information de toutes pièces, citer une source inexistante, attribuer une déclaration à la mauvaise personne ou broder autour d’un fait partiel.
Ces hallucinations ne sont pas des bugs isolés mais une conséquence directe du fonctionnement de ces modèles : ils complètent des séquences de mots en fonction de probabilités, pas en vérifiant la réalité du monde.
Les risques pour les organisations sont immédiats :
- Diffusion de contenus factuellement faux dans des communications internes ou externes.
- Décisions opérationnelles basées sur des éléments inexacts.
- Perte de confiance des collaborateurs si l’outil est perçu comme peu fiable.
D’où l’importance d’une idée forte rappelée dans l’intervention : une IA crédible n’est pas une IA qui répond toujours, mais une IA qui sait reconnaître ses limites et invite l’utilisateur à vérifier.
2.3. Usages malveillants : quand l’IA devient arme de désinformation
L’IA peut aussi être instrumentalisée pour produire et diffuser, à grande échelle, des contenus trompeurs, des messages de hameçonnage ultra personnalisés, des contenus diffamatoires ou manipulatoires. Ces usages malveillants concernent :
- La désinformation (fake news, deepfakes, faux témoignages, faux documents).
- La cybercriminalité (phishing ciblé, usurpation d’identité, arnaques automatisées).
- La déstabilisation d’entreprises ou d’institutions (rumeurs, faux communiqués, faux comptes).
Pour une entreprise, se contenter de subir n’est plus une option. Il devient stratégique de :
- Surveiller sa présence numérique pour détecter rapidement les contenus frauduleux la concernant.
- Former les équipes à reconnaître les signaux d’une désinformation générée par IA.
- Mettre en place des protocoles de réaction en cas de crise d’image liée à de faux contenus.
3. Une posture clé : scepticisme constructif et réhabilitation du « je ne sais pas »
Face à ces défis, l’intervention sur la scène Bang ne plaide ni pour le rejet de l’IA, ni pour une confiance aveugle. Elle propose une voie médiane, exigeante et porteuse de valeur : adopter une posture sceptique, lucide, assumée.
Cette posture repose sur trois piliers :
- Le doute méthodique: considérer chaque résultat produit par l’IA comme une hypothèse à tester, pas comme un verdict définitif.
- La réhabilitation du « je ne sais pas »: accepter qu’un système ou un collaborateur puisse reconnaître une limite plutôt que de produire une réponse approximative.
- Le retour aux valeurs: utiliser les outils d’IA comme des moyens, et non comme des finalités, en restant guidé par la mission, la vision et l’éthique de l’organisation.
Loin de freiner l’innovation, cette approche la renforce. Une entreprise qui sait dire « je ne sais pas encore, je vais vérifier » gagne en crédibilité, en maturité et, à terme, en performance.
4. Pourquoi le « je ne sais pas » devient un avantage concurrentiel
Dans un environnement saturé de certitudes affichées, de prises de position tranchées et de contenus générés à la chaîne, la capacité à assumer l’incertitude devient un marqueur de sérieux.
Concrètement, dans une organisation, réhabiliter le « je ne sais pas » apporte plusieurs bénéfices.
- Réduction des erreurs coûteuses: un collaborateur ou un outil qui peut escalader un cas douteux plutôt que de trancher trop vite évite des erreurs de décision lourdes.
- Renforcement de la confiance interne: les équipes savent qu’elles ont le droit d’exprimer un doute, ce qui favorise la remontée d’alertes et la qualité du débat.
- Alignement avec la conformité: dans des secteurs réglementés, ne pas sur‑interpréter les résultats d’IA et documenter les zones d’incertitude est un gage de sérieux vis‑à‑vis des autorités.
- Expérience client plus honnête: expliquer qu’une réponse nécessite une vérification complémentaire peut créer une relation plus mature avec les clients, surtout en B2B.
En pratique, cela peut se traduire par des choix très concrets :
- Configurer certains outils d’IA pour qu’ils indiquent un niveau de confiance plutôt qu’une réponse brute.
- Mettre en place des parcours de revue humaine pour les décisions sensibles.
- Valoriser, dans la culture managériale, les comportements qui admettent un doute plutôt que ceux qui surjouent la certitude.
5. Remettre les valeurs au centre des systèmes d’IA
Un autre axe fort de l’intervention : on ne pilote pas l’IA uniquement avec de la technique ou de la réglementation. Il faut aussi se doter d’un socle de valeurs claires, connues et partagées dans l’organisation.
Ces valeurs ne sont pas des slogans abstraits. Elles doivent inspirer des choix concrets à chaque étape du cycle de vie de l’IA :
- Dans la définition des cas d’usage: que cherche‑t‑on à optimiser ? Le temps, le coût, la satisfaction, l’inclusion, la sobriété environnementale ?
- Dans la sélection des données: quelles données a‑t‑on le droit d’utiliser ? Quelle est la base légale ? Comment protège‑t‑on la vie privée ?
- Dans la conception des interfaces: comment explique‑t‑on à l’utilisateur ce que fait l’IA ? Comment évite‑t‑on les manipulations ?
- Dans la gestion des incidents: que fait‑on lorsqu’une sortie de l’IA est discriminatoire, erronée ou contraire à l’éthique de l’entreprise ?
Les organisations les plus avancées en 2025 sont celles qui ont su transformer leurs valeurs en principes opérationnels pour l’IA, par exemple :
- « Aucune décision à fort impact sur une personne ne doit être prise uniquement par une machine. »
- « L’utilisateur doit toujours être informé lorsqu’il interagit avec un système d’IA. »
- « Toute sortie de l’IA doit pouvoir être contestée par un humain et réexaminée. »
6. Vérification et gouvernance : de l’expérimentation à l’industrialisation responsable
Pour passer du discours à l’action, deux leviers sont indispensables : une véritable culture de la vérification et des mécanismes de gouvernance robustes.
6.1. Construire une chaîne de vérification de l’information
Dans un environnement où l’IA produit des contenus en quelques secondes, la vérification doit être repensée comme un processus continu, pas comme une étape ponctuelle en fin de chaîne.
Une chaîne de vérification efficace peut intégrer :
- Des garde‑fous automatiques: filtres, règles métier, contrôles de cohérence, détecteurs de contenus sensibles.
- Des revues humaines ciblées là où l’impact est le plus fort (communication publique, décisions RH, finance, santé, etc.).
- Des procédures d’escalade claires en cas de doute sur la véracité ou l’éthique d’une sortie de l’IA.
- Des journaux d’audit permettant de retracer comment une information a été produite et validée.
L’objectif n’est pas de tout vérifier manuellement, mais de prioriser les efforts là où la vérité a le plus d’enjeu pour l’entreprise et ses parties prenantes.
6.2. Mettre en place une gouvernance de l’IA alignée avec les enjeux 2025
La gouvernance de l’IA n’est plus seulement un sujet d’architecture technique. C’est un chantier transverse qui mobilise :
- La direction générale, qui fixe le niveau d’ambition, de risque acceptable et de transparence.
- Les équipes data, IT et sécurité, qui conçoivent et opèrent les systèmes.
- Les directions métiers, qui définissent les usages concrets et en assument les impacts.
- Les fonctions juridique, conformité et risque, qui veillent au respect du cadre réglementaire.
- Les RH et la communication, qui accompagnent les transformations de culture et de compétences.
Dans la pratique, beaucoup d’organisations structurent cette gouvernance autour de quelques briques clés :
- Un comité IA ou un dispositif équivalent, chargé d’arbitrer les cas d’usage à fort enjeu.
- Des politiques internes claires sur l’usage de l’IA (outils autorisés, types de données, niveaux de validation).
- Des processus de gestion du cycle de vie des modèles (déploiement, monitoring, retrait, mise à jour).
- Des indicateurs de performance et de risque intégrant la dimension de vérité et de fiabilité.
7. Synthèse : défis et réponses possibles
Le tableau ci‑dessous résume les principaux défis évoqués et quelques réponses concrètes pour les organisations.
| Défi | Risque pour l'entreprise | Réponses possibles |
|---|---|---|
| Biais algorithmiques | Décisions discriminatoires, image dégradée, mauvaise couverture de certains clients ou talents. | Audit des données et modèles, équipes pluridisciplinaires, mécanismes de signalement, objectifs d'équité. |
| Hallucinations des modèles | Informations fausses, erreurs de décision, perte de confiance dans les outils. | Niveaux de confiance, validation humaine ciblée, documentation des limites, incitation au « je ne sais pas ». |
| Usages malveillants de l'IA | Désinformation, cyberattaques renforcées, atteintes à la réputation. | Veille active, formation des équipes, plans de réponse à incident, authentification renforcée des communications. |
8. Transformer ces principes en plan d’action pour votre entreprise
À partir des axes évoqués lors de l’intervention de Jacques Pommeraud, une entreprise peut structurer un plan d’action IA autour de quelques priorités très concrètes.
8.1. Clarifier sa vision « vérité et IA »
- Formuler en quelques phrases ce que signifie la vérité pour votre organisation : transparence des critères de décision, traçabilité, possibilité de contestation, etc.
- Identifier les situations où une erreur de l’IA serait inacceptable (santé, sécurité, réputation, décisions RH critiques).
8.2. Cartographier les usages d’IA existants et envisagés
- Recenser les outils d’IA déjà utilisés (internes ou externes) et les données qu’ils consomment.
- Évaluer, pour chaque cas d’usage, le niveau de risque lié à la véracité de l’information.
- Prioriser les chantiers de sécurisation (gouvernance, vérification, documentation) sur les usages les plus sensibles.
8.3. Installer des garde‑fous progressifs
- Définir des règles d’or simples (par exemple : aucune publication externe exclusivement générée par IA sans validation humaine).
- Mettre en place des procédures de double regard sur les contenus ou décisions à fort enjeu.
- Prévoir des tests en environnement contrôlé avant tout déploiement à grande échelle de nouveaux outils d’IA.
8.4. Former et acculturer largement
- Former les collaborateurs aux forces et limites des IA génératives: capacités, biais, hallucinations, bonnes pratiques.
- Insister sur la responsabilité individuelle: l’utilisateur reste responsable de l’usage qu’il fait des résultats de l’IA.
- Encourager des ateliers où l’on teste l’IA, où l’on observe ses erreurs, où l’on apprend à poser les bonnes questions.
9. Quand l’IA devient un allié de la vérité et de la confiance
Paradoxalement, en intégrant ces garde‑fous, l’IA peut devenir un puissant allié de la vérité plutôt qu’une menace. Quelques exemples de dynamiques positives :
- Assistance à la vérification: l’IA peut aider à recouper des informations, à détecter des incohérences, à analyser de grands volumes de données pour identifier des signaux faibles.
- Transparence accrue: bien conçue, une interface d’IA peut rendre plus explicites les critères de décision, là où certains processus humains restaient opaques.
- Standardisation des bonnes pratiques: des systèmes d’IA bien gouvernés peuvent diffuser, à l’échelle de l’organisation, des standards de qualité et de vérification auparavant réservés à quelques experts.
- Éducation au doute: en confrontant régulièrement les équipes aux forces et aux limites de l’IA, on renforce la culture de l’esprit critique dans l’ensemble de l’entreprise.
La clé, comme l’a rappelé l’intervention sur la scène Bang, est de ne pas opposer l’humain et la machine, mais de chercher à combiner le meilleur des deux:
- La vitesse, la capacité de traitement et la multitude de points de vue apportées par l’IA.
- Le jugement, la responsabilité, le système de valeurs et la capacité à dire « je ne sais pas » propres aux humains.
10. En conclusion : une IA qui accepte ses limites inspire davantage confiance
En choisissant de parler de « Vérité » plutôt que de performance, de productivité ou de disruption, l’intervention de Jacques Pommeraud à Big 2025 met le doigt sur l’enjeu central des prochaines années : l’IA ne sera un succès durable pour les entreprises que si elle est crédible, traçable et gouvernée.
Concrètement, cela signifie :
- Accepter que l’IA puisse se tromper, et donc organiser la vérification et la contestabilité de ses résultats.
- Préférer une IA qui dit parfois « je ne sais pas » à une IA qui affirme tout, tout le temps, sans preuve.
- Inscrire chaque projet d’IA dans un cadre de valeurs, de gouvernance et de responsabilité explicite.
Les organisations qui feront ce choix ne seront pas celles qui iront le moins vite. Ce seront, au contraire, celles qui sauront industrialiser l’IA avec confiance, attirer les meilleurs talents, rassurer leurs clients et partenaires, et se positionner comme des acteurs de référence dans un écosystème numérique où la vérité est devenue un avantage compétitif autant qu’un impératif éthique.
C’est ce message, résolument tourné vers l’action et vers l’avenir, qui fait de l’intervention de Jacques Pommeraud sur la scène Bang à Big 2025 un jalon important pour tous les dirigeants qui veulent conjuguer IA, performance et confiance en 2025 et au‑delà.