Membres
Intelligence artificielle : le discernement et les normes font la différence

Pourquoi les tests et la certification des systèmes d’IA ne peuvent plus être différés
Le paradoxe de l'ère de l'intelligence artificielle
Nous vivons à une époque obsédée par l'intelligence artificielle. Nous avons construit des machines capables de traiter en quelques secondes des volumes d'informations que des générations entières ne pourraient pas traiter en une vie. Du diagnostic médical aux stratégies financières, l'IA est devenue le nouvel oracle, un partenaire cognitif omniprésent qui nous chuchote des réponses avec une rapidité et une assurance vertigineuse.
Et pourtant, un paradoxe devient de plus en plus évident : malgré cette vitesse, inconcevable il y a encore quelques années, la qualité du jugement semble être soumise à des risques majeurs. Cette fracture révèle une confusion fondamentale que nous avons cultivée avec l'arrogance propre à la modernité : nous avons confondu intelligence et discernement. Nous avons supposé, à tort, qu'une capacité supérieure de traitement des données équivalait à une capacité supérieure de raisonnement. Aujourd'hui, à l'aube de la nouvelle ère de l'IA, cette confusion est devenue le plus grand risque stratégique.
Intelligence contre discernement
L'intelligence, dans sa forme pure, est la capacité à traiter des informations : vitesse, reconnaissance de modèles, construction de connexions logiques. Un grand modèle linguistique (LLM) est l'apogée de cette forme d'intelligence : il peut résumer, traduire, coder et générer du texte qui, en surface, semble cohérent et informé.
Le discernement, en revanche, est la capacité à juger du sens, de la pertinence et des conséquences de l'information. Il ne s'agit pas de ce que vous savez, mais de la manière dont vous appliquez vos connaissances dans un contexte réel, complexe et, le plus souvent, ambigu. Le discernement est l'art de décider consciemment ce qu'il faut ignorer, quand s'arrêter, quand remettre en question même les conclusions les plus élégantes. Il s’agit d’une faculté qui ne naît pas des données, mais de l’expérience, de la compréhension de la nature humaine, de la conscience des enjeux et des responsabilités. Aristote appelait cette faculté phronesis, la sagesse pratique. Kant parlait de raison pratique, qui exige l'engagement de la volonté dans le monde. Le discernement unit la cognition à l'expérience, une faculté que les machines, par leur nature même, ne peuvent revendiquer de manière authentique.
Quand l'IA se trompe : des leçons coûteuses
Les cas concrets ci-dessous nous enseignent quelques leçons sur les dangers d'une délégation incontrôlée de tâches à des systèmes dénués de capacité de jugement.
En 2024, un tribunal canadien (le Civil Resolution Tribunal de Colombie-Britannique) a décidé qu'Air Canada était responsable des informations fournies par son propre chatbot, qui avait donné à un client des détails erronés sur une politique de remboursement en cas de décès dans la famille. La compagnie a fait valoir que le chatbot était une entité distincte. Le tribunal a toutefois rejeté cet argument et a établi un précédent juridique : les entreprises sont responsables des informations fournies par leurs systèmes d'IA, qu'elles soient correctes ou non. Déléguer l'autorité de communication à des systèmes d'IA qui hallucinent (terme utilisé dans la littérature spécialisée pour désigner la génération d'informations factuelles ou de conclusions erronées) est la recette idéale pour un désastre opérationnel et réputationnel.
Diverses études ont montré des taux significatifs d'erreurs factuelles dans les réponses juridiques. Par exemple, une étude de l'université de Stanford réalisée en 2024 a montré que les modèles d'IA spécialisés dans le droit produisent de graves erreurs factuelles. Des avocats américains ont été pris en flagrant délit de citation de cas juridiques fictifs (par exemple, l'affaire Mata c. Avianca, 2023), générés par l'IA, dans des affaires réelles. Cette affaire démontre l'échec fondamental de l'utilisation d'un système non vérifié et non certifié, incapable de faire la distinction entre la réalité et la fiction plausible.
Porcha Woodruff, une femme enceinte de Detroit, a été arrêtée pour vol à main armée sur la base d'une identification erronée effectuée par un système de reconnaissance faciale basé sur l'IA. La police a traité le résultat de l'algorithme comme une preuve, et non comme une suggestion nécessitant une vérification humaine. L'affaire a été relayée par la presse et a suscité un vif débat sur l'utilisation de l'IA dans l'application de la loi, soulignant les conséquences traumatisantes pour les personnes innocentes.
De tels échecs révèlent un problème fondamental : des solutions sans conscience, sans responsabilité et sans systèmes clairs de gestion des risques, auxquelles on a délégué le pouvoir d'agir. C'est précisément dans cet espace entre la puissance de calcul impressionnante de l'IA et la responsabilité des entreprises que s'inscrit la nécessité de normes internationales rigoureuses. Non pas pour freiner l'innovation, mais pour limiter les risques et les erreurs.
ISO/IEC 42119 - l'avenir des tests des systèmes d'IA
La réponse la plus récente de la communauté internationale de normalisation aux défis décrits ci-dessus prend la forme de la série ISO/IEC 42119, un ensemble innovant de normes internationales consacrées aux tests des systèmes d'intelligence artificielle. Cette série est destinée à devenir une pierre angulaire pour les organisations qui cherchent à développer et à utiliser des systèmes d'IA sûrs, solides, transparents et fiables.
Cette initiative commence par la publication de la norme ISO/IEC TS 42119-2:2025 — Présentation générale des tests des systèmes d'IA. Elle offre une introduction complète aux concepts, processus et approches de test applicable à l'IA, en démontrant comment les normes de test logiciel établies ISO/IEC/IEEE 29119 peuvent être exploitées dans le contexte de l'intelligence artificielle.
Le document couvre le cycle de vie des systèmes d'IA et les essais basés sur les risques, les processus d'essai et la documentation adaptés aux spécificités de l'IA, les niveaux et les types d'essais, y compris la qualité des données et des modèles, les orientations sur l'identification et le traitement des risques spécifiques aux systèmes d'IA, les techniques de conception des essais et les mesures de couverture dans le domaine de l'IA. La série ISO/IEC 42119 est en plein développement, avec de nouveaux éléments spécialisés en cours d'élaboration :
| Norme | Titre | Objectif principal |
| 42119-2:2025 | Présentation générale des tests d'IA | Cadre général, cycle de vie de l'IA, essais basés sur les risques |
| DTS 42119-3 (projet) | Vérification et validation | Méthodes formelles, simulations, preuves que les systèmes fonctionnent comme prévu |
| AWI TS 42119-7 (en cours d'élaboration) | Red Teaming | Test antagoniste pour la robustesse, la sécurité et les risques d'utilisation abusive |
| AWI TS 42119-8 (en cours d'élaboration) | Évaluation de la qualité GenAI / LLM | Qualité et sécurité pour les systèmes LLM basés sur des invites, intégrant le Red teaming |
La série ISO/IEC 42119 est conçue pour fonctionner en complémentarité avec la norme ISO/IEC 42001. Alors que la norme 42001 définit les exigences pour une gouvernance responsable de l'IA, la norme 42119 fournit le fondement technique nécessaire aux tests et à la validation des systèmes, contribuant ainsi à garantir leur fiabilité, leur sécurité et la confiance dans leur utilisation.
ISO/IEC 42001 — La norme de référence pour la gouvernance de l'IA
L'intelligence artificielle a depuis longtemps dépassé le stade expérimental pour devenir une infrastructure critique pour les entreprises, les administrations publiques et les opérateurs de services essentiels. La nécessité d'un cadre internationalement reconnu pour la gouvernance de l'IA est évidente. La réponse est venue avec la norme ISO/IEC 42001, la première norme internationale dédiée aux systèmes de gestion de l'intelligence artificielle.
Pourquoi la norme ISO/IEC 42001 est-elle nécessaire ?
L'adoption accélérée de l'IA dans les entreprises apporte des avantages opérationnels significatifs, mais aussi des risques concrets : erreurs d'algorithmes, manque de transparence, hallucinations, problèmes de sécurité ou non-conformité légale. Parallèlement, les réglementations internationales, notamment le règlement européen sur l'IA (EU AI Acte), accentuent la pression sur les organisations pour qu'elles démontrent leur contrôle, leur responsabilité et leur traçabilité.
La norme ISO/IEC 42001 fournit un modèle structuré pour identifier et évaluer les risques associés aux systèmes d'IA, établir des politiques et des contrôles de gouvernance clairs, surveiller les performances et l'impact éthique, garantir la conformité aux exigences légales et réglementaires, et intégrer d'autres systèmes de gestion existants (ISO 9001, ISO 27001, etc.). La norme suit la logique des systèmes de gestion établis, facilitant son intégration dans le cadre de gestion intégré déjà existant de l'organisation, ce qui en fait non seulement un exercice de conformité, mais aussi un outil de maturité organisationnelle réelle.
La nouvelle législation sur l'intelligence artificielle met l'accent sur la responsabilité, l'évaluation des risques et la protection des utilisateurs. La certification ISO/IEC 42001 devient ainsi un outil stratégique pour les organisations qui développent, mettent en œuvre ou utilisent des solutions d'IA. Grâce à la certification, les entreprises démontrent qu'elles :
Gèrent l'IA de manière contrôlée et documentée
Réduisent les risques réputationnels et juridiques
Offrent à leurs partenaires et clients un niveau élevé de confiance et de transparence
Sont prêtes à se conformer aux exigences de la loi européenne sur l'IA et à d'autres réglementations émergentes
Dans des secteurs tels que l'aviation, les infrastructures critiques, la santé, les services juridiques ou les services financiers, ce cadre peut faire la différence entre une conformité formelle et un véritable leadership en matière de gouvernance des nouvelles technologies.
Repères mondiaux : organisations qui ont déjà choisi la voie de la certification avec SGS
L'adoption de la norme ISO/IEC 42001 à l'échelle mondiale confirme qu'il ne s'agit pas d'un outil théorique, mais d'un cadre pratique, applicable dans divers secteurs. Le groupe SGS a joué un rôle central dans la certification d'organisations pionnières à l'échelle mondiale.
Un moment décisif a été la certification du Changi Airport Group, l'opérateur de l'aéroport Changi de Singapour, qui a obtenu la première certification ISO/IEC 42001 accréditée au niveau mondial. Dans un écosystème aéroportuaire où l'IA soutient des processus critiques, de la sécurité à la gestion des flux de passagers, la mise en œuvre d'un système formel de gestion de l'IA envoie un message fort en matière de contrôle, de responsabilité et de sécurité opérationnelle.
En Europe, AI Clearing et Xayn ont été parmi les pionniers de la certification, démontrant l'applicabilité de la norme tant dans le domaine des infrastructures et des constructions assistées par l'IA que dans le développement de solutions logicielles. Au Royaume-Uni, Brookcourt Solutions a renforcé la position de la norme dans le secteur de la cybersécurité.
En Asie, le processus d'adoption a été tout aussi dynamique : OrionStar Robotics a obtenu la première certification ISO/IEC 42001 en Chine ; Godot Inc. au Japon a marqué un moment similaire pour le marché local ; DYXnet a démontré l'intégration de la gouvernance de l'IA dans le domaine des télécommunications ; KPMG India a validé l'applicabilité de la norme dans le domaine des services professionnels.
Ces certifications, accordées dans divers secteurs (aviation, robotique, cybersécurité, conseil), confirment que la norme ISO/IEC 42001 est un outil de gouvernance pratique, applicable à toute organisation faisant un usage responsable de l’IA. Ces repères donnent naissance à un nouveau paradigme : à l'ère de l'IA, le leadership ne se définit plus uniquement par la capacité à innover, mais aussi par la capacité à gérer de manière responsable et transparente l'impact de la technologie et les risques liés à son utilisation.
Comment SGS soutient ses partenaires dans cette voie
SGS, leader mondial dans le domaine des essais, de l'inspection et de la certification, propose un portefeuille intégré de services pour aider les organisations à naviguer dans le cadre dynamique des normes, réglementations et bonnes pratiques dans le domaine de l'intelligence artificielle.
La société propose une certification accréditée ISO/IEC 42001 pour les systèmes de gestion de l'IA, ainsi que d'autres programmes de certification reconnus à l'échelle internationale. L'objectif n'est pas une conformité de façade, mais la mise en place d'un système de gouvernance réel et durable, vérifiable et crédible auprès de toutes les parties prenantes. Les tests des systèmes d'IA couvrent l'évaluation de la qualité des données, l'équité, la clarté et les tests adversariaux. SGS réalise également des tests techniques de produits pour les LLM, les chatbots et les systèmes de type GenAI, y compris des activités de Red teaming et des évaluations de sécurité, précisément les catégories de risques illustrées dans les cas réels présentés précédemment.
L'expertise de SGS couvre la gestion des risques liés à l'IA et la préparation à la conformité aux normes et réglementations internationales. La SGS Academy propose des cours consacrés aux normes en matière d'IA, à la loi européenne sur l'IA, à la gestion des risques et aux thèmes techniques pertinents, afin que les organisations soient non seulement conformes, mais aussi compétentes. Pour les organisations qui souhaitent évaluer rapidement la maturité de leur gouvernance en matière d'IA, SGS AI Trust Check propose un outil d'auto-évaluation rapide qui aide à identifier les lacunes et à hiérarchiser les actions nécessaires pour se conformer et renforcer la confiance. Le choix d’un partenaire pour la certification et l’évaluation des systèmes d’IA ne doit pas être une décision prise à la légère. Il s'agit d'une décision stratégique, avec des implications à long terme. SGS apporte :
Plus de 500 experts en confiance numérique, 10 laboratoires de cybersécurité accrédités et une présence dans plus de 100 pays
Le premier fournisseur de certification accréditée pour les systèmes de gestion de l'IA et de services complets de conformité à la loi européenne sur l'IA
Des services intégrés de certification, de test, de formation, de conseil et de solutions de confiance numérique pour chaque étape du parcours de l'IA
Une expérience pertinente dans les services financiers, la santé, la mobilité, l'industrie manufacturière, l'aviation et bien d'autres domaines
L’excellence opérationnelle et la rigueur propres aux entreprises suisses, au service de votre crédibilité
La différence entre une organisation qui utilise simplement l'IA et une organisation dans laquelle le système d'IA fonctionne de manière sûre, responsable et fiable est mesurable, vérifiable et certifiable. Contactez l'équipe SGS pour découvrir comment nous pouvons vous aider à tirer parti de la future série ISO/IEC 42119 et à mettre en œuvre immédiatement la norme ISO/IEC 42001.
À propos de SGS
SGS est le leader mondial dans le domaine des essais, de l'inspection et de la certification. Nous exploitons un vaste réseau de plus de 2 500 laboratoires et unités opérationnelles dans 115 pays, soutenu par une équipe de plus de 100 000 professionnels dévoués. Forts de plus de 145 ans d'expérience dans l'excellence opérationnelle, nous allions la rigueur et la précision propres aux entreprises suisses pour aider les organisations à atteindre les plus hauts niveaux de qualité, de conformité et de durabilité.
La promesse de notre marque – « when you need to be sure » (quand vous avez besoin d'être sûr) – reflète notre engagement indéfectible envers la crédibilité, l'intégrité et la fiabilité, offrant aux entreprises la sécurité dont elles ont besoin pour performer et se développer en toute confiance. Nous fournissons des services spécialisés sous la marque SGS, ainsi que par le biais d'un portefeuille de marques de confiance telles que Applied Technical Services, Brightsight, Bluesign et Nutrasource.
SGS est cotée à la bourse SIX Swiss Exchange sous le symbole SGSN (ISIN CH1256740924, Reuters SGSN.S, Bloomberg SGSN SW).