TRARDI Framework · Partie 02

Audit de système d'IA

Le système est-il construit correctement ?

Audit de système d'IA : revue à 6 dimensions d'un système en opération. Contexte, architecture, modèle, contrôles, supervision, gouvernance. Constats par gravité, owners nommés. Version 0, 2026.

Ce qu'un audit de système d'IA couvre

Un système d'IA n'est pas un simple modèle. Un audit de système d'IA évalue le système comme système : l'architecture qui entoure le modèle, les données dont il dépend, les contrôles qui l'encadrent, la supervision qui rattrape ses erreurs, la journalisation qui le rend revuable, et la gouvernance qui en porte la responsabilité. La sortie est un rapport de constats avec écarts classés par gravité et risk owners nommés pour chaque constat élevé ou critique.

Les six dimensions d'audit

Chaque dimension est notée de 1 à 5 sur l'échelle de scoring du framework. Les scores composites agrègent en 0 à 5 pour le système.

01

Contexte & classification

À quoi sert le système, quelle classe de risque s'applique sous l'AI Act, quelles obligations réglementaires sont déclenchées.

Key checks

  • Finalité documentée et signée
  • Classe de risque AI Act déterminée (minimal, limité, haut risque, prohibé)
  • Obligations réglementaires mappées aux contrôles opérationnels
  • Parties prenantes identifiées (utilisateurs, sujets, tiers)
02

Architecture & données

Conception du système, topologie de déploiement, flux de données, graphe de dépendances, frontières d'intégration.

Key checks

  • Schéma d'architecture à jour et conforme à la production
  • Lignage des données traçable de la source à la sortie
  • Dépendances tierces listées avec cadence de mise à jour
  • Points d'intégration documentés avec modes de défaillance
03

Modèle & pipeline

Données d'entraînement, régime de validation, pipeline de déploiement, versioning, procédure de rollback.

Key checks

  • Sources des données d'entraînement identifiées et licence validée
  • Protocole de validation reproductible
  • Versions de modèles étiquetées avec dates de déploiement
  • Parcours de rollback testé dans le dernier trimestre
04

Contrôles

Contrôle d'accès, validation des entrées, filtrage des sorties, rate limiting, mécanismes de sécurité, application des politiques.

Key checks

  • Contrôle d'accès appliqué au niveau API et infrastructure
  • Règles de validation des entrées documentées et testées
  • Filtrage des sorties empêche les violations de politique
  • Rate limiting configuré contre les dénis de service
05

Supervision & oversight humain

Checkpoints human-in-the-loop, procédures d'escalade, parcours d'override, cadence de supervision.

Key checks

  • Checkpoints humains définis pour les décisions à haut risque
  • Règles d'escalade déclenchées automatiquement sur conditions définies
  • Actions d'override loguées avec identité opérateur et motif
  • Équipe de supervision dimensionnée pour le volume de décisions
06

Preuve & gouvernance

Piste d'audit, maturité documentaire, réponse à incident, propriété nommée, cadence de revue.

Key checks

  • Piste d'audit complète, immuable, retenue selon politique
  • Documentation opérationnelle à jour dans le dernier trimestre
  • Procédure de réponse à incident définie, testée et nommée
  • Owner du système nommé avec autorité de décision documentée

Règles de blocage automatique

Quatre conditions déclenchent un blocage automatique de la mise en production, quel que soit le score composite.

Aucun owner nommé pour le système

Blocage

Un système sans owner ne peut pas être gouverné.

Aucune piste d'audit

Blocage

Un système sans logs ne peut pas être audité a posteriori.

Aucune procédure de réponse à incident

Blocage

Un incident sans procédure devient une improvisation.

Filtres de politique en sortie non testés

Blocage

Un système qui peut violer une politique en production ne peut pas livrer.

Ce que vous recevez

Un audit de système d'IA produit six livrables concrets, remis à la fin de la mission.

  • 01

    Memo de périmètre d'audit avec frontières signées

  • 02

    Evidence pack organisé par dimension

  • 03

    Rapport de constats avec écarts classés par gravité

  • 04

    Feuille de route de remédiation avec owners nommés et échéances

  • 05

    Debrief exécutif (60 minutes, enregistré)

  • 06

    Plan de re-test pour les constats élevés et critiques

Durée type

Deux à quatre semaines selon le périmètre du système. Semaine 1 : périmètre et collecte de preuves. Semaine 2 : revue et scoring par dimension. Semaines 3 à 4 : rapport de constats, debrief, feuille de route de remédiation.

Périmètre de cette méthode

Cette méthode produit un rapport d'audit privé pour l'organisation cliente. Ce n'est pas une certification au sens ISO/IEC 17021, pas une évaluation de conformité AI Act, et pas un substitut à un audit réglementaire officiel par des organismes accrédités. C'est la discipline que TRARDI applique pour structurer ses opinions d'assurance.

Auditer un de vos systèmes d'IA ?

Réserver 30 minutes de diagnostic

Nous cadrons l'audit sur un système spécifique de votre portefeuille et vous montrons quelles dimensions s'appliqueraient en premier. Pas de pitch.

Réserver 30 min de diagnostic