OBSERVABILITÉ IA · NIVEAU AUDIT · HÉBERGÉ EN UE

Prouvez que votre IA s'est bien comportée — pas seulement qu'elle a été rapide.

Une couche d'observabilité passive et de niveau audit pour vos applications IA. Les PII sont rédigées à la source (IBAN-BE, RRN, BTW), les coûts et tokens par requête sont suivis, et vous pouvez télécharger pour chaque période un evidence pack signé — exactement ce que demandent l'AI Act article 12 et NIS2.

# Python — drop-in tracer
from monsys_ai import Tracer
tracer = Tracer()
with tracer.trace("rag.chat") as t:
  with t.span("openai.chat", provider="openai", model="gpt-4o") as s:
    s.prompt = user_msg
    resp = openai.chat.completions.create(...)
    s.completion = resp.choices[0].message.content
# → 1 HTTP POST · PII redacted op de hub · trace ID 0e22…
✓ ingested · 1 span · 19 tokens · 0.00006 €
Trois invariants stricts

Pas d'IA qui contrôle d'autres IA. Jamais bloquant. Toujours auditable.

Passif, jamais autonome

monsys.ai n'exécute pas de prompts, ne déclenche pas d'actions, ne bloque jamais en ligne. C'est une couche d'observabilité — des preuves a posteriori, pas un plan de contrôle.

PII rédigées à la source

IBAN belge, RRN, BTW, KBO, emails et téléphones sont détectés avant stockage avec validation par checksum et remplacés par un jeton de hash. Le contenu brut n'atteint jamais le hub.

Evidence packs Ed25519

Un clic par période → tarball gzip avec manifeste + signature. Un script Python autonome vérifie hors-ligne, sans compte monsys. Pensé pour auditeurs et régulateurs.

Pour qui c'est — et pour qui ce ne l'est pas

monsys.ai observabilité IA, c'est pour VOTRE code. Pas pour ce que vos devs font dans leur IDE.

Confusion fréquente : « est-ce que ça surveille Copilot ou ChatGPT chez nos employés ? » Non. Nous voyons uniquement ce que votre application envoie vers OpenAI/Anthropic/Mistral — si vous placez notre SDK dans votre code.

POUR VOUS si

  • Votre backend appelle OpenAI / Claude / Mistral / Azure OpenAI
  • Vous construisez un système RAG, chatbot, résumeur, triage de tickets ou screening CV
  • Votre produit SaaS a des « features IA » (suggested replies, recherche IA, génération)
  • Vous avez un outil interne qui utilise des LLMs pour le service client ou des décisions opérationnelles
  • Vous êtes sous AI Act art. 6 (high-risk) ou NIS2 art. 21 — vous devez prouver ce qu'a fait votre IA

PAS pour

  • Développeurs qui codent dans Copilot/Cursor/Continue — ces appels vont directement de l'éditeur vers GitHub/Anthropic, pas par votre code
  • Employés qui ouvrent ChatGPT dans leur navigateur — pas de point d'intégration
  • Blocage temps-réel ou filtrage prompt-injection — nous sommes une couche d'audit passive, pas un garde-fou
  • Détecter si un processus serveur utilise discrètement de l'IA — nos agents serveur ne font pas ça, utilisez DLP/EDR

Où placer le SDK ?

Au même endroit où vous placeriez aujourd'hui une ligne de log à côté de votre appel LLM. Trois placements typiques :

  1. Dans votre couche service, à côté de la logique métier qui appelle le LLM (~80% des cas)
  2. Dans un module ai/openai_client.py ou lib/llm.ts centralisé par où passent tous les appels
  3. En tant que décorateur/middleware (@traced_llm_call) si vous avez beaucoup d'appels parallèles
# Voorbeeld plaatsing in een Python service
def antwoord_op_klant_vraag(vraag: str) -> str:
    with tracer.trace("klantenservice.vraag") as t:        # ← hier
        with t.span("openai.chat",
                    provider="openai",
                    model="gpt-4o") as s:                  # ← hier
            s.prompt = vraag
            resp = openai_client.chat.completions.create(
                model="gpt-4o",
                messages=[{"role": "user", "content": vraag}],
            )
            s.completion = resp.choices[0].message.content
            s.input_tokens  = resp.usage.prompt_tokens
            s.output_tokens = resp.usage.completion_tokens
            return s.completion

Modules d'audit complémentaires

Pour les sources de données IA en dehors de votre propre code LLM. Produits séparés à côté de l'observabilité IA, avec leur propre tarification — même chaîne de signature Ed25519, même vérifieur, même facture Stripe.

Sur la feuille de route — à venir

Ce que nous ne couvrons pas aujourd'hui mais qui est planifié. Pas d'ETA garanti sauf date mentionnée ci-dessous.

Q4 2026

API Compliance ChatGPT Enterprise

Au-dessus de OpenAI Audit : métadonnées des conversations ChatGPT navigateur (nombres + modèles + timestamps, pas le contenu), inventaire des custom GPTs, memory state. Nécessite que le client active l'accès Compliance API auprès d'OpenAI sales (2-4 semaines). €2 extra par siège/mois en plus d'OpenAI Audit.

Q1 2027

Audit Anthropic Console

Équivalent pour Anthropic Console : workspace users, clés API, usage. Tarif TBD. Démarré si au moins 3 clients beta le demandent.

TBD

Google AI Studio / Vertex AI

Pas de promesse. Demande-dépendant ; si des clients enterprise Vertex AI le demandent concrètement, planifié.

Cinq situations concrètes

Quand cela fait la différence.

BANQUE · FSMA

Chatbot service client ne fuit pas d'IBAN

Vous avez un bot GPT-4 pour les questions de solde. La FSMA demande : prouvez que le bot n'a pas mentionné d'IBAN d'autres clients dans une réponse. Sans observabilité : des mois d'audit du code. Avec monsys : un clic sur 'Evidence pack', votre auditeur lance notre script offline, exit 0 → prouvé.

RH · AI ACT ART. 6 (high-risk)

IA de recrutement reconstructible par candidat

Vous utilisez Claude pour présélectionner des CV. Un candidat dépose une plainte. Selon l'AI Act art. 14, vous devez pouvoir reconstruire chaque décision. Filtrez les traces par user_session_hash, cliquez 'déverrouiller le contenu' → TOTP → lisez le prompt et completion exacts. Plainte étayée ou réfutée en 5 min.

OPS · COÛT

Facture OpenAI de €2.000 évitée

Un dev pousse jeudi soir un nouveau prompt RAG qui passe par erreur 50KB de contexte. Sans monsys : on voit ça vendredi sur la facture. Avec monsys : alerte cost-spike (cost_per_minute > €1) à 22h14, push ntfy sur votre téléphone, rollback en 10 min. Dommage : €4 au lieu de €2.000.

QUALITÉ · DRIFT DU MODÈLE

Pic de refus = modèle dégradé

OpenAI déploie une mise à jour modèle ; votre system_msg matche moins bien. Les refus passent de 2% à 18%. Normalement vous l'apprenez 3 jours plus tard via le support. Avec monsys : alerte refusal_rate dans les 15 min, vous ajustez le prompt avant de casser votre SLA.

RGPD · INCIDENT READINESS

Détection PII + preuve de transfert

Un utilisateur colle son RRN dans un prompt. Votre app l'envoie à OpenAI. Sous RGPD vous devez logger le transfert vers les US. Avec monsys : le span a pii_hits_count=1, rédigé en [RRN]. Rapport mensuel : 47 mentions RRN rédigées ; contenu brut pas chez monsys ; OpenAI a bien reçu les données brutes → avenant DPA.

Intégration

Quatre lignes de Python, un POST HTTPS par trace.

Même format d'enveloppe pour Python, Node et Go. Pas de pip install, pas de dépendance npm. Les échecs sont loggés, jamais throws.

Générez un token aiv_… via dashboard → IA → Applications → Nouvelle. Affiché une seule fois. Puis :

Python

from monsys_ai import Tracer
tracer = Tracer()

with tracer.trace("rag.chat") as t:
  with t.span("openai.chat",
              provider="openai",
              model="gpt-4o") as s:
    s.prompt = user_msg
    r = openai.chat.completions.create(...)
    s.completion = r.choices[0].message.content
    s.input_tokens  = r.usage.prompt_tokens
    s.output_tokens = r.usage.completion_tokens

Node / TypeScript

import { Tracer } from "./monsys-ai";
const tracer = new Tracer();

await tracer.trace("rag.chat", async (t) => {
  await t.span("openai.chat",
    { provider: "openai", model: "gpt-4o" },
    async (s) => {
      const r = await openai.chat.completions.create({...});
      s.record({
        prompt: userMsg,
        completion: r.choices[0].message.content!,
        inputTokens:  r.usage!.prompt_tokens,
        outputTokens: r.usage!.completion_tokens,
      });
    });
});

Go

tracer, _ := monsysai.New(monsysai.Options{})

err := tracer.Trace(ctx, "rag.chat", func(t *monsysai.Trace) error {
  return t.Span(ctx, "openai.chat",
    monsysai.SpanOpts{Provider: "openai", Model: "gpt-4o"},
    func(s *monsysai.Span) error {
      s.Prompt = userMsg
      // call your LLM...
      s.Completion = resp
      in, out := inTok, outTok
      s.InputTokens  = &in
      s.OutputTokens = &out
      return nil
    })
})
Tarifs — Observabilité IA

Par application IA, pas par agent.

La surveillance serveurs (€3/agent à partir du 6e) et l'observabilité IA sont des modules distincts. Première app IA gratuite par tenant — comme vos 5 premiers agents restent gratuits.

Free

€0
  • 1 application IA
  • 5.000 traces/mois
  • 30 jours de rétention
  • Rédaction PII incluse
  • Pas d'evidence packs · pas d'alertes

Standard

€3 / app IA / mois
première app gratuite · ensuite €3/app
  • 100k traces/mois/app — fair-use
  • 12 mois de rétention
  • Tous les niveaux de rédaction (dont hash-only)
  • Alertes (coût · refus · PII · z-score)
  • Evidence packs signés illimités
  • Soft overage : €1 par 10k traces supplémentaires

Enterprise

à partir de €499/mois
  • Clé Ed25519 propre par tenant
  • IP allowlisting par app IA
  • Ingest mTLS (cert client)
  • Rétention >12 mois
  • SLA + support dédié
Contacter les ventes
Ce que nous garantissons et ce que NON

Le marketing est facile. Donc nous disons explicitement ce que nous livrons et ce que NON. Vérifiable dans le code source (sdk/), dans le DPA et avec votre auditeur.

Ce que nous tenons

  • Couche passive, jamais autonome — aucun prompt exécuté, rien de bloqué en ligne.
  • Rédaction PII à la source avec validation par checksum — IBAN pour 36 pays SEPA (BE/NL/FR/DE/ES/IT/PT/LU/AT/…), RRN belge, BTW-BE, KBO (mod-97), BSN néerlandais (mod-11), NIR français (mod-97), téléphones E.164 génériques.
  • Evidence packs signés Ed25519, vérifiables hors-ligne sans compte monsys.
  • Traçabilité des clés de signature par tenant pour la rotation.
  • Déverrouillage TOTP single-use avec audit log — réutilisation refusée.
  • Hébergé UE, Belgique, GoTrust BV — pas de transfert hors UE.
  • Webhooks hash-only — contenu brut reste sur le hub.
  • SDK source-visible (~150 LOC par langage) — lisible en 10 minutes.

Ce que nous NE garantissons PAS

  • Nous ne vous rendons pas 'AI Act-compliant' — nous fournissons des preuves pour l'art. 12 (logging). Les obligations provider/deployer restent vôtres.
  • Nous ne remplaçons aucune DPIA — nous sommes un input pour votre impact assessment, pas l'évaluation elle-même.
  • Pas de détection PII 100% sur tout — notre garantie couvre IBAN (les 36 pays SEPA, mod-97), RRN, BTW-BE, KBO, BSN, NIR, téléphone E.164 et email. Steuer-ID allemand, Codice Fiscale italien, NIF espagnol, SSN US et PAN carte sont sur la feuille de route (Q3-Q4 2026) mais pas encore supportés.
  • Pas de 'certification NIS2' — elle n'existe pas pour les fournisseurs. Nous aidons avec l'art. 21 ('mesures techniques appropriées').
  • Pas de blocage temps-réel ni de garde-fou. Pour de l'enforcement temps-réel combinez avec Lakera, Protect AI, etc.
  • Nous ne remplaçons pas votre obligation d'archivage — vous restez responsable. Nous fournissons des packs mensuels exportables et signés pour votre archive.
  • Pas de détection de jailbreak ou prompt-injection — nous signalons les refus du modèle ; la détection misuse n'est PAS dans notre périmètre.
  • Ce qu'OpenAI/Anthropic font de vos données relève de VOTRE contrat avec eux — nous n'avons pas la main là-dessus.
Trois étapes

De zéro à la première trace en ~3 minutes.

01

Générer un token d'ingestion

Dashboard → IA → Apps → Nouveau. Le token n'est affiché qu'une fois (seul le SHA256 est conservé).

02

Déposer le SDK

Python, Node ou Go — ~150 LOC, sans dépendances hors stdlib. Un bloc `with tracer.trace(...)` par requête.

03

Voir les traces + exporter

Arbre de spans en direct avec provider/modèle/coût/PII. Un mois plus tard : un clic → evidence pack signé prêt pour le DPO.

Conformité

Conçu spécifiquement pour ce que demande le régulateur.

Comparaison

monsys.ai n'est pas un clone de Langfuse.

Langfuse est un excellent outil développeur : gestion de prompts, évals, playground. monsys.ai prend l'autre angle : couche d'audit passive avec détection PII BE/UE et evidence packs signés. Lisez la comparaison honnête →

monsys.ai vs Langfuse →