AI OBSERVABILITY · AUDIT-GRADE · EU-HOSTED

Bewijs dat je AI zich gedroeg — niet alleen dat hij snel was.

Een passieve, audit-grade observability-laag voor je AI-applicaties. PII wordt aan de bron geredacteerd (IBAN-BE, Rijksregister, BTW), kosten en tokens per request worden bijgehouden, en je kan voor elke periode een getekend evidence pack downloaden — exact wat AI Act artikel 12 en NIS2 vragen.

# Python — drop-in tracer
from monsys_ai import Tracer
tracer = Tracer()
with tracer.trace("rag.chat") as t:
  with t.span("openai.chat", provider="openai", model="gpt-4o") as s:
    s.prompt = user_msg
    resp = openai.chat.completions.create(...)
    s.completion = resp.choices[0].message.content
# → 1 HTTP POST · PII redacted op de hub · trace ID 0e22…
✓ ingested · 1 span · 19 tokens · 0.00006 €
Drie harde invariants

Geen AI die andere AI bestuurt. Nooit blokkerend. Altijd auditbaar.

Passief, nooit autonoom

monsys.ai voert geen prompts uit, sluit geen acties af, blokkeert nooit inline. Het is een observability-laag — bewijsmateriaal achteraf, geen control plane.

PII geredacteerd aan de bron

Belgische IBAN, Rijksregister, BTW, KBO, e-mails en telefoonnummers worden vóór opslag herkend met checksum-validatie en vervangen door een hash-token. Raw inhoud bereikt nooit de hub.

Evidence packs met Ed25519

Eén klik per periode → gzipped tarball met manifest + signature. Een standalone Python-script verifieert offline, zonder monsys-account. Bedoeld voor auditors en toezichthouders.

Voor wie dit is — en voor wie niet

monsys.ai AI observability is voor jouw code. Niet voor wat je devs in hun IDE doen.

Veelgemaakte verwarring: 'gebruikt dit Copilot of ChatGPT van onze medewerkers?' Nee. Wij zien alleen wat jouw applicatie naar OpenAI/Anthropic/Mistral stuurt — als jij onze SDK in je code plaatst.

Voor jou ALS

  • Je eigen backend roept OpenAI / Claude / Mistral / Azure OpenAI aan
  • Je bouwt een RAG-systeem, chatbot, samenvatter, ticket-triage of CV-screening
  • Je SaaS-product heeft "AI features" (suggested replies, AI-zoek, generatie)
  • Je hebt een interne tool die LLMs gebruikt voor klantenservice of operationele beslissingen
  • Je staat onder AI Act art. 6 (high-risk) of NIS2 art. 21 — je moet aantonen wat je AI deed

NIET voor

  • Developers die in Copilot/Cursor/Continue coden — die calls gaan rechtstreeks van editor naar GitHub/Anthropic, niet door jouw code
  • Medewerkers die ChatGPT openen in hun browser — daar is geen integratie-punt
  • Realtime blokkering of prompt-injection filtering — wij zijn passieve audit-laag, geen guardrail
  • Detectie of een proces op een server stiekem AI gebruikt — onze server-agents doen dat niet, gebruik DLP/EDR daarvoor

Waar plaats je de SDK?

Dezelfde plek waar je vandaag een log-regel zou zetten naast je LLM-call. Drie typische plaatsingen:

  1. In je service-laag, naast de business-logica die de LLM aanroept (~80% van de gevallen)
  2. In een gecentraliseerd ai/openai_client.py of lib/llm.ts module waar alle calls langs gaan
  3. Als decorator/middleware (@traced_llm_call) als je veel parallel calls hebt
# Voorbeeld plaatsing in een Python service
def antwoord_op_klant_vraag(vraag: str) -> str:
    with tracer.trace("klantenservice.vraag") as t:        # ← hier
        with t.span("openai.chat",
                    provider="openai",
                    model="gpt-4o") as s:                  # ← hier
            s.prompt = vraag
            resp = openai_client.chat.completions.create(
                model="gpt-4o",
                messages=[{"role": "user", "content": vraag}],
            )
            s.completion = resp.choices[0].message.content
            s.input_tokens  = resp.usage.prompt_tokens
            s.output_tokens = resp.usage.completion_tokens
            return s.completion

Aanvullende audit-modules

Voor AI-data-bronnen buiten je eigen LLM-code. Aparte producten naast AI observability, met eigen pricing — maar dezelfde Ed25519-signing chain, dezelfde verifier en dezelfde Stripe-factuur.

Op de roadmap — komt nog

Wat we vandaag NIET dekken maar wel concreet gepland staat. Geen ETA-toezegging tenzij hieronder een datum staat.

Q4 2026

ChatGPT Enterprise Compliance API

Bovenop OpenAI Audit: ChatGPT browser-conversaties metadata (aantallen + modellen + timestamps, niet inhoud), custom GPT inventaris, memory state. Vereist dat de klant Compliance API access activeert bij OpenAI sales (2-4 weken lead time). €2 extra per seat/maand bovenop OpenAI Audit.

Q1 2027

Anthropic Console audit

Equivalent voor Anthropic Console: workspace users, API keys, usage. Pricing TBD. Komt als er minimaal 3 beta-klanten erom vragen.

TBD

Google AI Studio / Vertex AI

Geen toezegging. Vraag-gestuurd; als enterprise-klanten met Vertex AI deployments het concreet nodig hebben, op de planning.

Vijf praktijksituaties

Wanneer dit het verschil maakt.

BANK · FSMA

Klantenservice-chatbot lekt geen IBAN's

Je hebt een GPT-4 bot voor rekeningstand-vragen. FSMA komt vragen: bewijs dat de bot geen IBAN-nummers van andere klanten heeft genoemd in een antwoord. Zonder observability: maanden code-audit. Met monsys: één klik op 'Evidence pack', je auditeur draait ons script offline, exit 0 → aangetoond.

HR · AI ACT ART. 6 (high-risk)

Recruitment-AI per kandidaat reconstrueerbaar

Je gebruikt Claude om CV's voor te selecteren. Een kandidaat dient klacht in. Volgens AI Act art. 14 moet je elke beslissing kunnen reconstrueren. Filter traces op user_session_hash, klik 'unlock content' → TOTP → lees de exacte prompt + completion. Klacht binnen 5 min onderbouwd of weerlegd.

OPS · COST

€2.000 OpenAI-bill voorkomen

Een dev pusht donderdag avond een nieuwe RAG-prompt die per ongeluk 50KB context meegeeft. Zonder monsys: pas vrijdag op de factuur. Met monsys: cost-spike alert (cost_per_minute > €1) vuurt om 22:14, ntfy push op je telefoon, dev rolled back binnen 10 min. Schade: €4 i.p.v. €2.000.

QUALITY · MODEL DRIFT

Refusal-spike = degraded model

OpenAI rolt een model-update uit; je system_msg matched ineens minder goed. Refusals gaan van 2% → 18%. Normaal hoor je dit 3 dagen later van klanten via support. Met monsys: refusal_rate alert vuurt binnen 15 min, je past je prompt aan voordat je SLA breekt.

GDPR · INCIDENT READINESS

PII-detectie + transfer-bewijs

Eindgebruiker plakt zijn Rijksregisternummer in een prompt. Jouw app stuurt het naar OpenAI. Onder GDPR moet je een data-transfer naar de US loggen. Met monsys: span heeft pii_hits_count=1, geredacteerd als [RRN]. Maandrapport: 47 RRN-vermeldingen geredacteerd; raw content niet bij monsys; OpenAI heeft de raw data wel ontvangen → DPA addendum.

Integratie

Vier regels Python, één HTTPS POST per trace.

Dezelfde envelope-format voor Python, Node en Go. Geen pip install, geen npm dependency (Node 18+ heeft built-in fetch). Failures loggen, throwen nooit.

Mint een aiv_… token via dashboard → AI → Apps → Nieuwe applicatie. Eén-keer-getoond. Daarna:

Python

from monsys_ai import Tracer
tracer = Tracer()

with tracer.trace("rag.chat") as t:
  with t.span("openai.chat",
              provider="openai",
              model="gpt-4o") as s:
    s.prompt = user_msg
    r = openai.chat.completions.create(...)
    s.completion = r.choices[0].message.content
    s.input_tokens  = r.usage.prompt_tokens
    s.output_tokens = r.usage.completion_tokens

Node / TypeScript

import { Tracer } from "./monsys-ai";
const tracer = new Tracer();

await tracer.trace("rag.chat", async (t) => {
  await t.span("openai.chat",
    { provider: "openai", model: "gpt-4o" },
    async (s) => {
      const r = await openai.chat.completions.create({...});
      s.record({
        prompt: userMsg,
        completion: r.choices[0].message.content!,
        inputTokens:  r.usage!.prompt_tokens,
        outputTokens: r.usage!.completion_tokens,
      });
    });
});

Go

tracer, _ := monsysai.New(monsysai.Options{})

err := tracer.Trace(ctx, "rag.chat", func(t *monsysai.Trace) error {
  return t.Span(ctx, "openai.chat",
    monsysai.SpanOpts{Provider: "openai", Model: "gpt-4o"},
    func(s *monsysai.Span) error {
      s.Prompt = userMsg
      // call your LLM...
      s.Completion = resp
      in, out := inTok, outTok
      s.InputTokens  = &in
      s.OutputTokens = &out
      return nil
    })
})
Pricing — AI observability

Per AI-applicatie, niet per agent.

Server-monitoring (€3/agent vanaf #6) en AI observability zijn aparte modules. Eerste AI-app gratis per tenant — net zoals je eerste 5 agents gratis blijven.

Free

€0
  • 1 AI-app
  • 5.000 traces/maand
  • 30 dagen retentie
  • PII-redactie inbegrepen
  • Geen evidence packs · geen alerts

Standaard

€3 / AI-app / maand
eerste app gratis · daarna €3/app
  • 100k traces/maand/app — fair-use
  • 12 maanden retentie
  • Alle redaction levels (incl. hash-only)
  • Alerts (cost · refusal · PII · z-score)
  • Onbeperkte signed evidence packs
  • Soft overage: €1 per extra 10k traces

Enterprise

vanaf €499/maand
  • Eigen tenant-Ed25519 signing key
  • IP allowlisting per AI-app
  • mTLS-ingest (klant-cert)
  • Retentie >12 maanden
  • SLA + dedicated support
Contact sales
Wat we WEL en NIET beloven

Marketing is makkelijk. Daarom benoemen we expliciet wat we wél leveren en wat NIET. Te checken in de broncode (sdk/), in de DPA, en met je auditor.

Wat we waarmaken

  • Passieve laag, nooit autonoom — geen prompts uitgevoerd, niets ge-blokkeerd inline.
  • PII-redactie aan de bron met checksum-validatie — IBAN voor 36 SEPA-landen (BE/NL/FR/DE/ES/IT/PT/LU/AT/…), Rijksregister, BTW-BE, KBO (mod-97), NL BSN (mod-11), FR NIR (mod-97), generieke E.164 telefoon.
  • Ed25519-getekende evidence packs, offline verifieerbaar zonder monsys-account.
  • Per-tenant signing key recordkeeping voor key-rotatie traceerbaarheid.
  • TOTP-gated, single-use unlock met audit log — herbruik geweigerd.
  • EU-hosted, België, GoTrust BV — geen data-transfer buiten de EU.
  • Hash-only webhooks — raw content blijft op de hub.
  • Source-zichtbare SDK (~150 LOC per taal) — leesbaar in 10 minuten.

Wat we NIET beloven

  • Wij maken jou niet 'AI Act-compliant' — wij leveren bewijs voor art. 12 (logging). De provider/deployer-verplichtingen blijven bij jou.
  • Wij vervangen geen DPIA — wij zijn één input voor je impact assessment, niet de assessment zelf.
  • Geen 100% PII-detectie op alles — onze garantie geldt voor IBAN (alle 36 SEPA-landen, mod-97), Rijksregister, BTW-BE, KBO, NL BSN, FR NIR, E.164 telefoon en e-mail. DE Steuer-ID, IT Codice Fiscale, ES NIF, US-SSN en kredietkaart-PAN zijn op de roadmap (Q3-Q4 2026) maar nu nog niet ondersteund.
  • Geen 'NIS2-certificering' — die bestaat niet voor leveranciers. Wij helpen wel met art. 21 ('appropriate technical measures').
  • Geen realtime blokkering of guardrail-laag. Voor inline policy enforcement combineer ons met Lakera, Protect AI of vergelijkbaar.
  • Wij vervangen jouw archiveringsplicht niet — jij blijft verantwoordelijk voor langetermijn-bewaring. Wij leveren maandelijks exporteerbare, getekende packs voor jouw archief.
  • Wij detecteren geen jailbreaks of prompt-injection — we signaleren refusals als de modelprovider weigert; misuse-patroon-detectie staat NIET in onze scope.
  • Wat OpenAI/Anthropic met jouw data doet, valt onder JOUW contract met hen — daar hebben wij geen invloed op.
Drie stappen

Van zero tot eerste trace in ~3 minuten.

01

Mint een ingest token

Dashboard → AI → Apps → New app. Token wordt één keer getoond (alleen SHA256 bewaard).

02

Drop de SDK

Python, Node of Go — ~150 LOC, géén dependencies behalve de stdlib. Eén `with tracer.trace(...)` block per request.

03

Bekijk traces + exporteer

Live span-boom met provider/model/kosten/PII-hits. Maand later: één klik → getekend evidence pack klaar voor de DPA.

Compliance

Specifiek gebouwd voor wat de regelgever vraagt.

Vergelijking

monsys.ai is geen Langfuse-kloon.

Langfuse is een uitstekend developer-tool: prompt management, evals, playground. monsys.ai pakt het andere stuk: passieve audit-laag met BE/EU-specifieke PII-detectie en getekende evidence. Lees de eerlijke vergelijking →

monsys.ai vs Langfuse →