Anthropic a montré la carte. monsys.ai est le magasin.
Anthropic a publié cette semaine comment leur propre équipe Detection utilise Claude pour le triage d'alertes et l'investigation. Les chiffres sont frappants — et confirment ce que nous construisons depuis le jour un.
Ce qu'Anthropic a publié
L'équipe de Jackie Bow a construit CLUE — Claude Looks Up Evidence — sur Claude Code, avec intégration vers Slack, leur datawarehouse et les logs internes. Ce qu'ils ont rapporté sur 30 jours de travail :
- Taux de faux positifs sur le triage d'alertes passé d'environ 33% à 7%.
- 12 000 requêtes automatisées et 27 000 appels d'outils exécutés.
- Environ 1 870 heures économisées — soit 234 personne-jours.
- Temps moyen d'investigation ramené à 3-4 minutes, alors qu'auparavant c'étaient des heures ou des jours.
Source : Anthropic blog, mai 2026. How Anthropic uses Claude for cybersecurity ↗
Ce que cela signifie pour une PME UE
Anthropic a une équipe Detection Engineering de professionnels capables de construire cela en interne. C'est l'exception. Une PME belge moyenne avec 5-50 serveurs a un seul responsable IT, ou un MSP qui facture à l'heure. Pour eux, 'construisez votre propre CLUE' n'est pas une option.
Ce qui leur est disponible : une plateforme SOC prête à produire avec le même workflow, hébergée en UE, avec une sortie acceptée par un auditeur. C'est pour cela que nous existons.
Ce que nous livrons
Notre stack livre les mêmes trois ingrédients que CLUE — enrichissement d'alertes, investigation de logs en langage naturel, et autonomie au-dessus de la rigidité des playbooks — plus trois choses que leur outil interne n'a pas à couvrir :
- Résidence UE : toute l'infra en UE, GoTrust BV comme entité juridique. Pas d'export US des données clients.
- Evidence audit-grade : chaque période ou incident produit un tarball signé Ed25519 que votre auditeur vérifie hors-ligne avec un script Python open-source.
- Compliance-engine : mapping automatique vers ISO27001, NIS2, BE-CyFun et CIS — pas de feuilles Excel manuelles.
Ce que nous NE faisons PAS
Nous ne copions pas le modèle d'autonomie d'Anthropic 1-pour-1. Notre évaluation d'alertes reste basée sur des règles (seuil + z-score, pas de jugement LLM sur le chemin chaud). Notre AI Explain tourne en local sur l'host via Ollama, opt-in. Raison : un auditeur n'accepte pas 'le LLM a trouvé ça suspect' — il accepte une règle reproductible et une preuve signée. Chez nous, l'IA est une couche par-dessus le cœur déterministe, pas à la place.
Vous voulez ce workflow dans votre propre environnement ? Cinq agents gratuits, puis 3€ par mois. Pas de carte de crédit. Hébergé en UE.
Tous les chiffres et citations proviennent du propre billet de blog d'Anthropic, lié ci-dessus. monsys.ai n'est pas un partenaire d'Anthropic et n'y est pas affilié — nous utilisons des informations publiques pour éclairer notre positionnement.