MONITORING + SÉCURITÉ SUPPLY-CHAIN · HÉBERGÉ UE

Un seul agent trouve la CVE critique que vous ignoriez
tourner en production .

Monsys surveille vos serveurs Linux et Windows, scanne chaque dépendance npm/pip/composer/go contre OSV.dev, prend l'empreinte de chaque binaire en cours d'exécution et pose des honeypots qui s'allument dès qu'on les touche. Sur un environnement type, nous remontons en 90 secondes des centaines de matches CVE — dont plusieurs CRITICAL que l'opérateur ignorait avoir en production. Délai entre détection et correctif : quelques minutes, pas des semaines.

Installer en 30 secondes →Voir le tableau de bord$ curl -fsSL get.monsys.ai/install.sh | sudo bash ⌘C
app.monsys.ai/overview
UPTIME 30D
99.98%
SERVERS
42
OPEN
3
ANOMALIES
7
CLUSTER LOAD · 60M
ANTHROPIC, MAI 2026L'équipe Detection d'Anthropic a fait passer les faux positifs de 33% à 7% et économisé 1 870 heures en un mois avec Claude. Ce qu'ils ont construit en interne, nous le livrons comme produit.
Voir la preuve
Pourquoi monsys.ai

Le monitoring attend une alerte. Nous trouvons le problème avant que cette alerte n'ait à se déclencher.

Trois différences qui atterrissent directement dans le rapport d'audit de votre client.

01 / Supply-chain

Nous scannons ce qui tourne vraiment

Lockfiles npm, pip, composer, go et gem par projet contre OSV.dev. Images conteneurs via Trivy côté hub — aucun logiciel supplémentaire sur l'hôte client. Process DNA détecte quand un binaire est remplacé silencieusement.

osv.dev + trivy + process DNA
02 / Silencieux

Des règles vraiment utilisables

Seuils avec durée ('CPU >85% pendant 1h'), règles par conteneur, fenêtres de maintenance pour les upgrades. Honeypots (faux clés AWS, GPG, Kube config, jetons GitLab runner) déclenchent un Critical immédiat. Pas de spam.

alert builder + maintenance
03 / UE

Vos données restent en UE

Hub hébergé en Belgique par GoTrust BV. Détection sur l'hôte — seuls les signaux agrégés remontent, jamais de logs bruts. Auto-hébergement possible : une seule stack Docker, agent Rust de 5 Mo.

EU only · self-host
Une seule commande

Connectez un serveur en 30 secondes — il restera sur la carte pour toujours.

Générez un jeton dans la hub, collez la commande, et l'agent s'enregistre. Pas de ports à ouvrir, pas de YAML.

Essayer gratuitement →
# Linux x86_64 · Linux ARM64 · Windows x64
$ curl -fsSL get.monsys.ai/install.sh \
    | sudo MONSYS_TOKEN=<your-token> bash
# Windows (PowerShell admin):
PS> iwr -useb get.monsys.ai/install.ps1 | iex
# 5 MB statically-linked Rust binary, runs as systemd / Windows service.
✓ agent registered · web-edge-01 · 4s ago
Core

Ce que fait l'agent sur chaque hôte.

Un binaire Rust, quatre catégories de signaux. Tout traité localement ; seuls les agrégats remontent vers la hub.

01

Télémétrie temps-réel

CPU, RAM, disque, réseau, load — toutes les 15s vers TimescaleDB. 90 jours de rétention par défaut. Sparklines de trafic par NIC, croissance par disque + projection 'days until full'.

02

Inventaire approfondi

Paquets + services + conteneurs + ports ouverts + users locaux + règles sudo + clés SSH (fingerprint seul) + password policy depuis /etc/shadow + arbre lsblk + matériel DMI + NICs + findings filesystem (SUID/SGID/world-writable/orphaned).

03

Détection honeypot

10+ canaries avec credentials réalistes : AWS, SSH, Kube, Docker auth, GitLab runner, Postgres pgpass, GPG private key, Grafana token, WordPress config. Une lecture = Critical immédiat via inotify.

04

Process DNA

Fingerprint SHA256 du binaire de chaque top-process. Baseline TOFU à la première observation ; déviation = Critical. Rebaseline manifest-aware : les auto-updates légitimes ne déclenchent pas de faux-positifs.

05

Agent durci · n'importe quel Linux

Un binaire Rust de 5 Mo lié statiquement (musl libc, aucune dépendance glibc → tourne sur RHEL/Alma/Rocky 8+9, Fedora, Debian 11+12, Ubuntu 18.04+ à 24.04, Alpine 3.10+, SUSE/SLES, Oracle Linux, Amazon Linux). systemd-service ou StartServiceCtrlDispatcher (Windows). Sudoers scopé strictement emergency + self-update. Signature payload Ed25519 avec pinning TOFU côté hub.

06

Multi-tenant via RLS + audit

Postgres Row Level Security par tenant, tenant_id WHERE explicite sur toutes les queries (défense en profondeur). Rôles Owner / Admin / Operator / Viewer. Chaque écriture en audit_log avec user/IP/payload (secrets scrubbés).

Sécurité supply-chain

Une page, trois types de vulnérabilités, zéro logiciel supplémentaire sur l'hôte client.

Paquets OS, images conteneurs et dépendances applicatives — tous automatiquement scannés, liés à vos serveurs, avec version corrective et risk score.

Paquets OS → NVD + EPSS

apt, rpm, winget et wmic lus par l'agent. La hub matche contre NVD + EPSS (probabilité d'exploit) et attribue un risk score. Les processus exposés à Internet reçoivent 1.5× supplémentaire.

10k+ packages

Images conteneurs → Trivy

Les agents remontent les noms d'images. La hub fait tourner Trivy côté serveur contre chaque image unique. Aucun Trivy sur l'hôte client, pas de root requis — la sortie `docker ps` suffit.

9 langages / package managers

Dépendances app → OSV.dev

package-lock.json, yarn.lock, requirements.txt, composer.lock, Gemfile.lock et go.sum parsés. La hub interroge OSV.dev (gratuit, UE-friendly) en batch par (package, version). 14 CRITICAL et 1.984 autres CVE trouvés dans notre flotte de test.

1.998 matches en direct

Nous n'envoyons PAS le contenu des lockfiles à notre backend. Uniquement les tuples (package, version) parsés — même info que `npm ls` à quiconque a un shell.

Détection à correction en minutes

Des centaines de findings en 90 secondes. CRITICAL patchés en moins d'une heure.

Sur un environnement récemment monitoré (MSP belge, ~10 hôtes prod avec services Node.js + Go), le pipeline a démarré à 16:47. En 90 secondes, OSV.dev avait remonté 1.998 matches — dont 14 CRITICAL inconnues. Toutes patchées avant 17:00.

CRITICAL

Premier batch retour

T+45s

Batch-query OSV.dev → 1.000 tuples (package, version) par requête, sévérité normalisée par la hub

CRITICAL

1.998 matches mappés

T+5min

10.854 dépendances sur 4 écosystèmes (npm / Go / Packagist / PyPI) — liés au project-path + risk_score

CRITICAL

Les 14 CRITICAL patchés

T+13min

L'opérateur voyait la fix-version à côté de chaque CVE ; un `go get` + redeploy. L'auto-update propage la suite.

Pas de rapport de six semaines en retard. Pas de "on s'y met au sprint prochain". La fix-version est à côté de la CVE, le playbook tourne en un clic.

Plateforme

L'ensemble de la plateforme. Pas de roadmap, c'est livré.

Douze briques que nous avons déjà construites. Chacune de ces fonctionnalités peut être activée aujourd'hui sur votre tenant.

01

Alert builder + maintenance

Seuils avec durée (CPU>85% pendant 1h), règles par conteneur, agrégats fleet (≥3 agents prod offline). Fenêtres de maintenance qui taisent TOUTES les alertes pendant les upgrades. 8 templates de démarrage rapide.

02

Planification capacité

Par serveur : régression linéaire sur 14 jours CPU/mem/réseau + croissance par disque. Projection 'days until ceiling' avec date. Pas de prétention ML, juste régression honnête.

03

Insights — détection d'anomalies

Z-score sur les 15 dernières min vs baseline 7 jours par agent par métrique. |z| > 2.5 = anomalie. Statistique classique, pas de black-box — l'opérateur voit immédiatement ce qui sort du lot.

04

Audit log + rôle viewer

Chaque POST/PUT/PATCH/DELETE avec user/IP/method/path/resource. Rôle 'viewer' bloque les écritures (lecture seule). Filtre clé : /audit?resource_type=playbook scoped par tenant.

05

Playbook execute

Specs JSON d'actions, validées par admin, déclenchées par opérateur depuis une alerte. Hub signe un token Ed25519 → agent vérifie + exécute. Chaque run loggé dans /audit avec le nonce.

06

Process DNA + auto-rebaseline

Hash SHA256 de /proc/<pid>/exe sur chaque top-process. Déviation = Critical — sauf si le nouveau hash matche notre manifest d'auto-update. Faux-positifs sur deploys exclus.

07

Honeypots (10+ variantes)

Faux clés AWS, SSH, Kube config, Docker auth, GitLab runner token, Postgres pgpass, clé privée GPG, token Grafana, config WordPress. Une lecture = Critical immédiat.

08

Auto-update (opt-in)

Agent + hub reçoivent chacun un release-manifest. Côté hub : poll 6h, curl-download, vérif sha256, installeur sudo, swap atomique, restart systemd. Process DNA manifest-aware accepte le nouveau hash auto.

09

Branding par tenant

Logo, couleur d'accent, nom — écrits dans /settings → Branding, vos clients voient leur logo dans la topbar. Backend valide https-only pour les logo URLs (pas de XSS javascript:).

10

Console d'urgence · Linux & Windows

Terminal navigateur via WebSocket — sans port SSH ni RDP. Sous Linux : `bash --restricted` sous l'utilisateur low-priv `monsys-console`, sans sudoers. Sous Windows : PowerShell via ConPTY dans un endpoint JEA avec ~60 cmdlets IR whitelistés (pas d'Invoke-Expression, pas de Remove-Item, pas d'élévation de privilèges). Hard-limit 15 min, TOTP + raison ≥20 caractères requis. Chaque frappe journalisée de manière inaltérable avec scellé SHA256.

11

Topologie + diagrammes

Graphe auto-détecté (nodes + edges + zones). Générateur → PNG/SVG/PDF avec 4 algos de layout, export Mermaid. Overlay alertes : rouge=critical, jaune=warn sur chaque node.

12

AI Explain (local)

Un clic sur alerte/log — llama3.1:8b local explique. Réponses NL/FR/EN, première réponse <4s CPU. Pas de fournisseur IA externe, donc pas de questions GDPR.

Cloud Asset Discovery

Trouvez chaque serveur. Même ceux sans agent.

Connectez votre compte AWS, Azure, GCP, Hetzner, Proxmox, DigitalOcean, Scaleway, OVH ou IONOS. monsys.ai découvre toutes les ressources toutes les 4 heures, les apparie à vos agents existants et signale ce qui n'est pas surveillé.

Amazon Web Services

EC2 · RDS · S3 · VPC · ELB · IAM

Microsoft Azure

VMs · SQL · Storage · NSGs · VNets

Google Cloud

GCE · Cloud SQL · GCS · Firewalls

Hetzner Cloud

Servers · Networks · Firewalls · Volumes

Proxmox VE

Self-hosted: VMs · LXC · Storage · Nodes

DigitalOcean

Droplets · Volumes · LBs · Managed DBs

Scaleway

Instances · SGs · Volumes · RDB

OVH Public Cloud

Instances · Networks · Failover IPs

IONOS Cloud

Datacenters · Servers · Volumes · LANs

CONTRÔLES AGENTLESS

Conformité CIS instantanée — sans rien installer.

  • Buckets S3 / GCS / Storage Account publics ou non chiffrés
  • RDS / Cloud SQL / Azure SQL avec IP publique ou sans sauvegardes
  • Security groups & règles NSG ouvrant SSH/RDP vers 0.0.0.0/0
  • VMs sans agent Monsys — instructions d'installation auto (curl / SSM / Ansible)
  • Estimation des coûts mensuels par ressource, intégrée à votre diagramme de topologie
# /cloud/summary — overview per account
{
  "name": "Acme AWS Production",
  "provider": "aws",
  "total_resources": 187,
  "running_resources": 142,
  "missing_agent": 23,
  "public_resources": 8,
  "critical_findings": 4,
  "total_monthly_cost": 2841.20
}
# 9 fournisseurs · credentials AES-256-GCM · isolation par tenant
En quoi nous différons

Comparaison avec les alternatives populaires.

Compromis honnêtes — pas de marketing brillant. Pour chaque outil, nous montrons quand monsys est le meilleur choix et quand l'inverse est vrai.

AI Explain

Cliquez « Expliquer ceci » à côté d'un log ou d'une alerte.

Un llama3.1:8b local explique ce que signifie le log et si une action est nécessaire. Pas de fournisseur d'IA externe — vos données restent sur notre backend.

  • Un clic sur chaque alerte du dashboard
  • Réponses en NL / FR / EN
  • Ollama tourne dans la même stack Docker
  • Première réponse typiquement < 4s en CPU
# nginx upstream timeout — agent log line
WARN nginx: upstream timed out (110)
# click "Verklaar dit" → llama3.1:8b →
"De agent meldt dat een TCP-verbinding op poort 443
timed out is — typische upstream-traagheid. Niet acuut
gevaarlijk; we zien dit elke nacht 1–2× tijdens batch-
verwerking. Geen actie nodig tenzij p99 > 1s."
Comment ça marche

Trois étapes. Premières métriques en 30 secondes.

Pas de jungle YAML, pas de templates par OS — une seule commande par hôte.

ÉTAPE 01

Créez un compte

Entrez email + mot de passe. Pas de carte bancaire. Vous obtenez immédiatement un tenant et un login dashboard.

# account aangemaakt
✓ tenant: jouw-bedrijf
ÉTAPE 02

Installez l'agent

Dans Settings → Agents tapez un hostname. Nous générons un token et vous donnons une commande one-liner. Sur le serveur cible : une commande curl en root.

$ curl -fsSL get.monsys.ai/install.sh \
  | sudo MONSYS_TOKEN=$T bash
✓ web-edge-01 connected
ÉTAPE 03

Voyez les données live

En 30s vous voyez CPU/RAM/disque/réseau de l'hôte dans l'écran Overview. Les alertes se déclenchent dès le premier dépassement de seuil.

# telemetrie binnen 30s
cpu 4.2% mem 1.6 GB
load 0.2 uptime 3d
Tarifs

5 premiers serveurs gratuits. Pour toujours.

Surveiller cinq serveurs coûte zéro euro. À vie. À partir du sixième serveur : €3 par serveur par mois — via Stripe ou PayPal, résiliable au mois.

Free

5 serveurs gratuits · à vie · sans carte
€0/mois · 5 serveurs gratuits
  • 5 serveurs, métriques 15s
  • 7 jours de rétention
  • Alertes e-mail + ntfy
  • Support communautaire
Commencer gratuitement

Enterprise

Pour charges réglementées
sur demande
  • Self-host ou UE dédié
  • Rétention sur mesure · export audit log
  • Remise volume > 100 serveurs
  • Security review & SLA
Contacter sales
AGENT RUST
5 MB
musl-static · n'importe quel Linux ≥ kernel 2.6 · windows x64
DÉTECTION
sur l'hôte
agrégats uniquement en amont
MODÈLE IA
llama3.1:8b
local via Ollama
HÉBERGEMENT
UE uniquement
ou self-host (Docker)