Voici mon infrastructure personnelle — déployée, opérationnelle, auto-monitorée.
Pas une démo. Pas un POC. Du code en production depuis des mois.
Chaque ligne ci-dessous tourne en production 24h/24.
L'assistant IA (Claude Code + Claude Desktop) est le point d'entrée unique de toute l'infrastructure. Via des tunnels SSH chiffrés et des outils MCP (Model Context Protocol), il peut lire des emails, automatiser des navigateurs, exécuter du code sur des serveurs distants — le tout sans jamais exposer de credential. Résultat : zéro accès non authentifié, traçabilité complète.
Un routeur LLM propriétaire distribue les requêtes vers 6 fournisseurs d'IA en cascade : si l'un est indisponible ou épuisé, le suivant prend le relais automatiquement. Les workflows N8n orchestrent la génération de contenu, la gestion des alertes et les automatisations métier. Résultat : 0€/mois de coût LLM en utilisation normale (quotas gratuits), 0 interruption de service.
Chaque email passe par 3 filtres successifs avant d'atteindre sa destination : antivirus ClamAV, scoring SpamAssassin et règle de rejet personnalisée. Le monitoring fonctionne 24h/24 en Python autonome, sans consommer un seul token IA. Résultat : 20 domaines gérés, 0 spam transmis, rapports quotidiens automatiques.
La règle 3-2-1 est appliquée automatiquement : 3 copies, sur 2 supports distincts, dont 1 hors datacenter. Un heartbeat HTTP valide chaque sauvegarde — silence = alerte immédiate. Résultat : RTO estimé < 2h en cas de crash total du datacenter OVH.
Vue synthétique de l'ensemble : l'IA orchestre l'infrastructure (serveurs, mail, workflows, backups) pendant que le monitoring fonctionne de façon totalement autonome. 3 couches bien séparées : Interaction, Infrastructure privée LAN, Services Cloud. Résultat : une architecture production auto-gérée, documentée, et évolutive.
Infrastructure IA, automatisation, sécurité, monitoring autonome — je déploie pour vous ce que je fais pour moi.
Discutons de votre projet