DES PREUVES.PAS DES DÉMOS.
Un index de travail : systèmes d'IA actuels, infrastructures passées, et les quêtes secondaires qui gardent le métier principal honnête. Construits, livrés, ou en production.
Audio / DSP — instruments et salles comme champs acoustiques continus
Chaque instrument virtuel sur le marché — du Fairlight CMI en 1979 au Kontakt 8 d'aujourd'hui — fonctionne sur le même axiome non examiné : enregistrer de l'audio, le stocker, le rejouer. Plus de couches, plus de gigaoctets, même paradigme depuis quarante-cinq ans. Je construis contre cet axiome. Les instruments et les salles ne sont pas des collections d'enregistrements. Ce sont des champs acoustiques continus — des systèmes vivants avec résonance de corps, mémoire de matériau, couplage sympathique et présence spatiale — et c'est cela que je modélise. Le travail se situe à l'intersection du DSP classique, du traitement de signal différentiable, des réseaux de neurones guidés par la physique et des contraintes temps réel strictes. Chaque plugiciel que je livre doit tourner à l'intérieur d'une station audionumérique sans décrochage, dans un tampon de 64 échantillons, sur un portable qui fait aussi tourner Reaper, Ableton et Logic en même temps. Il n'y a pas de marge pour du code bâclé : une instabilité numérique qui apparaît une fois sur dix mille notes finira par apparaître dans le matriçage de quelqu'un. Une dérive dans le budget d'énergie de rétroaction qui s'intègre silencieusement sur une longue traîne de figement finira par faire exploser une séance d'enregistrement. La culture d'ingénierie est plus proche des systèmes embarqués que du logiciel grand public typique. Sous tout cela se trouve une famille de moteurs de réverbération écrits à partir de zéro en C++20 : des réseaux de lignes à retard à rétroaction à seize lignes avec mélange de Hadamard pour le couplage sympathique, rotation de Givens pour l'évolution spatiale lente, saturation ADAA2 pour la non-linéarité analogique sans repliement, budgets d'énergie sommés par Kahan pour maintenir les états de figement numériquement stables sur des traînes arbitrairement longues. Cette famille de moteurs est publique sur GitHub comme implémentation de référence. De là, elle se ramifie dans les plugiciels que les gens utilisent vraiment. Sona — Moteur de synthèse omnidimensionnel. C++20, tout en en-têtes, zéro dépendance. Remplace complètement l'échantillonnage : chaque instrument est un hologénome de 128 octets qui se déploie en un champ polyphonique à 256 voix. Sept dimensions acoustiques (excitation, corps, couplage, vieillissement, salle, micro, mémoire). Un modèle d'espace d'état pour la résonance sympathique entre notes. Un champ acoustique neuronal qui remplace la réverbération statique par image-source par une spatialisation 3D continue. Un bouton de conscience qui met à l'échelle tout le modèle, de l'échantillonneur statique à l'instrument pleinement vivant. Livré comme plugiciel VST3/AU plus application WASM navigateur. Douze instruments intégrés. Inclut un pipeline de capture qui transforme n'importe quel enregistrement WAV en hologénome jouable. Arna — Plugiciel de réverbération intelligente pour macOS, VST3/AU, sous l'empreinte 1snob. Bâti sur un DiffGFDN (réseau de lignes à retard à rétroaction géométrique différentiable) enveloppant le noyau de réverbération Nautilus. Un moteur, trois modes de contrôle. Le mode 1snob gratuit donne un bouton, un atténuateur, un clic — taille, déclin, tonalité, diffusion bougent ensemble le long d'une courbe soigneusement calibrée, produisant des textures façon ruban quand on l'automatise. Le mode Full payant expose neuf boutons pour un contrôle complet des paramètres. Le mode Dev est le laboratoire de calibration interne avec soixante atténuateurs et plus. Chaque compilation passe la porte de vérification complète avant livraison : tests unitaires, ctest, pluginval niveau 10 strict, batterie de torture. Aucune compilation n'est approuvée tant que toutes les portes ne sont pas franchies. Analyzer — Plateforme d'analyse audio unifiée sous la marque 1snob, code fabricant RPTZ. Pas quatre produits vendus en lot. Un cerveau analytique, trente-cinq fenêtres, quatre modes : Diagnostique pour la santé du mixage, Technique pour FFT, sonie, corrélation stéréo/phase, Identité/Perceptuel pour la stabilité tonale et les signatures de timbre, Comportemental/Multicouche pour la chronologie et la corrélation inter-fenêtres. Les trente-cinq fenêtres câblées à de vrais analyseurs. Livré VST3/AU/Autonome. Porte de livraison : pluginval niveau 10 strict. Sailors (en conception) — Un concept qui avance vers un premier prototype. Un FDN à seize lignes accordé près du retour unité, alimenté par une brève rafale d'excitation, produit naturellement des textures riches en évolution façon cordes. Pas de tables d'ondes, pas d'échantillons, résonance pure. Son cible : nappes orchestrales luxuriantes, drones évolutifs, territoire Solina, territoire JP-8000 Supersaw — mais organique, parce que le son vient de la résonance physique, pas des oscillateurs. Une réverbération qui a appris à chanter. BOM — Pipeline de recherche en acoustique musicale computationnelle. Hypothèse centrale : les descripteurs dérivés de la réponse impulsionnelle du corps d'un instrument portent assez d'information pour prédire une structure stable dans les enregistrements du même instrument joué. Le corps est l'instrument, pas les cordes. Le pipeline extrait des caractéristiques des enregistrements d'IR et des performances WAV, fait de la réduction de dimension et du partitionnement, et journalise chaque calcul via un enregistreur d'audit pour que rien ne soit irreproductible. Les résultats rétroalimentent la façon dont Sona et Arna modélisent la résonance de corps.
Agents autopoïétiques — plateformes multi-agents qui se maintiennent elles-mêmes
Autopoïèse est un mot que j'emprunte avec soin. Humberto Maturana l'a forgé pour décrire les systèmes vivants qui produisent continuellement les composants nécessaires au maintien de leur propre organisation. Je ne prétends pas avoir bâti des machines vivantes. Ce que j'ai bâti, c'est une famille de plateformes multi-agents où le travail du système est de maintenir le système en marche — s'observer, détecter la dégradation, redistribuer les ressources, reconstruire les pièces cassées et continuer à tourner malgré tout. Les agents ne sont pas des scripts qui font une chose. Ce sont des organes qui participent à une boucle fermée. La plupart des projets multi-agents que je vois traitent les agents comme des LLM avec des outils — une mince enveloppe autour d'un appel d'API avec quelques gabarits d'invite collés dessus. Ce modèle casse à l'échelle. L'essaim soit s'effondre dans l'incohérence la première fois que deux agents touchent au même état, soit devient si averse au risque que rien n'arrive. La famille de plateformes que je bâtis est structurée différemment. Chacune est une réponse différente à la même question : que faut-il pour bâtir un essaim qui ne s'effondre pas sous son propre poids ? La réponse a plusieurs éléments qui reviennent à travers chaque projet. D'abord, les services ne se parlent pas directement ; chaque message passe par un bus d'événements, parce que les appels HTTP directs entre composants créent le genre de couplage serré qui transforme un échec partiel en échec total. Ensuite, les agents ne sont pas dignes de confiance par défaut — chaque écriture est gardée par des verrous distribués et des jetons de clôture, chaque action produit des artefacts de preuve (diffs git, empreintes de commit, journaux de tests), et aucune affirmation ne compte comme réelle sans artefact. Troisièmement, les systèmes implémentent une séparation à double LLM : un agent lit le contenu externe brut en quarantaine et ne produit que des données structurées assainies, un autre agent détient les privilèges d'écriture mais ne touche jamais à l'entrée brute. Ce motif est la seule défense contre l'injection d'invite qui fonctionne réellement à l'échelle. Quatrièmement, l'état vit en dehors du clavardage : le texte de clavardage n'est jamais la vérité, seuls le système de billets, l'historique git et les journaux CI sont la vérité. Cinquièmement, le système a un système immunitaire — une couche de garde-fous qui filtre la toxicité et valide les charges utiles, un gardien qui balaie les verrous périmés, un moteur de siège qui injecte du chaos contrôlé pour tester l'antifragilité, un disjoncteur qui plafonne la dépense quotidienne avant que l'essaim ne puisse ruiner son propre budget. Dans ce domaine, j'ai bâti des systèmes organisés comme des organismes biologiques — cerveau, muscles, hippocampe, économie, chacun tournant comme son propre service conteneurisé avec des responsabilités spécifiques — coordonnés par Redis Pub/Sub sans appels directs entre organes. J'ai bâti des essaims d'audit forensique organisés en escouades spécialisées où chaque escouade possède une verticale (cœur, assurance qualité, infrastructure, sécurité, documentation, optimisation) et les escouades s'auditent entre elles. J'ai bâti des pipelines d'extraction de connaissances qui parcourent des bases de code et en extraient des motifs réutilisables en utilisant des heuristiques d'inspiration biologique : optimisation par colonies de fourmis pour la sélection de chemin, ordonnancement selon le nombre d'or pour l'allocation des ressources, évaluation par vitalité biologique pour le triage. J'ai bâti des systèmes autopoïétiques de découverte économique conçus pour partir de zéro connaissance et découvrir par eux-mêmes comment générer de la valeur — pas programmés pour être autopoïétiques, conçus pour survivre, avec l'autopoïèse émergeant comme conséquence. J'ai bâti des analyseurs de sécurité méta-cognitifs qui surveillent continuellement un arbre de fichiers avec des modèles locaux, diffusant l'état en direct vers un tableau de bord via WebSocket, avec un testeur de stress intégré qui injecte du chaos de fichiers pendant dix minutes d'affilée pour qu'on puisse regarder le moteur faire face en temps réel. J'ai bâti des piles de recherche entièrement locales sur Apple Silicon qui imposent une séparation stricte des préoccupations à travers la passerelle de modèles, l'entrepôt vectoriel, la couche de recherche et le plan d'observabilité, avec chaque affirmation étiquetée par un agent auditeur comme confirmée, inférée ou hypothétique. J'ai bâti des hubs d'orchestration sur Azure et GCP qui unifient plusieurs assistants de codage et moteurs de flux derrière un unique point d'entrée avec verrouillage distribué, état à concurrence optimiste, flux d'événements et files d'attente partagées. Ils ne résolvent pas tous le même problème. Une topologie d'organisme biologique est la bonne forme pour un système qui doit s'observer indéfiniment. Une topologie d'escouades est la bonne forme pour un système qui doit auditer quelque chose de complexe et produire une sortie lisible. Un pipeline d'extraction de connaissances est la bonne forme quand l'objectif est de récolter des motifs en volume et de les alimenter en aval. Une pile entièrement locale est la bonne forme quand la souveraineté compte plus que l'échelle. La famille est large parce que les problèmes sont larges. Ce que les plateformes partagent, c'est la discipline sous-jacente : chacune est observable de bout en bout, échoue sans danger par construction, et traite son propre budget de ressources comme une contrainte de conception de premier plan.
Imagerie scientifique — pipelines d'abord-la-preuve pour enquêtes sur trous noirs
Les télescopes vous donnent des données. Le logiciel vous donne des images. Entre les deux se trouve un pipeline où chaque décision — quelles trames empiler, quelle courbe d'étirement appliquer, quelle candidate d'éruption signaler, quel espace colorimétrique rendre — soit préserve la piste de preuve, soit la détruit. La plupart des logiciels d'imagerie astronomique traitent la preuve comme jetable, et le résultat est une culture à l'échelle de l'industrie où la provenance d'une image est du folklore plutôt qu'un artefact. AstroRoom traite la preuve comme le produit. C'est là que mon expérience en ingénierie de gestion des coûts et des changements rencontre mon expérience en photographie. J'ai passé des années à auditer des dépenses d'investissement de centaines de millions de dollars ; l'artefact qui comptait à la fin d'un projet n'était pas le chiffrier final, c'était la piste qui permettait à quelqu'un, des années plus tard, de reconstruire exactement ce qui avait été décidé, par qui, sous quelles hypothèses et contre quelles contraintes. Sans cette piste, le chiffre sur le chiffrier était infalsifiable. Avec elle, chaque ligne était auditable de bout en bout. AstroRoom applique la même philosophie à l'imagerie scientifique. Chaque artefact qu'il produit signe sa propre provenance : chaque rendu s'ajoute à un registre d'événements chaîné par hachage, chaque rangée de preuve porte un score de confiance et un indicateur de revendicabilité, chaque exportation peut être rejouée à partir de sa propre recette. Si la sortie du pipeline devient un jour partie d'une revendication scientifique, la revendication peut être vérifiée jusqu'aux trames FITS originales sans un seul trou dans la chaîne. AstroRoom est un espace de travail d'imagerie scientifique d'abord-la-preuve pour les enquêtes sur Sagittarius A* et le Centre Galactique. Backend FastAPI, frontend React 19 + Vite. Le flux de travail est organisé en une coquille à six modes, parcourue de gauche à droite comme une chambre noire, chaque étape produisant des artefacts auditables plutôt que de simplement faire passer des pixels en aval. Library est là où une enquête commence : entrée de session avec état reprenable, galerie d'actifs astronomiques, ensembles de travail pour préparer les trames FITS. On enregistre une cible et la session devient l'unité de provenance pour tout ce qui suit. Develop est le visionneur FITS. Ajustements par trame : courbes d'étirement, écrêtage, sélection de carte de couleurs, nettoyage des rayons cosmiques. Analogue à un révélateur d'image brute en chambre noire — chaque ajustement est réversible, chaque ajustement est journalisé. Build est l'étape de calcul lourd. La construction d'époque agrège les trames en groupes temporellement cohérents. Les méga-expositions en empilement profond combinent plusieurs trames en une seule image à RSB élevé. La génération de vidéo accélérée produit de la vidéo du changement structurel dans le temps. Les constructions 3D volumétriques génèrent de vrais cubes de données volumétriques à partir de séries multi-époques. Les matrices d'échelle de zoom produisent des vues multi-échelles pour une présentation de qualité publication. Analyze a quatre onglets, chacun produisant des sorties auditables plutôt que de simples visualisations. La détection d'éruptions exécute un score d'anomalie statistique contre les époques de référence. Les cartes d'indice spectral calculent des gradients spectraux par pixel. Le tableau de bord d'Excès du Centre Galactique est bâti spécifiquement pour les enquêtes SgrA*. L'extraction de sources identifie et catalogue les sources discrètes contre l'arrière-plan. Evidence est le moteur de preuves calibré v2.95. On inspecte directement les rangées du registre — chaque rangée porte un score de confiance, une étiquette de revendicabilité, et la recette complète nécessaire pour la reproduire. Les chemins d'exportation produisent des artefacts JSON, CSV et de schéma que les outils en aval (ou les collaborateurs, ou les réviseurs, ou vous-même dans le futur) peuvent consommer sans perte. Export est là où le pipeline rencontre le monde. Les rapports PDF cuisent la recette complète dans les métadonnées du document. Les MP4 de vidéos accélérées portent des fichiers complémentaires de provenance. Les matrices d'échelle de zoom s'exportent comme PNG annotés avec barres d'échelle, superpositions de grilles et titres intégrés. C'est le terminus prêt à publier. Deux outils sont disponibles depuis chaque mode. Lit, propulsé par KnowledgeSessions, moissonne des articles d'arXiv et d'ADS, les vectorise, et permet des requêtes sémantiques — les résultats peuvent être liés directement dans les rapports de preuve pour qu'un argument d'article et son appui empirique vivent dans le même document. Agent est une barre de commande en langage naturel qui accepte n'importe quelle langue, normalise vers l'anglais, route vers une action JSON, et exécute la phase de pipeline correspondante. Les travaux récents incluent des chasses d'éruptions sur Sagittarius A*, des études comparatives de quintette de trous noirs à travers SgrA*, M87, NGC 1275, NGC 6240 et Cygnus X-1, des méga-expositions profondes de M31 rendues comme composites en fausses couleurs avec auto-annotation, et des vidéos accélérées à triple produit sur Sagittarius A* qui émettent des MP4 observés, résiduels et de confiance simultanément à partir d'un seul passage. Chaque rendu s'ajoute au registre d'événements chaîné par hachage ; la vérification est un seul appel d'API. Public sur GitHub. Licence PolyForm Non-commerciale 1.0.0.