accessibility.skipToMainContent

Dweve Loom Fiche Système

Spécification technique pour Dweve Loom : Un système mixture-of-experts épars avec 456 modules d'experts de production (528 au total avec 72 en formation), construit principalement sur des réseaux de contraintes binaires avec un petit validateur de cohérence neuronale. Transparence complète sur les capacités, l'architecture, les limitations et la sécurité.

Système Aperçu

Loom est un système mixture-of-experts épars construit sur la satisfaction de contraintes binaires plutôt que sur les réseaux neuronaux traditionnels. Chaque inférence est déterministe, traçable et offre un gain d'efficacité énergétique de 25× par rapport aux implémentations en virgule flottante.

456
Modules d'experts (Production)
+72 en formation (528 au total prévu)
4-8
Experts actifs par requête
Requêtes typiques (jusqu'à 20 pour les requêtes complexes)
1024
Largeur de flux de bits stochastique
Précision de 0,1% (≈10 bits)
100%
Déterministe
Reproductibilité garantie

Développement actif : 72 nouveaux experts en formation

Loom s'étend activement avec 72 modules d'experts supplémentaires suivant actuellement le pipeline de formation à 57 couches. Ces nouveaux experts porteront le catalogue total à 528 modules, élargissant la couverture de l'ingénierie, des sciences sociales, des sciences humaines, des domaines appliqués et de la gouvernance de l'IA. Les délais de formation varient considérablement selon la complexité du domaine et les spécifications de contraintes disponibles.

6
Raisonnement fondamental
Argumentation, pragmatique, détection de biais cognitifs
6
Mathématiques
Recherche opérationnelle, sciences actuarielles, théorie des jeux
18
Science & Recherche
Médecine, génomique, climat, nanotechnologie, systèmes spatiaux
10
Ingénierie
Génie civil, robotique, cybersécurité, vérification formelle
10
Sciences sociales & Humanités
Droit, science politique, anthropologie, philosophie
8
Affaires & Économie
Chaîne d'approvisionnement, gestion stratégique, urbanisme
5
Arts & Culture
Littérature, art, musicologie, architecture
6
Domaines appliqués
Stratégie militaire, médecine légale, réponse aux catastrophes, aviation
3
Gouvernance de l'IA
Sécurité de l'IA, interaction humain-IA, conformité à la protection des données

Progrès de la formation: Tous les 72 experts progressent dans le pipeline évolutionnaire à 57 couches. À l'achèvement, Loom offrira la couverture d'experts basée sur les contraintes la plus complète dans les domaines académiques, professionnels et appliqués.

Substrat de calcul binaire-probabiliste

Loom effectue toutes les inférences en utilisant des contraintes binaires. Aucune arithmétique en virgule flottante ne se produit pendant l'inférence. Seulement des opérations au niveau des bits (XNOR, AND, OR, popcount) et la résolution de satisfaction de contraintes. Ce choix architectural offre le déterminisme, l'auditabilité et un gain d'efficacité énergétique de 25× par rapport aux opérations en virgule flottante.

Calcul stochastique

  • Les flux de bits stochastiques de 1024 bits codent les distributions de probabilité
  • Codage de population : valeur = popcount(bitstream) / 1024
  • XNOR + popcount implémente les opérations d'inférence probabiliste
  • Trois LFSR parallèles génèrent un codage différentiel de phase

Réseaux de contraintes

  • Ensembles de contraintes finis (1024 octets chacun) remplacent les espaces de paramètres
  • Solveurs MaxSAT et Bit-DP pour la satisfaction de contraintes (avec gestion de timeout pour les cas insolubles)
  • Provenance complète : chaque activation de contrainte traçable
  • Construit sur Dweve Core : 1 930 algorithmes optimisés pour le matériel

Architecture Analyse approfondie

Hiérarchie de contraintes à quatre niveaux

1. Contraintes atomiques

BitTrue, Hamming, PAP (Permuted Agreement Popcount), XOR, primitives de suivi de provenance

2. Contraintes composites

Combinaisons logiques (AND, OR, NOT) de contraintes atomiques formant des motifs

3. Contraintes de domaine

Ensembles spécifiques à la tâche pour le raisonnement, le langage, le code, les mathématiques, la vision

4. Méta-contraintes

Sélection d'experts, logique de routage, vote d'ensemble, coordination inter-experts

Organisation des experts : 10 clusters spécialisés

456 modules d'experts organisés en 10 clusters fonctionnels. Chaque expert contient des ensembles de contraintes (500 000-2 000 000 de contraintes), des sous-ensembles de portes (50-200 filtres), des signatures d'hypervecteurs (65 536 dimensions) et des modes de défaillance explicites.

Spécifique au domaine96 experts
Diagnostic médical, découverte de médicaments, essais cliniques, analyse juridique, modélisation financière
Science & Recherche64 experts
Mécanique quantique, physique des particules, cosmologie, chimie, biologie, science du climat
Code & Systèmes56 experts
Optimiseurs Python, Rust, C++, JavaScript ; compilateurs ; experts de modèles ; débogage
Mathématiques48 experts
Arithmétique, algèbre, calcul, algèbre linéaire, statistiques, théorie des nombres, optimisation
Langage & Communication48 experts
Composition en anglais, mandarin, espagnol, français ; traduction ; analyse conversationnelle
Transfert & Adaptation40 experts
Apprentissage zero-shot, adaptation few-shot, apprentissage par transfert, méta-apprentissage
Multimodal32 experts
Reconnaissance d'image, détection d'objets, segmentation ; traitement audio ; fusion de capteurs
Méta-cognitif32 experts
Surveillance des performances, stratégies d'optimisation, gestion des ressources, contrôle de priorité
Vérification24 experts
Vérification des faits, validation des sources, vérification de cohérence, détection de contradictions
Raisonnement fondamental16 experts
Logique déductive, motifs inductifs, hypothèses abductives, inférence causale

Routage d'experts épars : sélection sous-linéaire

Atteint une sélection d'experts O(log N) grâce à une hiérarchie de filtrage à trois niveaux utilisant la métrique de similarité PAP (Permuted Agreement Popcount), une mesure binaire de type Hamming détectant les motifs structurels dans l'accord des bits.

Niveau 1 : Indexation de signature
  • • HNSW : navigation hiérarchique O(log N)
  • • LSH : 32 tables de hachage avec similarité cosinus
  • • Index de bits inversés : compression bitmap Roaring
  • • Résultat : pool de candidats d'environ 50 experts
Niveau 2 : Évaluation de porte
  • • 50-200 filtres binaires rapides par expert
  • • Portes requises : doivent toutes passer
  • • Portes optionnelles : notation pondérée
  • • Résultat : environ 10-15 experts qualifiés
Niveau 3 : Évaluation complète
  • • 2-3,5M contraintes par expert
  • • Terminaison anticipée en cas de satisfaction
  • • Échec immédiat en cas de preuve négative
  • • Résultat : Top 4-8 experts activés (jusqu'à 20 pour les requêtes complexes)
Complexité de routage
O(log N)
Experts actifs
4-8 / 456
Parcimonie
98,2%

Formation Évolutionnaire à 57 couches

Les 456 experts de Loom sont produits par un pipeline évolutionnaire à 57 couches qui intègre plusieurs stratégies d'optimisation : initialisation de population, recherche basée sur l'énergie, raffinement structurel, exploration parallèle, aléatoire adaptatif, stabilisation du réseau et consolidation finale sur sept phases définies.

1

Initialisation (Couches 1–8)

Génère des populations de contraintes initiales diverses par ensemencement guidé par l'entropie et injection de diversité, maximisant la couverture de l'espace de recherche pour l'optimisation évolutionnaire.

2

Recherche basée sur l'énergie (Couches 9–16)

Utilise le recuit simulé avec des plannings de température contrôlés pour minimiser l'énergie du système. L'aléatoire diminue progressivement, permettant au modèle d'échapper aux minima locaux tout en se dirigeant vers les optima globaux.

3

Raffinement structurel (Couches 17–28)

Optimise la topologie interne des réseaux de contraintes. Les motifs structurels bénéfiques sont renforcés, tandis que les liens redondants ou instables sont élagués pour améliorer l'efficacité et la cohérence.

4

Exploration parallèle (Couches 29–40)

Effectue une évaluation simultanée de plusieurs solutions candidates par recherche probabiliste. Maintient une diversité de population élevée et une validation croisée entre les ensembles de contraintes.

5

Contrôle d'exploration (Couches 41–48)

Régule l'équilibre entre aléatoire et convergence. La modulation adaptative du bruit maintient l'exploration active sans déstabiliser la progression vers les configurations optimales.

6

Stabilisation du réseau (Couches 49–54)

Établit des interactions de contraintes cohérentes par analyse de dépendances et correction de rétroaction. Assure la formation de réseaux d'experts cohérents et stables.

7

Consolidation finale (Couches 55–57)

Finalise la spécialisation des experts par régularisation et rétention de variance contrôlée, produisant 456 modules robustes et généralisables.

Aperçu clé: Cette approche multi-phases maintient l'exploration tout en préservant la cohérence structurelle. Chaque phase cible un compromis d'optimisation distinct : exploration vs. exploitation, recherche locale vs. globale, structure vs. efficacité, et adaptabilité vs. stabilité.

Pourquoi 57 couches Reste rapide

Un pipeline à 57 couches semble être un désastre de performance. Dans Loom, ce n'est pas le cas car la plupart des couches ne s'exécutent jamais, et celles qui le font fonctionnent sur des opérations binaires natives au matériel.

Opérations binaires = Vitesse matérielle

Chaque couche fonctionne sur des primitives au niveau du bit : XNOR, AND, OR, popcount. Celles-ci se mappent directement sur des instructions CPU uniques avec vectorisation SIMD (AVX-512 traite 512 bits en un cycle). Pas de multiplicateurs en virgule flottante, pas d'opérations matricielles traînant dans les hiérarchies de mémoire.

Impact sur les performances: Les opérations binaires sont environ 25× plus rapides que les opérations float32 et utilisent environ 96% moins d'énergie. Les enregistrements de contraintes alignés sur le cache restent résidents en L1/L2.

Terminaison anticipée partout

La hiérarchie de contraintes de Loom permet une terminaison anticipée agressive. Les contraintes atomiques échouent rapidement (test de bit unique). Les contraintes composites court-circuitent au premier échec. Les contraintes de domaine ne s'évaluent que si les portes passent. La plupart des requêtes se terminent après 4-10 couches, pas 57.

Comportement réel: Les requêtes simples atteignent environ 5 couches. Le raisonnement complexe active environ 10-15 couches. Les 57 ne s'exécutent que pendant la formation, jamais l'inférence.

Routage d'experts épars

Seulement 1-8 des 456 experts s'activent par requête (98,2% inactifs). Le routage de similarité PAP est O(log N), donc l'ajout de plus d'experts ou de couches plus profondes n'augmente pas linéairement la latence. L'index HNSW se réduit à environ 50 candidats, les portes filtrent à environ 15, l'évaluation complète choisit le top-K.

Comportement de mise à l'échelle: La complexité O(log N) signifie que l'ajout de 100 experts supplémentaires a un impact minimal. La mise à l'échelle sous-linéaire maintient les performances à mesure que le nombre d'experts augmente.

Efficacité du calcul stochastique

Les valeurs continues deviennent des flux de 1024 bits où la multiplication = AND, l'addition = XOR. Les opérations qui nécessitent des unités en virgule flottante et prennent 10-100 cycles s'effondrent en opérations au niveau des bits à cycle unique. La génération LFSR est déterministe et parallélisable.

Débit: Les cœurs CPU standard traitent 100-1000 inférences/sec. Accélération GPU prise en charge mais non requise. Les CPU refroidis par air suffisent.

Exemples de chemins d'inférence

Scénario 1 : Requête factuelle simple

Requête: "Quelle est la capitale de la France ?"
Couches exécutées (4 sur 57)
  • • Couches 1-3 : Contraintes atomiques (tests de bits)
  • • Couche 12 : Validation composite
  • • Expert : Récupération de connaissances (1 sur 456)
  • • 53 couches restantes : ignorées
Caractéristiques
Calcul minimal
Activation d'un seul expert
Satisfaction de contrainte immédiate

Scénario 2 : Raisonnement mathématique

Requête: "Résoudre pour x : 2x², 8x + 6 = 0"
Couches exécutées (8 sur 57)
  • • Couches 1-4 : Atomique (analyse de symboles)
  • • Couches 18-20 : Composite (structure d'équation)
  • • Couche 29 : Domaine (Manipulateur algébrique)
  • • Experts : 2 actifs (Algèbre + Vérification)
Caractéristiques
Complexité modérée
Collaboration de deux experts
Résolution de contrainte symbolique

Scénario 3 : Analogie inter-domaines

Requête: "Comment la mitose cellulaire est-elle similaire à la fission binaire chez les bactéries ?"
Couches exécutées (12 sur 57)
  • • Couches 1-5 : Extraction de caractéristiques atomiques
  • • Couches 17-22 : Structurel (pontage de domaines)
  • • Couches 35-38 : Recherche parallèle (analogique)
  • • Experts : 5 actifs (Biologie, Analogique, Méta)
Caractéristiques
Haute complexité
Ensemble multi-experts (5 actifs)
Raisonnement inter-domaines

Aperçu clé: Les 57 couches ne sont pas un pipeline séquentiel mais un cadre de formation qui génère des experts spécialisés. Pendant l'inférence, le routage épars et la terminaison anticipée signifient que la profondeur effective est de 4-15 couches, pas 57. Chaque couche active coûte des nanosecondes, pas des millisecondes.

Capacités & Limitations

Forces principales

  • Raisonnement structuré: Logique, planification, satisfaction de contraintes, vérification formelle, systèmes de preuve
  • Génération et analyse de code: Synthèse de programmes, vérification de type, optimisation, débogage, propagation de contraintes
  • Systèmes déterministes: Conformité réglementaire, applications critiques pour la sécurité, auditabilité complète
  • Efficacité énergétique: Appareils de périphérie, systèmes alimentés par batterie, déploiement d'IA durable
  • Raisonnement d'ensemble: Vote multi-experts, agrégation de perspectives, quantification de l'incertitude

Limitations connues

  • Bootstrapping de contraintes: La spécification de contraintes initiale nécessite des experts de domaine humains ou des systèmes d'apprentissage externes pour semer les connaissances ; le système ne peut pas bootstrapper l'expertise dans des domaines complètement nouveaux sans contraintes préalables
  • Limites de précision: Le calcul stochastique à 1024 bits offre une précision d'environ 0,1% ; les applications nécessitant une approximation de fonction continue ultra-haute précision (au-delà de l'équivalent float 64 bits) nécessitent des systèmes en virgule flottante traditionnels
  • Architecture hybride pour les tâches créatives: La génération créative utilise un réseau neuronal (20,4 M de paramètres : modèle d'embedding de 20 M + classificateur de 394 K) pour la validation de cohérence. Les réseaux de contraintes excellent dans le raisonnement logique discret ; les réseaux neuronaux traitent les jugements esthétiques continus. Cette approche hybride combine les forces des deux architectures.

Sécurité & Transparence

Provenance de décision complète

Chaque inférence de Loom est entièrement traçable : quels experts ont été activés, quelles contraintes ont été déclenchées, quels chemins de solveur ont été exécutés, comment la réponse a été dérivée. Contrairement aux réseaux neuronaux avec des milliards de paramètres opaques, Loom permet un audit complet pour la conformité réglementaire et la responsabilité.

Reproductibilité déterministe

100% de reproductibilité : une entrée identique produit toujours une sortie identique, bit pour bit. Pas d'échantillonnage de température, pas de dropout stochastique, pas de non-déterminisme. Critique pour les applications de sécurité (médical, financier, industriel) où un comportement imprévisible est inacceptable.

Documentation explicite des défaillances

Chaque expert documente les modes de défaillance : UNSAT (insatisfaction de contrainte), timeout, entrées ambiguës, motifs hors distribution. Plutôt que d'halluciner avec confiance, Loom signale lorsqu'il rencontre des scénarios en dehors de sa distribution d'entraînement. L'honnêteté sur les limitations renforce la confiance.

IA durable

Les opérations binaires nécessitent environ 4% de l'énergie en virgule flottante. Pas de clusters GPU, pas de refroidissement industriel, pas de consommation d'électricité massive. Fonctionne sur des CPU standard avec refroidissement par air, permettant le déploiement dans des environnements à énergie limitée.

Protection de la vie privée dès la conception

Déploiement sur site sans transfert de données externes. Conformité à l'article 25 du RGPD intégrée.

Pistes d'audit

Journaux de décision au niveau des contraintes. Chaque activation, évaluation et sortie entièrement documentée.

Déterminisme certifié

Garantie mathématique de reproductibilité. Essentiel pour les industries réglementées.

Spécifications Techniques

Architecture système

Modules d'experts456 (10 clusters)
Contraintes par expert2-3,5M
Taille de contrainte1024 octets (format dense)
Taille de contrainte comprimée~145 octets (codage épars)
Taux de compression7,1× (épars) + 1,2× (bloc) = ~8× total
Filtres de porte par expert50-200
Dimensions d'hypervecteur65 536
Flux de bits stochastique1024 bits (précision 0,1%)
Experts actifs par requête4-8 typique, jusqu'à 20 complexe

Opérations principales

FondationDweve Core (1 930 algorithmes)
Contraintes atomiquesBitTrue, Hamming, PAP, XOR
SolveursMaxSAT, Bit-DP
Indices de routageHNSW, LSH, Bit inversé
Métrique de similaritéPAP (Accord Popcount)
PrécisionBinaire (1 bit) + stochastique
Exécution100% déterministe

Stockage & Mémoire

Taille totale du catalogue (disque)~150 Go (456 experts comprimés)
Par expert (comprimé)330-480 Mo
Mémoire active (RAM)2-4 Go typique, jusqu'à 10-17 Go complexe
Experts de travail chargés4-8 typique (1,3-3,8 Go), jusqu'à 20 complexe
Surcharge de décompression<30% du temps d'évaluation

Implémentation

Rust avec opérations binaires optimisées SIMD (x86 : SSE2, AVX2, AVX-512 | ARM : NEON, SVE2), partage de tenseurs sans copie, résolution de contraintes simultanée sans verrou. Construit sur Dweve Core (1 930 algorithmes). Inclut des adaptateurs de modalité natifs (texte, image, audio, valeurs continues), système de génération créative (Meta-Expert Conductor avec validateur de cohérence neuronale de 20,4 M de paramètres) et moteur d'optimisation continue (méthodes hybrides binaire-gradient).

Données d'entraînement

Sources et composition des données

Sources de contraintes

  • Contraintes de domaine spécifiées par des experts humains (10-50 règles fondamentales par domaine)
  • Découverte automatique de contraintes par programmation génétique sur des ensembles de validation
  • Extraction de motifs à partir de traces d'inférence réussies
  • Apprentissage par transfert à partir de domaines connexes

Modalités de formation

  • Texte : Corpus multi-domaines pour la compréhension du langage et la génération de code
  • Données structurées : Bases de données, graphes de connaissances, spécifications formelles
  • Visuel : Ensembles de données d'images pour la reconnaissance d'objets et la compréhension de scène
  • Audio : Ensembles de données de classification de la parole et du son

Méthodologie de formation

La formation de Loom diffère des réseaux neuronaux basés sur le gradient. Au lieu d'optimiser des milliards de paramètres en virgule flottante, le système génère des ensembles de contraintes discrets à travers un pipeline à 57 couches combinant plusieurs stratégies d'optimisation. Chaque expert est formé indépendamment, puis validé par déploiement shadow avant l'intégration en production.

Cas d'utilisation prévus

Applications principales

  • Systèmes critiques pour la sécurité: Diagnostic médical, conformité financière, contrôle industriel où les décisions déterministes et auditables sont obligatoires
  • Génération et analyse de code: Synthèse de programmes, vérification de type, optimisation, débogage avec propagation de contraintes
  • Raisonnement structuré: Énigmes logiques, planification, satisfaction de contraintes, vérification formelle
  • Déploiement en périphérie: Appareils de périphérie alimentés par batterie (8 Go+ de RAM), IA durable où l'efficacité énergétique est critique (10-1000× moins d'énergie que les réseaux neuronaux)

Cas d'utilisation hors périmètre

  • Domaines sans contraintes préalables: Loom nécessite une spécification de contraintes initiale ; ne peut pas bootstrapper l'expertise dans des domaines complètement nouveaux à partir de zéro
  • Numérique ultra-haute précision: Les applications nécessitant une précision au-delà d'environ 0,1% (limite de calcul stochastique à 1024 bits) nécessitent une virgule flottante traditionnelle
  • Garanties en temps réel: Bien que rapide, le temps d'inférence varie avec la complexité de la requête ; non adapté aux systèmes temps réel stricts avec des délais en microsecondes

Exemples d'applications

IA médicale

Raisonnement diagnostique avec pistes d'audit complètes pour la conformité réglementaire. Chaque diagnostic traçable par des activations de contraintes explicites.

Intelligence de périphérie

Appareils de périphérie et systèmes distribués exécutant une inférence basée sur les contraintes sur batterie avec une consommation d'énergie minimale.

Développement logiciel

Revue de code automatisée, détection de bugs, suggestions d'optimisation avec raisonnement explicable sur la qualité du code.

Sécurité & Considérations éthiques

Robustesse adversariale

L'architecture basée sur les contraintes de Loom offre une résistance inhérente à certains vecteurs d'attaque :

  • Pas d'attaques par gradient: Les opérations binaires éliminent les exemples adversariaux basés sur le gradient
  • Contraintes explicites: Les violations des règles de domaine détectables par vérification de contraintes
  • Comportement déterministe: Les attaques ne peuvent pas exploiter les variations d'échantillonnage stochastique
  • Manipulation de contraintes: Les adversaires ciblant le processus de spécification de contraintes restent une préoccupation

Biais et équité

L'analyse des biais diffère des réseaux neuronaux en raison du raisonnement basé sur les contraintes :

  • Décisions auditables: Chaque décision traçable à des contraintes spécifiques, permettant l'identification des biais
  • Examen des contraintes: Les experts de domaine peuvent examiner et modifier directement les contraintes problématiques
  • Biais de spécification d'expert: Les contraintes spécifiées par l'homme peuvent encoder des biais sociétaux
  • Biais de distribution de données: Les contraintes découvertes automatiquement reflètent les biais des données d'entraînement

Protection de la vie privée et des données

Protection intégrée de la vie privée

  • • Déploiement sur site : Aucune donnée ne quitte l'infrastructure client
  • • Exécution déterministe : Aucune télémétrie requise pour le débogage
  • • Rétention minimale de données : Seules les activations de contraintes enregistrées
  • • Conformité à l'article 25 du RGPD : Protection de la vie privée dès la conception et par défaut

Traitement des données

  • • Données d'entrée traitées localement, jamais transmises en externe
  • • Les journaux de contraintes contiennent des traces de décision, pas de données brutes
  • • Contrôle utilisateur sur les politiques de rétention et les pistes d'audit
  • • Compatible avec les environnements isolés et de haute sécurité

Pratiques de déploiement responsable

Nous recommandons les pratiques suivantes pour un déploiement responsable de Loom :

  • Audits réguliers des contraintes par des experts de domaine pour identifier et supprimer les règles problématiques
  • Tests sur des ensembles de données diversifiés pour découvrir les biais avant le déploiement en production
  • Supervision humaine pour les décisions à enjeux élevés (applications médicales, financières, juridiques)
  • Communication transparente sur les capacités et les limitations du système aux utilisateurs finaux
  • Surveillance du comportement du système en production pour détecter les changements de distribution
  • Procédures de réponse aux incidents pour les violations de contraintes ou les comportements inattendus

Flexibilité de déploiement

Architecture évolutive

Loom prend en charge un déploiement flexible des appareils de périphérie à ressources limitées à l'infrastructure cloud à grande échelle. La taille du catalogue d'experts évolue avec la mémoire disponible, des déploiements spécialisés légers aux catalogues complets complets.

Appareils de périphérie

Sous-ensembles d'experts optimisés pour les appareils de périphérie (8 Go+ de RAM) avec une utilisation efficace de l'énergie

Serveurs d'entreprise

Catalogues d'experts complets pour un déploiement sur site avec auditabilité complète et souveraineté des données

Infrastructure cloud

Déploiements à grande échelle avec routage d'experts distribué et inférence parallèle à haut débit

Configuration système requise

Matériel

  • • CPU avec prise en charge SIMD (x86 : SSE2 minimum, AVX-512 optimal | ARM : NEON, SVE2)
  • • La mémoire évolue avec la taille du catalogue d'experts (configurable en fonction des besoins de déploiement)
  • • Accélération GPU prise en charge mais non requise (le fonctionnement CPU uniquement réduit les coûts d'infrastructure)
  • • Stockage standard pour la persistance des experts et les données de contraintes

Logiciel

  • • Multiplateforme : prise en charge Linux, Windows, macOS
  • • Binaire autonome avec runtime Rust intégré
  • • Plusieurs interfaces API : REST, gRPC, WebSocket
  • • SDK clients : Python, JavaScript, Rust, Go

Documentation & Ressources

Documentation technique complète, guides d'intégration et ressources pour développeurs