accessibility.skipToMainContent

Dweve Loom Tarjeta del Sistema

Especificación técnica para Dweve Loom: Un sistema mixture-of-experts disperso con 456 módulos expertos de producción (528 en total con 72 en entrenamiento), construido principalmente sobre redes de restricciones binarias con un pequeño validador de coherencia neuronal. Transparencia completa en capacidades, arquitectura, limitaciones y seguridad.

Sistema Descripción General

Loom es un sistema mixture-of-experts disperso construido sobre satisfacción de restricciones binarias en lugar de redes neuronales tradicionales. Cada inferencia es determinista, trazable y ofrece una ganancia de eficiencia energética de 25× sobre las implementaciones de punto flotante.

456
Módulos Expertos (Producción)
+72 en entrenamiento (528 total planificado)
4-8
Expertos Activos por Consulta
Consultas típicas (hasta 20 para consultas complejas)
1024
Ancho de Flujo de Bits Estocástico
Precisión del 0,1% (≈10 bits)
100%
Determinista
Reproducibilidad garantizada

Desarrollo Activo: 72 Nuevos Expertos en Entrenamiento

Loom se está expandiendo activamente con 72 módulos expertos adicionales que actualmente están siguiendo el pipeline de entrenamiento de 57 capas. Estos nuevos expertos llevarán el catálogo total a 528 módulos, expandiendo la cobertura en ingeniería, ciencias sociales, humanidades, dominios aplicados y gobernanza de IA. Los plazos de entrenamiento varían significativamente según la complejidad del dominio y las especificaciones de restricciones disponibles.

6
Razonamiento Fundamental
Argumentación, pragmática, detección de sesgos cognitivos
6
Matemáticas
Investigación operativa, ciencias actuariales, teoría de juegos
18
Ciencia e Investigación
Medicina, genómica, clima, nanotecnología, sistemas espaciales
10
Ingeniería
Civil, robótica, ciberseguridad, verificación formal
10
Ciencias Sociales y Humanidades
Derecho, ciencia política, antropología, filosofía
8
Negocios y Economía
Cadena de suministro, gestión estratégica, planificación urbana
5
Artes y Cultura
Literatura, arte, musicología, arquitectura
6
Dominios Aplicados
Estrategia militar, medicina forense, respuesta a desastres, aviación
3
Gobernanza de IA
Seguridad de IA, interacción humano-IA, cumplimiento de privacidad de datos

Progreso del Entrenamiento: Todos los 72 expertos avanzando a través del pipeline evolutivo de 57 capas. Al completarse, Loom ofrecerá la cobertura de expertos basada en restricciones más completa en dominios académicos, profesionales y aplicados.

Sustrato de Computación Binario-Probabilístico

Loom realiza todas las inferencias utilizando restricciones binarias. No ocurre aritmética de punto flotante durante la inferencia. Solo operaciones a nivel de bits (XNOR, AND, OR, popcount) y resolución de satisfacción de restricciones. Esta elección arquitectónica proporciona determinismo, auditabilidad y una ganancia de eficiencia energética de 25× sobre las operaciones de punto flotante.

Computación Estocástica

  • Flujos de bits estocásticos de 1024 bits codifican distribuciones de probabilidad
  • Codificación de población: valor = popcount(bitstream) / 1024
  • XNOR + popcount implementa operaciones de inferencia probabilística
  • Tres LFSR paralelos generan codificación diferencial de fase

Redes de Restricciones

  • Conjuntos de restricciones finitas (1024 bytes cada uno) reemplazan espacios de parámetros
  • Solucionadores MaxSAT y Bit-DP para satisfacción de restricciones (con manejo de tiempo de espera para casos intratables)
  • Procedencia completa: cada activación de restricción rastreable
  • Construido sobre Dweve Core: 1.930 algoritmos optimizados para hardware

Arquitectura Análisis Profundo

Jerarquía de Restricciones de Cuatro Niveles

1. Restricciones Atómicas

BitTrue, Hamming, PAP (Permuted Agreement Popcount), XOR, primitivos de seguimiento de procedencia

2. Restricciones Compuestas

Combinaciones lógicas (AND, OR, NOT) de restricciones atómicas que forman patrones

3. Restricciones de Dominio

Conjuntos específicos de tareas para razonamiento, lenguaje, código, matemáticas, visión

4. Meta-Restricciones

Selección de expertos, lógica de enrutamiento, votación de conjunto, coordinación entre expertos

Organización de Expertos: 10 Clústeres Especializados

456 módulos expertos organizados en 10 clústeres funcionales. Cada experto contiene conjuntos de restricciones (2-3,5 millones de restricciones), subconjuntos de puertas (50-200 filtros), firmas de hipervectores (65.536 dimensiones) y modos de falla explícitos.

Específico de Dominio96 expertos
Diagnóstico médico, descubrimiento de medicamentos, ensayos clínicos, análisis legal, modelado financiero
Ciencia e Investigación64 expertos
Mecánica cuántica, física de partículas, cosmología, química, biología, ciencia del clima
Código y Sistemas56 expertos
Optimizadores Python, Rust, C++, JavaScript; compiladores; expertos de plantillas; depuración
Matemáticas48 expertos
Aritmética, álgebra, cálculo, álgebra lineal, estadística, teoría de números, optimización
Lenguaje y Comunicación48 expertos
Composición en inglés, mandarín, español, francés; traducción; análisis conversacional
Transferencia y Adaptación40 expertos
Aprendizaje zero-shot, adaptación few-shot, aprendizaje por transferencia, meta-aprendizaje
Multimodal32 expertos
Reconocimiento de imágenes, detección de objetos, segmentación; procesamiento de audio; fusión de sensores
Metacognitivo32 expertos
Monitoreo de rendimiento, estrategias de optimización, gestión de recursos, control de prioridad
Verificación24 expertos
Verificación de hechos, validación de fuentes, verificación de consistencia, detección de contradicciones
Razonamiento Fundamental16 expertos
Lógica deductiva, patrones inductivos, hipótesis abductivas, inferencia causal

Enrutamiento de Expertos Disperso: Selección Sublineal

Logra selección de expertos O(log N) a través de jerarquía de filtrado de tres niveles utilizando la métrica de similitud PAP (Permuted Agreement Popcount), una medida binaria tipo Hamming que detecta patrones estructurales en la concordancia de bits.

Nivel 1: Indexación de Firmas
  • • HNSW: navegación jerárquica O(log N)
  • • LSH: 32 tablas hash con similitud de coseno
  • • Índice de Bits Invertidos: compresión de mapa de bits Roaring
  • • Resultado: grupo de candidatos de ~50 expertos
Nivel 2: Evaluación de Puertas
  • • 50-200 filtros binarios rápidos por experto
  • • Puertas requeridas: todas deben pasar
  • • Puertas opcionales: puntuación ponderada
  • • Resultado: ~10-15 expertos calificados
Nivel 3: Evaluación Completa
  • • 2-3,5M restricciones por experto
  • • Terminación anticipada en satisfacción
  • • Evidencia negativa fallo inmediato
  • • Resultado: Top 4-8 expertos activados (hasta 20 para consultas complejas)
Complejidad de Enrutamiento
O(log N)
Expertos Activos
4-8 / 456
Dispersión
98,2%

57 Capas Entrenamiento Evolutivo

Los 456 expertos de Loom se producen a través de un pipeline evolutivo de 57 capas que integra múltiples estrategias de optimización: inicialización de población, búsqueda basada en energía, refinamiento estructural, exploración paralela, aleatoriedad adaptativa, estabilización de red y consolidación final a través de siete fases definidas.

1

Inicialización (Capas 1–8)

Genera poblaciones de restricciones iniciales diversas a través de siembra guiada por entropía e inyección de diversidad, maximizando la cobertura del espacio de búsqueda para la optimización evolutiva.

2

Búsqueda Basada en Energía (Capas 9–16)

Utiliza recocido simulado con programaciones de temperatura controladas para minimizar la energía del sistema. La aleatoriedad disminuye gradualmente, permitiendo que el modelo escape de mínimos locales mientras se mueve hacia óptimos globales.

3

Refinamiento Estructural (Capas 17–28)

Optimiza la topología interna de las redes de restricciones. Los patrones estructurales beneficiosos se refuerzan, mientras que los enlaces redundantes o inestables se podan para mejorar la eficiencia y la coherencia.

4

Exploración Paralela (Capas 29–40)

Realiza evaluación simultánea de múltiples soluciones candidatas a través de búsqueda probabilística. Mantiene alta diversidad de población y validación cruzada entre conjuntos de restricciones.

5

Control de Exploración (Capas 41–48)

Regula el equilibrio entre aleatoriedad y convergencia. La modulación de ruido adaptativa mantiene la exploración activa sin desestabilizar el progreso hacia configuraciones óptimas.

6

Estabilización de Red (Capas 49–54)

Establece interacciones de restricciones consistentes a través de análisis de dependencias y corrección de retroalimentación. Asegura la formación de redes de expertos coherentes y estables.

7

Consolidación Final (Capas 55–57)

Finaliza la especialización de expertos a través de regularización y retención de varianza controlada, produciendo 456 módulos robustos y generalizables.

Perspicacia Clave: Este enfoque multifase mantiene la exploración mientras preserva la coherencia estructural. Cada fase apunta a un equilibrio de optimización distinto: exploración vs. explotación, búsqueda local vs. global, estructura vs. eficiencia y adaptabilidad vs. estabilidad.

Por Qué 57 Capas Se Mantiene Rápido

Un pipeline de 57 capas suena como un desastre de rendimiento. En Loom, no lo es porque la mayoría de las capas nunca se ejecutan, y las que sí se ejecutan funcionan con operaciones binarias nativas de hardware.

Operaciones Binarias = Velocidad de Hardware

Cada capa se ejecuta en primitivos a nivel de bits: XNOR, AND, OR, popcount. Estos se mapean directamente a instrucciones de CPU únicas con vectorización SIMD (AVX-512 procesa 512 bits en un ciclo). No hay multiplicadores de punto flotante, no hay operaciones de matriz arrastrándose a través de jerarquías de memoria.

Impacto en el Rendimiento: Las operaciones binarias son ~25× más rápidas que las operaciones float32 y usan ~96% menos energía. Los registros de restricciones alineados en caché permanecen residentes en L1/L2.

Terminación Anticipada en Todas Partes

La jerarquía de restricciones de Loom permite una terminación anticipada agresiva. Las restricciones atómicas fallan rápido (prueba de bit único). Las restricciones compuestas cortocircuitan en el primer fallo. Las restricciones de dominio solo evalúan si las puertas pasan. La mayoría de las consultas terminan después de 4-10 capas, no 57.

Comportamiento del Mundo Real: Las consultas simples llegan a ~5 capas. El razonamiento complejo activa ~10-15 capas. Todas las 57 solo se ejecutan durante el entrenamiento, nunca la inferencia.

Enrutamiento de Expertos Disperso

Solo 4-8 de 456 expertos se activan por consulta (98,2% inactivos). El enrutamiento de similitud PAP es O(log N), por lo que agregar más expertos o capas más profundas no aumenta linealmente la latencia. El índice HNSW se reduce a ~50 candidatos, las puertas filtran a ~15, la evaluación completa elige top-K.

Comportamiento de Escalado: La complejidad O(log N) significa que agregar 100 expertos más tiene un impacto mínimo. El escalado sublineal mantiene el rendimiento a medida que crece el número de expertos.

Eficiencia de Computación Estocástica

Los valores continuos se convierten en flujos de 1024 bits donde la multiplicación = AND, la suma = XOR. Las operaciones que requieren unidades de punto flotante y toman 10-100 ciclos colapsan en operaciones de bits de ciclo único. La generación LFSR es determinista y paralelizable.

Rendimiento: Los núcleos de CPU estándar procesan 100-1000 inferencias/seg. Aceleración GPU compatible pero no requerida. Las CPU refrigeradas por aire son suficientes.

Ejemplos de Rutas de Inferencia

Escenario 1: Consulta Factual Simple

Consulta: "¿Cuál es la capital de Francia?"
Capas Ejecutadas (4 de 57)
  • • Capas 1-3: Restricciones atómicas (pruebas de bits)
  • • Capa 12: Validación compuesta
  • • Experto: Recuperación de Conocimiento (1 de 456)
  • • 53 capas restantes: omitidas
Características
Computación mínima
Activación de un solo experto
Satisfacción de restricción inmediata

Escenario 2: Razonamiento Matemático

Consulta: "Resolver para x: 2x², 8x + 6 = 0"
Capas Ejecutadas (8 de 57)
  • • Capas 1-4: Atómicas (análisis de símbolos)
  • • Capas 18-20: Compuestas (estructura de ecuación)
  • • Capa 29: Dominio (Manipulador Algebraico)
  • • Expertos: 2 activos (Álgebra + Verificación)
Características
Complejidad moderada
Colaboración de doble experto
Resolución de restricción simbólica

Escenario 3: Analogía de Dominio Cruzado

Consulta: "¿Cómo es la mitosis celular similar a la fisión binaria en bacterias?"
Capas Ejecutadas (12 de 57)
  • • Capas 1-5: Extracción de características atómicas
  • • Capas 17-22: Estructural (puente de dominio)
  • • Capas 35-38: Búsqueda paralela (analógica)
  • • Expertos: 5 activos (Biología, Analógico, Meta)
Características
Alta complejidad
Conjunto de múltiples expertos (5 activos)
Razonamiento de dominio cruzado

Perspicacia Clave: Las 57 capas no son un pipeline secuencial sino un marco de entrenamiento que genera expertos especializados. Durante la inferencia, el enrutamiento disperso y la terminación anticipada significan que la profundidad efectiva es de 4-15 capas, no 57. Cada capa activa cuesta nanosegundos, no milisegundos.

Capacidades y Limitaciones

Fortalezas Fundamentales

  • Razonamiento estructurado: Lógica, planificación, satisfacción de restricciones, verificación formal, sistemas de prueba
  • Generación y análisis de código: Síntesis de programas, verificación de tipos, optimización, depuración, propagación de restricciones
  • Sistemas deterministas: Cumplimiento normativo, aplicaciones críticas de seguridad, auditabilidad completa
  • Eficiencia energética: Dispositivos periféricos, sistemas alimentados por batería, despliegue de IA sostenible
  • Razonamiento de conjunto: Votación de múltiples expertos, agregación de perspectivas, cuantificación de incertidumbre

Limitaciones Conocidas

  • Bootstrapping de restricciones: La especificación de restricciones inicial requiere expertos de dominio humanos o sistemas de aprendizaje externos para sembrar conocimiento; el sistema no puede iniciar experiencia en dominios completamente nuevos sin restricciones previas
  • Límites de precisión: La computación estocástica de 1024 bits proporciona ~0,1% de precisión; las aplicaciones que requieren aproximación de funciones continuas de ultra alta precisión (más allá de la equivalencia de flotante de 64 bits) necesitan sistemas de punto flotante tradicionales
  • Arquitectura híbrida para tareas creativas: La generación creativa utiliza una red neuronal (20,4 M de parámetros: modelo de embedding de 20 M + clasificador de 394 K) para validación de coherencia. Las redes de restricciones sobresalen en razonamiento lógico discreto; las redes neuronales manejan juicios estéticos continuos. Este enfoque híbrido combina las fortalezas de ambas arquitecturas.

Seguridad y Transparencia

Procedencia de Decisión Completa

Cada inferencia de Loom es completamente rastreable: qué expertos se activaron, qué restricciones se dispararon, qué rutas de solucionador se ejecutaron, cómo se derivó la respuesta. A diferencia de las redes neuronales con miles de millones de parámetros opacos, Loom permite auditoría integral para cumplimiento normativo y responsabilidad.

Reproducibilidad Determinista

100% de reproducibilidad: entrada idéntica siempre produce salida idéntica, bit por bit. Sin muestreo de temperatura, sin dropout estocástico, sin no determinismo. Crítico para aplicaciones de seguridad (médico, financiero, industrial) donde el comportamiento impredecible es inaceptable.

Documentación Explícita de Fallos

Cada experto documenta modos de fallo: UNSAT (insatisfacción de restricciones), tiempo de espera, entradas ambiguas, patrones fuera de distribución. En lugar de alucinar con confianza, Loom informa cuando encuentra escenarios fuera de su distribución de entrenamiento. La honestidad sobre las limitaciones genera confianza.

IA Sostenible

Las operaciones binarias requieren ~4% de la energía de punto flotante. Sin clústeres de GPU, sin enfriamiento industrial, sin consumo masivo de electricidad. Se ejecuta en CPU estándar con enfriamiento por aire, permitiendo el despliegue en entornos con restricciones de energía.

Privacidad por Diseño

Despliegue local sin transferencia de datos externa. Cumplimiento del Artículo 25 del RGPD incorporado.

Pistas de Auditoría

Registros de decisión a nivel de restricción. Cada activación, evaluación y salida completamente documentada.

Determinismo Certificado

Garantía matemática de reproducibilidad. Esencial para industrias reguladas.

Especificaciones Técnicas

Arquitectura del Sistema

Módulos Expertos456 (10 clústeres)
Restricciones por Experto2-3,5M
Tamaño de Restricción1024 bytes (formato denso)
Tamaño de Restricción Comprimida~145 bytes (codificación dispersa)
Relación de Compresión7,1× (disperso) + 1,2× (bloque) = ~8× total
Filtros de Puerta por Experto50-200
Dimensiones de Hipervector65.536
Flujo de Bits Estocástico1024 bits (precisión 0,1%)
Expertos Activos por Consulta4-8 típico, hasta 20 complejo

Operaciones Fundamentales

FundamentoDweve Core (1.930 algoritmos)
Restricciones AtómicasBitTrue, Hamming, PAP, XOR
SolucionadoresMaxSAT, Bit-DP
Índices de EnrutamientoHNSW, LSH, Bit Invertido
Métrica de SimilitudPAP (Acuerdo Popcount)
PrecisiónBinario (1 bit) + estocástico
Ejecución100% determinista

Almacenamiento y Memoria

Tamaño Total del Catálogo (disco)~150 GB (456 expertos comprimidos)
Por Experto (comprimido)330-480 MB
Memoria Activa (RAM)2-4 GB típico, hasta 10-17 GB complejo
Expertos de Trabajo Cargados4-8 típico (1,3-3,8 GB), hasta 20 complejo
Sobrecarga de Descompresión<30% del tiempo de evaluación

Implementación

Rust con operaciones binarias optimizadas SIMD (x86: SSE2, AVX2, AVX-512 | ARM: NEON, SVE2), compartición de tensores de copia cero, resolución de restricciones concurrente sin bloqueo. Construido sobre Dweve Core (1.930 algoritmos). Incluye adaptadores de modalidad nativos (texto, imagen, audio, valores continuos), sistema de generación creativa (Meta-Expert Conductor con validador de coherencia neuronal de 20,4 M de parámetros) y motor de optimización continua (métodos híbridos binarios-gradiente).

Datos de Entrenamiento

Fuentes de Datos y Composición

Fuentes de Restricciones

  • Restricciones de dominio especificadas por expertos humanos (10-50 reglas fundamentales por dominio)
  • Descubrimiento automático de restricciones a través de programación genética en conjuntos de validación
  • Minería de patrones de rastros de inferencia exitosos
  • Aprendizaje por transferencia de dominios relacionados

Modalidades de Entrenamiento

  • Texto: Corpora multidominio para comprensión de lenguaje y generación de código
  • Datos estructurados: Bases de datos, grafos de conocimiento, especificaciones formales
  • Visual: Conjuntos de datos de imágenes para reconocimiento de objetos y comprensión de escenas
  • Audio: Conjuntos de datos de clasificación de habla y sonido

Metodología de Entrenamiento

El entrenamiento de Loom difiere de las redes neuronales basadas en gradientes. En lugar de optimizar miles de millones de parámetros de punto flotante, el sistema genera conjuntos de restricciones discretas a través de un pipeline de 57 capas que combina múltiples estrategias de optimización. Cada experto se entrena de forma independiente, luego se valida a través de despliegue en la sombra antes de la integración de producción.

Casos de Uso Previstos

Aplicaciones Principales

  • Sistemas Críticos de Seguridad: Diagnóstico médico, cumplimiento financiero, control industrial donde las decisiones deterministas y auditables son obligatorias
  • Generación y Análisis de Código: Síntesis de programas, verificación de tipos, optimización, depuración con propagación de restricciones
  • Razonamiento Estructurado: Puzzles lógicos, planificación, satisfacción de restricciones, verificación formal
  • Despliegue en el Borde: Dispositivos periféricos alimentados por batería (8GB+ RAM), IA sostenible donde la eficiencia energética es crítica (10-1000× menos energía que las redes neuronales)

Casos de Uso Fuera del Alcance

  • Dominios Sin Restricciones Previas: Loom requiere especificación de restricciones inicial; no puede iniciar experiencia en dominios completamente nuevos desde cero
  • Numérica de Ultra Alta Precisión: Las aplicaciones que requieren precisión más allá de ~0,1% (límite de computación estocástica de 1024 bits) necesitan punto flotante tradicional
  • Garantías en Tiempo Real: Aunque rápido, el tiempo de inferencia varía con la complejidad de la consulta; no apto para sistemas de tiempo real estricto con plazos de microsegundos

Ejemplos de Aplicaciones

IA Médica

Razonamiento diagnóstico con pistas de auditoría completas para cumplimiento normativo. Cada diagnóstico rastreable a través de activaciones de restricciones explícitas.

Inteligencia en el Borde

Dispositivos periféricos y sistemas distribuidos que ejecutan inferencia basada en restricciones con energía de batería con consumo de energía mínimo.

Desarrollo de Software

Revisión de código automatizada, detección de errores, sugerencias de optimización con razonamiento explicable sobre calidad del código.

Seguridad y Consideraciones Éticas

Robustez Adversarial

La arquitectura basada en restricciones de Loom proporciona resistencia inherente a ciertos vectores de ataque:

  • Sin ataques de gradiente: Las operaciones binarias eliminan ejemplos adversariales basados en gradiente
  • Restricciones explícitas: Violaciones de reglas de dominio detectables a través de verificación de restricciones
  • Comportamiento determinista: Los ataques no pueden explotar variaciones de muestreo estocástico
  • Manipulación de restricciones: Los adversarios que apuntan al proceso de especificación de restricciones siguen siendo una preocupación

Sesgo y Equidad

El análisis de sesgo difiere de las redes neuronales debido al razonamiento basado en restricciones:

  • Decisiones auditables: Cada decisión rastreable a restricciones específicas, permitiendo identificación de sesgo
  • Revisión de restricciones: Los expertos del dominio pueden revisar y modificar restricciones problemáticas directamente
  • Sesgo de especificación de expertos: Las restricciones especificadas por humanos pueden codificar sesgos sociales
  • Sesgo de distribución de datos: Las restricciones descubiertas automáticamente reflejan sesgos de datos de entrenamiento

Privacidad y Protección de Datos

Privacidad Incorporada

  • • Despliegue local: Ningún dato sale de la infraestructura del cliente
  • • Ejecución determinista: No se requiere telemetría para depuración
  • • Retención mínima de datos: Solo se registran activaciones de restricciones
  • • Cumplimiento del Artículo 25 del RGPD: Privacidad por diseño y predeterminado

Manejo de Datos

  • • Datos de entrada procesados localmente, nunca transmitidos externamente
  • • Los registros de restricciones contienen rastros de decisión, no datos sin procesar
  • • Control del usuario sobre políticas de retención y pistas de auditoría
  • • Compatible con entornos aislados y de alta seguridad

Prácticas de Despliegue Responsable

Recomendamos las siguientes prácticas para el despliegue responsable de Loom:

  • Auditorías regulares de restricciones por expertos del dominio para identificar y eliminar reglas problemáticas
  • Pruebas en conjuntos de datos diversos para descubrir sesgos antes del despliegue de producción
  • Supervisión humana para decisiones de alto riesgo (aplicaciones médicas, financieras, legales)
  • Comunicación transparente sobre capacidades y limitaciones del sistema a los usuarios finales
  • Monitoreo del comportamiento del sistema en producción para detectar cambios distribucionales
  • Procedimientos de respuesta a incidentes para violaciones de restricciones o comportamiento inesperado

Flexibilidad de Despliegue

Arquitectura Escalable

Loom admite despliegue flexible desde dispositivos periféricos con recursos limitados hasta infraestructura en la nube a gran escala. El tamaño del catálogo de expertos escala con la memoria disponible, desde despliegues especializados ligeros hasta catálogos completos integrales.

Dispositivos Periféricos

Subconjuntos de expertos optimizados para dispositivos periféricos (8GB+ RAM) con uso eficiente de energía

Servidores Empresariales

Catálogos de expertos integrales para despliegue local con auditabilidad completa y soberanía de datos

Infraestructura en la Nube

Despliegues a escala masiva con enrutamiento de expertos distribuido e inferencia paralela de alto rendimiento

Requisitos del Sistema

Hardware

  • • CPU con soporte SIMD (x86: SSE2 mínimo, AVX-512 óptimo | ARM: NEON, SVE2)
  • • La memoria escala con el tamaño del catálogo de expertos (configurable según las necesidades de despliegue)
  • • Aceleración GPU compatible pero no requerida (operación solo con CPU reduce los costos de infraestructura)
  • • Almacenamiento estándar para persistencia de expertos y datos de restricciones

Software

  • • Multiplataforma: soporte para Linux, Windows, macOS
  • • Binario autocontenido con tiempo de ejecución Rust integrado
  • • Múltiples interfaces API: REST, gRPC, WebSocket
  • • SDK de cliente: Python, JavaScript, Rust, Go

Documentación y Recursos

Documentación técnica completa, guías de integración y recursos para desarrolladores