accessibility.skipToMainContent
Terug naar blog
Technologie

De complete algoritme-stack: waarom je geen 10 frameworks meer nodig hebt

Stop met het installeren van PyTorch, TensorFlow, CUDA, NumPy, Pandas en zes andere pakketten. Dweve Core is één uniform platform dat uw gehele gefragmenteerde AI-stack vervangt.

door Marc Filipan
27 september 2025
20 min lezen
3 weergaven
0

De fragmentatie-nachtmerrie

Je AI-ontwikkelomgeving is een puinhoop. Geef het toe.

Je installeerde PyTorch voor modelontwikkeling. Daarna TensorFlow voor implementatie omdat productieteams er de voorkeur aan geven. CUDA toolkit voor GPU-versnelling op NVIDIA hardware. ROCm voor AMD GPU's. NumPy voor array-bewerkingen. Pandas voor datamanipulatie. Scikit-learn voor voorverwerking. ONNX voor modeluitwisseling. OpenCV voor beeldverwerking. Matplotlib voor visualisatie.

Tien verschillende pakketten. Zeventienduizend afhankelijkheden. Versiecompatibiliteitshel. Breaking changes elke zes maanden.

PyTorch updaten? Hoop dat je CUDA-versie overeenkomt. Wil je implementeren op andere hardware? Herschrijf je inferentie-pipeline. Moet je overschakelen van NVIDIA naar AMD GPU's? Veel succes met die poort. Probeer je het op mobiel te draaien? Begin opnieuw met TensorFlow Lite. Wil je FPGA-versnelling? Leer een volledig nieuwe toolchain.

Dit is waanzin.

De AI-ontwikkelstack is absurd gefragmenteerd geraakt. Niet omdat fragmentatie iets verbetert. Maar omdat elk framework optimaliseert voor zijn specifieke use case en de rest negeert. PyTorch blinkt uit in onderzoek. TensorFlow richt zich op productie-implementatie. CUDA sluit je op in NVIDIA. Elke tool lost één probleem op en creëert er drie meer.

Europese bedrijven voelen deze pijn acuut. Met strakkere budgetten dan concurrenten in Silicon Valley, kunnen Europese AI-teams geen toegewijde specialisten voor elk framework betalen. Bedrijven die computervisie bouwen voor de landbouw moeten modellen draaien op edge-apparaten, cloudservers en FPGA's voor industriële implementatie. Drie verschillende hardware-doelen betekent drie verschillende toolchains. Amerikaanse bedrijven huren specialisten in. Europese bedrijven hebben uniforme oplossingen nodig.

De fragmentatiebelasting is reëel: ontwikkelingstijd vermenigvuldigd met het aantal platforms, infrastructuurkosten vermenigvuldigd met framework-overhead, onderhoudslast vermenigvuldigd met versie-incompatibiliteiten.

Er is een betere manier.

Eén platform. Complete discrete AI.

Dweve Core is een compleet, uniform platform voor discrete AI dat je hele gefragmenteerde stack vervangt.

Niet "nog een framework." Niet "een PyTorch-alternatief." Een compleet platform, architectonisch ontworpen vanuit de eerste principes voor binaire tot 8-bit neurale netwerken, draaiend op elke backend, geoptimaliseerd voor alle hardware.

Eén installatie. Eén API. Elke backend. Alle hardware. Binair, ternair, 2-bit, 3-bit, 4-bit, 8-bit, adaptief multi-bit. Compleet discreet AI-platform.

Dit is wat dat in de praktijk betekent:

1.930 basisalgoritmen vormen de fundering. 415 primitieven bieden atomaire bewerkingen. 500 kernels leveren geoptimaliseerde rekeneenheden. 191 lagen maken moderne architecturen mogelijk. 674 algoritmen op hoog niveau bieden productiefunctionaliteit. Dit is geen minimale subset. Het is wiskundige volledigheid, bewezen door uitputtende analyse van elke belangrijke neurale netwerkarchitectuur.

4 algoritmische varianten per algoritme (gemiddeld) bieden verschillende implementatiestrategieën. Standaard LUT-gebaseerde bewerkingen voor typische gevallen. Basis-2 exponentiële benaderingen voor snelheid. Stuksgewijze lineaire interpolatie voor precisie. Symmetrische mapping voor gespecialiseerde workloads. De compiler selecteert automatisch optimale varianten op basis van je specifieke use case.

6 backends dekken alle belangrijke hardwareplatforms. SIMD (CPU) met handgeoptimaliseerde micro-kernels. CUDA voor NVIDIA GPU's met warp-level primitieven en Tensor Core-benutting. Rust-HDL voor FPGA- en ASIC-implementatie. WebAssembly voor browsergebaseerde inferentie. ROCm voor AMD GPU's. Metal voor Apple Silicon. Schrijf je model één keer. Implementeer overal.

5 SIMD ISA's zorgen voor optimale CPU-prestaties. SSE2 voor universele x86-64 compatibiliteit. AVX2 voor moderne Intel- en AMD-processors. AVX-512 voor de nieuwste generatie Xeon en EPYC. NEON voor alle ARMv8 inclusief mobiel en Apple Silicon. SVE/SVE2 voor ARM-serverchips zoals AWS Graviton3. Het framework detecteert de mogelijkheden van je CPU tijdens runtime en stuurt automatisch naar de snelste implementatie.

6 bit-breedtes maken adaptieve multi-bit berekeningen mogelijk. Binair (1-bit) voor maximale efficiëntie. 2-bit voor gebalanceerde compressie. 3-bit voor genuanceerde representaties. 4-bit voor kwaliteitsgevoelige toepassingen. 8-bit voor bijna-FP16 prestaties. Ternair voor gespecialiseerde sparse netwerken. Het systeem past de precisie per laag aan op basis van de werkelijke vereisten, niet op theoretische maxima.

Reken maar uit: 1.930 algoritmen × 4 varianten × 6 backends × 5 ISA's × 6 bit-breedtes. Dat is de implementatiebreedte. We hebben het niet over duizenden implementaties. We zitten potentieel in de honderdduizenden gespecialiseerde, geoptimaliseerde implementaties die elke zinvolle combinatie dekken.

PyTorch heeft ~2.000 bewerkingen die canonicaliseren naar ~250 primitieven. Indrukwekkend, totdat je je realiseert dat ze voornamelijk CUDA-gericht zijn met beperkte CPU-optimalisatie en geen FPGA-ondersteuning. TensorFlow heeft 4,3 miljoen regels code verdeeld over 184.000 commits. Opgeblazen is nog zacht uitgedrukt.

Dweve Core biedt uitgebreide dekking over backends, ISA's en bit-breedtes die geen enkel single-backend framework kan evenaren. Dit is een enorme implementatiebreedte. Complete platformdekking.

Waarom uniformiteit belangrijk is

De gefragmenteerde stack is niet alleen vervelend. Het is economisch verwoestend voor Europese AI-bedrijven.

Infrastructuurkosten vermenigvuldigen. PyTorch voor ontwikkeling op NVIDIA GPU's. TensorFlow voor implementatie op Google Cloud TPU's. Aparte inferentie-engines voor edge-apparaten. Elk platform vereist zijn eigen infrastructuur, zijn eigen monitoring, zijn eigen onderhoud. Het onderhouden van parallelle implementatie-pipelines verbruikt aanzienlijke infrastructuurbudgetten. Uniforme platforms elimineren dubbele infrastructuurkosten.

Ontwikkelingssnelheid stort in. Onderzoekers prototypen in PyTorch. Engineers porten naar TensorFlow voor productie. DevOps-teams herschrijven opnieuw voor edge-implementatie. Elke vertaling introduceert bugs, degradeert prestaties en vertraagt de release. Framework-vertaaloverhead verlengt implementatiecycli. Met uniforme platforms IS onderzoekscode productiecode.

Vendor lock-in vernietigt onderhandelingsmacht. CUDA betekent NVIDIA lock-in. TensorFlow betekent Google Cloud-voorkeur. ROCm betekent AMD-specifieke code. Europese data-soevereiniteitsvereisten vragen om multi-cloud-mogelijkheden. Backend-agnostische frameworks maken concurrerende inkoop mogelijk waarbij leveranciers moeten concurreren op prijs en prestaties in plaats van lock-in.

Talentfragmentatie verspilt middelen. PyTorch-specialisten nodig voor onderzoek. TensorFlow-engineers voor implementatie. CUDA-experts voor GPU-optimalisatie. Kleine Europese teams kunnen geen vijf specialisten aannemen. Ze hebben generalisten nodig die uniforme tools gebruiken die consistent werken over alle implementatiedoelen.

Het voordeel van een uniform platform stapelt zich op. Eenvoudigere infrastructuur. Snellere ontwikkeling. Betere inkoopmacht. Productievere teams. Dit zijn geen marginale verbeteringen. Het zijn transformerende efficiëntiewinsten die Europese bedrijven concurrerend maken tegen beter gefinancierde Amerikaanse rivalen.

Backend-breedte: CPU tot FPGA

Laten we specifiek zijn over wat "6 backends" eigenlijk betekent.

SIMD (CPU) backend biedt handgeoptimaliseerde micro-kernels voor elke belangrijke instructiesetarchitectuur.

SSE2 (128-bit) behaalt 2-4× scalaire prestaties met universele x86-64 compatibiliteit. Elke processor sinds 2001. PAND, POR, PXOR voor bitwise bewerkingen. Population count via lookup tables. Betrouwbare basis overal.

AVX2 (256-bit) levert 5-8× scalaire prestaties op Haswell en later (na 2013). Hardware POPCNT instructie. 256-bit vectoren verwerken 4× 64-bit woorden tegelijkertijd. VPERM voor efficiënte permutaties. Standaard op moderne servers.

AVX-512 (512-bit) bereikt 10-16× scalaire prestaties op Skylake-X, Ice Lake en Zen 4. Baanbrekende functies: maskeerregisters (k0-k7) maken predicatie mogelijk, VPOPCNTQ telt ingestelde bits in elke lane, VPTERNLOG berekent elke 3-input Booleaanse functie in één instructie. 512-bit vectoren verwerken 8× 64-bit woorden per bewerking. Enterprise-prestaties op Intel Xeon en AMD EPYC.

NEON (128-bit) brengt 3-4× scalaire prestaties naar alle ARMv8-processors. Smartphones, tablets, Apple Silicon Macs, ARM-servers. VAND, VORR, VEOR voor bitwise. VCNT voor population count over byte lanes. Consistentie van mobiel tot datacenter.

SVE/SVE2 (schaalbaar 128-2048 bit) biedt vector-lengte-agnostische code die zich aanpast aan de werkelijke hardware. AWS Graviton3 draait 256-bit. Fujitsu A64FX draait 512-bit. Dezelfde binary, optimale prestaties op beide. Toekomstbestendig: bredere vectoren benutten automatisch hogere prestaties. Europese cloudproviders zoals OVH implementeren Graviton uitgebreid.

Elk algoritme heeft geoptimaliseerde implementaties voor elke ISA. De runtime detecteert mogelijkheden (CPUID op x86, systeemregisters op ARM) en stuurt naar de snelst beschikbare variant. Geen configuratie. Automatisch optimale prestaties.

CUDA (NVIDIA GPU) backend benut elke prestatiefunctie van moderne NVIDIA-architecturen.

Warp-level primitieven organiseren berekeningen in groepen van 32 threads die synchroon uitvoeren. Elke thread verwerkt 32 binaire waarden verpakt in uint32_t. Volledige warp verwerkt 1.024 binaire waarden parallel. Efficiënt gebruik van integer ALU's voor bitbewerkingen.

Tensor Core-benutting voor matrixbewerkingen, zelfs met binaire data. Nieuwere architecturen (Ampere A100, Hopper H100) ondersteunen INT8, INT4 en binaire bewerkingen. A100 biedt 4.992 TOPS voor binaire (INT1) bewerkingen met INT32 accumulatoren, de hoogste doorvoer van alle precisieformaten.

Kritieke CUDA intrinsics geoptimaliseerd: __popc(x) voor population count, __ballot_sync(mask, predicate) voor warp voting, __shfl_sync(mask, var, srcLane) voor snelle communicatie binnen de warp. Coalesced geheugentoegangspatronen zorgen voor bandbreedtebenutting. Shared memory tiling houdt werksets in 48-100KB per SM cache.

Rust-HDL (FPGA) backend synthetiseert hardware direct uit algoritmebeschrijvingen.

Het framework genereert Verilog/VHDL uit geannoteerde Rust-code. Binaire XNOR-popcount-bewerkingen worden toegewezen aan XNOR-poorten (combinatorische logica) plus optelboomstructuren voor population counting. Pijplijnregisters worden automatisch ingevoegd op basis van timingbeperkingen.

Resourcebenutting geoptimaliseerd voor Xilinx Ultrascale: 40-60% LUT-gebruik, 30-50% DSP-blokken, met een doorvoer van 100-500 GOPS. Voor ASIC-synthese op 7nm: 0,5-2 mm² oppervlakte, 1-10 TOPS prestaties.

Europese autoleveranciers waarderen FPGA-implementatie bijzonder. ISO 26262 veiligheidscertificering vereist deterministisch, verifieerbaar gedrag. FPGA's bieden hardware-niveau determinisme dat GPU's niet kunnen garanderen. Deterministische binaire bewerkingen op FPGA maken formele verificatiepaden mogelijk die vereist zijn voor automobielveiligheidscertificering.

WebAssembly backend maakt browsergebaseerde AI-inferentie mogelijk met 30-70% van de native CPU-prestaties.

WASM SIMD128 biedt 128-bit vectorbewerkingen (v128 type) in alle moderne browsers. Bewerkingen: v128.and, v128.or, v128.xor voor bitwise. i8x16.popcnt voor population count per byte lane (som voor totaal). v8x16.swizzle voor permutaties.

Gecombineerd met Web Workers voor multi-threading en SharedArrayBuffer voor gedeeld geheugen, behaalt 60-80% native prestaties. Europese privacybewuste toepassingen benutten dit: on-device inferentie in de browser betekent dat gegevens de machine van de gebruiker nooit verlaten. GDPR-compliance vereenvoudigd.

Zorgtoepassingen kunnen patiëntgegevens volledig in de browser verwerken via WASM. Geen serverupload. Geen cloudafhankelijkheid. Vereenvoudigde GDPR-compliance. Binaire neurale netwerken maken browserinferentie praktisch waar floating-point te traag zou zijn.

ROCm (AMD GPU) backend biedt wavefront-level optimalisatie voor AMD-architecturen.

64 threads per wavefront op RDNA/CDNA (vs 32 op NVIDIA). Elke thread verwerkt 32 binaire waarden. Volledige wavefront verwerkt 2.048 binaire waarden parallel. Dubbele doorvoer per wavefront van NVIDIA.

Vergelijkbare intrinsics als CUDA: __builtin_popcount(x), __ballot(predicate), ds_swizzle voor permutaties. Geheugen-coalescing vereisten vergelijkbaar. Europese cloudproviders implementeren steeds vaker AMD GPU's: betere prijs/prestatie, concurrerende inkoop versus NVIDIA-monopolie.

AMD MI250X GPU's bieden concurrerende prijs/prestaties versus NVIDIA A100 voor veel workloads. Multi-backend-ondersteuning maakt inkoopflexibiliteit en concurrerende leveranciersonderhandelingen mogelijk.

Metal (Apple Silicon) backend optimaliseert voor M1/M2/M3 unified memory architectuur.

Metal Performance Shaders bieden sterk geoptimaliseerde kernels. Unified memory elimineert CPU-GPU-overdrachten. Binaire bewerkingen benutten Apple's aangepaste matrix-engines. M3 Max behaalt 50-80 TOPS op binaire netwerkinferentie.

De adoptie van Apple Silicon door de Europese creatieve industrie maakt Metal-ondersteuning commercieel waardevol voor videoproductie- en contentcreatie-workflows die on-device AI-verwerking vereisen.

De backend-breedte maakt implementatie mogelijk in diverse Europese industrieën. Autoleveranciers kunnen FPGA's targeten voor veiligheidskritieke systemen. Zorgverleners kunnen in-browser WASM implementeren voor GDPR-compliance. Cloudproviders kunnen CPU SIMD en AMD ROCm-infrastructuur optimaliseren. Onderzoekslaboratoria kunnen NVIDIA CUDA benutten. Creatieve studio's kunnen Apple Metal gebruiken. Eén codebase. Zes backends. Maximale implementatieflexibiliteit.

Het bit-breedte adaptieve voordeel

De meeste frameworks dwingen je te kiezen: 32-bit floating-point voor alles, of door de kwantiseringshel gaan om modellen achteraf te comprimeren.

Dweve Core past de precisie per laag aan tijdens training.

Binaire (1-bit) gewichten in de meeste lagen bieden 16× compressie versus FP16, 32× versus FP32. Past een hele ResNet-50 (25,6 miljoen parameters) in 3,1 MB versus 50 MB FP16. Het hele model past in de L3-cache op moderne CPU's. DRAM-bandbreedte doet er niet meer toe.

2-bit gewichten waar binair de nauwkeurigheid te veel degradeert. Vier verschillende waarden {-1.5, -0.5, +0.5, +1.5} of geleerde asymmetrische kwantisering. 8× compressie, betere benadering van floating-point distributies.

4-bit gewichten voor kritieke lagen die nuance vereisen. 16 verschillende niveaus. Per-blok kwantisering (32-128 elementen delen schaalfactoren) behaalt bijna-FP16 kwaliteit. 4× compressie nog steeds significant.

8-bit waar precisie cruciaal is. 256 niveaus voldoende voor bijna-FP16 nauwkeurigheid. Symmetrische kwantisering met per-tensor of per-kanaal schalen. Eenvoudige conversie, hardware-ondersteuning gebruikelijk.

Ternair {-1, 0, +1} voor sparse netwerken. Expliciet weergegeven nullen maken exploitatie van gestructureerde sparsiteit mogelijk. Sparse SIMD-bewerkingen slaan nul-gewogen berekeningen over.

Het framework leert de optimale bit-breedte per laag tijdens training. Gradiënt-gebaseerde bit-breedte selectie behandelt bit-breedte als continue variabele, berekent gradiënten t.o.v. precisie, past per-laag toewijzing aan om verlies te minimaliseren onder modelgroottebeperkingen.

Resultaat: modellen met 1-bit gewichten in 80% van de lagen, 2-bit in 15%, 4-bit in 4%, 8-bit in 1% kritieke uitvoerlagen. Massale compressie (12× versus FP16 gemiddeld) met nauwkeurigheidsdegradatie onder 2% ten opzichte van de full-precision baseline.

Deze adaptieve multi-bit aanpak is uniek. PyTorch-kwantisering is uniform: kies één bit-breedte, pas overal toe, hoop dat het werkt. TensorFlow Lite integer kwantisering vergelijkbaar. Per-laag adaptieve optimalisatie op basis van werkelijke gradiënten tijdens training? Alleen Dweve Core.

Europese mobiele AI profiteert enorm. Smartphone on-device AI heeft kleine modellen nodig die passen in beperkt geheugen terwijl ze draaien op beperkte rekenkracht. Adaptieve bit-breedte behaalt een 100 MB floating-point model gecomprimeerd tot 8 MB met minimaal nauwkeurigheidsverlies. Mobiele implementatie wordt praktisch.

Wat je daadwerkelijk krijgt

Installeer één pakket. Importeer één bibliotheek. Schrijf modellen één keer. Implementeer overal.

Geen CUDA-installatie vereist (maar benut indien beschikbaar). Geen TensorFlow-compatibiliteitslagen. Geen NumPy-integratiehacks. Geen Pandas-voorverwerkingspipelines. Geen ONNX-exportprocedures. Geen platformspecifieke optimalisatiepasses.

Het framework regelt:

  • Hardware-detectie (CPUID, GPU-query, FPGA-detectie)
  • Optimale backend-selectie (prestatiecalibratie bij eerste uitvoering)
  • ISA-dispatch (SSE2/AVX2/AVX-512/NEON/SVE automatisch)
  • Bit-breedte-adaptatie (gradiënt-gebaseerde per-laag optimalisatie)
  • Geheugenindeling (cache-bewuste planning, NUMA-plaatsing)
  • Kernel-fusie (verticale en horizontale bewerkingscombinatie)
  • Multi-platform implementatie (één model, zes backends)

Je code:

1let model = NetworkBuilder::new()
2    .input(BinaryTensor::new([1024, 784]))
3    .dense(784, 512, activation=BinaryActivation::Sign)
4    .dense(512, 256, activation=BinaryActivation::Sign)
5    .output(256, 10)
6    .build();

Dat is het. Het framework compileert automatisch naar optimale implementaties voor je doelhardware. Implementeren op x86-servers? AVX-512 SIMD-kernels. Implementeren op ARM edge-apparaten? NEON-optimalisaties. Implementeren op NVIDIA datacenter? CUDA wavefront-bewerkingen. Implementeren in de browser? WASM SIMD128 met SharedArrayBuffer threading.

Geen configuratie. Geen platformspecifieke code. Geen handmatige optimalisatie. Europese ontwikkelingsteams waarderen dit: kleine teams kunnen zich geen platformspecialisten veroorloven. Uniforme tools stellen generalisten in staat om productie-AI te leveren over diverse implementatiedoelen.

Europese precisietechniek

Deze aanpak is duidelijk Europees.

Silicon Valley optimaliseert voor groeimetrieken: hoeveel ontwikkelaars gebruiken het, hoeveel bewerkingen ondersteunt het, hoeveel financiering kunnen we ophalen. Functielijsten verkopen aan investeerders. Complexiteit is een verkoopargument: "kijk eens hoe uitgebreid ons framework is!"

Europese engineering optimaliseert voor resultaten: lost het echte problemen betrouwbaar op, is het op lange termijn onderhoudbaar, levert het producten die werken. Precisie boven overvloed. Volledigheid boven overdaad. Tools die kleine teams in staat stellen wereldwijd te concurreren.

Antoine de Saint-Exupéry was Frans, maar het principe geldt in heel Europa: perfectie wordt niet bereikt wanneer er niets meer toe te voegen is, maar wanneer er niets meer weg te nemen is. Deze filosofie bouwde gotische kathedralen die eeuwen later nog staan. Het bouwt AI-platforms die relevant blijven terwijl opgeblazen frameworks instorten onder hun eigen gewicht.

Nederland en Duitsland blinken hierin uit: gerichte tools voor specifieke domeinen die algemene alternatieven overtreffen. ASML bouwt lithografiesystemen die niemand anders kan evenaren. Siemens bouwt industriële automatisering die ongeëvenaard is in betrouwbaarheid. Dezelfde engineeringcultuur bouwde Dweve Core: een compleet platform voor discrete AI dat precies doet wat nodig is, niets meer.

Europese bedrijven profiteren direct. Met 1/5 van het durfkapitaal van Silicon Valley-equivalenten is algoritmische efficiëntie belangrijker dan hardware-schaling. Bouwen op uniforme platforms in plaats van gefragmenteerde toolchains verlengt de operationele looptijd aanzienlijk. Startende bedrijven concurreren door engineeringvoordelen in plaats van kapitaalinzet.

De Europese regelgeving drijft dit verder. GDPR vereist on-device verwerking voor privacy-compliance. De EU AI Act eist verklaarbaarheid en controleerbaarheid. De Medical Device Regulation heeft deterministisch gedrag nodig voor certificering. Automotive ISO 26262 vereist formele verificatie voor veiligheidskritieke systemen.

Binaire neurale netwerken op uniforme platforms voldoen van nature aan deze eisen. Discrete bewerkingen maken formele verificatie mogelijk. On-device inferentie via WASM/mobiel biedt GDPR-compliance. Deterministische FPGA-implementatie doorstaat automobielcertificering. Constraint-gebaseerde verklaarbaarheid voldoet aan de transparantie-eisen van de AI Act.

Amerikaanse bedrijven die probabilistische AI bouwen voor Europese markten worden geconfronteerd met regelgevende belemmeringen. Europese bedrijven die compliant-by-design AI bouwen op uniforme platforms hebben duidelijke certificeringspaden. De regelgeving maakt Europese benaderingen commercieel noodzakelijk, niet alleen technisch elegant.

Wat we niet doen

Belangrijk om te verduidelijken: we doen niet alles.

Geen floating-point ondersteuning. Alleen discrete berekeningen: binair, ternair, 2/3/4/8-bit gekwantiseerd. Als je FP32/FP16/BFloat16 nodig hebt voor je toepassing, is Dweve Core niet de juiste keuze. We hebben deze keuze bewust gemaakt: exclusief optimaliseren voor discrete bewerkingen maakt specialisaties mogelijk die onmogelijk zijn met mixed-precision floating-point.

Geen dynamische grafieken tijdens inferentie. Modellen compileren naar statische grafieken voor implementatie. Training ondersteunt dynamische berekeningen, maar productie-inferentie is statisch. Dit maakt ahead-of-time optimalisatie mogelijk die dynamische grafieken voorkomen. Europese productie-implementaties waarderen voorspelbare prestaties boven trainingsflexibiliteit.

Geen ingebouwde data-voorverwerking buiten basiskwantisering. We bieden tensor-bewerkingen en neurale netwerkprimitieven. Data laden, augmentatie, feature engineering: gebruik bestaande tools of schrijf aangepaste pipelines. Gericht platform verslaat een alles-doend framework.

Geen automatische differentiatie voor willekeurig Python. Autodiff werkt voor neurale netwerken met behulp van onze primitieven. Als je gradiënten nodig hebt via aangepaste NumPy-bewerkingen, integreer dan afzonderlijk. We optimaliseren de 99% use case (trainen van neurale netwerken) in plaats van elke mogelijke berekening te ondersteunen.

Dit zijn geen beperkingen. Het is focus. Door de scope te beperken tot discrete neurale netwerken met statische inferentiegrafieken, bereiken we een optimalisatiediepte die uitgebreide frameworks niet kunnen evenaren. Beter uitblinken in één ding dan middelmatig zijn in alles.

De toekomst: uitbreiding van dekking, geen opblazen

Het platform blijft groeien door backend-uitbreiding, niet door algoritme-proliferatie.

De 1.930 basisalgoritmen bieden al volledige dekking van praktische discrete AI-workloads: CNN's, Transformers, RNN's, GAN's, VAE's bewezen door uitputtende analyse. Deze vermenigvuldigen zich tot honderdduizenden gespecialiseerde implementaties over backends, ISA's en bit-breedtes. Wiskundige volledigheid bereikt.

Toekomstige groei richt zich op platformbreedte: nieuwe backend-ondersteuning (RISC-V SVE komt eraan), bredere bit-breedte-opties (3-bit en 5-bit kwantisering), verbeterde compiler-optimalisaties (polyhedrale lus-transformaties), verbeterde FPGA-synthese (Lattice en Microchip targets), aanvullende ISA-dekking naarmate hardware evolueert.

Meer backends betekent meer implementatiedoelen. Meer ISA-ondersteuning betekent overal betere CPU-prestaties. Meer bit-breedte-opties betekent fijnere precisiecontrole. Dit breidt de uitgebreide dekking van het platform uit zonder algoritmische opblazen.

Wanneer PyTorch versie 3.0 uitbrengt met meer bewerkingen, zullen we ondersteuning toevoegen voor nieuwere hardware-architecturen. Wanneer TensorFlow 5 miljoen regels code bereikt, zullen we onze backend-implementaties optimaliseren voor opkomende platforms. Wanneer frameworks bewerkingen toevoegen, zullen we de platformdekking uitbreiden over nieuwe implementatiedoelen.

Het voordeel van een uitgebreid platform groeit in de loop van de tijd. Meer hardware ondersteund. Meer implementatiescenario's mogelijk gemaakt. Meer optimalisatiemogelijkheden benut. Europese bedrijven die op dit platform bouwen, profiteren van uitbreidende dekking zonder compatibiliteitsbreuken of migratiekosten.

Je stack vandaag vervangen

Klaar om je gefragmenteerde AI-ontwikkeling te verenigen?

Dweve Core biedt 1.930 algoritmen (415 primitieven, 500 kernels, 191 lagen, 715 high-level bewerkingen). Varianten over 6 backends (SIMD CPU, CUDA, Rust-HDL FPGA, WASM, ROCm, Metal). Geoptimaliseerd voor 5 ISA's (SSE2, AVX2, AVX-512, NEON, SVE/SVE2). Ondersteuning voor 6 bit-breedtes (binair, 2/3/4/8-bit, ternair).

Eén installatie. Eén API. Eén codebase. Zes backends. Alles wat je nodig hebt voor productie discrete AI. Niets wat je niet nodig hebt.

Binair tot 8-bit adaptief multi-bit. Automatische hardware-optimalisatie. Runtime ISA-dispatch. Formele verificatie-ondersteuning. GDPR-compliant on-device inferentie. Deterministische uitvoering voor veiligheidskritieke systemen. EU AI Act verklaarbaarheid.

Europese precisie. Wiskundige volledigheid. Uitgebreide platform-engineering.

Stop met het installeren van tien frameworks. Bouw AI op de complete stack.


Dweve Core: Compleet uniform platform voor discrete AI. Eén codebase, zes backends, adaptieve bit-breedte, Europese engineering. Vervang je gefragmenteerde toolchain door gerichte volledigheid.

Tags

#Algoritmen#Binaire bewerkingen#Optimalisatie#Dweve Core#Framework ontwerp

Over de auteur

Marc Filipan

CTO & Co-Founder

Bouwt aan de toekomst van AI met binaire netwerken en constraint reasoning. Richt zich op efficiënte, transparante en toegankelijke AI.

Ontvang Dweve-updates

Schrijf je in voor nieuws rond binary intelligence en releases

✓ Geen spam ✓ Altijd uitschrijven mogelijk ✓ Nuttige content ✓ Eerlijke updates