accessibility.skipToMainContent
Terug naar blog
Hardware

Hardware-agnostisch: Waarom alles inzetten op NVIDIA een strategisch risico is

De wereld is verslaafd aan CUDA. Maar een supply chain met slechts één leverancier is een 'single point of failure'. Dit is waarom Dweve overal op draait: AMD, Intel, RISC-V en FPGA's.

door Marc Filipan
19 november 2025
24 min lezen
0

De Monocultuurval

Stel je voor dat 95% van alle auto's in de wereld slechts op één specifiek type benzine zou rijden, verkocht door precies één bedrijf. Stel je voor dat de raffinaderij van dit bedrijf zich op een geologisch onstabiel eiland bevond. Stel je voor dat elke andere autofabrikant zijn motoren moest ontwerpen om aan te sluiten bij dit specifieke brandstofmengsel.

Als dat bedrijf een productiefout zou hebben, de prijzen met 400% zou verhogen, of als een blokkade het eiland zou afsluiten, zou de wereldeconomie tot stilstand komen. Transport zou ophouden te bestaan.

Dit klinkt als dystopische fictie, maar het is de exacte realiteit van de Artificial Intelligence-industrie vandaag de dag.

In 2025 vindt ongeveer 95% van alle AI-training en high-end inferentie plaats op GPU's van één bedrijf: NVIDIA. De gehele wereldwijde AI-stack (van de PyTorch-frameworks tot de koelontwerpen van datacenters) is geoptimaliseerd voor de architectuur van NVIDIA. De industrie is verslaafd aan CUDA, het propriëtaire softwareplatform van NVIDIA.

NVIDIA is een briljant bedrijf. Ze hebben ongelooflijke technologie gebouwd. Maar deze monocultuur is een strategische nachtmerrie. Het creëert een Single Point of Failure (SPOF) voor de gehele toekomst van menselijke intelligentie.

AI Hardware Markt: Monocultuur vs DiversiteitHuidige Industrie (NVIDIA Lock-in)95%NVIDIA CUDASingle Point of FailureSupply chain, prijzen, exportcontrolesDweve Aanpak (Agnostisch)AMDIntelRISC-VFPGACPUStrategische VeerkrachtLeverancierskeuze, onderhandeling, soevereiniteitBinaire Neurale Netwerken hebben geen Tensor Cores nodig: ze draaien op fundamentele digitale logica

Het Structurele Tekort

We hebben allemaal de H100-tekorten van 2023 en 2024 meegemaakt. Startups wachtten 12 maanden op hardware. Overheden hamsterden chips als goudstaven. De prijs van rekenkracht schoot omhoog.

Dit was niet zomaar een tijdelijke hapering in de supply chain. Het was een structureel knelpunt. De productie van deze chips is afhankelijk van een ongelooflijk complex proces genaamd CoWoS (Chip-on-Wafer-on-Substrate) 'advanced packaging', voornamelijk uitgevoerd door TSMC in Taiwan. De capaciteit om deze packages te bouwen is eindig. De wetten van de natuurkunde zijn eindig.

Als uw AI-strategie afhankelijk is van toegang tot de nieuwste, beste NVIDIA-chip, wedt u voor het voortbestaan van uw bedrijf op een supply chain die u niet controleert, voor een product dat bij opbod wordt verkocht aan de hoogste bieder.

De 'CUDA-gracht'

De echte lock-in is niet de hardware; het is de software. CUDA is de taal van AI. Al 15 jaar leren onderzoekers en studenten CUDA-kernels schrijven. Bibliotheken zijn geoptimaliseerd voor CUDA. Als u probeert standaard AI-code te draaien op een AMD-kaart of een Intel-accelerator, komt u vaak in een wereld van pijn terecht: kapotte dependencies, ontbrekende kernels en slechte prestaties.

Deze "CUDA-gracht" houdt concurrenten buiten. Het zorgt ervoor dat zelfs als AMD een chip bouwt die sneller en goedkoper is (wat ze hebben gedaan), niemand deze koopt omdat de software niet gewoon "werkt".

De Dweve Filosofie: Draai Overal

Bij Dweve namen we al vroeg een radicale beslissing. We keken naar de CUDA-val en zeiden: "Nee."

We besloten dat we geen enkele regel CUDA zouden schrijven. We zouden ons niet afhankelijk maken van een propriëtaire hardware-stack.

In plaats daarvan hebben we onze stack gebouwd op open standaarden. We gebruiken Vulkan (de grafische API die draait op alles van Android-telefoons tot Linux-servers). We gebruiken OpenCL. We gebruiken SPIR-V. We vertrouwen op 'intermediate representations' (IR's) zoals MLIR (Multi-Level Intermediate Representation).

Maar het echte geheim zit hem niet alleen in de API; het is de wiskunde.

Waarom Binaire Neurale Netwerken de CUDA Lock-in doorbrekenTraditionele Deep LearningFP16/FP32 MatrixvermenigvuldigingVereist: Tensor CoresAlleen NVIDIA doet dit goedBinaire Neurale Netwerken1-bit XNOR + POPCNT OperatiesVereist: Fundamentele digitale logicaBeschikbaar op ALLE hardwareDweve Hardware DoelenAMD ROCmDirecte ISA-compilatieBeste $/prestatieIntel AVX-512512 neuronen/cyclusGeen GPU nodigRISC-VOpen source siliciumEuropese soevereiniteitFPGAμs latencyUltieme efficiëntie

Omdat onze Binaire Neurale Netwerken (BNN's) vertrouwen op eenvoudige integer-operaties (XNOR en POPCNT) in plaats van complexe floating-point matrixvermenigvuldigingen, zijn we niet gebonden aan de specifieke "Tensor Cores" die alleen NVIDIA goed beheerst.

Tensor Cores zijn gespecialiseerde hardware-units die zijn ontworpen om 16-bit floating-point berekeningen razendsnel uit te voeren. Als uw algoritme afhankelijk is van FP16, hebt u een Tensor Core nodig. Als uw algoritme afhankelijk is van 1-bit logica, hebt u dat niet. U hebt alleen fundamentele digitale logische poorten nodig.

Deze architecturale vrijheid stelt ons in staat om efficiënt te draaien op een verbluffende diversiteit aan hardware:

1. AMD ROCm

AMD's Instinct GPU's bieden enorme ruwe rekenkracht en geheugenbandbreedte per dollar. Voor floating-point workloads was de software-stack (ROCm) historisch gezien het zwakke punt. Maar voor onze binaire workloads compileren we rechtstreeks naar de ISA (Instruction Set Architecture). We omzeilen de haperende bibliotheken. Op AMD-hardware gaan Dweve-modellen razendsnel.

2. Intel CPU's (AVX-512)

Iedereen negeert de bescheiden CPU. Maar moderne Intel Xeon-processors hebben een instructieset genaamd AVX-512. Hiermee kan de CPU 512 bits aan data in één cyclus verwerken. Voor een Binair Neuraal Netwerk zijn dat 512 neuronen die direct worden verwerkt. We kunnen high-performance inferentie draaien op standaardservers die bedrijven al bezitten. Geen GPU nodig.

3. RISC-V

RISC-V is de open-source hardware-architectuur van de toekomst. Het is voor chips wat Linux was voor besturingssystemen. Wij draaien native op RISC-V accelerators. Dit is cruciaal voor Europa en ontwikkelingslanden die hun eigen binnenlandse chipindustrie willen opbouwen, onafhankelijk van Amerikaanse exportcontroles.

4. FPGA's (Field Programmable Gate Arrays)

Dit is de meest opwindende grens. Een FPGA is een "blanco" chip die in milliseconden opnieuw kan worden bedraad. Omdat onze netwerken eenvoudige logische poorten gebruiken, kunnen we de chip fysiek bedraden om overeen te komen met de structuur van het neurale netwerk. De data stroomt door de chip als water door leidingen, zonder enige overhead. Dit levert ultra-lage latency (microseconden) en extreme energie-efficiëntie.

Strategische Veerkracht en Soevereiniteit

Voor onze klanten (vooral overheden, defensie-instanties en aanbieders van kritieke infrastructuur) is dit hardware-agnosticisme een cruciale eigenschap.

Het betekent dat ze niet vastzitten aan sancties. Als een geopolitieke crisis de toegang tot Amerikaanse chips afsluit, kunnen ze hun Dweve-modellen draaien op Europese chips of breed beschikbare legacy-silicium. Ze hebben een "Plan B."

Het betekent dat ze onderhandelingsmacht hebben. Ze zijn niet overgeleverd aan de grillen van één leverancier wat betreft prijzen. Als NVIDIA de prijzen verhoogt, kunnen ze overstappen naar AMD of gespecialiseerde ASIC's zonder hun software te herschrijven.

Het betekent ook levensduur. Een NVIDIA H100 is over 3 jaar verouderd. In industriële omgevingen (treinen, fabrieken, elektriciteitscentrales) moet apparatuur 20 jaar meegaan. Een generieke FPGA of een standaard CPU blijft tientallen jaren bruikbaar. Wij bouwen software die de levenscyclus van de fysieke wereld respecteert.

Het Post-GPU Tijdperk

Wij geloven dat de dominantie van de General Purpose GPU (GPGPU) voor AI een historische anomalie is. Het was het juiste hulpmiddel voor de prototypefase van AI, omdat het flexibel en beschikbaar was. Maar nu AI de implementatiefase ingaat, zullen we een Cambrische explosie van gespecialiseerde hardware zien.

We zullen Analog Computing zien. Optical Computing. Neuromorphic Computing. In-Memory Computing. Deze architecturen zijn fundamenteel incompatibel met CUDA. Ze vereisen een nieuwe software-stack.

Door onze software vandaag los te koppelen van het hardware-monopolie, is Dweve klaar voor de toekomst van morgen. We bouwen niet alleen voor de chips van 2025; we bouwen voor de natuurkunde van 2035.

Wilt u AI die draait op uw voorwaarden, niet die van NVIDIA? Dweve's hardware-agnostische architectuur geeft u strategische vrijheid, kostenbeheersing en soevereine veerkracht. Neem contact met ons op om te ontdekken hoe onze Binaire Neurale Netwerken kunnen draaien op de hardware die u al bezit, of het open silicium van morgen.

Tags

#Hardware#NVIDIA#Supply Chain#RISC-V#FPGA#Strategie#Soevereiniteit#CUDA

Over de auteur

Marc Filipan

CTO & Medeoprichter

Bouwt aan de toekomst van AI met binaire netwerken en constraint reasoning. Richt zich op efficiënte, transparante en toegankelijke AI.

Ontvang Dweve-updates

Schrijf je in voor nieuws rond binary intelligence en releases

✓ Geen spam ✓ Altijd uitschrijven mogelijk ✓ Nuttige content ✓ Eerlijke updates