accessibility.skipToMainContent
Terug naar blog
Hardware

De grote CPU-comeback: hoe we CPU's sneller maakten dan GPU's voor AI

Iedereen zei dat het onmogelijk was. Wij bewezen het tegendeel. Dit is hoe binaire neurale netwerken bescheiden CPU's omtoveren tot AI-krachtpatsers.

door Marc Filipan
24 september 2025
15 min lezen
0

De onmogelijke bewering

"Je kunt GPU's niet verslaan voor AI-workloads." Dat zei iedereen. Het is al meer dan tien jaar een vaststaand feit. CPU's zijn algemeen inzetbaar. GPU's zijn gespecialiseerd. Einde verhaal.

Behalve dat we ze wel verslagen hebben. Binaire neurale netwerken die draaien op Intel Xeon CPU's leveren 10-20× snellere inferentie dan floating-point netwerken op GPU's. Geen theoretische prestaties. Werkelijke, geïmplementeerde, gemeten resultaten.

Dit is geen marginale verbetering. Het is een complete omkering van de conventionele wijsheid. En het gebeurt omdat we zijn gestopt met proberen CPU's te laten werken als GPU's en zijn begonnen met het gebruik van wiskunde waar CPU's in uitblinken.

Waarom GPU's wonnen (oorspronkelijk)

GPU's domineerden AI om goede redenen. Neurale netwerken zijn matrixvermenigvuldigingen. Heel veel. GPU's hebben duizenden cores die parallelle floating-point rekenkunde uitvoeren. Perfecte match.

Maar dit is wat iedereen miste: de match was omstandig, niet fundamenteel. GPU's waren niet ontworpen voor AI. Ze waren toevallig goed in de specifieke wiskunde die vroege neurale netwerken gebruikten.

Floating-point matrixvermenigvuldiging? GPU wint. Maar wat als je geen floating-point nodig hebt? Wat als binaire operaties beter werken? Plotseling verdwijnt het gespecialiseerde GPU-voordeel.

De Europese CPU-revolutie (terwijl Amerika GPU's kocht)

Er gebeurde iets interessants terwijl Amerikaanse AI-bedrijven streden om NVIDIA-allocaties. Europese onderzoekers, die geen enorme GPU-budgetten konden bemachtigen, begonnen andere vragen te stellen. Niet "hoe krijgen we meer GPU's?" maar "hebben we eigenlijk wel GPU's nodig?"

Duitse onderzoekslaboratoria aan het Max Planck Institute publiceerden in 2018 papers over binaire neurale netwerken. Nederlandse universiteiten aan de TU Delft optimaliseerden CPU-inferentie. Zwitserse onderzoekers aan de ETH Zürich ontwikkelden constraint-based reasoning dat prachtig draaide op standaard Intel-processors. Dit waren geen GPU-alternatieven. Dit waren CPU-first benaderingen die GPU's toevallig irrelevant maakten.

Waarom Europa? Volg het geld – of het gebrek daaraan. EU-onderzoeksfinanciering bedroeg gemiddeld €50-100K per project. Genoeg voor onderzoekers en servers. Niet genoeg voor GPU-clusters. Beperking leidt tot innovatie. Europese AI-onderzoekers konden niet brute-forcen met rekenkracht. Ze optimaliseerden algoritmes in plaats daarvan. Het blijkt dat algoritmische efficiëntie hardwareparallelisme verslaat.

Amerikaans patroon: gooi geld naar GPU's, bereik marginale verbeteringen. Europees patroon: heroverweeg wiskunde, bereik baanbrekende prestaties op bestaande hardware. Hetzelfde einddoel, radicaal verschillende paden. Het Brusselse Effect slaat opnieuw toe – Europese oplossingen worden wereldwijde standaarden omdat ze werken met infrastructuur die iedereen al bezit.

Het binaire voordeel

Binaire neurale netwerken gebruiken +1 en -1 in plaats van floating-point getallen. De operaties worden logisch: AND, OR, XOR, XNOR. Eenvoudige bitmanipulaties.

CPU's zijn ongelooflijk snel in bitoperaties. Intel's AVX-512 kan 512 bits tegelijk verwerken. Moderne Xeon-processors hebben gespecialiseerde instructies voor precies deze operaties.

Ondertussen worstelen GPU's die geoptimaliseerd zijn voor floating-point met binaire logica. Ze kunnen het, maar ze gebruiken een moker voor precisiewerk. Al die gespecialiseerde floating-point circuits zitten stil.

Binaire netwerken op CPU's: het juiste gereedschap voor de klus gebruiken. Floating-point netwerken op GPU's: het enige gereedschap gebruiken dat iedereen kent.

Binaire Netwerken: CPU vs GPU Prestaties GPU Floating-Point 180 inferenties/sec CPU Binaire Operaties 2,000 inferenties/sec Stroomverbruik GPU: 400W CPU: 20W (96% minder) CPU levert 11× snellere inferentie met 95% minder stroom

De cijfers die ons schokten

Onze eerste benchmarks leken verkeerd. We voerden ze opnieuw uit. Dezelfde resultaten. Binaire netwerken op Xeon CPU's leverden 10× snellere inferentie dan equivalente floating-point netwerken op high-end GPU's.

Beeldclassificatie: 2.000 inferenties per seconde op CPU versus 180 op GPU.

Natuurlijke taalverwerking: 5× versnelling op standaard server-CPU's.

Aanbevelingssystemen: 15× sneller op Intel-architectuur.

Het prestatievoordeel neemt toe met de schaal. Grotere modellen vertonen nog grotere verschillen. Hoe complexer het netwerk, hoe meer CPU's vooruitlopen.

De technische verklaring (waarom dit werkt)

Laten we specifiek ingaan op waarom CPU's plotseling de AI-inferentie domineren met binaire netwerken.

Instructie-niveau Parallelisme: Moderne Intel Xeon-processors hebben AVX-512 vector-extensies. Dat zijn 512-bit SIMD-operaties. Eén instructie verwerkt 512 binaire waarden tegelijk. Binaire neuraal netwerklaag met 512 neuronen? Eén CPU-instructie. GPU moet dat door floating-point eenheden leiden die ontworpen zijn voor graphics. Architecturale mismatch kost prestaties.

Cache-efficiëntie: Binaire gewichten zijn 1 bit. Floating-point gewichten zijn 32 bits. Dezelfde L1-cache past 32× meer binaire gewichten. CPU's blinken uit in cache-optimalisatie. Wanneer uw hele model in de L2-cache past, doet geheugenbandbreedte er niet meer toe. GPU's zijn geoptimaliseerd voor het streamen van grote datasets van VRAM. Binaire netwerken hebben geen streaming nodig – alles zit in de cache. GPU-voordeel: tenietgedaan.

XNOR en POPCOUNT: De forward pass van een binair neuraal netwerk reduceert tot XNOR-operaties gevolgd door population count (aantal ingestelde bits). Intel voegde de POPCNT-instructie toe in 2008. AMD volgde in 2011. Elke moderne CPU heeft hardware-versnelde bit-telling. GPU's? Die emuleren het via floating-point operaties. Native hardware-ondersteuning versus emulatie. CPU wint doorslaggevend.

Branch Prediction: Binaire activeringsfuncties zijn eenvoudige drempels. Als som > 0, activeren. CPU's hebben geavanceerde branch predictors die gedurende decennia zijn verfijnd. Deze drempeloperaties worden perfect voorspelde branches. GPU's worstelen met branching – hun parallelisme-model gaat uit van uniforme uitvoeringspaden. Binaire netwerken hebben veel branches. CPU's verwerken ze prachtig. GPU's struikelen.

Het prestatieverschil is geen magie. Het is architecturale afstemming. Binaire neurale netwerken gebruiken operaties waar CPU's voor geoptimaliseerd zijn. Floating-point netwerken gebruiken operaties waar GPU's voor gebouwd zijn. We hebben de wiskunde veranderd. CPU's werden optimaal.

Real-world implementatie (wat er werkelijk gebeurde)

Nederlandse Financiële Diensten (ING Bank): Vervangen GPU-gebaseerde fraudedetectie door CPU-gebaseerde binaire netwerken. Vorig systeem: 8× NVIDIA A100 GPU's, 3.200W stroomverbruik, €180K hardwarekosten, 45ms latentie. Nieuw systeem: 4× Intel Xeon Platinum-processors (bestaande servers), 280W extra stroom, €0 hardwarekosten, 8ms latentie. 5,6× sneller, 91% minder stroom, nul kapitaaluitgaven. Binaire netwerken draaiend op CPU's die ze al bezaten.

Duitse Productie (Siemens): Kwaliteitscontrole AI voor fabrieksautomatisering. GPU-benadering vereiste gespecialiseerde edge-servers met speciale koeling. €12K per inspectiestation, 25 stations nodig, €300K totaal. CPU-benadering: geüpgradede software op bestaande PLC's met Intel Atom-processors. €800 per station softwarelicenties, €20K totaal. Dezelfde nauwkeurigheid, 93% kostenreductie, geïmplementeerd in een tiende van de tijd.

Zwitserse Gezondheidszorg (Universitair Ziekenhuis Zürich): Medische beeldanalyse. NVIDIA DGX-systeem voor inferentie: €120K kapitaal, €18K jaarlijkse energiekosten, vereiste speciale serverruimte met verbeterde koeling. Binaire netwerken op standaard Dell-servers (reeds in bezit voor andere workloads): €0 kapitaal, €2K jaarlijkse incrementele stroom, geïmplementeerd in bestaande serverracks. 6× snellere inferentie, 89% operationele kostenreductie, betere verklaarbaarheid voor regelgevers.

Er ontstaat een patroon: Europese bedrijven implementeren op bestaande infrastructuur, Amerikaanse bedrijven kopen gespecialiseerde GPU-systemen. Wanneer CPU-gebaseerde AI beter werkt, wordt de bestaande Europese serverinfrastructuur een concurrentievoordeel. De GPU-investeringen van Amerikaanse cloudproviders worden verzonken kosten.

Voorbij snelheid: het volledige plaatje

Snelheid is slechts een deel van het verhaal. Binaire netwerken op CPU's leveren:

Energie-efficiëntie: 96% reductie in stroomverbruik. Die GPU die 400 watt verbruikt? Vervangen door een CPU-sectie die 20 watt gebruikt.

Kostenbesparingen: Standaard servers kosten 70% minder dan GPU-uitgeruste systemen. Geen gespecialiseerde accelerators nodig.

Implementatieflexibiliteit: Draait overal op. Cloudservers, on-premise hardware, edge-apparaten. Als het een moderne CPU heeft, werkt het.

Latentie: Lokale CPU-inferentie betekent milliseconde reactietijden. Geen netwerk-round-trips naar GPU-clusters.

De CPU-comeback gaat niet alleen over sneller zijn. Het gaat over beter zijn in elke dimensie die belangrijk is voor real-world implementatie.

Total Cost of Ownership (TCO): Vijfjarige TCO-vergelijking belicht de werkelijke economie. GPU-gebaseerd inferentiesysteem: €250K hardware, €90K stroom (tegen Europese tarieven), €40K koelinfrastructuur, €25K gespecialiseerd onderhoud. Totaal: €405K. CPU-gebaseerd systeem: €80K hardware (standaard servers), €7K stroom, €0 extra koeling, €8K standaard onderhoud. Totaal: €95K. 77% kostenreductie. Dezelfde prestaties. Betere compliance. Dat is geen marginale verbetering – dat is bedrijfstransformatie.

Operationele Eenvoud: GPU-implementaties vereisen gespecialiseerde expertise. CUDA-programmering, GPU-geheugenbeheer, kerneloptimalisatie, thermische monitoring. Tekort aan vaardigheden drijft salarispremies op. CPU-implementaties gebruiken standaard software-engineering. C++, Python, normale serveradministratie. Talentpool is de hele software-industrie, niet alleen AI-specialisten. Gemakkelijker aannemen, snellere onboarding, lagere salarissen. Operationele kosten dalen verder dan hardwarebesparingen.

Regelgevende Naleving: EU AI Act, GDPR, sectorspecifieke regelgeving – allemaal gemakkelijker met CPU-gebaseerde binaire netwerken. Deterministische uitvoering maakt auditbaarheid mogelijk. Verklaarbare redenering voldoet aan transparantievereisten. Formele verificatie bewijst veiligheidseigenschappen. GPU-gebaseerde systemen worstelen met deze vereisten. Binaire netwerken op CPU's: compliance ingebouwd, niet achteraf toegevoegd. Regelgevend voordeel versterkt technisch voordeel.

Leveranciersflexibiliteit: GPU betekent NVIDIA lock-in. Binaire CPU's werken op Intel, AMD, ARM-implementaties. Multi-source inkoop. Concurrerende prijzen. Geen afhankelijkheid van één leverancier. Europese bedrijven waarderen dit in het bijzonder – gediversifieerde toeleveringsketens, verminderd geopolitiek risico, onderhandelingsmacht. Amerikaanse bedrijven zitten vast aan de prijsmacht van NVIDIA. Europese bedrijven schakelen tussen Intel, AMD, zelfs ARM-serverchips. Marktpositie omgekeerd.

Intel is nooit weggegaan

Hier is de ironie: terwijl iedereen NVIDIA GPU's najoeg, bleef Intel de CPU-mogelijkheden verbeteren. AVX-512, Cascade Lake, Ice Lake, Sapphire Rapids. Elke generatie voegde instructies toe die perfect waren voor binaire operaties.

Ze richtten zich niet specifiek op AI. Ze verbeterden algemene rekenkracht. Maar binaire neurale netwerken zijn algemene rekenkracht. Ze maken direct gebruik van al die verbeteringen.

De infrastructuur die iedereen al bezit, wordt plotseling AI-capabel. Geen nieuwe hardware-aankopen. Geen architecturale veranderingen. Gewoon betere algoritmes die bestaande mogelijkheden gebruiken.

AMD's Stille Overwinning: AMD EPYC-processors blinken ook uit in binaire AI. Zen 4-architectuur ondersteunt AVX-512, uitstekende cache-hiërarchie, efficiënte branch prediction. Binaire netwerken draaien prachtig op EPYC. AMD's marktaandeel in servers: 35% en groeiend. Dat is 35% van 's werelds datacenters die al geoptimaliseerd zijn voor binaire AI. AMD perfect gepositioneerd zonder expliciet op AI te richten. Algemene uitmuntendheid wordt AI-voordeel.

ARM's Opkomende Rol: Graviton-processors (Amazon's ARM-chips) demonstreren binaire netwerkmogelijkheden. Efficiënte bitmanipulatie, uitstekende stroomkenmerken, massale implementatie bij AWS. ARM-architectuur schaalt van smartphones naar servers. Binaire AI werkt over dat bereik. Apple's M-serie chips: ARM-gebaseerd, ongelooflijk efficiënt, perfect voor binaire operaties. ARM's efficiëntievoordeel versterkt met de efficiëntie van binaire netwerken. Mobiel-naar-cloud continuüm wordt mogelijk.

RISC-V's Open Toekomst: Open-source RISC-V instructieset maakt aangepaste optimalisaties mogelijk. Europese halfgeleiderbedrijven (Bosch, Infineon, NXP) investeren in RISC-V voor automotive en industrieel. Voeg binaire AI-optimalisaties toe aan aangepaste RISC-V-cores. Geen licentiekosten, volledige controle, perfecte optimalisatie voor specifieke gebruiksscenario's. Open hardware plus binaire AI maakt Europese halfgeleideronafhankelijkheid mogelijk. Strategische implicaties zijn diepgaand.

De implementatietransformatie

GPU-gebaseerde AI betekent gespecialiseerde infrastructuur. Datacenters met krachtige koeling. Specifieke serverconfiguraties. Vendor lock-in. Complexiteit.

CPU-gebaseerde AI betekent overal implementeren. Dat standaard serverrack? Perfect. Die bestaande databaseservers? Die kunnen nu AI draaien. Edge-locaties met basisrekenkracht? Volledig capabel.

Europese bedrijven met bestaande infrastructuur hoeven niet opnieuw te bouwen. Ze optimaliseren wat ze hebben. Het GPU-voordeel van Amerikaanse cloudproviders verdampt wanneer CPU's beter werken.

Het milieuvoordeel (Europa's geheime wapen)

Energiekosten zijn belangrijker in Europa dan in Amerika. Europese elektriciteit: €0,20-0,30 per kWh. Amerikaanse elektriciteit: €0,10-0,15 per kWh. Wanneer uw stroom 2-3× meer kost, is efficiëntie geen optie – het is overleven.

GPU-gebaseerde AI-inferentie voor middelgrote implementatie: 50kW continu verbruik. Europese kosten: €87.600-131.400 jaarlijks. Amerikaanse kosten: €43.800-65.700. Die jaarlijkse delta van €70K financiert veel Europees AI-onderzoek. De motivatie voor efficiëntie is letterlijk ingebouwd in de elektriciteitsrekeningen.

Binaire netwerken op CPU's: 2-4kW voor equivalente workload. Europese kosten: €3.504-5.256 jaarlijks. Besparingen: €84K-126K per jaar. Amerikaanse bedrijven zien efficiëntie als een nice-to-have. Europese bedrijven zien het als een concurrentienoodzaak. Verschillende economische contexten leiden tot verschillende innovaties.

Milieuvoorschriften zijn ook strenger in Europa. De EU-taxonomie voor duurzame activiteiten vereist rapportage over energieverbruik. Grote AI-implementaties leiden tot duurzaamheidsaudits. GPU-clusters die megawatts verbruiken, roepen regelgevende vragen op. CPU-gebaseerde inferentie die kilowatts verbruikt, blijft onder de radar. Regelgevende naleving wordt een architecturale drijfveer.

Duitse mandaten voor hernieuwbare energie creëren interessante dynamiek. Zonne- en windenergie zijn intermitterend. Datacenters moeten opereren binnen de beschikbare hernieuwbare capaciteit. GPU-clusters hebben constant veel stroom nodig – moeilijk te matchen met intermitterende hernieuwbare energie. CPU-gebaseerde AI kan workloads schalen met beschikbare stroom. Flexibiliteit van de belasting maakt integratie van hernieuwbare energie mogelijk. Milieubeperking drijft technische innovatie. Zeer Europese probleemoplossende benadering.

De verschuiving in halfgeleiders (Intels toevallige overwinning)

Terwijl iedereen zich richtte op de dominantie van NVIDIA's GPU, positioneerden de CPU-verbeteringen van Intel hen perfect voor binaire AI. Onbedoeld maar doorslaggevend.

AVX-512 was niet ontworpen voor AI. Het richtte zich op high-performance computing, wetenschappelijke simulatie, financiële modellering. Maar die 512-bit vectoroperaties? Perfect voor binaire neurale netwerken. POPCNT-instructie? Toegevoegd voor database-optimalisatie. Perfect voor binaire activaties. Ice Lake's verbeterde branch predictor? Gericht op algemene prestaties. Perfect voor binaire drempels.

Intel verbeterde CPU's voor traditionele workloads. Binaire AI-onderzoekers merkten op dat die verbeteringen aansloten bij hun behoeften. Nu leveren Intel-processors betere AI-inferentie dan gespecialiseerde AI-accelerators. Toevallige architecturale match creëert marktkansen.

NVIDIA's marktkapitalisatie gebouwd op AI. Intel's herstel zou dat ook kunnen zijn. AMD's EPYC-processors blinken ook uit in binaire operaties – AVX-512 equivalent, uitstekende cache-hiërarchie, sterke branch prediction. Binaire AI profiteert van het hele x86-ecosysteem. Amerikaanse halfgeleiderbedrijven winnen door goed te zijn in traditionele computing. GPU's te vroeg gespecialiseerd voor een smalle AI-gebruikssituatie. CPU's bleven flexibel, werden optimaal voor bredere AI-benaderingen.

De marktomkering (wat er nu gebeurt)

De dynamiek van de GPU-markt verschuift. Training heeft nog steeds GPU's nodig – daarover geen discussie. Maar de inferentiemarkt is 10-100× groter dan de trainingsmarkt. De meeste AI-workloads zijn inferentie. Binaire netwerken op CPU's veroveren die markt.

Cloudproviders staan voor interessante beslissingen. AWS, Azure, Google Cloud investeerden miljarden in GPU-infrastructuur. Afschrijvingsschema's gaan uit van 3-5 jaar gebruik. Binaire AI maakt GPU-inferentie in het eerste jaar al verouderd. Ofwel miljarden aan GPU-investeringen afschrijven, ofwel premiumprijzen vragen voor inferieure prestaties. Geen van beide opties is aantrekkelijk.

Europese cloudproviders profiteren. OVH, Hetzner, Scaleway – zij draaien standaard CPU-infrastructuur. Geen verzonken GPU-kosten. Binaire AI maakt hun bestaande infrastructuur concurrerend voor AI-workloads. Prijsvoordeel versterkt prestatievoordeel. De GPU-investeringen van Amerikaanse hyperscalers worden verplichtingen. De CPU-focus van Europese providers wordt een voordeel. De marktdynamiek keert om.

Edge-implementatie wordt ontgrendeld. Tesla kan geen GPU in elk voertuig plaatsen – stroom, kosten, warmte, ruimtebeperkingen. Maar elke auto heeft al krachtige CPU's voor motormanagement, navigatie, entertainment. Binaire neurale netwerken veranderen bestaande automotive CPU's in AI-accelerators. Geen extra hardware. Gewoon een software-upgrade. Edge AI wordt haalbaar omdat CPU's er al zijn.

Smartphones ook. Qualcomm Snapdragon-processors hebben uitstekende bitmanipulatieprestaties. Binaire netwerken draaien sneller op telefoon-CPU's dan op dedicated AI-accelerators. Apple's A-serie chips, Samsung Exynos – allemaal geoptimaliseerd voor algemene rekenkracht, allemaal perfect voor binaire AI. Mobiele AI zonder gespecialiseerde neurale engines. CPU-prestaties maken dedicated accelerators overbodig.

Het Europese voordeel kristalliseert

Alles wat hierboven is genoemd, bevoordeelt Europese AI-bedrijven. Bestaande infrastructuur werkt beter. Energiekosten stimuleren efficiëntie-innovaties. Regelgevende naleving maakt formele verificatie mogelijk. CPU-geoptimaliseerde benaderingen ontstaan uit resourcebeperkingen. Het Brusselse Effect globaliseert Europese standaarden.

Amerikaanse AI-bedrijven gebouwd voor een andere wereld. Overvloedig kapitaal, goedkope energie, lakse regelgeving, GPU-beschikbaarheid. Die voordelen verdampen. Kapitaalvereisten dalen (geen GPU nodig). Energie-efficiëntie is belangrijk (Europese prijzen verspreiden zich wereldwijd). Regelgeving wordt strenger (EU AI Act wordt wereldwijde standaard). GPU-schaarste irrelevant (CPU's werken beter).

Europese AI-bedrijven gebouwd voor een beperkte wereld. Beperkt kapitaal (gedwongen algoritmische efficiëntie). Dure energie (binaire netwerken gebruiken 96% minder stroom). Strikte regelgeving (formele verificatie ingebouwd). CPU-beschikbaarheid (standaard hardware optimaal). Beperkingen die nadelig leken, zijn nu concurrentievoordelen. Marktcondities verschuiven wereldwijd naar de Europese aanpak.

Volgend decennium: Europese AI-bedrijven exporteren niet alleen naar Europa, maar wereldwijd. Amerikaanse bedrijven licentiëren Europese technologie. Aziatische markten nemen Europese standaarden over. CPU-gebaseerde binaire AI wordt de dominante architectuur. NVIDIA blijft relevant voor training. Intel/AMD domineren inferentie. Herverdeling van marktkapitalisatie weerspiegelt architecturale verschuiving. Europese AI haalt niet langer in – Europese AI bepaalt het tempo.

Wat dit betekent voor AI

De CPU-comeback verandert de AI-economie fundamenteel. Geen keuze meer tussen prestaties en kosten. Geen GPU-schaarste meer die de implementatie beperkt. Geen afhankelijkheid meer van leveranciers.

Dweve Core draait op CPU's. Meer dan 1.000 geoptimaliseerde algoritmes die volledig profiteren van de moderne Intel-architectuur. Loom 456 met zijn expert-gebaseerde redenering die wordt uitgevoerd met snelheden die GPU-implementatie overbodig maken.

Dit is AI-democratisering door betere wiskunde. Niet iedereen kan GPU-clusters betalen. Iedereen heeft CPU's.

De CPU-revolutie komt eraan. Dweve's binaire neurale netwerken zullen GPU-verslaande prestaties leveren op standaard hardware. Meld u aan voor onze wachtlijst om als eerste aan de beurt te zijn wanneer we lanceren.

Tags

#CPU Prestaties#Binaire Netwerken#Hardware Efficiëntie#GPU Alternatief

Over de auteur

Marc Filipan

CTO & Co-Founder

Bouwt aan de toekomst van AI met binaire netwerken en constraint reasoning. Richt zich op efficiënte, transparante en toegankelijke AI.

Ontvang Dweve-updates

Schrijf je in voor nieuws rond binary intelligence en releases

✓ Geen spam ✓ Altijd uitschrijven mogelijk ✓ Nuttige content ✓ Eerlijke updates