The Digital Energy Crisis: AI's 945 TWh Reckoning
AI data centres will consume 3% of global electricity by 2030. Dublin uses 42% of its power for AI training. Binary networks offer 96% energy reduction. The math is brutal.
De Industriële Sauna Die We Vooruitgang Noemen
Loop een modern AI-datacenter in Frankfurt of Dublin binnen, en je eerste gedachte is niet "Dit is de toekomst." Het is "Waarom is het hier zo bloedheet?" De hitte overvalt je als het openen van een oven, golven van thermische energie rollen van serverracks die meer lijken op industriële ovens dan op computers. Het koelsysteem schreeuwt, ventilatoren op volle toeren, gekoeld water raast door kilometers leidingen, alleen maar om te voorkomen dat deze machines letterlijk smelten.
Elke AI-acceleratorchip verbruikt 1.200 watt. Ter vergelijking: dat is meer stroom dan de elektrische kachel die het appartement van je Nederlandse grootmoeder in januari warm houdt. En je kijkt naar duizenden van deze chips, verpakt in racks die elk 50, 100, soms 250 kilowatt verbruiken. Eén enkel rack verbruikt evenveel stroom als 100 gemiddelde Europese huishoudens. In een ruimte ter grootte van een kledingkast.
Dit is de digitale energiecrisis die het fatsoenlijke gezelschap niet bespreekt op conferenties. AI verbruikt niet alleen elektriciteit. Het verslindt het met de eetlust van een zwart gat, en we knikken allemaal beleefd alsof dit volkomen redelijk gedrag is voor wiskunde.
De Cijfers Die Je Zouden Moeten Laten Vloeken
Laten we het over schaal hebben, want de cijfers zijn ronduit angstaanjagend. In 2024 verbruikten datacenters wereldwijd ongeveer 415 terawattuur elektriciteit. Dat is 1,5% van het totale wereldwijde elektriciteitsverbruik. Om dat in Europese termen te plaatsen: dat is aanzienlijk meer dan de totale jaarlijkse elektriciteitsvraag van Spanje van 248 TWh. Heel Spanje. Elk huis, elke fabriek, elke trein, elk ziekenhuis. Datacenters gebruiken meer.
Maar hier houdt het op met alleen maar alarmerend zijn en wordt het echt beangstigend: dat cijfer zal naar verwachting meer dan verdubbelen tegen 2030, tot 945 TWh. Dat is 3% van de wereldwijde elektriciteit. Niet 3% van de technologie-elektriciteit. 3% van alles. Meer dan alle elektrische voertuigen, warmtepompen en zonnepanelen samen.
En AI is de belangrijkste drijfveer. Het energieverbruik van AI-datacenters groeit jaarlijks met 44,7%. Om te begrijpen hoe exponentieel dat is, neem Ierland. In 2024 verbruikten datacenters 22% van de totale elektriciteit van Ierland, een stijging van slechts 5% in 2015. Dat is een toename van 531% in negen jaar. EirGrid, de Ierse netbeheerder, schat dat datacenters tegen 2030 30% van de elektriciteit van het land zouden kunnen verbruiken. Bijna een derde van het elektriciteitsnet van een heel land, alleen om modellen te trainen en AI-query's te beantwoorden.
Alleen Dublin vertelt het verhaal. Datacenters verbruikten tussen 33% en 42% van alle elektriciteit in Dublin in 2023. Sommige schattingen liggen zelfs hoger. De Ierse regering legde een moratorium op de bouw van nieuwe datacenters in Dublin op tot 2028, omdat het net letterlijk geen extra belasting aankan. Amsterdam deed hetzelfde in 2019, en hief het pas op na de implementatie van strikte eisen voor de effectiviteit van het stroomverbruik en een limiet van 670 MVA tot 2030. Nederland ging verder en legde een nationaal moratorium op hyperscale datacenters van meer dan 70 megawatt.
Dit is geen geleidelijke groei. Dit is een exponentiële explosie in de energievraag, die nu plaatsvindt, elk kwartaal versnelt en rechtstreeks botst op fysieke infrastructuurlimieten.
De Trainings-Koolstofbom
Het trainen van één groot taalmodel produceert een koolstofvoetafdruk waar een olieraffinaderij van zou blozen. En in tegenstelling tot raffinaderijen, die tenminste iets tastbaars produceren dat je in een auto kunt gieten, produceren deze emissies... nou ja, een model dat vol vertrouwen kan hallucineren over champignonrecepten.
GPT-3, het model dat de huidige AI-boom ontketende, stootte 552 metrische ton CO2 uit tijdens de training. Dat staat gelijk aan 123 benzineauto's die een jaar lang rijden. Voor één model. Eén trainingsrun. En dat is alleen het directe energieverbruik, niet meegerekend de ingebedde koolstof in de productie van de GPU's of de bouw van het datacenter.
Hier is het echt gekke deel: GPT-3 wordt naar de huidige maatstaven als klein beschouwd. Moderne modellen zijn ordes van grootte groter. Het trainen van een model met 100 biljoen parameters verbruikt ongeveer €9 miljoen aan GPU-rekentijd. Tegen Europese energieprijzen en koolstofintensiteit is dat duizenden tonnen CO2-equivalent. Per model. En succesvolle implementatie vereist meestal tientallen of honderden trainingsruns, omdat de eerste zeventien pogingen een model opleverden dat dacht dat België een soort kaas was.
De onderzoekspapers roemen de indrukwekkende prestatiestatistieken. De koolstofvoetafdruk? Die wordt begraven in een voetnoot, als deze al wordt genoemd. Het is het AI-equivalent van opscheppen over de acceleratie van je nieuwe auto, terwijl je zorgvuldig niet vermeldt dat deze 2 kilometer per liter rijdt.
Het Inferentie-Multiplicatie-Effect
Dit is wat de meeste mensen missen, en het is het deel dat er echt toe doet: training is een eenmalige kostenpost. Inferentie, het gebruik van het model om vragen te beantwoorden, draait continu. Voor altijd. Op een schaal die trainingsemissies klein doet lijken.
Elke ChatGPT-query verbruikt elektriciteit. Elke AI-beeldgeneratie verbruikt watts. Elke aanbeveling, elke vertaling, elke reactie van een stemassistent. Miljoenen verzoeken per seconde, 24 uur per dag, 365 dagen per jaar. En in tegenstelling tot training, die in geconcentreerde uitbarstingen plaatsvindt, is inferentie verspreid over duizenden datacenters wereldwijd, waardoor het bijna onmogelijk te volgen is.
Onderzoek toont aan dat inferentie-emissies vaak de trainingsemissies met ordes van grootte overtreffen, vooral voor veelgebruikte modellen. De training kost misschien 500 ton CO2. De inferentie gedurende de levensduur van het model? Potentieel 50.000 ton. Misschien meer. Niemand telt, en dat is precies het probleem.
Techbedrijven rapporteren trainingsemissies wanneer wettelijk vereist door EU-regelgeving. Inferentie-emissies? Dat is "operationele overhead", handig begraven in algemene datacenterstatistieken naast e-mailservers en kattenvideo's. De EU AI Act vereist openbaarmaking van energieverbruik voor algemene AI-modellen, maar de handhaving is gebrekkig en vrijwillige openbaarmaking blijft precies dat: vrijwillig.
De Vermogensdichtheidscrisis Die De Fysica Breekt
Traditionele datacenters draaiden vroeger op ongeveer 36 kilowatt per rack. Beheersbaar. Conventionele luchtkoeling werkte prima. Je kon ze overal bouwen met goede netwerkconnectiviteit en redelijke elektriciteitsprijzen. De infrastructuur was eenvoudig.
Toen gebeurde AI, en de fysica werd boos.
De huidige AI-racks halen 50 kilowatt. Geavanceerde implementaties bereiken 100 kilowatt. Sommige experimentele configuraties duwen 250 kilowatt per rack. Dat is het stroomverbruik van 100 gemiddelde Europese huishoudens, geconcentreerd in een paar vierkante meter serverrack. De vermogensdichtheid nadert die van een raketmotor.
Het probleem is niet alleen het totale vermogen. Het is de dichtheid. Pak zoveel energie in zo'n kleine ruimte, en de fysica wordt je vijand. De warmte moet ergens heen, en luchtkoeling kan het fysiek niet aan. De thermische belasting is te hoog. Je hebt vloeistofkoeling nodig. Direct-naar-chipkoeling. Immersion cooling. Complexe thermische beheersystemen die meer kosten dan de servers zelf en hun eigen engineeringteams vereisen om te bedienen.
Datacenters worden niet opnieuw ontworpen voor rekenefficiëntie, maar alleen om thermische meltdown te voorkomen. We bouwen infrastructuur om afvalwarmte van wiskundige bewerkingen te verwerken die, fundamenteel, in de eerste plaats niet zoveel warmte zouden moeten produceren. Het is alsof je een beter uitlaatsysteem ontwerpt voor een auto die in brand staat, in plaats van je af te vragen waarom de auto in brand staat.
De Chip Die Het Net Verslond
Laten we even inzoomen op de hardware, want het individuele chip-stroomverbruik vertelt zijn eigen verhaal van escalerende waanzin.
Vroege AI-accelerators verbruikten ongeveer 400 watt. Al hoog, maar beheersbaar met conventionele koeling. Toen 700 watt. Toen 1.000 watt. NVIDIA's nieuwste Blackwell-architectuur haalt 1.200 watt per chip, met sommige configuraties die nog hoger gaan. Er zijn al discussies over toekomstige ontwerpen die 1.400 watt bereiken.
Denk daar eens over na. 1.200 watt. Per chip. Eén enkele chip verbruikt meer stroom dan de meeste huishoudelijke apparaten. En het trainen van een groot model vereist duizenden van deze chips die weken of maanden continu draaien.
De wiskunde is brutaal: 1.000 chips × 1.200 watt = 1,2 megawatt. Voor één trainingscluster. Dat één model draait. En er zijn honderden van deze clusters wereldwijd, met elk kwartaal meer die online komen. De FLAP-D-markten (Frankfurt, Londen, Amsterdam, Parijs, Dublin) alleen al zijn goed voor meer dan 60% van de Europese datacenter capaciteit, met een verwachte stroomvraag die zal groeien van 96 TWh in 2024 naar 168 TWh in 2030.
Dit is niet duurzaam. Het is zelfs verre van duurzaam. We verbruiken elektriciteit in een tempo dat tien jaar geleden fictief zou hebben geleken, en de discussie in de industrie draait om de vraag of het elektriciteitsnet het kan bijhouden, niet of we dit überhaupt zouden moeten doen.
Europa's Groene Nachtmerrie en de Onmogelijke Keuze
Voor Europa creëert dit een onmogelijk conflict dat niet langer theoretisch is. Het gebeurt nu, in netwerkplanningsvergaderingen en regelgevende hoorzittingen over het hele continent.
De Europese Green Deal streeft ernaar Europa klimaatneutraal te maken tegen 2050. De koolstofemissies moeten tegen 2030 met ten minste 55% dalen ten opzichte van het niveau van 1990. De energie-efficiëntie moet in alle sectoren verbeteren. Hernieuwbare energie moet fossiele brandstoffen vervangen. Dit zijn wettelijk bindende doelstellingen onder de Europese Klimaatwet.
Ondertussen explodeert het AI-energieverbruik jaarlijks met 44%. In 2024 verbruikten Europese datacenters 96 TWh, wat neerkomt op 3,1% van de totale stroomvraag. Maar de distributie is enorm ongelijk. In Ierland is het 22% van de nationale elektriciteit. In Nederland 7%. In Duitsland 4%. Datacenters in Amsterdam, Londen en Frankfurt verbruikten in 2023 33% tot 42% van de elektriciteit van die steden.
De twee trajecten zijn wiskundig onverenigbaar. Europa kan zijn klimaatdoelstellingen halen, of het kan AI-infrastructuur bouwen met de huidige benaderingen. Niet beide. De cijfers kloppen niet.
Sommigen beweren dat hernieuwbare energie dit oplost. "Voorzie datacenters gewoon van zonne- en windenergie." Mooi idee. Volledig onpraktisch. Europa installeerde in 2024 65,5 GW aan nieuwe zonnecapaciteit en 16,4 GW aan nieuwe windenergie. Hernieuwbare energie bereikte 47% van de elektriciteitsopwekking. Maar 945 TWh aan nieuwe datacenter vraag tegen 2030 zou de bouw van hernieuwbare capaciteit vereisen die gelijk is aan duizenden extra windparken en miljoenen extra zonnepanelen. Het landgebruik alleen al zou astronomisch zijn. Denemarken, met 88,4% hernieuwbare elektriciteit (voornamelijk wind), wordt vaak genoemd als model. Maar het totale elektriciteitsverbruik van Denemarken is slechts een fractie van de geprojecteerde AI-datacenter vraag.
Zelfs als het technisch mogelijk is, zijn de opportuniteitskosten duizelingwekkend. Elke megawattuur die naar AI-training gaat, is een megawattuur die niet beschikbaar is om transport te elektrificeren, huizen te verwarmen of de industrie van stroom te voorzien. Het is een directe afweging, en we kiezen ervoor om hernieuwbare energie te verbranden voor het trainen van modellen die over zes maanden verouderd kunnen zijn, boven het verwarmen van huizen in de winter.
De Watercrisis Die Niemand Volgt
Energie is niet de enige hulpbron die AI verbruikt. Water wordt een kritieke crisis, vooral in regio's die al te maken hebben met waterschaarste.
Datacenters gebruiken enorme hoeveelheden water voor verdampingskoeling, waar de meeste grote faciliteiten op vertrouwen omdat het efficiënter is dan gesloten systemen. Verdampingskoeling verdampt letterlijk water om warmte af te voeren. Het water is weg. Niet gerecycled terug in het systeem. Verdampt in de atmosfeer. Permanent verwijderd uit lokale watervoorraden.
Een studie uit 2024 wees uit dat het trainen van GPT-3 in Microsoft's state-of-the-art Amerikaanse datacenters ongeveer 700.000 liter zoet water verbruikte. Dat is genoeg om 370 BMW-auto's of 320 Tesla elektrische voertuigen te produceren. Voor één trainingsrun. Van één model. En dat is alleen het directe waterverbruik ter plaatse, niet meegerekend het water dat wordt gebruikt bij de elektriciteitsopwekking.
De volledige levenscyclus water voetafdruk, inclusief off-site elektriciteitsopwekking, bereikt 5,4 miljoen liter. En het voortdurende gebruik gaat door: ChatGPT vereist ongeveer 500 milliliter water voor een kort gesprek van 20 tot 50 vragen en antwoorden. Vermenigvuldig dat met miljoenen gebruikers die continu vragen stellen, en het waterverbruik wordt duizelingwekkend.
In droogtegevoelige regio's creëert dit directe conflicten. Datacenters concurreren met landbouw en gemeentelijke watervoorzieningen. In sommige regio's onttrekt AI-training letterlijk water aan gewassen tijdens droogtes. Dit is geen toekomstig probleem. Het gebeurt nu. En naarmate AI-implementaties toenemen, wordt het erger.
De Efficiëntie-illusie en Jevons' Paradox
De AI-industrie praat absoluut graag over efficiëntieverbeteringen. Elke keynote op een conferentie bevat een dia: "Nieuwe chips zijn 10× efficiënter!" "Betere algoritmen verminderen het energieverbruik met 50%!" "Onze datacenters worden aangedreven door 100% hernieuwbare energie!"
Allemaal waar. Allemaal technisch indrukwekkend. Allemaal volkomen irrelevant voor het eigenlijke probleem.
Want efficiëntieverbeteringen worden onmiddellijk opgeslokt door schaalvergrotingen. Dit is Jevons' paradox in actie, en economen waarschuwen er al voor sinds 1865, toen William Stanley Jevons opmerkte dat verbeterde kolenefficiëntie in stoommachines leidde tot een toename van het totale kolenverbruik, niet tot een afname.
Microsoft CEO Satya Nadella tweette letterlijk "Jevons' paradox slaat weer toe!" toen DeepSeek hun efficiënte, goedkope AI-model uitbracht. Hij begreep precies wat er zou gebeuren: lagere kosten betekenen meer gebruik, wat leidt tot een hoger totaalverbruik. En hij had gelijk.
Ja, nieuwere chips doen meer berekeningen per watt. Maar modellen worden nog sneller groter. Ja, betere algoritmen verkorten de trainingstijd. Maar we trainen meer modellen, vaker, met meer parameters, omdat we het ons nu kunnen veroorloven. Het totale energieverbruik neemt niet af. Het versnelt. De 10× efficiëntieverbetering betekent alleen dat we een 10× groter model kunnen trainen voor dezelfde energiekosten. Dus dat doen we. En het totale verbruik stijgt.
NVIDIA beweert dat Blackwell 100.000× energiezuiniger is voor inferentie dan chips van tien jaar geleden. Spectaculaire engineering. Maar het totale AI-energieverbruik is in diezelfde periode geëxplodeerd, omdat efficiëntieverbeteringen implementatie op schalen mogelijk maakten die voorheen economisch onmogelijk waren.
De Werkelijke Kosten van Zwevende-Punt Fantasieën
Waarom verbruikt AI zoveel energie? Het antwoord ligt in de wiskunde, en het is eenvoudiger dan je misschien denkt.
Zwevende-punt rekenkunde, de basis van moderne neurale netwerken, is computationeel duur. Elke vermenigvuldiging vereist aanzienlijke schakelingen, aanzienlijk siliciumoppervlak, aanzienlijk vermogen. En neurale netwerken zijn miljarden en miljarden zwevende-punt operaties, miljoenen keren per seconde herhaald.
Erger nog, we gebruiken extreme precisie waar het echt niet nodig is. 32-bit floats. 16-bit floats. Zelfs 8-bit floats. Al deze precisie, al deze computationele overhead, al deze energie, om beslissingen te nemen die uiteindelijk binair zijn. Ja of nee. Kat of hond. Spam of ham. Goedkeuren of afwijzen.
Het is alsof je een supercomputer gebruikt om een munt op te gooien. Het resultaat is kop of munt, maar we verbranden megawatts om waarschijnlijkheden tot zestien decimalen te berekenen. De precisie is wiskundig mooi. Het is ook thermodynamisch krankzinnig.
Dit is geen optimalisatie. Dit is verspilling die zich voordoet als noodzaak, verdedigd door de inertie van "maar zo hebben we het altijd gedaan" en de verzonken kosten van miljarden euro's geïnvesteerd in GPU-infrastructuur die specifiek is ontworpen voor zwevende-punt operaties.
Het Binaire Alternatief Dat Werkelijk Werkt
Dus wat is de oplossing? Hoe bouwen we AI zonder datacenters in klimaatrampen te veranderen?
Bij Dweve zijn we begonnen met het in twijfel trekken van de fundamentele aanname. Heeft AI echt zwevende-punt rekenkunde nodig? Heeft het echt zoveel energie nodig? Is er een andere wiskundige basis die dezelfde intelligentie bereikt met dramatisch minder computationele overhead?
Binaire neurale netwerken bieden een duidelijk, empirisch getest antwoord: nee, AI heeft geen zwevende-punt rekenkunde nodig. Lang niet.
Door zwevende-punt operaties volledig te elimineren en eenvoudige binaire logica te gebruiken, daalt het energieverbruik met 96%. Niet door marginale optimalisaties of slimme caching. Door fundamenteel wiskundig herontwerp. De computationele besparingen komen voort uit het vervangen van complexe zwevende-punt multiply-accumulate operaties door eenvoudige binaire AND- en XNOR-operaties die ordes van grootte minder energie vereisen.
Die 1.200-watt Blackwell-accelerator? Vervang hem door een 50-watt CPU die binaire operaties uitvoert. Dezelfde intelligentie. Dezelfde mogelijkheden. 24× minder stroom. Of beter nog, implementeer op FPGA's die specifiek zijn geoptimaliseerd voor binaire operaties, waardoor een 136× betere energie-efficiëntie wordt bereikt dan traditionele GPU-benaderingen.
Dat 250-kilowatt serverrack dat evenveel stroom verbruikt als een wijk? Teruggebracht tot het stroomverbruik van een groot kantoorgebouw. De infrastructuurvereisten storten proportioneel in. Geen exotische vloeistofkoeling. Geen speciale stroomonderstations. Geen netwerkupgrades.
De wiskunde is eenvoudig: binaire operaties gebruiken ordes van grootte minder energie dan zwevende-punt. De infrastructuurefficiëntie volgt natuurlijk. De klimaatimpact daalt proportioneel. En de resultaten? Gelijkwaardige of betere nauwkeurigheid bij real-world taken, omdat binaire neurale netwerken daadwerkelijk structurele relaties kunnen vastleggen die zwevende-punt netwerken missen.
Voorbij Efficiëntie: Een Ander Paradigma voor Europese AI
Binaire neurale netwerken zijn niet alleen efficiënter. Ze vertegenwoordigen een fundamenteel andere benadering van intelligentie die van nature aansluit bij Europese waarden van duurzaamheid, transparantie en technologische soevereiniteit.
In plaats van beslissingen te benaderen met continue wiskunde en massale berekeningen, gebruiken ze direct discrete logica. In plaats van energie te verbranden om numerieke instabiliteit in gradient descent te overwinnen, bouwen ze voort op stabiele binaire fundamenten. In plaats van dure eigen GPU's die overzee worden geproduceerd te vereisen, draaien ze efficiënt op standaard CPU's en kunnen ze worden geïmplementeerd op in Europa geproduceerde FPGA's.
Het resultaat is AI die werkt met de fysica in plaats van ertegen te vechten. Berekeningen die geen exotische koelsystemen vereisen. Infrastructuur die geen eigen energiecentrale nodig heeft. En cruciaal voor Europa, een technologische benadering die je niet opsluit in afhankelijkheid van NVIDIA, gevestigd in Californië, of andere niet-Europese hardwareleveranciers.
Bedrijven zoals het Duitse Black Forest Labs, het Franse Mistral AI en het Duitse Aleph Alpha bouwen indrukwekkende AI-mogelijkheden, maar ze zijn nog steeds fundamenteel afhankelijk van traditionele zwevende-punt architecturen en de GPU-toeleveringsketen. Binaire neurale netwerken bieden een pad naar echte Europese AI-soevereiniteit, draaiend op hardware die in Europa kan worden geproduceerd met processen die aansluiten bij de Europese klimaatdoelstellingen.
Dit is hoe Europa beide kan hebben: AI-vooruitgang en klimaatdoelstellingen. Niet door de huidige aanpak iets groener te maken door de aankoop van hernieuwbare energie en koolstofcompensaties, maar door wiskunde te gebruiken die in de eerste plaats geen energieverbruik op planetaire schaal vereist. De Europese AI Act erkent dit al, door openbaarmaking van energieverbruik te eisen en vrijwillige gedragscodes voor milieuduurzaamheid aan te moedigen. Binaire benaderingen zetten die ambitieuze doelen om in gerealiseerde werkelijkheid.
De Keuze Die We Nu Maken
De digitale energiecrisis is niet onvermijdelijk. Het is een keuze. Een keuze die we nu maken, bij elke GPU-bestelling, bij elk datacenterbouwcontract, bij elke modeltraining.
Het is een keuze om zwevende-punt rekenkunde te blijven gebruiken omdat het bekend is, omdat de tools bestaan, omdat het omscholen van een hele industrie moeilijk is. Een keuze om exponentiële energiegroei te accepteren omdat de kwartaalcijfers er goed uitzien en durfkapitalisten enthousiast zijn. Een keuze om meer elektriciteit te verbranden voor het trainen van één model dan een stad in een jaar verbruikt, omdat het kan, en omdat iemand anders de klimaatkosten zal betalen.
Maar we zouden anders kunnen kiezen. Europa bevindt zich eigenlijk in een unieke positie om deze keuze te leiden.
We zouden kunnen kiezen voor wiskunde die 96% van zijn energie niet verspilt aan onnodige precisie. We zouden kunnen kiezen voor algoritmen die efficiënt werken op standaard hardware in plaats van gespecialiseerde accelerators te vereisen. We zouden kunnen kiezen voor architecturen die fysieke en milieugrenzen respecteren in plaats van uit te gaan van oneindige energiebeschikbaarheid. We zouden kunnen kiezen voor benaderingen die aansluiten bij de Europese Green Deal in plaats van deze direct te ondermijnen.
De AI-boom hoeft geen energiecrisis te worden. Binaire neurale netwerken bewijzen dat er een ander pad is. Een pad dat intelligentie levert zonder de klimaatkosten. Een pad dat werkt met beperkingen van hernieuwbare energie in plaats van deze te overweldigen. Een pad dat efficiëntie behandelt als een fundamentele eigenschap, niet als een bijzaak om te vermelden in duurzaamheidsrapporten.
Ierland hoeft niet te kiezen tussen economische ontwikkeling via datacenters en voldoende elektriciteit voor huizen. Amsterdam hoeft geen moratoria op te leggen. Dublin hoeft niet toe te kijken hoe datacenters bijna de helft van de elektriciteit van de stad verbruiken, terwijl bewoners te maken krijgen met stijgende energiekosten.
De Europese Green Deal en AI-vooruitgang zijn niet onverenigbaar. Maar alleen als we bereid zijn fundamentele aannames in twijfel te trekken en AI te bouwen die daadwerkelijk wiskundig, fysiek en economisch zinvol is. Het huidige traject leidt tot 945 TWh tegen 2030, 3% van de wereldwijde elektriciteit, duizenden tonnen CO2 per model, miljoenen liters waterverbruik en een onmogelijke keuze tussen klimaatdoelstellingen en technologische vooruitgang.
Het alternatief bestaat vandaag. Binaire neurale netwerken die draaien op standaard CPU's en efficiënte FPGA's. Berekeningen die 96% minder energie verbruiken. Duurzame AI die niet vereist dat je kiest tussen vooruitgang en de planeet. Transparante algoritmen die Europeanen daadwerkelijk kunnen begrijpen en verifiëren, geen black-box zwevende-punt gewichten die worden gecontroleerd door buitenlandse bedrijven.
De enige vraag is of we het zullen nemen voordat we zoveel energie hebben verbruikt, zoveel water hebben verbruikt en zoveel inefficiënte infrastructuur hebben gebouwd dat we geen keuze meer hebben. Het venster sluit. Maar het is nog open.
Wil je AI die geen eigen energiecentrale nodig heeft? Dweve Core, ons discrete computationele raamwerk dat binaire neurale netwerken, constraint-based systems en spiking computation combineert en Dweve Loom aandrijft, levert 96% lager energieverbruik voor zowel training als inferentie op standaard hardware. Geen eigen accelerators. Geen exotische koeling. Geen compromissen op het gebied van capaciteit. De toekomst van duurzame Europese AI is efficiënt, transparant en vandaag beschikbaar.
Tags
Over de auteur
Marc Filipan
CTO & Co-Founder
Bouwt aan de toekomst van AI met binaire netwerken en constraint reasoning. Richt zich op efficiënte, transparante en toegankelijke AI.