accessibility.skipToMainContent
Terug naar blog
Toekomst

De voorspelling voor 2030: Het einde van de chatbot en de opkomst van de agent

Over 5 jaar 'chat' je niet meer met AI. Het zal onzichtbaar, alomtegenwoordig en autonoom zijn. Dit is onze roadmap voor de komende vijf jaar aan intelligentie.

door Bouwe Henkelman
22 november 2025
26 min lezen
2 weergaven
0

De nieuwigheidsfase is voorbij

Stel je de situatie van vijf jaar geleden voor: iemand typt voor het eerst iets in ChatGPT. Herinner je je dat gevoel nog? Het lichte ongeloof toen er coherente zinnen verschenen. Het zenuwachtige gelach toen het een gedicht over je hond schreef. De existentiële angst toen het kwantumfysica beter uitlegde dan je universiteitsprofessor ooit deed.

Dat moment van verwondering? Het is al aan het verdwijnen. We leven in de "Nieuwigheidsfase" van Kunstmatige Intelligentie, een kort venster gedefinieerd door ontzag en spektakel. We verbazen ons erover dat de computer kan praten. We spenderen uren aan het typen in chatvensters en behandelen de AI als een grappig orakel, een slim stuk speelgoed of (laten we eerlijk zijn) een licht aangeschoten stagiair die af en toe iets briljants produceert.

We hebben er zelfs een nieuwe functietitel voor bedacht: "Prompt Engineer". Denk daar even over na. We betalen mensen salarissen van zes cijfers om de juiste toverspreuken tegen een computer te fluisteren. We behandelen de AI als een mysterieuze entiteit die verleid, gepaaid en zorgvuldig aangespoord moet worden om nuttig werk te doen. Het is alsof je iemand inhuurt om met je magnetron te onderhandelen.

Tegen 2030 zal deze fase archaïsch aandoen. Gênant zelfs. We zullen terugkijken op "prompt engineering" zoals we terugkijken op ponskaarten of MS-DOS command lines. Het was een noodzakelijke, primitieve interface voor een primitieve tijd. De toekomst van AI draait niet om chatten met een computer. Het draait om de computer die volledig verdwijnt.

Hieronder volgen onze voorspellingen voor de komende vijf jaar aan intelligentie. Geen marketingfantasieën of sciencefiction-dagdromen, maar gegronde extrapolaties gebaseerd op de technologische trajecten die we vandaag zien. Sommige zullen sneller gebeuren dan we verwachten. Sommige langzamer. Maar de richting is duidelijk.

De evolutie van AI: Van nieuwigheid naar onzichtbaarheid Hoe kunstmatige intelligentie transformeert van bestemming naar nutsvoorziening NIEUWIGHEIDSFASE 2022 - 2025 • Chat-interfaces domineren • Opkomst van "Prompt engineering" • AI als spektakel en speelgoed • Gecentraliseerde cloudmodellen • Hoge hallucinatiecijfers Interactie: Expliciet Locatie: Cloud UTILITEITSFASE 2025 - 2028 • Agents ondernemen actie • Kleine gespecialiseerde modellen • Edge-implementatie groeit • Verificatietechnologieën • Neuro-symbolische architectuur Interactie: Ondersteund Locatie: Hybride ONZICHTBARE FASE 2028 - 2030+ • AI verdwijnt naar achtergrond • Intentie-anticipatie • Parlement van experts • Cryptografisch vertrouwen • Wrijvingsloze automatisering Interactie: Impliciet Locatie: Overal 2023 2026 2030 Richting: Van conversatie naar capaciteit

Voorspelling 1: De interface verdwijnt

De beste technologie is onzichtbaar. Je hebt geen "gesprek" met je antiblokkeersysteem; het voorkomt gewoon dat je slipt. Je "prompt" je spamfilter niet; het filtert gewoon de spam. Je denkt nooit na over het TCP/IP-protocol dat dit artikel op je scherm tovert. Goede technologie werkt. Geweldige technologie werkt zonder dat je het merkt.

Tegen 2030 zal AI naar de achtergrond verdwijnen. Het wordt het ambient besturingssysteem van de wereld. Het zal geen bestemming zijn (een website zoals ChatGPT) die je bezoekt. Het wordt een nutsvoorziening die overal in doordringt, even onopvallend en essentieel als elektriciteit.

We verschuiven van Expliciete Interactie (een commando typen om resultaat te krijgen) naar Impliciete Intentie (het systeem anticipeert op de behoefte en vervult deze). Bekijk eens hoe dit er in de praktijk uitziet:

Je agenda vandaag: Je leest een e-mailthread. Je denkt "we moeten even overleggen". Je opent je agenda. Je checkt de beschikbaarheid van iedereen (drie verschillende systemen). Je stelt tijden voor. Je wacht op reacties. Je boekt een ruimte. Je verstuurt uitnodigingen. Twintig minuten wrijving voor een vergadering van dertig minuten.

Je agenda in 2030: De AI observeert je e-mailthread. Hij merkt de intentie om te vergaderen op (afgeleid uit context, niet uit trefwoorden). Hij checkt de beschikbaarheid van alle partijen in hun agendasystemen. Hij onderhandelt over de optimale tijd. Hij boekt de ruimte. Hij verstuurt de uitnodigingen. Je ziet een melding: "Vergadering gepland met Sarah en James, donderdag 14:00 uur". Je hebt niets gedaan. De wrijving is verdwenen.

Of neem supply chain management:

Vandaag: Je operationele team monitort dashboards. Een analist merkt op dat er een orkaan ontstaat in de Golf van Mexico. Ze controleren handmatig welke zendingen hierdoor geraakt kunnen worden. Ze escaleren het naar een manager. De manager roept een vergadering bijeen. Ze besluiten de vracht om te leiden. Iemand werkt de voorraadprognose bij in een spreadsheet. Verstreken tijd: 48 uur. Kosten van vertraging: € 200.000.

In 2030: De supply chain AI merkt de orkaan op (hij monitort het weer, geen dashboards). Hij voorspelt met 94% zekerheid welke zendingen vertraging zullen oplopen. Hij leidt de vracht automatisch om naar alternatieve havens. Hij werkt de voorraadprognose bij. Hij informeert de relevante mensen met een samenvatting van één zin: "14 containers omgeleid via Rotterdam vanwege orkaan Maria. ETA ongewijzigd". Verstreken tijd: 3 minuten. Kosten van vertraging: € 0.

Het doel van technologie is wrijving verminderen. Typen is wrijving. Praten is wrijving. Zelfs nadenken over wat je moet typen is wrijving. De ultieme AI neemt de wrijving volledig weg. Jij gebruikt hem niet. Hij gebruikt zichzelf, namens jou, met jouw autoriteit.

Voorspelling 2: Van woorden naar daden (De opkomst van Agents)

De huidige Large Language Models (LLM's) zijn tekstmachines. Ze genereren woorden. Ze zijn ongelooflijk welbespraakt. Ze kunnen gedichten schrijven, natuurkunde uitleggen, documenten samenvatten en doen alsof ze een piraat zijn die blockchain uitlegt. Maar uiteindelijk produceren ze tekst waar jij, de mens, vervolgens iets mee moet doen.

De Large Action Models (LAM's) van morgen zijn actiemachines. Ze zullen acties genereren. Ze gaan dingen doen in de wereld, niet alleen praten over dingen doen.

Een Agent vertelt je niet alleen hoe je een vlucht boekt; hij boekt de vlucht. Hij logt in op de website van de luchtvaartmaatschappij (of gebruikt een API). Hij selecteert de stoel die je voorkeur heeft (raam, nooduitgang, want hij heeft je voorkeuren geleerd van de laatste 47 vluchten). Hij voert je paspoortgegevens in. Hij betaalt met je bedrijfscreditcard. Hij voegt het bonnetje toe aan je onkostendeclaratie met de juiste projectcode. Hij zet de vlucht in je agenda. Hij stelt zelfs een herinnering in om 24 uur voor vertrek in te checken.

Je vroeg om een vlucht. Je kreeg een vlucht. Geen instructies. Geen lijst met opties. Geen behulpzame suggestie. Een echt ticket, gekocht, bevestigd, in de agenda gezet.

Deze verschuiving van informatie ophalen naar taakuitvoering is de grootste economische ontsluiting in de geschiedenis van software. Het transformeert AI van een "Zoekmachine" (die je helpt sneller te werken) naar een "Arbeidskracht" (die het werk voor je doet). De implicaties zijn duizelingwekkend.

Volgens onderzoek van McKinsey besteden kenniswerkers ongeveer 28% van hun tijd aan e-mail en agendabeheer, 19% aan het zoeken naar informatie en 14% aan administratieve taken. Dat is 61% van de werkdag aan activiteiten die agents volledig zouden kunnen overnemen. Als we zelfs maar de helft van die tijd zouden kunnen terugwinnen voor daadwerkelijk creatief en strategisch werk, zou de wereldwijde productiviteit jaarlijks met biljoenen euro's toenemen.

Deze verschuiving vereist echter een enorme upgrade in betrouwbaarheid. Je kunt een gehallucineerd gedicht tolereren. (Het is misschien zelfs charmant). Je kunt geen gehallucineerde bankoverschrijving tolereren. Je kunt geen Agent tolereren die per ongeluk je productiedatabase verwijdert omdat hij "dacht" dat je dat wilde. Je kunt geen Agent accepteren die een vlucht voor je boekt naar Sydney, Australië, terwijl je Sydney, Nova Scotia bedoelde.

Deze betrouwbaarheidskloof is waarom de toekomst toebehoort aan Neuro-symbolische architecturen (zoals wat wij bij Dweve bouwen) die correctheid kunnen garanderen, in plaats van puur probabilistische modellen die er alleen maar naar kunnen gissen. Wanneer een Agent je financiën beheert, is "95% nauwkeurig" geen feature. Het is een rechtszaak die staat te gebeuren.

Voorspelling 3: De revolutie van kleine modellen

De afgelopen vijf jaar was het mantra in de industrie: "Scale is All You Need". Grotere modellen, meer data, meer GPU's. We raceten van miljoenen naar miljarden naar biljoenen parameters. GPT-3 had 175 miljard parameters. GPT-4 heeft er (naar verluidt) meer dan een biljoen. Elke generatie vereiste exponentieel meer rekenkracht, meer energie en meer kapitaal. We bouwden datacenters ter grootte van kathedralen om ze te huisvesten.

De jaren 2030 zullen een fundamentele ommekeer markeren. We betreden het tijdperk van Kleine, Gespecialiseerde Experts.

Waarom? Omdat de meeropbrengsten van schaalvergroting afnemen. Het verhogen van parameters van 100 miljard naar 1 biljoen verbetert de benchmarkscores met misschien 5-10%. Maar het verhoogt de trainingskosten van € 10 miljoen naar € 100 miljoen. Het verhoogt de inferentiekosten met een factor 10. Het verhoogt het energieverbruik tot het punt waarop één trainingsrun meer koolstof uitstoot dan 500 auto's in een jaar.

Nog belangrijker: we realiseren ons dat een enorm, algemeen inzetbaar model dat alles weet, van Shakespeare tot Python tot de Franse keuken tot kwantummechanica, inherent inefficiënt is. Het is alsof je één persoon inhuurt die tegelijkertijd advocaat, chef-kok, monteur en dichter is, en hem vraagt je belastingaangifte te doen. Ja, hij weet misschien wel iets van belastingen. Maar een toegewijde accountant zou sneller, goedkoper en nauwkeuriger zijn.

In plaats van het "God Model" in de cloud, zullen we miljoenen kleine, hypergespecialiseerde modellen hebben:

  • Een expert in Duits contractenrecht (getraind op elke Duitse juridische uitspraak sinds 1949)
  • Een expert in TypeScript-optimalisatie (getraind op miljoenen code reviews)
  • Een expert in het diagnosticeren van Ford-motorproblemen uit 2015 (getraind op elke servicehandleiding en elk reparatierapport)
  • Een expert in de specifieke productdocumentatie van uw bedrijf
  • Een expert in uw persoonlijke communicatiestijl

Deze modellen zullen klein genoeg zijn om lokaal op uw apparaat te draaien (Edge AI). Ze draaien op uw telefoon, uw bril, uw auto, uw koelkast. Ze hebben geen 500-watt GPU nodig; ze draaien op een neurale verwerkingseenheid van 2 watt. Ze communiceren met elkaar in een mesh-netwerk en sturen vragen door naar de juiste expert. Ze zullen snel zijn (geen netwerklatentie), privé (geen data die uw apparaat verlaat) en goedkoop (geen facturering per token).

Het "God Model" in de cloud zal worden vervangen door een "Parlement van Experts" in uw broekzak. Bij Dweve noemen we deze architectuur "Loom": 456 gespecialiseerde expertmodellen die samenwerken, elk klein genoeg om op standaardhardware te draaien, samen capabeler dan welke monolithische kolos dan ook.

God Model vs. Parlement van Experts De architecturale verschuiving van gecentraliseerde naar gedistribueerde intelligentie Het "God Model" (Vandaag) 1 Biljoen+ Parameters Modelgrootte: 1.000+ GB Benodigde hardware: 8x H100 GPU's (€300K) Stroomverbruik: 5.600W continu Latentie: 100-500ms (netwerk) Privacy: Data verzonden naar cloud Kosten per query: € 0,01 - € 0,10 Parlement van Experts (2030) Juridisch Code Medisch Financiën Schrijven 456+ Gespecialiseerde Experts Modelgrootte (elk): 100MB - 2GB Benodigde hardware: Standaard CPU/NPU (€0) Stroomverbruik: 2-10W per apparaat Latentie: 5-20ms (lokaal) Privacy: Data verlaat apparaat nooit Kosten per query: € 0,0001 (elektriciteit) 96% minder energie • 1000x goedkoper • 50x sneller • Volledige privacy

Voorspelling 4: Verificatie wordt koning

Hier is een gedachte-experiment. Het is 2028. De kosten voor het genereren van een artikel van 1.000 woorden zijn gedaald van € 100 (menselijke schrijver) naar € 0,001 (AI-generator). Wat gebeurt er met het internet?

Het wordt overspoeld. Verdronken. Begraven onder een lawine van synthetische ruis. Elke SEO-spammer, elke propagandamachine, elke contentfarm zal miljoenen artikelen per dag produceren. Spam, deepfakes en gehallucineerd "nieuws" zullen 99% van het web uitmaken. De signaal-ruisverhouding zal instorten tot bijna nul.

We zien de eerste tekenen al. Academische onderzoekers hebben ontdekt dat een groeiend percentage van de ingediende wetenschappelijke papers door AI gegenereerde rommel is. Socialmediaplatforms vechten tegen legers van AI-aangedreven bots. Stockfoto's worden vervangen door AI-beelden die af en toe mensen met zeven vingers tonen.

In deze omgeving zal de premie op Waarheid omhoogschieten. We zullen de opkomst van "Waarheidstechnologieën" zien:

Cryptografische watermerken: Onzichtbare handtekeningen ingebed in content die bewijzen wanneer en door wie deze is gemaakt. Als een foto geen geldig watermerk van een geregistreerde camera heeft, wordt aangenomen dat deze door AI is gegenereerd totdat het tegendeel is bewezen.

Herkomsttracering: Blockchain-achtige systemen die de oorsprong en transformatiegeschiedenis van elk stukje data bijhouden. Je zult een afbeelding kunnen traceren tot aan de originele camerasensor die deze heeft vastgelegd, door elke bewerking heen.

Formele verificatie: Wiskundige bewijzen dat AI-output correct is. Niet "waarschijnlijk correct" of "meestal correct", maar bewijsbaar, certificeerbaar, onmiskenbaar correct. Wanneer je AI-agent geld overmaakt, heb je een cryptografisch bewijs dat hij exact het juiste bedrag heeft overgemaakt naar de exacte rekening die jij hebt geautoriseerd.

Webbrowsers worden uitgerust met "Realiteitsblokkers" (zoals advertentieblokkers vandaag) die ongeverifieerde, door AI gegenereerde content uitfilteren. De meest vertrouwde nieuwsbronnen en dataproviders zullen diegenen zijn die hun contentketen cryptografisch kunnen bewijzen.

Vertrouwen verschuift van een merkeigenschap ("De New York Times is betrouwbaar omdat ze een reputatie hebben") naar een cryptografisch bewijs ("Dit artikel is betrouwbaar omdat ik de handtekening van de journalist, de goedkeuring van de redacteur en de verklaring van de factchecker op de blockchain kan verifiëren").

"Don't trust, verify" is al het motto van de cryptowereld. Tegen 2030 zal het het motto zijn van het hele informatietijdperk.

Wat dit betekent voor het bedrijfsleven

Deze vier voorspellingen hebben diepgaande gevolgen voor hoe bedrijven vandaag over hun AI-strategie zouden moeten nadenken:

1. Stop met het bouwen van chatbots, begin met het bouwen van agents. Als je AI-strategie is "voeg een chatbot toe aan onze website", dan bouw je voor 2023. De bedrijven die in 2030 winnen, zijn de bedrijven waarvan de AI daadwerkelijk dingen doet, en niet alleen over dingen praat. Vraag jezelf af: welke taken kunnen we van begin tot eind automatiseren, en niet alleen ondersteunen?

2. Investeer in betrouwbaarheid boven capaciteit. De volgende generatie enterprise-AI zal niet worden beoordeeld op hoe indrukwekkend het klinkt, maar op of het vertrouwd kan worden om kritieke bedrijfsprocessen zonder toezicht uit te voeren. Een iets minder capabele AI die nooit fouten maakt, is oneindig veel waardevoller dan een briljante AI die af en toe catastrofaal hallucineert.

3. Denk edge-first, niet cloud-first. De economie van het draaien van AI aan de edge (op het apparaat, op locatie) zal dramatisch gunstiger worden dan cloud-inferentie. Bedrijven die intelligentie lokaal kunnen implementeren, zullen kostenvoordelen, latentievoordelen en privacyvoordelen hebben die cloud-afhankelijke concurrenten niet kunnen evenaren.

4. Bouw nu vertrouwensinfrastructuur. De bedrijven die vroeg verificatie- en vertrouwenssystemen opzetten, zullen voordelen hebben als pionier wanneer de vloedgolf van synthetische content arriveert. Als jouw data en output cryptografisch geverifieerd zijn terwijl die van concurrenten dat niet zijn, word je standaard de vertrouwde bron.

De visie van Dweve

We bouwen Dweve niet voor de AI-markt van 2024. We zijn niet geïnteresseerd in het bouwen van een iets betere chatbot om te concurreren met OpenAI op benchmarkscores. We jagen niet op de trofee voor het "grootste model". We bouwen voor 2030.

Daarom richten we ons op Agents (niet alleen chat). Onze architectuur is vanaf de basis ontworpen om veilig en betrouwbaar acties in de wereld te ondernemen, niet alleen om tekst te genereren die aannemelijk klinkt.

Daarom richten we ons op Kleine Modellen (Binair, Sparse, Edge-implementeerbaar). Onze Loom-architectuur met 456 experts levert betere resultaten dan monolithische modellen tegen 1/50e van de rekenkosten, draaiend op hardware die je al bezit.

Daarom richten we ons op Verificatie (Neuro-symbolisch, Formele Logica, Glass Box-transparantie). Elke beslissing die onze AI neemt kan worden getraceerd, uitgelegd en wiskundig worden geverifieerd. Geen black boxes. Geen "vertrouw ons, het werkt". Bewijs.

We bouwen de onzichtbare, betrouwbare, soevereine infrastructuur van de intelligente toekomst. We bouwen het leidingwerk voor de Agent-economie. De wegen, bruggen en het elektriciteitsnet van het AI-tijdperk.

Want in 2030 zal niemand meer geven om de AI. Ze zullen zich er niet over verbazen. Ze zullen er geen prompts naar typen. Ze zullen er niet eens over nadenken. Ze zullen alleen geven om wat de AI voor hen deed: de vergadering die hij plande, het rapport dat hij schreef, het probleem dat hij oploste, de beslissing die hij correct nam namens hen terwijl zij druk waren met hun leven leiden.

Dat is de toekomst die we bouwen. Dat is het 2030 dat wij zien aankomen. En we zouden het graag samen met jou bouwen.

Dweve bouwt de infrastructuur voor de Agent-economie. Onze Loom-architectuur levert 456 gespecialiseerde experts op standaardhardware. Ons Nexus-platform orkestreert multi-agent workflows met formele verificatie. Ons Core-framework maakt binaire AI-ontwikkeling mogelijk die overal draait. We lanceren nog niet, maar als we dat doen, zullen Europese bedrijven AI hebben die echt werkt: onzichtbaar, betrouwbaar, soeverein. Meld je aan voor onze wachtlijst. Wees klaar voor 2030.

Tags

#Voorspellingen#Toekomst#2030#Agents#Ubiquitous Computing#Interface-ontwerp#Technologietrends

Over de auteur

Bouwe Henkelman

CEO & Medeoprichter (Operations & Growth)

Bouwt aan de toekomst van AI met binaire netwerken en constraint reasoning. Richt zich op efficiënte, transparante en toegankelijke AI.

Ontvang Dweve-updates

Schrijf je in voor nieuws rond binary intelligence en releases

✓ Geen spam ✓ Altijd uitschrijven mogelijk ✓ Nuttige content ✓ Eerlijke updates