accessibility.skipToMainContent
Zurück zum Blog
Zukunft

Die Prognose für 2030: Der Tod des Chatbots und der Aufstieg der Agenten

In 5 Jahren werden Sie nicht mehr mit KI 'chatten'. Sie wird unsichtbar, allgegenwärtig und handlungsfähig sein. Hier ist unser Fahrplan für das nächste halbe Jahrzehnt der Intelligenz.

von Bouwe Henkelman
22. November 2025
26 Min. Lesezeit
2 Aufrufe
0

Die Neuheitsphase endet

Stellen Sie sich vor, es ist vor fünf Jahren, und Sie sehen zu, wie jemand zum ersten Mal in ChatGPT tippt. Erinnern Sie sich an dieses Gefühl? Der leichte Unglaube, als kohärente Sätze erschienen. Das nervöse Lachen, als es ein Gedicht über Ihren Hund schrieb. Die existenzielle Furcht, als es Quantenphysik besser erklärte als Ihr Universitätsprofessor es je tat.

Dieser Moment des Staunens? Er verblasst bereits. Wir durchleben gerade die "Neuheitsphase" der künstlichen Intelligenz, ein kurzes Zeitfenster, das von Ehrfurcht und Spektakel geprägt ist. Wir staunen, dass der Computer sprechen kann. Wir verbringen Stunden damit, in Chatboxen zu tippen und die KI wie ein lustiges Orakel, ein schlaues Spielzeug oder (seien wir ehrlich) einen leicht betrunkenen Praktikanten zu behandeln, der gelegentlich Brillanz hervorbringt.

Wir haben sogar eine neue Berufsbezeichnung für diese Ära geschaffen: "Prompt Engineer". Denken Sie einen Moment darüber nach. Wir zahlen Menschen sechsstellige Gehälter, damit sie einem Computer die richtigen Beschwörungsformeln zuflüstern. Wir behandeln die KI wie eine mysteriöse Entität, die überredet, beschwichtigt und sorgfältig dazu aufgefordert werden muss, nützliche Arbeit zu verrichten. Es ist, als würde man jemanden anstellen, um mit Ihrer Mikrowelle zu verhandeln.

Bis 2030 wird diese Phase archaisch wirken. Peinlich sogar. Wir werden auf "Prompt Engineering" zurückblicken, wie wir auf Lochkarten oder MS-DOS-Befehlszeilen zurückblicken. Es war eine notwendige, primitive Schnittstelle für eine primitive Zeit. Die Zukunft der KI besteht nicht darin, mit einem Computer zu chatten. Es geht darum, dass der Computer vollständig verschwindet.

Was folgt, sind unsere Prognosen für das nächste halbe Jahrzehnt der Intelligenz. Keine Marketingfantasien oder Science-Fiction-Träumereien, sondern fundierte Extrapolationen basierend auf den technologischen Trajektorien, die wir heute sehen. Manches wird schneller geschehen, als wir erwarten. Manches langsamer. Aber die Richtung ist klar.

Die Evolution der KI: Von der Neuheit zur Unsichtbarkeit Wie sich künstliche Intelligenz vom Zielort zum Werkzeug wandelt NEUHEITSPHASE 2022 - 2025 • Chat-Interfaces dominieren • Prompt Engineering entsteht • KI als Spektakel und Spielzeug • Zentralisierte Cloud-Modelle • Hohe Halluzinationsraten Interaktion: Explizit Ort: Cloud NUTZENPHASE 2025 - 2028 • Agenten führen Aktionen aus • Kleine spezialisierte Modelle • Edge-Deployment wächst • Verifizierungstechnologien • Neuro-symbolische Architekturen Interaktion: Assistiert Ort: Hybrid UNSICHTBARE PHASE 2028 - 2030+ • KI tritt in den Hintergrund • Absichtsantizipation • Parlament der Experten • Kryptographisches Vertrauen • Reibungslose Automatisierung Interaktion: Implizit Ort: Überall 2023 2026 2030 Richtung: Vom Gespräch zur Fähigkeit

Prognose 1: Das Interface verschwindet

Die beste Technologie ist unsichtbar. Sie führen kein "Gespräch" mit Ihrem Antiblockiersystem: Es verhindert einfach das Schleudern. Sie "prompten" Ihren E-Mail-Spamfilter nicht: Er filtert einfach den Spam. Sie denken nie über das TCP/IP-Protokoll nach, das diesen Artikel auf Ihren Bildschirm liefert. Gute Technologie funktioniert. Großartige Technologie funktioniert, ohne dass Sie es bemerken.

Bis 2030 wird KI in den Hintergrund treten. Sie wird zum ambienten Betriebssystem der Welt werden. Sie wird kein Zielort sein (eine Website wie ChatGPT), den Sie besuchen. Sie wird ein Werkzeug sein, das alles durchdringt, so unscheinbar und essenziell wie Elektrizität.

Wir werden uns von der expliziten Interaktion (Eintippen eines Befehls, um ein Ergebnis zu erhalten) zur impliziten Absicht (das System antizipiert den Bedarf und erfüllt ihn) bewegen. Betrachten Sie, wie das in der Praxis aussieht:

Ihr Kalender heute: Sie lesen einen E-Mail-Verlauf. Sie denken "wir sollten uns treffen". Sie öffnen Ihren Kalender. Sie prüfen die Verfügbarkeit aller Beteiligten (drei verschiedene Systeme). Sie schlagen Zeiten vor. Sie warten auf Antworten. Sie buchen einen Raum. Sie versenden Einladungen. Zwanzig Minuten Reibungsverlust für ein dreißigminütiges Meeting.

Ihr Kalender im Jahr 2030: Die KI beobachtet Ihren E-Mail-Verlauf. Sie bemerkt die Absicht, sich zu treffen (indem sie diese aus dem Kontext extrahiert, nicht aus Schlüsselwörtern). Sie prüft die Verfügbarkeit aller Parteien über ihre Kalendersysteme hinweg. Sie handelt den optimalen Zeitpunkt aus. Sie bucht den Raum. Sie versendet die Einladungen. Sie sehen eine Benachrichtigung: "Meeting mit Sarah und James geplant, Donnerstag 14 Uhr." Sie haben nichts getan. Der Reibungsverlust ist verschwunden.

Oder betrachten Sie das Supply Chain Management:

Heute: Ihr Betriebsteam überwacht Dashboards. Ein Analyst bemerkt einen Hurrikan, der sich im Golf von Mexiko bildet. Sie prüfen manuell, welche Lieferungen betroffen sein könnten. Sie eskalieren an einen Manager. Der Manager beraumt ein Meeting ein. Sie entscheiden, die Fracht umzuleiten. Jemand aktualisiert die Bestandsprognose in einer Tabellenkalkulation. Verstrichene Zeit: 48 Stunden. Kosten der Verzögerung: 200.000 €.

Im Jahr 2030: Die Lieferketten-KI bemerkt die Bildung des Hurrikans (sie überwacht das Wetter, keine Dashboards). Sie sagt mit 94-prozentiger Sicherheit voraus, welche Lieferungen sich verzögern werden. Sie leitet die Fracht automatisch zu alternativen Häfen um. Sie aktualisiert die Bestandsprognose. Sie benachrichtigt die relevanten Menschen mit einer Zusammenfassung in einem Satz: "14 Container wegen Hurrikan Maria über Rotterdam umgeleitet. ETA unverändert." Verstrichene Zeit: 3 Minuten. Kosten der Verzögerung: 0 €.

Das Ziel von Technologie ist es, Reibung zu reduzieren. Tippen ist Reibung. Sprechen ist Reibung. Selbst das Nachdenken darüber, was man tippen soll, ist Reibung. Die ultimative KI entfernt die Reibung vollständig. Sie benutzen sie nicht. Sie benutzt sich selbst, in Ihrem Auftrag, mit Ihrer Autorität.

Prognose 2: Von Worten zu Taten (Der Aufstieg der Agenten)

Heutige Large Language Models (LLMs) sind Textmaschinen. Sie generieren Wörter. Sie sind unglaublich eloquent. Sie können Gedichte schreiben, Physik erklären, Dokumente zusammenfassen und so tun, als wären sie ein Pirat, der Blockchain erklärt. Aber am Ende des Tages produzieren sie Text, auf den Sie, der Mensch, dann reagieren müssen.

Die Large Action Models (LAMs) von morgen werden Handlungsmaschinen sein. Sie werden Aktionen generieren. Sie werden Dinge in der Welt tun, nicht nur darüber reden, Dinge zu tun.

Ein Agent sagt Ihnen nicht nur, wie Sie einen Flug buchen: Er bucht den Flug. Er loggt sich auf der Website der Fluggesellschaft ein (oder nutzt eine API). Er wählt den Sitzplatz, den Sie bevorzugen (Fenster, Notausgang, weil er Ihre Vorlieben aus den letzten 47 Flügen gelernt hat). Er gibt Ihre Passdaten ein. Er bezahlt mit Ihrer Firmenkreditkarte. Er fügt den Beleg mit dem korrekten Projektcode zu Ihrer Spesenabrechnung hinzu. Er trägt den Flug in Ihren Kalender ein. Er stellt sogar eine Erinnerung ein, um 24 Stunden vor Abflug einzuchecken.

Sie haben um einen Flug gebeten. Sie haben einen Flug bekommen. Keine Anweisungen. Keine Liste mit Optionen. Keinen hilfreichen Vorschlag. Ein tatsächliches Ticket, gekauft, bestätigt, im Kalender eingetragen.

Dieser Wandel von der Informationsbeschaffung zur Aufgabenausführung ist die größte wirtschaftliche Erschließung in der Geschichte der Software. Er verwandelt KI von einer "Suchmaschine" (die Ihnen hilft, schneller zu arbeiten) in eine "Belegschaft" (die die Arbeit für Sie erledigt). Die Implikationen sind atemberaubend.

Laut McKinsey-Forschung verbringen Wissensarbeiter etwa 28 % ihrer Zeit mit E-Mail- und Kalendermanagement, 19 % mit der Suche nach Informationen und 14 % mit administrativen Aufgaben. Das sind 61 % des Arbeitstages für Tätigkeiten, die Agenten vollständig übernehmen könnten. Wenn wir auch nur die Hälfte dieser Zeit für tatsächliche kreative und strategische Arbeit zurückgewinnen könnten, würde die globale Produktivität jährlich um Billionen von Euro steigen.

Dieser Wandel erfordert jedoch ein massives Upgrade der Zuverlässigkeit. Sie können ein halluziniertes Gedicht tolerieren. (Es könnte sogar charmant sein.) Sie können keine halluzinierte Banküberweisung tolerieren. Sie können keinen Agenten tolerieren, der versehentlich Ihre Produktionsdatenbank löscht, weil er "dachte", das sei das, was Sie wollten. Sie können keinen Agenten akzeptieren, der Sie auf einen Flug nach Sydney, Australien, bucht, wenn Sie Sydney, Nova Scotia, meinten.

Diese Zuverlässigkeitslücke ist der Grund, warum die Zukunft neuro-symbolischen Architekturen gehört (wie jene, die wir bei Dweve bauen), die Korrektheit garantieren können, anstatt rein probabilistischer Modelle, die nur raten können. Wenn ein Agent Ihre Finanzen verwaltet, ist "95 % genau" kein Feature. Es ist eine wartende Haftungsklage.

Prognose 3: Die Revolution der kleinen Modelle

In den letzten fünf Jahren lautete das Branchen-Mantra "Scale is All You Need". Größere Modelle, mehr Daten, mehr GPUs. Wir rasten von Millionen zu Milliarden zu Billionen von Parametern. GPT-3 hatte 175 Milliarden Parameter. GPT-4 hat (berichten zufolge) über eine Billion. Jede Generation verlangte exponentiell mehr Rechenleistung, mehr Energie und mehr Kapital. Wir bauten Rechenzentren in der Größe von Kathedralen, um sie unterzubringen.

Die 2030er Jahre werden eine grundlegende Umkehr markieren. Wir treten in die Ära der kleinen, spezialisierten Experten ein.

Warum? Weil wir bei der Modellgröße abnehmende Erträge erreichen. Eine Erhöhung der Parameter von 100 Milliarden auf 1 Billion verbessert die Benchmark-Werte vielleicht um 5-10 %. Aber es erhöht die Trainingskosten von 10 Millionen € auf 100 Millionen €. Es erhöht die Inferenzkosten um das 10-fache. Es erhöht den Energieverbrauch so weit, dass ein einziger Trainingslauf mehr Kohlenstoff ausstößt als 500 Autos, die ein Jahr lang gefahren werden.

Noch wichtiger ist, dass wir erkennen, dass ein riesiges Allzweckmodell, das alles weiß – von Shakespeare über Python und französische Küche bis hin zur Quantenmechanik – von Natur aus ineffizient. Es ist, als würde man eine einzelne Person einstellen, die gleichzeitig Anwalt, Koch, Mechaniker und Dichter ist, und sie bitten, Ihre Steuern zu machen. Ja, sie weiß vielleicht ein bisschen über Steuern. Aber ein dedizierter Buchhalter wäre schneller, billiger und genauer.

Statt des "Gott-Modells" in der Cloud werden wir Millionen kleiner, hochspezialisierter Modelle haben:

  • Eines, das ein Experte für deutsches Vertragsrecht ist (trainiert an jedem deutschen Gerichtsurteil seit 1949)
  • Eines, das ein Experte für TypeScript-Optimierung ist (trainiert an Millionen von Code-Reviews)
  • Eines, das ein Experte für die Diagnose von 2015er Ford-Motorproblemen ist (trainiert an jedem Servicehandbuch und Reparaturticket)
  • Eines, das ein Experte für die spezifische Produktdokumentation Ihres Unternehmens ist
  • Eines, das ein Experte für Ihren persönlichen Kommunikationsstil ist

Diese Modelle werden klein genug sein, um lokal auf Ihrem Gerät zu laufen (Edge AI). Sie werden auf Ihrem Telefon, Ihrer Brille, Ihrem Auto, Ihrem Kühlschrank laufen. Sie werden keine 500-Watt-GPU benötigen: Sie werden auf einer 2-Watt-Neural-Processing-Unit laufen. Sie werden in einem Mesh-Netzwerk miteinander kommunizieren und Anfragen an den entsprechenden Experten weiterleiten. Sie werden schnell (keine Netzwerklatenz), privat (keine Daten, die Ihr Gerät verlassen) und billig (keine Abrechnung pro Token) sein.

Das "Gott-Modell" in der Cloud wird durch ein "Parlament der Experten" in Ihrer Tasche ersetzt. Bei Dweve nennen wir diese Architektur "Loom": 456 spezialisierte Expertenmodelle, die zusammenarbeiten, jedes klein genug, um auf Standardhardware zu laufen, zusammen fähiger als jeder monolithische Riese.

Gott-Modell vs. Parlament der Experten Der architektonische Wandel von zentralisierter zu verteilter Intelligenz Das "Gott-Modell" (Heute) 1 Billion+ Parameter Modellgröße: 1.000+ GB Erforderliche Hardware: 8x H100 GPUs (300.000 €) Energieverbrauch: 5.600 W kontinuierlich Latenz: 100-500 ms (Netzwerk) Datenschutz: Daten in die Cloud gesendet Kosten pro Abfrage: 0,01 € - 0,10 € Parlament der Experten (2030) Recht Code Medizin Finanzen Schreiben 456+ Spezialisierte Experten Modellgröße (jedes): 100 MB - 2 GB Erforderliche Hardware: Standard CPU/NPU (0 €) Energieverbrauch: 2-10 W pro Gerät Latenz: 5-20 ms (lokal) Datenschutz: Daten verlassen das Gerät nie Kosten pro Abfrage: 0,0001 € (Strom) 96 % weniger Energie • 1000x günstiger • 50x schneller • Vollständige Privatsphäre

Prognose 4: Verifizierung wird König

Hier ist ein Gedankenexperiment. Es ist 2028. Die Kosten für die Erstellung eines 1.000-Wörter-Artikels sind von 100 € (menschlicher Autor) auf 0,001 € (KI-Generator) gesunken. Was passiert mit dem Internet?

Es wird überflutet. Ertränkt. Begraben unter einer Lawine aus synthetischem Rauschen. Jeder SEO-Spammer, jede Propagandafabrik, jede Content-Farm wird Millionen von Artikeln pro Tag produzieren. Spam, Deepfakes und halluzinierte "Nachrichten" werden 99 % des Webs ausmachen. Das Signal-Rausch-Verhältnis wird gegen Null gehen.

Wir sehen bereits die ersten Anzeichen. Akademische Forscher haben herausgefunden, dass ein wachsender Prozentsatz wissenschaftlicher Papiereinreichungen KI-generierter Müll ist. Social-Media-Plattformen kämpfen gegen Armeen von KI-betriebenen Bots. Stockfotos werden durch KI-Bilder ersetzt, auf denen gelegentlich Menschen mit sieben Fingern zu sehen sind.

In diesem Umfeld wird der Aufschlag für Wahrheit in die Höhe schießen. Wir werden den Aufstieg von "Wahrheitstechnologien" erleben:

Kryptographische Wasserzeichen: Unsichtbare Signaturen, die in Inhalte eingebettet sind und beweisen, wann und von wem sie erstellt wurden. Wenn einem Foto ein gültiges Wasserzeichen einer registrierten Kamera fehlt, wird angenommen, dass es KI-generiert ist, bis das Gegenteil bewiesen ist.

Herkunftsnachverfolgung: Blockchain-ähnliche Systeme, die den Ursprung und die Änderungshistorie jedes Datenelements verfolgen. Sie werden ein Bild bis zum ursprünglichen Kamerasensor zurückverfolgen können, der es aufgenommen hat, durch jede Bearbeitung hindurch.

Formale Verifizierung: Mathematische Beweise, dass KI-Ausgaben korrekt sind. Nicht "wahrscheinlich korrekt" oder "meistens korrekt", sondern beweisbar, zertifizierbar, unbestreitbar korrekt. Wenn Ihr KI-Agent Geld überweist, werden Sie einen kryptographischen Beweis haben, dass er den exakten Betrag auf das exakte Konto überwiesen hat, das Sie autorisiert haben.

Webbrowser werden mit "Realitätsblockern" (wie heute Ad-Blocker) ausgestattet sein, die unverifizierte, KI-generierte Inhalte herausfiltern. Die vertrauenswürdigsten Nachrichtenquellen und Datenanbieter werden diejenigen sein, die ihre inhaltliche Überwachungskette kryptographisch beweisen können.

Vertrauen wird sich von einem Markenattribut ("Die New York Times ist vertrauenswürdig, weil sie einen Ruf hat") zu einem kryptographischen Beweis wandeln ("Dieser Artikel ist vertrauenswürdig, weil ich die Signatur des Journalisten, die Genehmigung des Redakteurs und die Bestätigung des Faktenprüfers auf der Blockchain verifizieren kann").

"Don't trust, verify" ist bereits das Motto der Kryptowährungswelt. Bis 2030 wird es das Motto des gesamten Informationszeitalters sein.

Was das für Unternehmen bedeutet

Diese vier Prognosen haben tiefgreifende Auswirkungen darauf, wie Unternehmen heute über ihre KI-Strategie nachdenken sollten:

1. Hören Sie auf, Chatbots zu bauen, fangen Sie an, Agenten zu bauen. Wenn Ihre KI-Strategie lautet "einen Chatbot zu unserer Website hinzufügen", bauen Sie für 2023. Die Unternehmen, die 2030 gewinnen, werden diejenigen sein, deren KI tatsächlich Dinge tut, anstatt nur über Dinge zu sprechen. Fragen Sie sich: Welche Aufgaben können wir Ende-zu-Ende automatisieren, nicht nur dabei assistieren?

2. Investieren Sie in Zuverlässigkeit statt in Fähigkeit. Die nächste Generation der Unternehmens-KI wird nicht danach beurteilt, wie beeindruckend sie klingt, sondern danach, ob man ihr vertrauen kann, kritische Geschäftsprozesse ohne Aufsicht auszuführen. Eine etwas weniger fähige KI, die nie Fehler macht, ist unendlich wertvoller als eine brillante KI, die gelegentlich katastrophal halluziniert.

3. Denken Sie Edge-First, nicht Cloud-First. Die Ökonomie des KI-Betriebs am Edge (auf dem Gerät, vor Ort) wird dramatisch günstiger werden als Cloud-Inferenz. Unternehmen, die Intelligenz lokal einsetzen können, werden Kostenvorteile, Latenzvorteile und Datenschutzvorteile haben, mit denen cloudabhängige Wettbewerber nicht mithalten können.

4. Bauen Sie jetzt Vertrauensinfrastruktur auf. Die Unternehmen, die frühzeitig Verifizierungs- und Vertrauenssysteme etablieren, werden First-Mover-Vorteile haben, wenn die Flut synthetischer Inhalte eintrifft. Wenn Ihre Daten und Ausgaben kryptographisch verifiziert sind, während die der Konkurrenz es nicht sind, werden Sie standardmäßig zur vertrauenswürdigen Quelle.

Die Dweve-Vision

Wir bauen Dweve nicht für den KI-Markt von 2024. Wir sind nicht daran interessiert, einen etwas besseren Chatbot zu bauen, um mit OpenAI bei Benchmark-Werten zu konkurrieren. Wir jagen nicht der Trophäe für das "größte Modell" nach. Wir bauen für 2030.

Deshalb konzentrieren wir uns auf Agenten (nicht nur Chat). Unsere Architektur ist von Grund auf darauf ausgelegt, Aktionen in der Welt sicher und zuverlässig auszuführen, nicht nur Text zu generieren, der plausibel klingt.

Deshalb konzentrieren wir uns auf kleine Modelle (Binär, Sparsam, Edge-deployable). Unsere 456-Experten-Loom-Architektur liefert bessere Ergebnisse als monolithische Modelle bei 1/50 der Rechenkosten und läuft auf Hardware, die Sie bereits besitzen.

Deshalb konzentrieren wir uns auf Verifizierung (Neuro-Symbolisch, Formale Logik, Glass-Box-Transparenz). Jede Entscheidung, die unsere KI trifft, kann zurückverfolgt, erklärt und mathematisch verifiziert werden. Keine Black Boxes. Kein "vertrauen Sie uns, es funktioniert". Beweise.

Wir bauen die unsichtbare, zuverlässige, souveräne Infrastruktur der intelligenten Zukunft. Wir bauen die Rohrleitungen für die Agenten-Wirtschaft. Die Straßen und Brücken und das Stromnetz des KI-Zeitalters.

Denn im Jahr 2030 wird sich niemand für die KI interessieren. Sie werden sie nicht bestaunen. Sie werden keine Prompts an sie tippen. Sie werden nicht einmal an sie denken. Sie werden sich nur dafür interessieren, was die KI für sie getan hat: das Meeting, das sie geplant hat, den Bericht, den sie geschrieben hat, das Problem, das sie gelöst hat, die Entscheidung, die sie in ihrem Namen korrekt getroffen hat, während sie damit beschäftigt waren, ihr Leben zu leben.

Das ist die Zukunft, die wir bauen. Das ist das Jahr 2030, das wir kommen sehen. Und wir würden es gerne mit Ihnen bauen.

Dweve baut die Infrastruktur für die Agenten-Wirtschaft. Unsere Loom-Architektur liefert 456 spezialisierte Experten auf Standardhardware. Unsere Nexus-Plattform orchestriert Multi-Agenten-Workflows mit formaler Verifizierung. Unser Core-Framework ermöglicht binäre KI-Entwicklung, die überall läuft. Wir launchen noch nicht, aber wenn wir es tun, werden europäische Unternehmen über eine KI verfügen, die tatsächlich funktioniert: unsichtbar, zuverlässig, souverän. Treten Sie unserer Warteliste bei. Seien Sie bereit für 2030.

Markiert mit

#Prognosen#Zukunft#2030#Agenten#Ubiquitous Computing#Interface-Design#Technologie-Trends

Über den Autor

Bouwe Henkelman

CEO & Mitgründer (Operations & Growth)

Gestaltet die Zukunft der KI mit binären Netzen und Constraint-Reasoning. Leidenschaftlich für effiziente, zugängliche und transparente KI.

Updates von Dweve

Abonniere Updates zu binären Netzen, Produktreleases und Branchentrends

✓ Kein Spam ✓ Jederzeit abbestellbar ✓ Relevanter Inhalt ✓ Ehrliche Updates