accessibility.skipToMainContent
Zurück zum Blog
Richtlinien

Formale Verifikation: Der einzige Weg, KI-Regulierer zufriedenzustellen

Regulierungsbehörden wollen keine '95%ige Genauigkeit'. Sie wollen Beweise. Warum probabilistisches Testen vor Gericht versagt und wie formale Verifikation mathematische Sicherheit bietet.

von Harm Geerlings
29. Oktober 2025
28 Min. Lesezeit
1 Aufrufe
0

Der Anwalt und der Ingenieur: Ein Dialog aneinander vorbei

Es gibt eine fundamentale Kluft im heutigen Gespräch zwischen KI-Ingenieuren und staatlichen Regulierungsbehörden. Es ist eine Sprachbarriere, aber keine nationale. Es ist eine Barriere der Epistemologie: eine Uneinigkeit darüber, wie wir wissen, was wir wissen, und was „Wahrheit“ ausmacht.

Der KI-Ingenieur steht auf und sagt: „Dieses System ist sicher. Wir haben es durch 10 Millionen simulierte Testszenarien laufen lassen. Wir haben es mit Standard-Datensätzen gebenchmarkt. Es hat zu 99,99 % korrekt funktioniert. Es ist State-of-the-Art.“

Der Regulierer (und der Richter und der Versicherungsmathematiker) hört etwas ganz anderes. Sie hören: „Es besteht eine Wahrscheinlichkeit von 0,01 %, dass dieses System katastrophal versagt. Wir wissen nicht, wann das passieren wird. Wir wissen nicht, warum es passieren wird. Und wir können nicht garantieren, dass es nicht morgen passiert, wenn es in einem Krankenhaus eingesetzt wird.“

In der Welt der Consumer-Apps (Empfehlungsmaschinen, Chatbots, Fotofilter) ist dieser probabilistische Ansatz akzeptabel. Wenn Spotify einen Song empfiehlt, den Sie hassen, stirbt niemand. Aber wenn KI in die physische Welt und in Entscheidungen mit hohen Einsätzen vordringt (autonomes Fahren, medizinische Diagnosen, Netzmanagement, Kreditvergabe), verflüchtigt sich die Toleranz für „probabilistische Sicherheit“.

Probabilistisches Testen vs. Formale VerifikationProbabilistisches Testen„Wir haben 10 Mio. Szenarien getestet“99,99 % GenauigkeitKlingt beeindruckend, oder?Die verborgene Wahrheit0,01 % Fehler × 1 Million Nutzer= 100 katastrophale Ausfälle❌ „Wann passiert es? Unbekannt“❌ „Warum passiert es? Unbekannt“Rechtlich nicht vertretbarFormale Verifikation„Wir haben eine math. Eigenschaft bewiesen“100 % GarantieFür die verifizierte EigenschaftMathematischer Beweis∀ Eingaben x: Sicherheit(x) = WAHR= Keine Fehler in Grenzfällen✓ Gilt für ALLE Eingaben✓ Verletzungen sind unmöglichRechtlich vertretbar

Sie können einem Richter nicht erklären, dass Ihr autonomes Auto einen Fußgänger getötet hat, weil es ein „statistischer Grenzfall“ war. Sie können einen Patienten nicht damit trösten, dass die Strahlenüberdosis eine „0,01%ige Anomalie“ war. In der Welt der Haftung ist „ziemlich sicher“ keine Verteidigung.

Das Versagen des probabilistischen Testens

Das vorherrschende Paradigma in der heutigen KI-Bewertung ist empirisches Testen auf einem zurückgehaltenen Datensatz. Man trainiert mit Daten A und testet mit Daten B. Wenn das Modell bei B gut abschneidet, geht man davon aus, dass es die Aufgabe „gelernt“ hat und auf die reale Welt verallgemeinern kann.

Aber Tiefe Neurale Netzwerke sind hochdimensionale, nicht-lineare Funktionen. Sie sind berüchtigt zerbrechlich. Sie leiden unter einem Phänomen, das als „Adversarial Vulnerability“ (Angriffsanfälligkeit) bekannt ist. Ein Modell kann ein Stoppschild zu 99 % perfekt klassifizieren, aber wenn man das Bild um 3 Grad dreht und ein spezifisches, nicht wahrnehmbares Rauschmuster hinzufügt, könnte das Modell es zuversichtlich als Toaster klassifizieren. Oder als Geschwindigkeitsbegrenzung von 80 km/h.

Dies geschieht, weil das Modell nicht wirklich das Konzept eines „Stoppschilds“ (eine achteckige rote Form mit weißem Text, die den Verkehr anhalten soll) gelernt hat. Es hat eine statistische Korrelation von Pixeltexturen gelernt. Es funktioniert im Durchschnittsfall, aber es versagt im schlimmsten Fall (Worst Case).

Testen (egal wie umfangreich) kann nur das Vorhandensein von Fehlern zeigen, nicht deren Abwesenheit. Man kann eine Milliarde Meilen Simulation laufen lassen, aber man kann nicht den unendlichen Eingaberaum der realen Welt abdecken. Testen ist die Suche nach einer Nadel im Heuhaufen, indem man zufällige Halme aufhebt. Wenn man die Nadel nicht findet, heißt das nicht, dass sie nicht da ist: Es bedeutet nur, dass man sie noch nicht berührt hat.

Wenn der EU AI Act fordert, dass Hochrisiko-KI-Systeme „robust, genau und cybersicher“ sein müssen, verlangen sie implizit eine Garantie, die probabilistisches Testen schlicht nicht bieten kann.

Auftritt Formale Verifikation: Die Mathematik der Gewissheit

Formale Verifikation ist das Gegenmittel zur Ungewissheit. Es ist eine Technik, die aus dem Hardware-Design und der Entwicklung kritischer Systeme (wie Avionik und Kernreaktorsteuerung) entlehnt wurde. Anstatt Stichproben zu testen, verwendet sie mathematische Logik, um Eigenschaften des Systems für alle möglichen Eingaben zu beweisen.

Stellen Sie sich ein einfaches neuronales Netzwerk vor, das einen Roboterarm steuert. Wir wollen eine Sicherheitseigenschaft gewährleisten: „Der Arm darf sich niemals schneller als 2 Meter pro Sekunde bewegen, wenn ein Mensch innerhalb von 1 Meter erkannt wird.“

  • Der Test-Ansatz: Lassen Sie den Arm 1.000 Mal mit zufälligen Eingaben (Positionen, Geschwindigkeiten) laufen. Messen Sie die Armgeschwindigkeit. Wenn sie 2 m/s nie überschreitet, nennen Sie es sicher. (Risiko: Eingabe Nr. 1.001 könnte eine Spitze auslösen).
  • Der Ansatz der Formalen Verifikation: Wir lassen das System nicht laufen. Wir modellieren das System. Wir behandeln das neuronale Netzwerk als eine massive Menge mathematischer Gleichungen. Wir definieren die Eingabebeschränkungen (Mensch Distanz < 1m) und die Ausgabebeschränkungen (Armgeschwindigkeit < 2 m/s). Dann verwenden wir einen spezialisierten Algorithmus namens SMT-Solver (Satisfiability Modulo Theories).

Wir fragen den Solver: „Gibt es IRGENDEINE Eingabekonfiguration X innerhalb des gültigen Bereichs, so dass die Ausgabe Geschwindigkeit(X) > 2 ist?“

Der Solver erkundet die mathematische Struktur des Netzwerks. Er probiert nicht nur zufällige Punkte aus: Er analysiert die Geometrie der Funktion. Wenn er „UNSAT“ (Unerfüllbar) zurückgibt, haben wir einen mathematischen Beweis, dass das Tempolimit niemals überschritten werden kann. Es ist physikalisch unmöglich für die Software, diesen Befehl zu generieren.

Dies ist keine statistische Schätzung. Es ist eine Garantie. Es ist der Unterschied zwischen „Ich bin mir ziemlich sicher, dass die Brücke nicht einstürzt“ und „Die Physik der Materialien schreibt vor, dass die Brücke unter dieser Last nicht einstürzen kann“.

Dweves verifizierte Safety-Shell-ArchitekturSensor-Eingabe„Mensch bei 0,8 m“Neuronales NetzWahrnehmung + Vorschlag(Probabilistisch, kann halluzinieren)Safety ShellFormal verifizierte Logik(Deterministisch, als korrekt bewiesen)Verifikationsprozess der Safety ShellNeuronales Netz schlägt vor:„Bewege Arm mit 2,5 m/s“(Überschreitet Limit)Safety Shell prüft:WENN Mensch_Distanz < 1mDANN Max_Speed = 2,0 m/sAusgabe begrenzt:„Bewege Arm mit 2,0 m/s“(Sicher, verifiziert)MotorenSicherer BefehlOhne Safety ShellNetz-Fehler → VerletzungMit Safety ShellNetz-Fehler → BlockiertMathematischer BeweisVerifiziert für ALLE Eingaben

Warum Deep Learning Formale Verifikation hasst

Wenn formale Verifikation so toll ist, warum nutzt sie nicht jeder? Warum verlassen sich OpenAI und Google auf „Red Teaming“ (menschliche Tester, die versuchen, das Modell zu knacken) anstatt auf mathematische Beweise?

Die Antwort ist die rechnerische Komplexität. Standardmäßige Deep-Learning-Modelle sind Albträume für die Verifikation.

Ein typisches Transformer-Modell (wie GPT-4) hat Milliarden oder Billionen von Parametern. Es verwendet komplexe, nicht-lineare Aktivierungsfunktionen wie GeLU oder Swish. Die mathematische Komplexität der Verifikation eines solchen Systems skaliert exponentiell mit der Anzahl der Neuronen. Eine Eigenschaft bei einem großen Transformer zu beweisen, ist rechnerisch unmöglich: Das Universum würde den Hitzetod sterben, bevor der Solver alle Zweige geprüft hätte.

Die Industrie hat auf „Expressivität“ (die Fähigkeit, coole Gedichte und Code zu generieren) auf Kosten der „Verifizierbarkeit“ (die Fähigkeit zu beweisen, dass es funktioniert) optimiert. Sie haben ein Gehirn gebaut, das so komplex ist, dass nicht einmal seine Schöpfer es analysieren können.

Der Dweve-Ansatz: Verifiziert durch Konstruktion

Bei Dweve haben wir einen anderen Weg eingeschlagen. Wir haben entschieden, dass für industrielle und Enterprise-Anwendungen mit hohem Risiko die Verifizierbarkeit wichtiger ist als das Schreiben von Haikus. Also haben wir unsere Architektur mit Blick auf die Verifikation co-designt.

Wir verwenden zwei primäre Strategien, um KI verifizierbar zu machen:

1. Vereinfachung: Binäre und stückweise lineare Netzwerke

Wir verwenden Binäre Neuronale Netze (BNNs) und Netzwerke mit einfachen, stückweise linearen Aktivierungsfunktionen (wie ReLUs). Wir vermeiden die komplexen Kurven von GeLU/Swish.

Indem wir die Mathematik auf einfache lineare Beziehungen und boolesche Logik (0en und 1en) beschränken, reduzieren wir den Suchraum für den Solver drastisch. Das Verifikationsproblem verwandelt sich von einem unmöglichen nicht-linearen Optimierungsproblem in ein lösbares gemischt-ganzzahliges lineares Programmierungsproblem (MILP) oder ein SAT-Problem. Das sind immer noch „NP-schwere“ Probleme, aber für die Größe der Netzwerke, die wir in Steuerungssystemen verwenden, können moderne Solver sie in Sekunden oder Minuten bewältigen.

2. Die neuro-symbolische „Safety Shell“

Wir versuchen nicht, das gesamte „Gehirn“ zu verifizieren. Wir akzeptieren, dass der wahrnehmende Teil der KI (der Teil, der auf einen Kamera-Feed schaut und sagt „Das ist ein Mensch“) von Natur aus probabilistisch ist. Man kann nicht formal beweisen, dass ein Pixelraster ein Mensch ist: „Mensch“ ist ein unscharfes Konzept.

Stattdessen hüllen wir das neuronale Netzwerk in eine „Safety Shell“: eine Schicht symbolischer Logik, die die Einschränkungen erzwingt. Die Architektur sieht so aus:

  1. Neuronale Schicht (Wahrnehmung): Analysiert Eingaben und schlägt eine Handlung vor. „Ich sehe einen Menschen. Ich schlage vor, den Arm mit einer Geschwindigkeit von 2,5 m/s zu bewegen.“
  2. Safety Shell (Logik): Fängt den Vorschlag ab. Sie prüft ihn gegen eine Reihe formal verifizierter Invarianten (Regeln, die niemals gebrochen werden dürfen).
  3. Regelprüfung: „Regel #1: WENN Mensch_Erkannt DANN Max_Speed = 2,0 m/s.“
  4. Intervention: Die Safety Shell sieht, dass 2,5 > 2,0 ist. Sie lehnt den Vorschlag des neuronalen Netzes ab und begrenzt den Wert auf 2,0 m/s.

In dieser Architektur müssen wir nur die Safety Shell formal verifizieren (die klein, logisch und deterministisch ist). Wir müssen nicht das riesige neuronale Netz verifizieren. Selbst wenn das neuronale Netz halluziniert und versucht, den Bediener zu töten, garantiert die Safety Shell mathematisch, dass der Befehl niemals die Motoren erreicht.

Der regulatorische Wettbewerbsvorteil

Für unsere Kunden ist das nicht nur eine akademische Übung. Es ist ein massiver Business-Enabler. Es ist der Unterschied zwischen dem Erhalt einer Betriebserlaubnis und der Stilllegung.

Wenn ein Hersteller von Medizinprodukten an die FDA (USA) oder die EMA (Europa) herantritt, um eine Zulassung für eine KI-gesteuerte Insulinpumpe zu erhalten, sind die Regulierungsbehörden verängstigt. Sie wissen, dass KI unberechenbar sein kann. Sie werden jahrelange klinische Studien fordern, um die Sicherheit statistisch nachzuweisen.

Aber wenn dieser Hersteller ein formal verifiziertes Dweve-Modell verwendet, ändert sich das Gespräch. Sie können dem Regulierer einen mathematischen Beweis für die kritischen Sicherheitseigenschaften überreichen. „Wir glauben nicht nur, dass es den Patienten nicht überdosiert. Hier ist der formale Beweis, dass der Befehl zur Ausgabedosis mathematisch durch das Gewicht des Patienten und die Glukosespiegel-Grenzwerte beschränkt ist.“

Dies ermöglicht eine „Fast-Track“-Zulassung. Es senkt die Haftpflichtversicherungsprämien. Es schafft Vertrauen.

Vom „Move Fast and Break Things“ zum „Move Fast and Prove Things“

Die Ära von „Move Fast and Break Things“ funktioniert für soziale Netzwerke. Sie funktioniert nicht für selbstfahrende Autos, Stromnetze oder medizinische Roboter. Wenn man Dinge in der physischen Welt zerbricht, zerbricht man Menschen.

Da der EU AI Act voll in Kraft tritt und die Haftungsgesetze die Technologie einholen, enden die Wild-West-Tage der KI. Die Zukunft gehört Systemen, die robust, erklärbar und verifizierbar sind.

Wir treten ein in die Ära von „Move Fast and Prove Things“. Und der einzige Weg, Dinge im digitalen Bereich zu beweisen, ist mit Mathematik. Bei Dweve bauen wir die Compiler und Architekturen, um diese Mathematik für jeden Entwickler zugänglich zu machen.

Benötigen Sie KI, die regulatorischer Prüfung standhält? Dweves formal verifizierte Architekturen bieten die mathematischen Garantien, die Regulierungsbehörden fordern. Kontaktieren Sie uns, um zu erfahren, wie unsere Safety-Shell-Technologie Ihren KI-Genehmigungsprozess beschleunigen und Ihr Haftungsrisiko reduzieren kann.

Markiert mit

#Regulierung#Formale Verifikation#Compliance#Recht#Sicherheit#AI Act#Haftung#Mathematik

Über den Autor

Harm Geerlings

CEO & Mitgründer (Produkt & Innovation)

Gestaltet die Zukunft der KI mit binären Netzen und Constraint-Reasoning. Leidenschaftlich für effiziente, zugängliche und transparente KI.

Updates von Dweve

Abonniere Updates zu binären Netzen, Produktreleases und Branchentrends

✓ Kein Spam ✓ Jederzeit abbestellbar ✓ Relevanter Inhalt ✓ Ehrliche Updates