accessibility.skipToMainContent
Terug naar blog
Technologie

Beperkingen creëren vrijheid: waarom logica waarschijnlijkheid verslaat in AI

Probabilistische AI is een zwarte doos van onzekerheid. Op beperkingen gebaseerde AI levert bewijsbare correctheid. Binaire logica biedt wiskundige vrijheid.

door Marc Filipan
25 september 2025
15 min lezen
0

De waarschijnlijkheidsval

Moderne AI werkt op waarschijnlijkheden. Een neuraal netwerk weet niet. Het raadt. Het kent betrouwbaarheidsscores toe. "87% zeker dat dit een kat is." "92% zeker dat deze diagnose correct is." "78% zeker dat deze beslissing optimaal is."

Overal onzekerheid. Probabilistisch redeneren. Statistische betrouwbaarheid. Benaderende oplossingen.

Dit voelt flexibel. Het voelt krachtig. Het voelt als intelligentie.

Het is eigenlijk een gevangenis. Probabilistische AI kan nooit correctheid garanderen. Kan nooit veiligheid bewijzen. Kan nooit zekerheid bieden. De wiskunde van waarschijnlijkheid beperkt fundamenteel wat deze systemen kunnen bereiken.

Stel je voor dat je probabilistische AI uitlegt aan Europese regelgevers. "Ons autonome voertuig is 99,7% zeker dat het geen voetgangers zal raken." Ze zullen vragen naar de 0,3%. Je zult zeggen dat het statistisch insignificant is. Ze zullen certificering weigeren. Want in veiligheidskritieke systemen is "waarschijnlijk veilig" niet veilig genoeg. De EU reguleert niet op waarschijnlijkheden – het reguleert op garanties.

Constraint-gebaseerde AI die discrete logica gebruikt, werkt anders. Geen waarschijnlijkheden. Geen onzekerheid. Geen benaderingen. Alleen wiskundige waarheid. "Deze oplossing voldoet aan alle beperkingen" of "er bestaat geen oplossing binnen de beperkingen."

Binair. Definitief. Bewijsbaar.

Dit klinkt beperkend. Het klinkt als een beperking. Alsof flexibiliteit wordt ingeruild voor rigiditeit.

Het tegenovergestelde is waar. Constraints creëren vrijheid. Logica maakt zekerheid mogelijk. Discrete wiskunde biedt garanties die probabilistische systemen nooit kunnen leveren. Het is het verschil tussen "we denken dat dit werkt" en "we kunnen bewijzen dat dit werkt." Het ene krijgt goedkeuring van de regelgevende instanties. Het andere krijgt ontwikkelingsvertragingen.

Wat zijn constraint satisfaction problems?

Probabilistische AI Input → Statistisch Patroon 87% zeker Kan correctheid niet bewijzen Black box redenering VS Constraint-gebaseerde AI Input → Constraint Check Definitief antwoord Bewijsbaar correct Verklaarbare logica Constraint Satisfaction Voorbeeld Var A Var B Var C Var D C1 C2 C3 C4 Oplossing: waarden die ALLE constraints tegelijkertijd bevredigen

Een Constraint Satisfaction Problem (CSP) definieert:

  • Variabelen: Dingen die waarden nodig hebben. "Welke kleur moet dit gebied hebben?" "Welke route moet dit pakket nemen?" "Hoe moet deze bron worden toegewezen?"
  • Domeinen: Mogelijke waarden voor elke variabele. Kleuren: {rood, blauw, groen}. Routes: {A, B, C, D}. Toewijzing: {0%, 25%, 50%, 75%, 100%}.
  • Constraints: Regels waaraan oplossingen moeten voldoen. "Aangrenzende gebieden mogen niet dezelfde kleur hebben." "Totale routelengte < 100km." "Totale toewijzing = 100%."

Een oplossing vinden betekent waarden toewijzen aan variabelen zodat aan alle constraints wordt voldaan. Geen waarschijnlijkheden. Geen betrouwbaarheidsscores. Ofwel wordt aan de constraints voldaan, ofwel niet.

Dit raamwerk lost sudoku, planning, resource-allocatie, routeplanning, ontwerpproblemen en ja, AI-redenering op.

De schoonheid van CSP's? Ze zijn inherent verklaarbaar. Wanneer uw AI een beslissing neemt, kunt u precies traceren aan welke constraints werd voldaan, welke werden geschonden en waarom bepaalde opties werden geëlimineerd. Probeer dat eens met de miljard parameters van een neuraal netwerk. De EU AI Act eist dit niveau van transparantie voor risicovolle systemen. Constraint-gebaseerde AI levert dit automatisch.

Van waarschijnlijkheid naar logica

Traditionele neurale netwerken leren probabilistische mappings. Input → Statistisch Patroon → Waarschijnlijke Output. De interne representatie bestaat uit continue floating-point gewichten. De redenering is "dit patroon duidt meestal op die output."

Constraint-gebaseerde binaire netwerken leren logische regels. Input → Constraint Check → Gegarandeerde Output. De interne representatie bestaat uit discrete binaire constraints. De redenering is "deze input voldoet aan deze constraints, daarom deze output."

Voorbeeld: Medische diagnose.

Probabilistische Benadering:

  • Symptoom A gedetecteerd: verhoogt de waarschijnlijkheid van ziekte X met 23%
  • Symptoom B gedetecteerd: verhoogt de waarschijnlijkheid met nog eens 34%
  • Testresultaat C: past de waarschijnlijkheid aan naar 82%
  • Conclusie: 82% zeker dat de patiënt ziekte X heeft

Wat betekent 82%? Is dat goed genoeg voor behandeling? Hoe zit het met de 18% onzekerheid? Welke symptomen hebben het meest bijgedragen? Kunt u de redenering aan een patiënt uitleggen?

Belangrijker nog: kunt u het uitleggen aan Europese gezondheidsregelgevers die transparante besluitvorming voor medische AI vereisen onder de Medical Device Regulation? "Ons neurale netwerk zegt 82%" zal de certificering niet doorstaan. Zij willen logische redenering, geen statistische betrouwbaarheid.

Constraint-gebaseerde benadering:

  • Constraint C1: ALS symptoom A EN symptoom B DAN ziekte X mogelijk
  • Constraint C2: ALS test C positief EN C1 voldaan DAN ziekte X bevestigd
  • Constraint C3: ALS C2 voldaan EN geen uitsluitingscriteria DAN diagnose ziekte X
  • Conclusie: Ziekte X gediagnosticeerd (aan alle constraints voldaan)

Duidelijke logica. Traceerbare redenering. Verklaarbaar voor patiënten en regelgevers. Geen onzekerheid in het inferentieproces zelf.

De patiënt vraagt waarom hij deze diagnose heeft gekregen. U toont hem de exacte constraints die werden geactiveerd. De regelgever controleert uw AI. U levert wiskundig bewijs van het beslissingsproces. Probeer dat eens met backpropagation en gradiëntdaling. Het is alsof je uitlegt waarom een specifieke regendruppel een plas veroorzaakte.

De vrijheid van formele verificatie

Hier wordt constraint-gebaseerde AI krachtig: formele verificatie.

Met probabilistische modellen kunt u nooit correctheid bewijzen. U kunt uitgebreid testen. U kunt de nauwkeurigheid meten. Maar u kunt niet bewijzen "dit model zal nooit X uitvoeren gegeven input Y."

Met constraint-gebaseerde binaire modellen kunt u wiskundige eigenschappen bewijzen.

  • Veiligheidseigenschappen: "Deze controller van een autonoom voertuig zal nooit acceleratie > 0 uitvoeren wanneer een obstakel binnen 5 meter wordt gedetecteerd." Wiskundig bewijs bestaat. Geen statistische betrouwbaarheid. Formele zekerheid.
  • Levendigheidseigenschappen: "Dit resource-allocatiesysteem zal altijd een geldige allocatie vinden als er een bestaat binnen de constraints." Wiskundig bewezen. Geen "werkt meestal" of "99,7% van de gevallen."
  • Invarianten: "Deze financiële AI zal nooit transacties aanbevelen die regelgevende constraints schenden." Formeel geverifieerd. Naleving van regelgeving gegarandeerd door wiskunde, niet door monitoring.

Automotive bedrijven die probabilistische AI gebruiken voor autonoom rijden staan voor uitdagingen: "We kunnen veiligheidseigenschappen niet wiskundig bewijzen. We kunnen alleen hoge betrouwbaarheid aantonen door middel van testen."

Resultaat: Regelgevers weigeren vaak certificering. Producten worden 18+ maanden vertraagd. Europese automobielnormen zijn bijzonder streng – Duitse TÜV en Franse UTAC accepteren geen "waarschijnlijk veilig." Zij eisen "bewijsbaar veilig."

Met constraint-gebaseerde binaire AI: "We verifiëren formeel dat veiligheidsconstraints nooit kunnen worden geschonden. Wiskundig bewijs geleverd."

Potentieel resultaat: ISO 26262 certificeringspaden worden haalbaar. Constraint-gebaseerde AI zou de eerste AI-aangedreven autonome systemen kunnen inschakelen om formele veiligheidseisen te doorstaan.

De ironie? De Europese regelgevende strengheid, vaak gezien als een barrière voor AI-adoptie, bevoordeelt eigenlijk de betere technologie. Probabilistische AI worstelt met Europese eisen. Constraint-gebaseerde AI gedijt eronder. Regelgeving stuurt innovatie naar wiskundige nauwkeurigheid.

Real-world constraint-toepassingen

Overweeg een spoorwegmaatschappij die AI nodig heeft voor treinplanning: 1.200 treinen per dag. Complexe timingconstraints. Veiligheidskritiek.

Probabilistische ML-benadering:

  • Train neuraal netwerk op historische schema's
  • Bereik 94% "nauwkeurigheid" in schema-generatie
  • 6% van de gegenereerde schema's schendt veiligheidsconstraints
  • Handmatige verificatie vereist voor alle schema's
  • Waarschijnlijk resultaat: Niet ingezet. Risico te hoog.

Constraint-gebaseerde benadering:

  • Definieer 47 planningsconstraints (timing, capaciteit, veiligheid)
  • Binaire CSP-oplosser vindt geldige schema's
  • 100% van de gegenereerde schema's voldoet aan alle constraints
  • Wiskundig bewijs: geen onveilige schema's mogelijk
  • Potentieel resultaat: Succesvolle implementatie met efficiëntiewinst.

De constraint-benadering biedt zowel veiligheids- als efficiëntievoordelen. Probabilistische modellen verspillen rekenkracht aan het verkennen van ongeldige oplossingen. Constraint-oplossers snoeien ongeldige opties onmiddellijk weg via propagatietechnieken.

Spoorwegplanning vertegenwoordigt een canoniek constraint satisfaction problem: duizenden treinen, complexe timingvereisten, absolute veiligheidseisen. Systemen die schema's genereren die af en toe veiligheidsconstraints schenden, kunnen niet worden ingezet in veiligheidskritieke spoorwegoperaties. Constraint-gebaseerde benaderingen die wiskundig garanderen dat aan alle veiligheidseisen wordt voldaan, sluiten beter aan bij operationele noodzakelijkheden.

De combinatorische explosie mythe

Critici beweren dat constraint satisfaction lijdt aan combinatorische explosie. "Te veel mogelijke combinaties. Zoekruimte te groot."

Dit was waar in 1990. Het is niet waar in 2025.

Moderne binaire CSP-oplossers gebruiken:

  • Constraint Propagatie: Wanneer u een waarde toewijst aan één variabele, elimineert u automatisch ongeldige waarden van gerelateerde variabelen. De zoekruimte krimpt drastisch voordat u zelfs begint met zoeken.
  • Boogconsistentie: Zorg ervoor dat voor elke waarde in het domein van een variabele een compatibele waarde bestaat in gerelateerde variabelen. Snoei onmogelijke combinaties vroegtijdig weg.
  • Intelligent Backtracking: Wanneer u een doodlopende weg bereikt, probeer dan niet zomaar de volgende optie. Analyseer welke constraint de storing heeft veroorzaakt. Spring terug naar het relevante beslissingspunt.
  • Binaire Optimalisatie: Constraint-controles worden gereduceerd tot eenvoudige bit-operaties. XNOR en popcount in plaats van floating-point vergelijkingen. 100-1000× snellere uitvoering.

Een planningsprobleem met 10.000 variabelen en 50.000 constraints:

  • Naïef zoeken: 10^30.000 mogelijke combinaties (onmogelijk)
  • Met constraint-propagatie: 10^2.000 (drastisch verminderd, nog steeds uitdagend)
  • Met boogconsistentie: 10^500 (haalbaar met moderne methoden)
  • Met intelligent backtracking: 10^50 (gemakkelijk oplosbaar)
  • Met binaire optimalisatie: Verdere ordes van grootte verbetering

Moderne technieken hebben de uitdagingen van combinatorische explosie grotendeels overwonnen. Constraint satisfaction schaalt naar praktische probleemgroottes.

Het argument van de "combinatorische explosie" is het laatste toevluchtsoord van probabilistische AI-verdedigers. Het was geldig in 1995. Het is verouderd in 2025. Moderne constraint-oplossers met binaire optimalisatie behandelen problemen die 30 jaar geleden onmogelijk zouden zijn geweest. De wiskunde is geëvolueerd. De algoritmen zijn verbeterd. De hardware heeft een inhaalslag gemaakt. Constraint satisfaction afwijzen vanwege combinatorische explosie is als het afwijzen van vliegreizen omdat het vliegtuig van de gebroeders Wright de Atlantische Oceaan niet kon oversteken.

Hybride intelligentie

Hier wordt het interessant: combineer probabilistische patroonherkenning met constraint-gebaseerde redenering.

Gebruik neurale netwerken om patronen te identificeren en kenmerken uit ruwe data te extraheren. Gebruik vervolgens constraint satisfaction om ervoor te zorgen dat de uiteindelijke beslissing aan alle eisen voldoet.

Voorbeeld: Perceptie van autonome voertuigen.

  • Stap 1 (Probabilistisch): Neuraal netwerk verwerkt camerabeelden. Detecteert objecten. "84% zeker dat dit een voetganger is op positie (x,y)." "91% zeker dat dit een stopbord is."
  • Stap 2 (Constraint-gebaseerd): CSP verifieert constraints. "ALS object gedetecteerd met >80% zekerheid EN positie binnen 10m DAN constraint 'obstakel aanwezig' is WAAR." "ALS stopbord gedetecteerd EN afstand < 50m DAN constraint 'moet stoppen' is WAAR."
  • Stap 3 (Formele Beslissing): Actie selectie gebaseerd op constraint satisfaction. "Aan alle veiligheidsconstraints voldaan. Acceleratie toegestaan." OF "Constraint 'moet stoppen' geschonden door voorgestelde actie. Remmen vereist."

De perceptie kan probabilistisch zijn. De beslissing moet logisch zijn. De actie moet bewijsbaar veilig zijn.

Deze hybride benadering is bijzonder geschikt voor Europese markten. Gebruik bewezen neurale netwerken voor perceptietaken waar probabilistische redenering uitblinkt (beeldherkenning, spraakverwerking). Geef vervolgens de besluitvorming over aan constraint-gebaseerde besluitvorming waar veiligheid en verklaarbaarheid van belang zijn. U krijgt het beste van twee werelden: de patroonherkenningskracht van neurale netwerken met de formele garanties van constraint satisfaction. Regelgevers keuren de formele beslissingslaag goed. Gebruikers profiteren van de perceptuele mogelijkheden.

Het verklaarbaarheidsvoordeel

De EU AI Act vereist verklaarbaarheid. Constraint-gebaseerde systemen leveren dit van nature.

Voor elke beslissing kunt u traceren:

  • Welke constraints actief waren
  • Welke werden voldaan, welke niet
  • Waarom bepaalde opties werden geëlimineerd
  • Waarom de gekozen oplossing werd geselecteerd
  • Wiskundig bewijs dat er geen betere oplossing bestaat

Een bank die constraint-gebaseerde AI gebruikt voor leningbeslissingen, biedt klanten: "Uw lening is goedgekeurd omdat: Inkomensconstraint voldaan (€X > €Y vereist), Kredietgeschiedenisconstraint voldaan (score Z > drempel W), Schuldratioconstraint voldaan (R < limiet S). Aan alle regelgevende constraints voldaan."

Afgewezen aanvrager ontvangt: "Lening geweigerd omdat: Schuldratioconstraint geschonden (85% > 75% maximum). Om in aanmerking te komen, verminder schuld met €X of verhoog inkomen met €Y."

Dat is verklaarbaarheid. Niet "ons black box algoritme heeft besloten." Duidelijke, logische, bruikbare redenering.

De EU AI Act classificeert leningbeslissingen als risicovolle AI-systemen die volledige verklaarbaarheid vereisen. Amerikaanse banken die probabilistische AI gebruiken, worstelen om te voldoen – hoe leg je 47 miljoen floating-point parameters uit? Europese banken die constraint-gebaseerde AI gebruiken, printen eenvoudigweg de constraint-evaluatie. Naleving van regelgeving wordt een natuurlijk gevolg van de architectuur, geen bijzaak die afzonderlijke verklaringslagen vereist.

De Dweve constraint-architectuur

Dweve Core integreert constraint satisfaction met binaire neurale netwerken.

Elke expert in Loom 456 is niet zomaar een statistische patroonherkenner. Het is een constraint-oplosser. Elke expert bevat 64-128MB aan binaire constraints die gespecialiseerde kennisdomeinen vertegenwoordigen. Expert 47 is mogelijk gespecialiseerd in geometrische constraints. Expert 203 behandelt temporele constraints. Expert 389 richt zich op resource-constraints.

Wanneer een probleem zich voordoet:

1. Inputanalyse identificeert relevante constraint-typen
2. Geschikte constraint-gespecialiseerde experts activeren
3. Elke expert handhaaft zijn constraints op de oplossingsruimte
4. De intersectie van alle constraints definieert geldige oplossingen
5. Optimalisatie selecteert de beste geldige oplossing

Resultaat: Intelligentie met wiskundige garanties. Creativiteit binnen bewezen grenzen. Flexibiliteit met absolute veiligheid.

Luchtvaartmaatschappijen zouden Dweve kunnen gebruiken voor vluchtbesturingssoftware. Luchtvaartregelgevers vereisen formele verificatie. Traditionele neurale netwerken: onmogelijk te certificeren. Dweve's constraint-gebaseerde architectuur maakt formele verificatiepaden naar potentiële certificering mogelijk.

EASA (European Union Aviation Safety Agency) is bijzonder sceptisch geweest over probabilistische AI in vluchtkritieke systemen. Hun certificeringseisen vragen om wiskundig bewijs van veiligheidseigenschappen. Constraint-gebaseerde architecturen zoals die van Dweve sluiten aan bij deze eisen. De regelgevende omgeving die probabilistische AI blokkeert, verwelkomt juist constraint-gebaseerde benaderingen. Europese strengheid wordt een concurrentievoordeel.

Prestatiekenmerken

Constraint-gebaseerde binaire CSP-oplossers bieden overtuigende prestatievoordelen voor geschikte probleemklassen.

Voor resource-allocatieproblemen met duizenden resources en constraints:

  • Probabilistische optimalisatiemethoden verkennen oplossingsruimtes door iteratieve verbetering
  • Gemengde geheeltallige programmering biedt optimaliteitsgaranties tegen rekenkosten
  • SAT-oplossers maken gebruik van booleaanse logica voor efficiënte constraint-controle
  • Binaire CSP met boogconsistentie combineert propagatietechnieken met binaire operaties voor snel oplossen

Binaire constraint-operaties blijken aanzienlijk sneller te zijn dan floating-point berekeningen, terwijl ze constraint satisfaction garanderen – iets wat probabilistische methoden niet kunnen waarborgen.

Voor planningsproblemen met duizenden taken met temporele constraints:

  • Metaheuristische benaderingen (gesimuleerde annealing, genetische algoritmen) verkennen via stochastisch zoeken
  • Wiskundige programmeringsformuleringen bieden optimale oplossingen met hogere rekenvereisten
  • Binaire CSP maakt gebruik van constraint-propagatie voor efficiënte snoei van de zoekruimte

Snelheid is belangrijk voor real-time systemen. Constraint satisfaction levert zowel prestatie- als correctheidsgaranties.

De vrijheidsparadox

Constraints lijken beperkend. Regels lijken restrictief. Logica lijkt rigide.

Maar constraints definiëren mogelijkheidsruimtes. Regels maken bewijsbare correctheid mogelijk. Logica biedt zekere vrijheid.

Probabilistische AI: "We zijn 87% zeker dat dit veilig is, maar we kunnen het niet bewijzen."
Constraint AI: "Dit is bewijsbaar veilig binnen gedefinieerde grenzen. Verken vrijelijk binnen die grenzen."

Welke geeft u meer vrijheid? Onzekere flexibiliteit die catastrofale storingen kan veroorzaken? Of zekere grenzen waarbinnen u met volledig vertrouwen kunt opereren?

Een AI voor een kerncentrale: Zou u 99,9% zekerheid prefereren dat veiligheidsprocedures worden gevolgd? Of wiskundig bewijs dat veiligheidsconstraints nooit kunnen worden geschonden?

Een medische AI: 95% zekerheid bij het controleren van medicijninteracties? Of formele garantie dat er geen gevaarlijke combinaties zullen worden voorgeschreven?

Een financiële AI: Statistische betrouwbaarheid in naleving van regelgeving? Of bewezen naleving van alle wettelijke constraints?

Constraints creëren vrijheid. Vrijheid om AI in veiligheidskritieke systemen in te zetten. Vrijheid om correctheid te garanderen. Vrijheid van de beperkingen van onzekerheid.

De paradox lost prachtig op: strikte constraints maken bredere inzet mogelijk. Wanneer u veiligheid kunt bewijzen, staan regelgevers gebruik in kritieke systemen toe. Wanneer u alleen statistische betrouwbaarheid kunt claimen, beperken regelgevers de inzet. Constraint-gebaseerde AI met formele verificatie ontsluit toepassingen die probabilistische AI nooit kan bereiken. Hoe strakker de wiskundige grenzen, hoe breder de praktische mogelijkheden.

De toekomst is logisch

Probabilistische neurale netwerken domineerden AI 15 jaar lang omdat GPU's uitblinken in floating-point operaties en we geen efficiënte discrete oplossers hadden.

Dat tijdperk loopt ten einde.

Binaire neurale netwerken maken efficiënte constraint satisfaction mogelijk. CPU's verwerken discrete logica beter dan floating-point benaderingen. Formele verificatie wordt praktisch. Bewijsbare AI wordt werkelijkheid.

De industrieën die dit vroegtijdig erkennen:

  • Automotive: Formele verificatie vereist voor veiligheidscertificering
  • Luchtvaart: Bewezen correctheid verplicht voor vluchtbesturing
  • Medische hulpmiddelen: Regelgevende eisen voor verklaarbare beslissingen
  • Financiën: Wettelijke eisen voor controleerbare redenering
  • Industriële controle: Veiligheidsnormen vereisen wiskundige garanties

Dit zijn geen niche-toepassingen. Dit zijn de meest waardevolle, meest veiligheidskritieke AI-implementaties.

En ze vereisen allemaal wat alleen constraint-gebaseerde AI kan bieden: bewijsbare correctheid, formele verificatie, logische redenering en verklaarbare beslissingen.

Probabilistische AI heeft zijn moment gehad. Constraint-gebaseerde AI is de toekomst. Niet omdat waarschijnlijkheid verkeerd is. Omdat zekerheid beter is.

De regelgevende omgeving maakt dit onvermijdelijk. De EU AI Act, Medical Device Regulation, automobielveiligheidsnormen, luchtvaartcertificeringseisen – ze eisen allemaal wat alleen constraint-gebaseerde AI kan bieden. Amerikaanse bedrijven die probabilistische AI bouwen voor Europese markten zullen te maken krijgen met regelgevende barrières. Europese bedrijven die constraint-gebaseerde AI bouwen, hebben een duidelijk pad naar certificering.

Constraints beperken de vrijheid niet. Ze definiëren de ruimte waar vrijheid veilig is. Regelgeving blokkeert innovatie niet. Het stuurt het naar oplossingen die daadwerkelijk werken onder toezicht. De toekomst van AI is geen onzekere flexibiliteit. Het is zekere capaciteit binnen bewezen grenzen.

AI met wiskundige garanties is hier. Dweve biedt constraint-gebaseerde binaire neurale netwerken met formele verificatie. Elk van de 456 experts in Loom bevat 64-128MB aan binaire constraints, die gespecialiseerde kennisdomeinen vertegenwoordigen. Bewijsbare correctheid. Verklaarbare redenering. Potentieel voor veiligheidscertificering. Gebouwd voor Europese regelgevende eisen. Logica creëert vrijheid. Constraints maken zekerheid mogelijk.

Tags

#Constraint Satisfaction#Logica AI#Formele methoden#Bewijsbare correctheid#Binair redeneren

Over de auteur

Marc Filipan

CTO & Co-Founder

Bouwt aan de toekomst van AI met binaire netwerken en constraint reasoning. Richt zich op efficiënte, transparante en toegankelijke AI.

Ontvang Dweve-updates

Schrijf je in voor nieuws rond binary intelligence en releases

✓ Geen spam ✓ Altijd uitschrijven mogelijk ✓ Nuttige content ✓ Eerlijke updates