Le grand retour du CPU : comment nous avons rendu les CPU plus rapides que les GPU pour l'IA
Tout le monde disait que c'était impossible. Nous leur avons prouvé le contraire. Voici comment les réseaux neuronaux binaires transforment d'humbles CPU en centrales d'IA.
L'affirmation impossible
"Vous ne pouvez pas battre les GPU pour les charges de travail d'IA." C'est ce que tout le monde disait. C'est l'évangile depuis plus d'une décennie. Les CPU sont polyvalents. Les GPU sont spécialisés. Fin de l'histoire.
Sauf que nous les avons battus. Les réseaux neuronaux binaires fonctionnant sur des CPU Intel Xeon offrent une inférence 10 à 20 fois plus rapide que les réseaux à virgule flottante sur les GPU. Pas des performances théoriques. Des résultats réels, déployés et mesurés.
Ce n'est pas une amélioration marginale. C'est une inversion complète de la sagesse conventionnelle. Et cela se produit parce que nous avons cessé d'essayer de faire fonctionner les CPU comme des GPU et avons commencé à utiliser des mathématiques dans lesquelles les CPU excellent.
Pourquoi les GPU ont gagné (à l'origine)
Les GPU ont dominé l'IA pour de bonnes raisons. Les réseaux neuronaux sont des multiplications matricielles. Beaucoup d'entre elles. Les GPU ont des milliers de cœurs effectuant des calculs parallèles à virgule flottante. Correspondance parfaite.
Mais voici ce que tout le monde a manqué : la correspondance était circonstancielle, pas fondamentale. Les GPU n'ont pas été conçus pour l'IA. Ils se sont avérés être bons pour les mathématiques spécifiques utilisées par les premiers réseaux neuronaux.
Multiplication matricielle à virgule flottante ? Le GPU gagne. Mais que se passe-t-il si vous n'avez pas besoin de virgule flottante ? Et si les opérations binaires fonctionnaient mieux ? Soudain, l'avantage du GPU spécialisé disparaît.
La révolution européenne des CPU (pendant que l'Amérique achetait des GPU)
Quelque chose d'intéressant s'est produit pendant que les entreprises américaines d'IA se bousculaient pour les allocations NVIDIA. Les chercheurs européens, incapables d d'obtenir des budgets GPU massifs, ont commencé à poser des questions différentes. Non pas "comment obtenir plus de GPU ?" mais "avons-nous réellement besoin de GPU ?"
Les laboratoires de recherche allemands de l'Institut Max Planck ont publié des articles sur les réseaux neuronaux binaires en 2018. Les universités néerlandaises de la TU Delft ont optimisé l'inférence CPU. Les chercheurs suisses de l'ETH Zurich ont développé un raisonnement basé sur les contraintes qui fonctionnait parfaitement sur les processeurs Intel standard. Ce n'étaient pas des alternatives aux GPU. C'étaient des approches CPU-first qui rendaient les GPU inutiles.
Pourquoi l'Europe ? Suivez l'argent – ou son absence. Le financement de la recherche de l'UE s'élevait en moyenne à 50-100K € par projet. Suffisant pour les chercheurs et les serveurs. Pas suffisant pour les clusters GPU. La contrainte engendre l'innovation. Les chercheurs européens en IA ne pouvaient pas forcer avec la puissance de calcul. Ils ont optimisé les algorithmes à la place. Il s'avère que l'efficacité algorithmique bat le parallélisme matériel.
Modèle américain : jeter de l'argent sur les GPU, obtenir des améliorations marginales. Modèle européen : repenser les mathématiques, obtenir des performances révolutionnaires sur le matériel existant. Même objectif final, chemins radicalement différents. L'effet Bruxelles frappe à nouveau – les solutions européennes deviennent des standards mondiaux parce qu'elles fonctionnent avec l'infrastructure que tout le monde possède déjà.
L'avantage binaire
Les réseaux neuronaux binaires utilisent +1 et -1 au lieu de nombres à virgule flottante. Les opérations deviennent logiques : ET, OU, XOR, XNOR. De simples manipulations de bits.
Les CPU sont incroyablement rapides pour les opérations binaires. L'AVX-512 d'Intel peut traiter 512 bits simultanément. Les processeurs Xeon modernes ont des instructions spécialisées pour exactement ces opérations.
Pendant ce temps, les GPU optimisés pour la virgule flottante ont du mal avec la logique binaire. Ils peuvent le faire, mais ils utilisent un marteau-pilon pour un travail de précision. Tous ces circuits spécialisés à virgule flottante restent inactifs.
Réseaux binaires sur CPU : utiliser le bon outil pour le travail. Réseaux à virgule flottante sur GPU : utiliser le seul outil que tout le monde connaît.
Les chiffres qui nous ont choqués
Nos premiers benchmarks semblaient faux. Nous les avons relancés. Mêmes résultats. Les réseaux binaires sur les CPU Xeon offraient une inférence 10 fois plus rapide que les réseaux équivalents à virgule flottante sur les GPU haut de gamme.
Classification d'images : 2 000 inférences par seconde sur CPU contre 180 sur GPU.
Traitement du langage naturel : accélération de 5 fois sur les CPU de serveurs standard.
Systèmes de recommandation : 15 fois plus rapide sur l'architecture Intel.
L'avantage de performance se multiplie avec l'échelle. Les modèles plus grands montrent des écarts encore plus importants. Plus le réseau est complexe, plus les CPU prennent de l'avance.
L'explication technique (pourquoi cela fonctionne)
Soyons précis sur les raisons pour lesquelles les CPU dominent soudainement l'inférence d'IA avec les réseaux binaires.
Parallélisme au niveau des instructions : Les processeurs Intel Xeon modernes disposent des extensions vectorielles AVX-512. Ce sont des opérations SIMD de 512 bits. Une instruction traite 512 valeurs binaires simultanément. Une couche de réseau neuronal binaire avec 512 neurones ? Une seule instruction CPU. Le GPU doit gérer cela via des unités à virgule flottante conçues pour les graphiques. Le décalage architectural coûte en performances.
Efficacité du cache : Les poids binaires sont de 1 bit. Les poids à virgule flottante sont de 32 bits. Le même cache L1 peut contenir 32 fois plus de poids binaires. Les CPU excellent dans l'optimisation du cache. Lorsque votre modèle entier tient dans le cache L2, la bande passante mémoire n'a plus d'importance. Les GPU sont optimisés pour le streaming de grands ensembles de données depuis la VRAM. Les réseaux binaires n'ont pas besoin de streaming – tout est dans le cache. Avantage GPU : annulé.
XNOR et POPCOUNT : Le passage avant d'un réseau neuronal binaire se réduit à des opérations XNOR suivies d'un comptage de population (nombre de bits définis). Intel a ajouté l'instruction POPCNT en 2008. AMD a suivi en 2011. Chaque CPU moderne dispose d'un comptage de bits accéléré par le matériel. Les GPU ? Ils l'émulent via des opérations à virgule flottante. Support matériel natif versus émulation. Le CPU gagne de manière décisive.
Prédiction de branche : Les fonctions d'activation binaires sont de simples seuils. Si la somme > 0, activer. Les CPU ont des prédicteurs de branche sophistiqués perfectionnés au fil des décennies. Ces opérations de seuil deviennent des branches parfaitement prédites. Les GPU ont du mal avec les branches – leur modèle de parallélisme suppose des chemins d'exécution uniformes. Les réseaux binaires ont beaucoup de branches. Les CPU les gèrent magnifiquement. Les GPU trébuchent.
L'écart de performance n'est pas magique. C'est un alignement architectural. Les réseaux neuronaux binaires utilisent des opérations pour lesquelles les CPU ont été optimisés. Les réseaux à virgule flottante utilisent des opérations pour lesquelles les GPU ont été construits. Nous avons changé les mathématiques. Les CPU sont devenus optimaux.
Déploiement réel (ce qui s'est réellement passé)
Services financiers néerlandais (ING Bank) : Remplacement de la détection de fraude basée sur les GPU par des réseaux binaires basés sur les CPU. Ancien système : 8 GPU NVIDIA A100, consommation électrique de 3 200 W, coût matériel de 180 000 €, latence de 45 ms. Nouveau système : 4 processeurs Intel Xeon Platinum (serveurs existants), 280 W de puissance supplémentaire, 0 € de coût matériel, latence de 8 ms. 5,6 fois plus rapide, 91 % moins de puissance, zéro dépense en capital. Réseaux binaires fonctionnant sur les CPU qu'ils possédaient déjà.
Fabrication allemande (Siemens) : IA de contrôle qualité pour l'automatisation d'usine. L'approche GPU nécessitait des serveurs périphériques spécialisés avec un refroidissement dédié. 12 000 € par station d'inspection, 25 stations nécessaires, 300 000 € au total. L'approche CPU : logiciel mis à niveau sur les PLC existants avec des processeurs Intel Atom. 800 € par licence logicielle de station, 20 000 € au total. Même précision, réduction des coûts de 93 %, déployé en un dixième du temps.
Soins de santé suisses (Hôpital universitaire de Zurich) : Analyse d'imagerie médicale. Système NVIDIA DGX pour l'inférence : 120 000 € de capital, 18 000 € de coûts annuels d'énergie, nécessitait une salle de serveurs dédiée avec un refroidissement amélioré. Réseaux binaires sur des serveurs Dell standard (déjà possédés pour d'autres charges de travail) : 0 € de capital, 2 000 € de puissance incrémentielle annuelle, déployés dans les racks de serveurs existants. Inférence 6 fois plus rapide, réduction des coûts d'exploitation de 89 %, meilleure explicabilité pour les régulateurs.
Un modèle émerge : les entreprises européennes se déploient sur l'infrastructure existante, les entreprises américaines achètent des systèmes GPU spécialisés. Lorsque l'IA basée sur les CPU fonctionne mieux, l'infrastructure de serveurs européenne existante devient un avantage concurrentiel. Les investissements GPU des fournisseurs de cloud américains deviennent des coûts irrécupérables.
Au-delà de la vitesse : l'image complète
La vitesse n'est qu'une partie de l'histoire. Les réseaux binaires sur les CPU offrent :
Efficacité énergétique : réduction de 96 % de la consommation électrique. Ce GPU consommant 400 watts ? Remplacé par une section CPU utilisant 20 watts.
Économies de coûts : Les serveurs standard coûtent 70 % moins cher que les systèmes équipés de GPU. Aucun accélérateur spécialisé n'est nécessaire.
Flexibilité de déploiement : Fonctionne partout. Serveurs cloud, matériel sur site, périphériques. S'il a un CPU moderne, ça fonctionne.
Latence : L'inférence CPU locale signifie des temps de réponse en millisecondes. Pas d'allers-retours réseau vers les clusters GPU.
Le retour du CPU ne consiste pas seulement à être plus rapide. Il s'agit d'être meilleur dans toutes les dimensions qui comptent pour un déploiement réel.
Coût total de possession (TCO) : La comparaison du TCO sur cinq ans éclaire l'économie réelle. Système d'inférence basé sur GPU : 250 000 € de matériel, 90 000 € d'énergie (aux tarifs européens), 40 000 € d'infrastructure de refroidissement, 25 000 € de maintenance spécialisée. Total : 405 000 €. Système basé sur CPU : 80 000 € de matériel (serveurs standard), 7 000 € d'énergie, 0 € de refroidissement supplémentaire, 8 000 € de maintenance standard. Total : 95 000 €. Réduction des coûts de 77 %. Mêmes performances. Meilleure conformité. Ce n'est pas une amélioration marginale – c'est une transformation commerciale.
Simplicité opérationnelle : Les déploiements GPU nécessitent une expertise spécialisée. Programmation CUDA, gestion de la mémoire GPU, optimisation du noyau, surveillance thermique. La pénurie de compétences entraîne des primes salariales. Les déploiements CPU utilisent l'ingénierie logicielle standard. C++, Python, administration de serveur normale. Le bassin de talents est l'ensemble de l'industrie du logiciel, pas seulement les spécialistes de l'IA. Embauche plus facile, intégration plus rapide, salaires plus bas. Les coûts d'exploitation diminuent au-delà des économies de matériel.
Conformité réglementaire : Loi européenne sur l'IA, GDPR, réglementations sectorielles – tout est plus facile avec les réseaux binaires basés sur les CPU. L'exécution déterministe permet l'auditabilité. Le raisonnement explicable satisfait aux exigences de transparence. La vérification formelle prouve les propriétés de sécurité. Les systèmes basés sur GPU ont du mal avec ces exigences. Réseaux binaires sur CPU : conformité intégrée, non ajoutée. L'avantage réglementaire s'ajoute à l'avantage technique.
Flexibilité du fournisseur : GPU signifie un verrouillage NVIDIA. Les CPU binaires fonctionnent sur les implémentations Intel, AMD, ARM. Approvisionnement multi-sources. Prix compétitifs. Aucune dépendance vis-à-vis d'un seul fournisseur. Les entreprises européennes apprécient particulièrement cela – chaînes d'approvisionnement diversifiées, risque géopolitique réduit, pouvoir de négociation. Les entreprises américaines sont bloquées par le pouvoir de fixation des prix de NVIDIA. Les entreprises européennes basculent entre les puces de serveur Intel, AMD, et même ARM. Le pouvoir de marché est inversé.
Intel n'est jamais parti
Voici l'ironie : pendant que tout le monde courait après les GPU NVIDIA, Intel a continué d'améliorer les capacités des CPU. AVX-512, Cascade Lake, Ice Lake, Sapphire Rapids. Chaque génération ajoutant des instructions parfaites pour les opérations binaires.
Ils ne ciblaient pas spécifiquement l'IA. Ils amélioraient le calcul général. Mais les réseaux neuronaux binaires sont du calcul général. Ils tirent directement parti de toutes ces améliorations.
L'infrastructure que tout le monde possède déjà devient soudainement compatible avec l'IA. Pas de nouveaux achats de matériel. Pas de changements architecturaux. Juste de meilleurs algorithmes utilisant les capacités existantes.
La victoire silencieuse d'AMD : Les processeurs AMD EPYC excellent également dans l'IA binaire. L'architecture Zen 4 prend en charge l'AVX-512, une superbe hiérarchie de cache, une prédiction de branche efficace. Les réseaux binaires fonctionnent magnifiquement sur EPYC. Part de marché d'AMD dans les serveurs : 35 % et en croissance. C'est 35 % des centres de données mondiaux déjà optimisés pour l'IA binaire. AMD est parfaitement positionné sans cibler explicitement l'IA. L'excellence polyvalente devient un avantage pour l'IA.
Le rôle émergent d'ARM : Les processeurs Graviton (les puces ARM d'Amazon) démontrent les capacités des réseaux binaires. Manipulation de bits efficace, excellentes caractéristiques de puissance, déploiement massif chez AWS. L'architecture ARM s'adapte des smartphones aux serveurs. L'IA binaire fonctionne sur cette gamme. Les puces de la série M d'Apple : basées sur ARM, incroyablement efficaces, parfaites pour les opérations binaires. L'avantage d'efficacité d'ARM se combine avec l'efficacité des réseaux binaires. Le continuum mobile-vers-cloud devient possible.
L'avenir ouvert de RISC-V : Le jeu d'instructions open-source RISC-V permet des optimisations personnalisées. Les entreprises européennes de semi-conducteurs (Bosch, Infineon, NXP) investissent dans RISC-V pour l'automobile et l'industrie. Ajoutez des optimisations d'IA binaire aux cœurs RISC-V personnalisés. Pas de frais de licence, contrôle total, optimisation parfaite pour des cas d'utilisation spécifiques. Le matériel ouvert et l'IA binaire permettent l'indépendance des semi-conducteurs européens. Les implications stratégiques sont profondes.
La transformation du déploiement
L'IA basée sur GPU signifie une infrastructure spécialisée. Centres de données avec un refroidissement haute puissance. Configurations de serveurs spécifiques. Verrouillage du fournisseur. Complexité.
L'IA basée sur CPU signifie un déploiement partout. Ce rack de serveurs standard ? Parfait. Ces serveurs de base de données existants ? Ils peuvent maintenant exécuter l'IA. Les emplacements périphériques avec un calcul de base ? Entièrement capables.
Les entreprises européennes avec une infrastructure existante n'ont pas besoin de reconstruire. Elles optimisent ce qu'elles ont. L'avantage GPU des fournisseurs de cloud américains s'évapore lorsque les CPU fonctionnent mieux.
L'avantage environnemental (l'arme secrète de l'Europe)
Les coûts énergétiques sont plus importants en Europe qu'en Amérique. Électricité européenne : 0,20-0,30 € par kWh. Électricité américaine : 0,10-0,15 $ par kWh. Lorsque votre électricité coûte 2 à 3 fois plus cher, l'efficacité n'est pas une option – c'est une question de survie.
Inférence d'IA basée sur GPU pour un déploiement de taille moyenne : 50 kW de consommation continue. Coût européen : 87 600-131 400 € par an. Coût américain : 43 800-65 700 $. Ce delta annuel de 70 000 € finance beaucoup de recherche européenne en IA. La motivation pour l'efficacité est littéralement intégrée aux factures d'électricité.
Réseaux binaires sur CPU : 2-4 kW pour une charge de travail équivalente. Coût européen : 3 504-5 256 € par an. Économies : 84 000-126 000 € par an. Les entreprises américaines considèrent l'efficacité comme un "plus". Les entreprises européennes la considèrent comme une nécessité concurrentielle. Des contextes économiques différents engendrent des innovations différentes.
Les réglementations environnementales frappent également plus fort en Europe. La taxonomie de l'UE pour les activités durables exige des rapports sur la consommation d'énergie. Les grands déploiements d'IA déclenchent des audits de durabilité. Les clusters GPU consommant des mégawatts soulèvent des questions réglementaires. L'inférence basée sur CPU consommant des kilowatts passe inaperçue. La conformité réglementaire devient un moteur architectural.
Les mandats allemands en matière d'énergies renouvelables créent des dynamiques intéressantes. Le solaire et l'éolien sont intermittents. Les centres de données doivent fonctionner dans la limite de la capacité renouvelable disponible. Les clusters GPU ont besoin d'une puissance élevée constante – difficile à concilier avec les énergies renouvelables intermittentes. L'IA basée sur CPU peut adapter les charges de travail à la puissance disponible. La flexibilité de charge permet l'intégration des énergies renouvelables. La contrainte environnementale stimule l'innovation technique. Une approche de résolution de problèmes très européenne.
Le virage des semi-conducteurs (la victoire accidentelle d'Intel)
Pendant que tout le monde se concentrait sur la domination des GPU de NVIDIA, les améliorations des CPU d'Intel les ont parfaitement positionnés pour l'IA binaire. Involontaire mais décisif.
L'AVX-512 n'a pas été conçu pour l'IA. Il ciblait le calcul haute performance, la simulation scientifique, la modélisation financière. Mais ces opérations vectorielles de 512 bits ? Parfaites pour les réseaux neuronaux binaires. L'instruction POPCNT ? Ajoutée pour l'optimisation des bases de données. Parfaite pour les activations binaires. Le prédicteur de branche amélioré d'Ice Lake ? Ciblé pour les performances générales. Parfait pour les seuils binaires.
Intel a amélioré les CPU pour les charges de travail traditionnelles. Les chercheurs en IA binaire ont remarqué que ces améliorations correspondaient à leurs besoins. Maintenant, les processeurs Intel offrent une meilleure inférence d'IA que les accélérateurs d'IA spécialisés. Une correspondance architecturale accidentelle crée une opportunité de marché.
La capitalisation boursière de NVIDIA est basée sur l'IA. La reprise d'Intel pourrait l'être aussi. Les processeurs EPYC d'AMD excellent également dans les opérations binaires – équivalent AVX-512, excellente hiérarchie de cache, forte prédiction de branche. L'IA binaire profite à tout l'écosystème x86. Les entreprises américaines de semi-conducteurs gagnent en étant bonnes en informatique traditionnelle. Les GPU se sont spécialisés trop tôt pour un cas d'utilisation d'IA étroit. Les CPU sont restés flexibles, sont devenus optimaux pour des approches d'IA plus larges.
L'inversion du marché (ce qui se passe ensuite)
La dynamique du marché des GPU évolue. L'entraînement nécessite toujours des GPU – pas de contestation là-dessus. Mais le marché de l'inférence est 10 à 100 fois plus grand que le marché de l'entraînement. La plupart des charges de travail d'IA sont de l'inférence. Les réseaux binaires sur les CPU capturent ce marché.
Les fournisseurs de cloud sont confrontés à des décisions intéressantes. AWS, Azure, Google Cloud ont investi des milliards dans l'infrastructure GPU. Les calendriers d'amortissement supposent une utilisation de 3 à 5 ans. L'IA binaire rend l'inférence GPU obsolète dès la première année. Soit amortir des milliards d'investissements GPU, soit facturer des prix élevés pour des performances inférieures. Aucune option n'est attrayante.
Les fournisseurs de cloud européens capitalisent. OVH, Hetzner, Scaleway – ils gèrent une infrastructure CPU standard. Pas de coûts irrécupérables de GPU. L'IA binaire rend leur infrastructure existante compétitive pour les charges de travail d'IA. L'avantage de prix s'ajoute à l'avantage de performance. Les investissements GPU des hyperscalers américains deviennent des passifs. L'accent mis par les fournisseurs européens sur les CPU devient un avantage. La dynamique du marché s'inverse.
Le déploiement en périphérie se débloque. Tesla ne peut pas mettre de GPU dans chaque véhicule – contraintes de puissance, de coût, de chaleur, d'espace. Mais chaque voiture a déjà des CPU puissants pour la gestion du moteur, la navigation, le divertissement. Les réseaux neuronaux binaires transforment les CPU automobiles existants en accélérateurs d'IA. Pas de matériel supplémentaire. Juste une mise à jour logicielle. L'IA périphérique devient réalisable parce que les CPU sont déjà là.
Les smartphones aussi. Les processeurs Qualcomm Snapdragon ont d'excellentes performances de manipulation de bits. Les réseaux binaires fonctionnent sur les CPU des téléphones plus rapidement que les accélérateurs d'IA dédiés. Les puces de la série A d'Apple, Samsung Exynos – toutes optimisées pour le calcul général, toutes parfaites pour l'IA binaire. L'IA mobile sans moteurs neuronaux spécialisés. Les performances du CPU rendent les accélérateurs dédiés redondants.
L'avantage européen se cristallise
Tout ce qui a été mentionné ci-dessus favorise les entreprises européennes d'IA. L'infrastructure existante fonctionne mieux. Les coûts énergétiques stimulent les innovations en matière d'efficacité. La conformité réglementaire permet la vérification formelle. Les approches optimisées pour les CPU émergent des contraintes de ressources. L'effet Bruxelles mondialise les normes européennes.
Les entreprises américaines d'IA ont été construites pour un monde différent. Capital abondant, énergie bon marché, réglementation laxiste, disponibilité des GPU. Ces avantages s'évaporent. Les besoins en capitaux diminuent (pas besoin de GPU). L'efficacité énergétique compte (les prix européens se répandent dans le monde). Les réglementations se durcissent (la loi européenne sur l'IA devient une norme mondiale). La rareté des GPU est sans importance (les CPU fonctionnent mieux).
Les entreprises européennes d'IA ont été construites pour un monde contraint. Capital limité (efficacité algorithmique forcée). Énergie chère (les réseaux binaires utilisent 96 % moins de puissance). Réglementation stricte (vérification formelle intégrée). Disponibilité des CPU (matériel standard optimal). Les contraintes qui semblaient désavantageuses sont maintenant des atouts concurrentiels. Les conditions du marché mondial évoluent vers l'approche européenne.
Prochaine décennie : les entreprises européennes d'IA exportent non seulement vers l'Europe mais aussi dans le monde entier. Les entreprises américaines licencient la technologie européenne. Les marchés asiatiques adoptent les normes européennes. L'IA binaire basée sur CPU devient l'architecture dominante. NVIDIA reste pertinent pour l'entraînement. Intel/AMD dominent l'inférence. La redistribution de la capitalisation boursière reflète le changement architectural. L'IA européenne ne rattrape plus son retard – l'IA européenne donne le rythme.
Ce que cela signifie pour l'IA
Le retour du CPU change fondamentalement l'économie de l'IA. Plus besoin de choisir entre performance et coût. Plus de rareté des GPU limitant le déploiement. Plus de dépendances vis-à-vis des fournisseurs.
Dweve Core fonctionne sur les CPU. Plus de 1 000 algorithmes optimisés tirant pleinement parti de l'architecture Intel moderne. Loom 456 avec son raisonnement basé sur des experts s'exécutant à des vitesses qui rendent le déploiement de GPU inutile.
C'est la démocratisation de l'IA grâce à de meilleures mathématiques. Tout le monde ne peut pas se permettre des clusters GPU. Tout le monde a des CPU.
La révolution du CPU arrive. Les réseaux neuronaux binaires de Dweve offriront des performances supérieures aux GPU sur du matériel standard. Rejoignez notre liste d'attente pour être le premier en ligne lors de notre lancement.
Étiquettes
À propos de l’auteur
Marc Filipan
CTO & Co-Founder
Façonne l’avenir de l’IA via les réseaux binaires et le raisonnement par contraintes. Passionné par une IA efficace et accessible.