La prédiction de 2030 : La mort du chatbot et l'avènement de l'agent
Dans 5 ans, vous ne « discuterez » plus avec l'IA. Elle sera invisible, omniprésente et agentique. Voici notre feuille de route pour la prochaine décennie d'intelligence.
La fin de la phase de nouveauté
Imaginez-vous il y a cinq ans, regardant quelqu'un taper dans ChatGPT pour la première fois. Vous souvenez-vous de ce sentiment ? La légère incrédulité lorsque des phrases cohérentes ont commencé à apparaître. Le rire nerveux lorsqu'il a écrit un poème sur votre chien. L'effroi existentiel lorsqu'il a expliqué la physique quantique mieux que votre professeur d'université ne l'a jamais fait.
Ce moment d'émerveillement ? Il s'estompe déjà. Nous vivons la « Phase de nouveauté » de l'Intelligence Artificielle, une brève fenêtre définie par la crainte et le spectacle. Nous nous émerveillons que l'ordinateur puisse parler. Nous passons des heures à taper dans des zones de chat, traitant l'IA comme un oracle amusant, un jouet intelligent ou (soyons honnêtes) un stagiaire légèrement ivre qui produit parfois des éclairs de génie.
Nous avons même créé un nouvel intitulé de poste pour cette ère : « Prompt Engineer ». Pensez-y un instant. Nous payons des gens des salaires à six chiffres pour chuchoter les bonnes incantations à un ordinateur. Nous traitons l'IA comme une entité mystérieuse qu'il faut amadouer, cajoler et soigneusement inciter à faire un travail utile. C'est comme embaucher quelqu'un pour négocier avec votre micro-ondes.
D'ici 2030, cette phase semblera archaïque. Embarrassante, même. Nous regarderons le « prompt engineering » comme nous regardons les cartes perforées ou les lignes de commande MS-DOS. C'était une interface primitive et nécessaire pour une époque primitive. L'avenir de l'IA ne consiste pas à discuter avec un ordinateur. Il s'agit de la disparition totale de l'ordinateur.
Ce qui suit sont nos prédictions pour la prochaine demi-décennie d'intelligence. Pas des fantasmes marketing ou des rêves de science-fiction, mais des extrapolations fondées sur les trajectoires technologiques que nous observons aujourd'hui. Certaines se réaliseront plus vite que prévu. D'autres plus lentement. Mais la direction est claire.
Prédiction 1 : L'interface disparaît
La meilleure technologie est invisible. Vous n'avez pas de « conversation » avec votre système de freinage antiblocage : il empêche simplement le dérapage. Vous ne « sollicitez » pas votre filtre anti-spam : il filtre simplement le spam. Vous ne pensez jamais au protocole TCP/IP qui livre cet article sur votre écran. Une bonne technologie fonctionne. Une grande technologie fonctionne sans que vous ne la remarquiez.
D'ici 2030, l'IA s'effacera en arrière-plan. Elle deviendra le système d'exploitation ambiant du monde. Ce ne sera pas une destination (un site web comme ChatGPT) que vous visiterez. Ce sera un utilitaire qui imprègne tout, aussi banal et essentiel que l'électricité.
Nous passerons de l'Interaction Explicite (taper une commande pour obtenir un résultat) à l'Intention Implicite (le système anticipant le besoin et le satisfaisant). Voici à quoi cela ressemble en pratique :
Votre calendrier aujourd'hui : Vous lisez un fil d'e-mails. Vous pensez « nous devrions nous réunir ». Vous ouvrez votre calendrier. Vous vérifiez la disponibilité de chacun (trois systèmes différents). Vous proposez des horaires. Vous attendez les réponses. Vous réservez une salle. Vous envoyez les invitations. Vingt minutes de friction pour une réunion de trente minutes.
Votre calendrier en 2030 : L'IA observe votre fil d'e-mails. Elle remarque l'intention de réunion (en l'extrayant du contexte, pas des mots-clés). Elle vérifie la disponibilité de toutes les parties sur leurs systèmes de calendrier. Elle négocie le meilleur moment. Elle réserve la salle. Elle envoie les invitations. Vous voyez une notification : « Réunion prévue avec Sarah et James, jeudi à 14h ». Vous n'avez rien fait. La friction a disparu.
Ou considérez la gestion de la chaîne d'approvisionnement :
Aujourd'hui : Votre équipe opérationnelle surveille des tableaux de bord. Un analyste remarque la formation d'un ouragan dans le golfe du Mexique. Il vérifie manuellement quelles expéditions pourraient être affectées. Il fait remonter l'information à un responsable. Le responsable convoque une réunion. Ils décident de rerouter la cargaison. Quelqu'un met à jour les prévisions d'inventaire dans un tableur. Temps écoulé : 48 heures. Coût du retard : 200 000 €.
En 2030 : L'IA de la chaîne d'approvisionnement remarque la formation de l'ouragan (elle surveille la météo, pas les tableaux de bord). Elle prédit quelles expéditions seront retardées avec une confiance de 94 %. Elle reroute automatiquement la cargaison vers des ports alternatifs. Elle met à jour les prévisions d'inventaire. Elle notifie les humains concernés avec un résumé d'une phrase : « 14 conteneurs reroutés via Rotterdam en raison de l'ouragan Maria. ETA inchangée ». Temps écoulé : 3 minutes. Coût du retard : 0 €.
Le but de la technologie est de réduire la friction. Taper est une friction. Parler est une friction. Même penser à quoi taper est une friction. L'IA ultime supprime entièrement la friction. Vous ne l'utilisez pas. Elle s'utilise elle-même, en votre nom, avec votre autorité.
Prédiction 2 : Des mots aux actes (L'essor des agents)
Les Grands Modèles de Langage (LLM) d'aujourd'hui sont des moteurs de texte. Ils génèrent des mots. Ils sont incroyablement éloquents. Ils peuvent écrire de la poésie, expliquer la physique, résumer des documents et prétendre être un pirate expliquant la blockchain. Mais en fin de compte, ils produisent du texte sur lequel vous, l'humain, devez ensuite agir.
Les Grands Modèles d'Action (LAM) de demain seront des moteurs d'agence. Ils généreront des actions. Ils feront des choses dans le monde, pas seulement parler de faire des choses.
Un Agent ne vous dit pas simplement comment réserver un vol : il réserve le vol. Il se connecte au site web de la compagnie aérienne (ou utilise une API). Il sélectionne le siège que vous préférez (fenêtre, issue de secours, car il a appris vos préférences lors des 47 derniers vols). Il entre les détails de votre passeport. Il paie avec votre carte professionnelle. Il ajoute le reçu à votre note de frais avec le bon code projet. Il ajoute le vol à votre calendrier. Il définit même un rappel pour s'enregistrer 24 heures avant le départ.
Vous avez demandé un vol. Vous avez eu un vol. Pas des instructions. Pas une liste d'options. Pas une suggestion utile. Un vrai billet, acheté, confirmé, inscrit au calendrier.
Ce passage de la récupération d'informations à l'exécution de tâches est le plus grand déblocage économique de l'histoire du logiciel. Il transforme l'IA d'un « Moteur de recherche » (qui vous aide à travailler plus vite) en une « Force de travail » (qui fait le travail pour vous). Les implications sont stupéfiantes.
Selon les recherches de McKinsey, les travailleurs du savoir passent environ 28 % de leur temps à gérer les e-mails et les calendriers, 19 % à rechercher des informations et 14 % à des tâches administratives. C'est 61 % de la journée de travail consacrée à des activités que les agents pourraient gérer entièrement. Si nous pouvions récupérer ne serait-ce que la moitié de ce temps pour un véritable travail créatif et stratégique, la productivité mondiale augmenterait de milliers de milliards d'euros par an.
Cependant, ce changement nécessite une mise à niveau massive de la fiabilité. Vous pouvez tolérer un poème halluciné. (Cela peut même être charmant.) Vous ne pouvez pas tolérer un virement bancaire halluciné. Vous ne pouvez pas tolérer qu'un Agent supprime accidentellement votre base de données de production parce qu'il « pensait » que c'était ce que vous vouliez. Vous ne pouvez pas accepter un Agent qui vous réserve un vol pour Sydney, Australie alors que vous vouliez Sydney, Nouvelle-Écosse.
Cet écart de fiabilité est la raison pour laquelle l'avenir appartient aux architectures Neuro-Symboliques (comme ce que nous construisons chez Dweve) qui peuvent garantir l'exactitude, plutôt que des modèles purement probabilistes qui ne peuvent que la deviner. Lorsqu'un Agent gère vos finances, « 95 % de précision » n'est pas une fonctionnalité. C'est un procès en responsabilité qui attend d'arriver.
Prédiction 3 : La révolution des petits modèles
Au cours des cinq dernières années, le mantra de l'industrie a été « Scale is All You Need ». Des modèles plus gros, plus de données, plus de GPU. Nous avons couru des millions aux milliards, puis aux milliers de milliards de paramètres. GPT-3 avait 175 milliards de paramètres. GPT-4 en a (selon les rapports) plus de 1000 milliards. Chaque génération a exigé exponentiellement plus de calcul, plus d'énergie et plus de capital. Nous avons construit des centres de données de la taille de cathédrales pour les abriter.
Les années 2030 marqueront un renversement fondamental. Nous entrons dans l'ère des Experts Petits et Spécialisés.
Pourquoi ? Parce que nous atteignons des rendements décroissants sur la taille des modèles. Augmenter les paramètres de 100 milliards à 1000 milliards améliore les scores de référence de peut-être 5 à 10 %. Mais cela augmente les coûts d'entraînement de 10 millions d'euros à 100 millions d'euros. Cela augmente les coûts d'inférence de 10x. Cela augmente la consommation d'énergie au point où une seule session d'entraînement émet plus de carbone que 500 voitures conduites pendant un an.
Plus important encore, nous réalisons qu'un modèle massif et généraliste qui sait tout, de Shakespeare à Python en passant par la cuisine française et la mécanique quantique, est intrinsèquement inefficace. C'est comme embaucher une seule personne qui est simultanément avocat, chef, mécanicien et poète, et lui demander de faire vos impôts. Oui, elle peut connaître un peu la fiscalité. Mais un comptable dédié serait plus rapide, moins cher et plus précis.
Au lieu du « Modèle Dieu » dans le cloud, nous aurons des millions de petits modèles hyper-spécialisés :
- Un expert en droit des contrats allemand (entraîné sur chaque décision juridique allemande depuis 1949)
- Un expert en optimisation TypeScript (entraîné sur des millions de revues de code)
- Un expert en diagnostic des problèmes moteurs Ford 2015 (entraîné sur chaque manuel d'entretien et fiche de réparation)
- Un expert de la documentation produit spécifique de votre entreprise
- Un expert de votre style de communication personnel
Ces modèles seront assez petits pour fonctionner localement sur votre appareil (Edge AI). Ils fonctionneront sur votre téléphone, vos lunettes, votre voiture, votre réfrigérateur. Ils ne nécessiteront pas un GPU de 500 watts : ils fonctionneront sur une unité de traitement neuronal de 2 watts. Ils communiqueront entre eux dans un réseau maillé, acheminant les requêtes vers l'expert approprié. Ils seront rapides (pas de latence réseau), privés (aucune donnée ne quittant votre appareil) et bon marché (pas de facturation par token).
Le « Modèle Dieu » dans le cloud sera remplacé par un « Parlement d'experts » dans votre poche. Chez Dweve, nous appelons cette architecture « Loom » : 456 modèles experts spécialisés travaillant de concert, chacun assez petit pour fonctionner sur du matériel standard, ensemble plus capables que n'importe quel mastodonte monolithique.
Prédiction 4 : La vérification devient reine
Voici une expérience de pensée. Nous sommes en 2028. Le coût de génération d'un article de 1 000 mots a chuté de 100 € (rédacteur humain) à 0,001 € (générateur IA). Qu'arrive-t-il à Internet ?
Il est inondé. Noyé. Enseveli sous une avalanche de bruit synthétique. Chaque spammeur SEO, chaque usine à propagande, chaque ferme de contenu produira des millions d'articles par jour. Spam, deepfakes et « actualités » hallucinées constitueront 99 % du web. Le rapport signal/bruit s'effondrera à près de zéro.
Nous voyons déjà les premiers signes. Des chercheurs universitaires ont constaté qu'un pourcentage croissant de soumissions d'articles scientifiques sont des déchets générés par l'IA. Les plateformes de médias sociaux luttent contre des armées de robots propulsés par l'IA. Les photos d'archives sont remplacées par des images d'IA qui présentent parfois des personnes avec sept doigts.
Dans cet environnement, la prime à la Vérité va monter en flèche. Nous verrons l'essor des « Technologies de Vérité » :
Tatouage numérique cryptographique : Des signatures invisibles intégrées dans le contenu qui prouvent quand et par qui il a été créé. Si une photo n'a pas de tatouage valide provenant d'un appareil photo enregistré, elle est supposée être générée par l'IA jusqu'à preuve du contraire.
Traçabilité de la provenance : Des systèmes de type blockchain qui suivent l'origine et l'historique de transformation de chaque donnée. Vous pourrez remonter une image jusqu'au capteur de caméra original qui l'a capturée, à travers chaque modification.
Vérification formelle : Des preuves mathématiques que les résultats de l'IA sont corrects. Pas « probablement corrects » ou « généralement corrects », mais prouvés, certifiés, indéniablement corrects. Lorsque votre agent IA transfère de l'argent, vous aurez une preuve cryptographique qu'il a transféré le montant exact sur le compte exact que vous avez autorisé.
Les navigateurs web seront dotés de « Bloqueurs de réalité » (comme les bloqueurs de publicité aujourd'hui) qui filtreront le contenu non vérifié généré par l'IA. Les sources d'information et les fournisseurs de données les plus fiables seront ceux qui pourront prouver cryptographiquement la chaîne de possession de leur contenu.
La confiance passera d'un attribut de marque (« Le New York Times est digne de confiance parce qu'il a une réputation ») à une preuve cryptographique (« Cet article est digne de confiance parce que je peux vérifier la signature du journaliste, l'approbation de l'éditeur et l'attestation du vérificateur de faits sur la blockchain »).
« Ne faites pas confiance, vérifiez » est déjà la devise du monde des cryptomonnaies. D'ici 2030, ce sera la devise de toute l'ère de l'information.
Ce que cela signifie pour les entreprises
Ces quatre prédictions ont de profondes implications sur la façon dont les entreprises devraient penser leur stratégie IA aujourd'hui :
1. Arrêtez de construire des chatbots, commencez à construire des agents. Si votre stratégie IA est « ajouter un chatbot à notre site web », vous construisez pour 2023. Les entreprises qui gagneront en 2030 seront celles dont l'IA fait réellement des choses, pas seulement en parle. Demandez-vous : quelles tâches pouvons-nous automatiser de bout en bout, pas seulement assister ?
2. Investissez dans la fiabilité plutôt que la capacité. La prochaine génération d'IA d'entreprise ne sera pas jugée sur son apparence impressionnante, mais sur sa fiabilité à exécuter des processus commerciaux critiques sans supervision. Une IA légèrement moins capable qui ne fait jamais d'erreurs est infiniment plus précieuse qu'une IA brillante qui hallucine parfois de manière catastrophique.
3. Pensez Edge-first, pas Cloud-first. L'économie de l'exécution de l'IA en périphérie (sur appareil, sur site) deviendra considérablement plus favorable que l'inférence cloud. Les entreprises capables de déployer l'intelligence localement auront des avantages de coût, de latence et de confidentialité que les concurrents dépendants du cloud ne pourront pas égaler.
4. Construisez l'infrastructure de confiance maintenant. Les entreprises qui établissent tôt des systèmes de vérification et de confiance auront l'avantage du premier entrant lorsque le déluge de contenu synthétique arrivera. Si vos données et vos résultats sont cryptographiquement vérifiés alors que ceux de vos concurrents ne le sont pas, vous devenez la source de confiance par défaut.
La vision Dweve
Nous ne construisons pas Dweve pour le marché de l'IA de 2024. Nous ne sommes pas intéressés par la construction d'un chatbot légèrement meilleur pour concurrencer OpenAI sur les scores de référence. Nous ne courons pas après le trophée du « plus grand modèle ». Nous construisons pour 2030.
C'est pourquoi nous nous concentrons sur les Agents (pas seulement le chat). Notre architecture est conçue dès le départ pour agir dans le monde de manière sûre et fiable, pas seulement pour générer du texte qui semble plausible.
C'est pourquoi nous nous concentrons sur les Petits Modèles (Binaires, Éparses, Déployables en Edge). Notre architecture Loom à 456 experts offre de meilleurs résultats que les modèles monolithiques à 1/50e du coût de calcul, fonctionnant sur du matériel que vous possédez déjà.
C'est pourquoi nous nous concentrons sur la Vérification (Neuro-Symbolique, Logique Formelle, Transparence « Glass Box »). Chaque décision prise par notre IA peut être tracée, expliquée et vérifiée mathématiquement. Pas de boîtes noires. Pas de « faites-nous confiance, ça marche ». Des preuves.
Nous construisons l'infrastructure invisible, fiable et souveraine du futur intelligent. Nous construisons la plomberie de l'économie des Agents. Les routes, les ponts et le réseau électrique de l'ère de l'IA.
Parce qu'en 2030, personne ne se souciera de l'IA. Ils ne s'en émerveilleront pas. Ils ne taperont pas de prompts. Ils n'y penseront même pas. Ils ne se soucieront que de ce que l'IA a fait pour eux : la réunion qu'elle a programmée, le rapport qu'elle a écrit, le problème qu'elle a résolu, la décision qu'elle a prise correctement en leur nom pendant qu'ils étaient occupés à vivre leur vie.
C'est l'avenir que nous construisons. C'est le 2030 que nous voyons arriver. Et nous aimerions le construire avec vous.
Dweve construit l'infrastructure de l'économie des Agents. Notre architecture Loom délivre 456 experts spécialisés sur du matériel standard. Notre plateforme Nexus orchestre des flux de travail multi-agents avec une vérification formelle. Notre framework Core permet le développement d'IA binaire qui fonctionne partout. Nous ne lançons pas encore, mais quand nous le ferons, les entreprises européennes disposeront d'une IA qui fonctionne vraiment : invisible, fiable, souveraine. Rejoignez notre liste d'attente. Soyez prêts pour 2030.
Étiquettes
À propos de l’auteur
Bouwe Henkelman
PDG et Cofondateur (Opérations et Croissance)
Façonne l’avenir de l’IA via les réseaux binaires et le raisonnement par contraintes. Passionné par une IA efficace et accessible.