I – « L’hiver de l’IA » : blocage en 1987 des subventions à la recherche face à l’arrivée de mon intelligence artificielle qui rendaient obsolètes tous les projets de recherche de la science officielle abreuvée de subventions indues

Quand mon intelligence artificielle « raisonnante » s’est installée pour la première fois, c’était dans une grande entreprise française, en janvier 1987 à la Banque de Bretagne, avec le système expert Joséphine, encensé dans une quarantaine d’articles de presse. Il utilisait le génial moteur de système expert Pandora de l’universitaire Jean-Louis Laurière (université Paris VI) et une méthode de mon invention, la Maïeutique, découverte en 1986, qui permettait d’extraire la connaissance et de la mettre dans ce moteur. Joséphine fut développée en seulement trois mois par trois non informaticiens (deux experts et un maïeuticien) et contenait une énorme base de connaissance d’un millier de règles. Elle fut testée par des gens de passage dans la rue et par des journalistes qui l’acclamèrent ensuite dans leurs articles.

Ce fut la stupeur chez les chercheurs de la planète, surtout français et américains, dont les recherches n’aboutissaient jamais. Cette IA venait de nulle part et était déjà opérationnelle, dépassant de loin leurs thèmes de recherche les plus fous. Ils auraient dû applaudir cette réalisation où apparaissait une méthode capable d’extraire les connaissances inconscientes utile même pour la programmation classique, ou au moins chercher à la tester par curiosité, mais non. Pas un d’entre eux n’a cherché à me contacter, à mon grand étonnement à l’époque.

Il fallait pourtant dans ces temps-là des années-hommes de « cogniticiens » – des informaticiens de haut niveau – pour produire le même nombre de règles. Et encore, le développement prenait tellement de temps que l’application était obsolète avant d’être terminée. Quant à la conception, c’était des règles pilotées une à une par d’autres règles, un processus très complexe qui entraînait plantages sur plantages et qu’on appelle explosion combinatoire.

Ne me contactant pas, les instituts de recherche ne savaient plus quoi présenter à leurs financeurs comme projets d’intelligence artificielle novateurs. Wikipédia en témoigne : « Entre la fin des années 1980 et le début des années 1990, l’intelligence artificielle a subi une série de coupes budgétaires (…) A la fin des années 1980, la DARPA (importante agence américaine finançant la recherche avancée des États-Unis) a complètement et abruptement coupé ses subsides à l’intelligence artificielle. » Menteurs professionnels, les chercheurs se sont gardés d’avouer qu’ils avaient été dépassés par la recherche privée. Ils ont évoqué officiellement une foule de raisons bidons pour expliquer ces coupes budgétaires

Les chercheurs ont appelé cette période qui dura de 1987 à 1993, triste pour eux, « l’hiver de l’IA ». On ne les entendait plus. Mais, sous le manteau, des deux côtés de l’Atlantique, ils étaient très bavards pour trouver un moyen de continuer à exister. Ils étaient déjà d’accord sur deux points : cette IA française signait l’arrêt de mort du métier d’informaticien et des langages de programmation qui faisaient d’eux une élite et, deuxième point, le public ne devait pas être tenu au courant de son existence pour que la recherche officielle basée sur l’informatique classique continue à recevoir des subventions. Ils ont donc commencé par prononcer l’omerta sur l’IA raisonnante. Cela se voit clairement sur internet où jamais, aujourd’hui encore, il n’est question de l’apparition marquante de Joséphine ou de l’IA française en 1987 alors que les journaux de l’époque en parlaient abondamment. Parfaitement opérationnelle, ces réalisations n’ont bénéficié d’aucune citation ni même d’une allusion dans un organe officiel quel qu’il soit ou de la part des grosses sociétés d’informatique de l’époque telles qu’IBM, Microsoft, Apple, Oracle ou DEC qui prétendaient tous « faire de l’IA ».

Le clou de la résistance des chercheurs fut la folie de l’universitaire Laurière qui retira carrément du marché son génial bébé Pandora en 1988 pour me couper l’herbe sous le pied et tenter de mettre fin à « l’hiver » ! Et tant pis pour son devoir de service public financé par nos impôts qui était de fournir gratuitement le résultat de ses recherches au public et de l’informer de l’existence d’une IA parvenue à maturité. Un vrai fonctionnaire mettant ses collègues au-dessus de son pays. Hélas pour lui, ce geste n’eut aucune autre portée que de révéler sa corruption car j’avais fini de développer Maïeutica, un nouveau bond technologique qui s’affranchissait de Pandora. Il englobait deux innovations, la Maïeutique et Moca, un « mécanisme » de raisonnement inspiré de Pandora, mais beaucoup plus efficace, convivial et fiable. Je n’utilisais donc plus le produit de Laurière, qui du coup est tombé aux oubliettes.

Toute cette histoire montre ce que les informaticiens ont voulu cacher : l’importance historique de l’intelligence artificielle raisonnante et l’aspect archaïque de leur fond de commerce, la programmation algorithmique qui sous-tend tous les programmes que vous utilisez.

II – Par quelle technique particulière l’intelligence artificielle raisonnante était-elle en avance sur son temps ?

Un programme, quel qu’il soit, IA ou non, contient une connaissance automatisée chargée de donner instantanément les résultats voulus une fois la question posée, il le fait par un raisonnement (IA) ou par des algorithmes (programmes classiques).

Or, un des problèmes bien connus du développeur est justement le recueil de la connaissance à programmer. Il lui faut interroger un ou des experts sur leur savoir et c’est un exercice difficile car, comme tout homme, ils sont ainsi faits qu’ils sont inconscients de leurs connaissances. Ils ne peuvent la décrire que partiellement et donc de façon inexploitable dans un programme obligé d’être exhaustif. L’informaticien recueille donc leur savoir petit à petit et, quand il pense qu’il a fini, il rédige le programme et le teste pour voir s’il donne les résultats attendus. Hélas, ce n’est jamais le cas. Car l’erreur est humaine. D’où la profusion de bugs découverts dans une application à ses débuts qui exaspère les utilisateurs.

Le problème était identique pour les systèmes experts des années 1970-90, qui n’étaient que des bases de règles contenant une connaissance soigneusement ordonnée (alors que celles produites par la Maïeutique sont en vrac) plus une connaissance cogniticienne sous forme d’autres règles qui les pilotaient au cas par cas. Soit la copie de ce que font les programmeurs dans leurs programmes. Le mélange de ces règles donnait une apparence de système expert sauf qu’il était algorithmique et inmaintenable. Cette difficulté de faire accoucher la connaissance se retrouvait aussi chez Pandora et consorts (car d’autres chercheurs européens avaient développé des moteurs de systèmes experts raisonnants équivalents). Il fallait interroger les experts, trouver leurs règles, les formuler correctement sur papier, ne pas en oublier une, ne pas en mettre trop, enfin les saisir à la main avec un traitement de texte. Le résultat tournait, il y avait un dialogue en bon français, c’était amusant mais court et inexploitable en entreprises. Il manquait toujours des règles ou bien le résultat plantait faute d’interconnexion entre certaines règles.

Les systèmes experts étaient donc considérés comme des culs de sac amusants. Les informaticiens pouvaient dormir tranquilles.

Hélas pour eux, la Maïeutique est apparue : si l’erreur est humaine, elle est ignorée de la machine une fois qu’elle possède la bonne méthode. Or, la Maïeutique était cette méthode. J’avais découvert que, si un expert humain ne peut décrite sa connaissance de façon complète, il peut sans problème décrire son expertise de façon complète et elle, elle contient sa connaissance. Son expertise c’est son savoir-faire qu’il utilise quotidiennement pour résoudre les problèmes de ses collègues ou de ses clients. Il la connaît par cœur. Pour la visualiser et guider l’interview des experts j’ai choisi la forme intuitive et visuelle d’arbres de décision, qui dévoilent les voies non encore traitées. J’extrayais les règles sous-jacentes de ces arbres sous le contrôle de l’expert qui décidait quand il avait tout dit. Derrière, le système expert n’avait plus qu’à raisonner sur ces règles avec toutes ses fonctionnalités intelligentes de type Pandora, dont la faculté d’explication et de dialogue. L’intelligence artificielle éclatait au visage. C’était de la programmation instantanée, le Graal des informaticiens.

La Maïeutique fut la première « métaconnaissance » opérationnelle en IA, c’est-à-dire la première connaissance de haut niveau (les arbres) engendrant une connaissance bas niveau (les règles) que le raisonnement peut exploiter. Les chercheurs ne voulaient donc pas en parler.

Je fis cette découverte en trois mois de visites d’entreprises début 1986 dans les entreprises, en présentant Pandora que je tentais de vendre pour gagner ma vie. Les informaticiens souriaient devant mes démonstrations mais répondaient qu’il n’y avait pas d’expert dans leur société, ce qui était faux. Il m’a fallu du temps pour comprendre qu’ils n’étaient pas concernés par les systèmes experts et qu’il fallait prospecter les experts eux-mêmes, tâche difficile car il fallait les trouver. Mais les experts voulaient voir une IA raisonnant dans leur domaine jusqu’au bout, pas une démonstration sur des bribes de leur savoir. Je me trouvais face au problème du recueil d’une connaissance exploitable. Il fallait bien trouver une solution. J’exprimais mon projet à travers l’acronyme de ma toute jeune société fondée en janvier 1986 : A.R.C.A.N.E. qui signifiait « Automatisation du Raisonnement et de la Connaissance, Acquisition Normalisée de l’Expertise ». Projet prémonitoire ! Par miracle, il ne m’a fallu que trois mois pour atteindre ce but, la Maïeutique, jamais trouvé par aucun chercheur. Et je n’étais qu’un commercial, pas un informaticien.

La Maïeutique aurait dû être utilisée par les développeurs informaticiens au moins pour recueillir avec exactitude la connaissance à mettre dans leurs programmes et raccourcir énormément leur travail mais ils s’y refusèrent absolument. Il est vrai qu’une fois les règles recueillies proprement, n’importe quel programme même non raisonnant peut les exploiter (sous le nom de « règles de gestion » ou « business rules ») et s’en est fini de la supériorité des informaticiens due à l’emploi des langages de programmation qu’ils étaient seuls à maîtriser. Ils seraient devenus contournables par leur propre faute.

III – Voilà la façon criminelle dont a réagi le monde de la recherche en informatique pour mettre fin à son « hiver »

Vers 1993, peu à peu, le monde de la recherche en IA s’était réorganisé. D’abord, silence total sur l’intelligence artificielle française comme le montre Internet et le décris longuement mon blog sur la corruption et mon blog sur l’IA. Puis, promotion d’une solution de remplacement nécessitant des langages de programmation mais baptisée « IA » : les réseaux neuronaux, une technique de calcul statistique opaque que même les chercheurs maîtrisaient mal mais qui avait l’avantage pour eux de nécessiter leur compétence algorithmique. Puis ils ont fait évoluer le nom d’intelligence artificielle vers celui de « machine learning », puis « deep learning », puis carrément « IA » générative, bien aidés par le monde médiatique, même scientifique (Science et Vie, Epsiloon, …), peu regardant. Mais quel que soit le nom c’est toujours du réseau neuronal réclamant des millions de données saisies à la main pour parvenir à des statistiques crédibles style ChatGPT, une solution incapable d’expliquer ce qu’elle fait ni de justifier ses résultats. Aucun raisonnement là-dedans, aucune capacité de dialogue pourtant réclamée depuis 1950 (test de Turing). C’est le règne de la tromperie informaticienne qui nous a fait perdre déjà trente ans de progrès technologiques.

Prenons l’exemple de Yann Le Cun, un « chercheur » universitaire d’aujourd’hui bien connu. C’est un fonctionnaire français dans sa bulle, exclu du monde réel, qui publie moult articles sur sa vision de l’intelligence artificielle et surtout son livre « Quand la machine apprend : la révolution des neurones artificiels et de l’apprentissage profond », lequel fait le tour des techniques prétendument IA mais sans jamais aborder la vraie de son pays, la France. Il sait qu’elle existe mais se garde d’en parler. On le présente comme un génie. Lui, il a la chance d’être lu par le monde des informaticiens et les administrations toutes puissantes en France, qui se font ses meilleurs relais. La vision opposée, la nôtre, ne peut être lue car elle n’est pas relayée dans les revues scientifiques officielles. Voyez sur le net, l’omerta est accablante.

Tous ces falsificateurs sont des informaticiens. Leur slogan est le suivant : l’ordinateur est idiot, nous seuls sommes capables de le domestiquer avec nos programmes. Donc nous sommes indispensables. Or, c’est faux ! L’ordinateur n’est pas idiot et dépasse l’humain par bien des aspects. Entre autres il ne se trompe jamais et n’oublie rien. C’est une machine qui sait programmer beaucoup mieux que les informaticiens grâce à l’intelligence artificielle raisonnante. C’est pourquoi les chercheurs experts en IA de tous bords et de tous pays évitent soigneusement le sujet bien qu’ils soient attaqués frontalement dans des courriers, des blogs et des publications.

L’histoire de mon IA montre à profusion comment une innovation peut être bloquée durant 38 ans. Pas pour avoir eu raison trop tôt mais pour avoir empiété sur les platebandes des puissantes sociétés informaticiennes finançant les médias, peu regardantes sur l’éthique et l’intérêt général. En France, s’est ajoutée la corruption d’État initiée par les universitaires jaloux de mes résultats puis relayée par les copains de l’administration qui détestent par principe le privé et les patrons, désignés ennemis de classe du fonctionnaire de gauche. Alors, tout ce petit monde s’éclate la main dans la main à couler cette élite grâce aux pouvoirs volés à la démocratie. Aux États-Unis comme en Europe, les GAFAM (géants du web) sont fréquemment condamnés par la justice pour leurs nombreux abus de position dominante et leurs habitudes de tuer la concurrence par des manœuvres déloyales.

En tout cas, voilà pourquoi aujourd’hui « IA » ne signifie plus intelligence artificielle…

IV – Comment combattre cette tromperie informaticienne ?

En rappelant d’où vient l’expression intelligence artificielle. Dans les années 1970, les pionniers de l’IA la définissait comme une technique qui allait donner à l’ordinateur des capacités mentales humaines de haut niveau comme le raisonnement, la capacité à dialoguer (définie par le Test de Turing dès 1950 alors que l’ordinateur n’existait pas encore), à être programmée en langage naturel (c’est-à-dire dans notre propre langue), à vérifier automatiquement la validité de ses connaissances (ce qui fut fait par la détection des contradictions). Son rôle était d’éviter les langages de programmation et l’algorithmique (où le programme, baptisé code, consiste en une énorme équation) qui rendaient l’écriture des logiciels opaque et réservée aux informaticiens.

Les chercheurs informaticiens prétendent que le mot intelligence n’est pas clair ce qui les rend libre de l’utiliser même pour qualifier des applications qui n’en contiennent pas. Là encore, c’est faux ! Le mot intelligence est fréquemment utilisé par nous tous de façon parfaitement claire pour tous. Il vient du latin : « inter-ligere », lier les faits entre eux. Soit exactement le syllogisme qui lie les faits entre eux en cascade que l’IA raisonnante utilise à fond.

La meilleure démonstration de ce que doit être l’intelligence artificielle se trouve en nous utilisateurs finaux, dans nos esprits ! Pour nous, elle est claire. C’est une machine qui fait preuve d’intelligence donc au minimum de la faculté de nous parler. La preuve en est que les films et les livres de science-fiction exploitent cette vision, présentant des ordinateurs ou des robots capables de communiquer avec nous en nous parlant et de prendre des décisions logiques pouvant parfois mettre nos vies en danger, mais dans l’intérêt supérieur de l’humanité.

Dès 1968, le film de Stanley Kubrick 2001, l’Odyssée de l’espace présente un ordinateur, Hal 9000, qui pilote un vaisseau spatial à la place des humains et dialogue avec eux. Cela bien avant les premiers réseaux neuronaux apparus lors des années 1980 (le Perceptron), lesquels étaient de toute façon incapables de dialoguer et d’expliquer quoi que ce soit. Auparavant, en 1953, un anglais avait déjà publié La Famille Rollinson dans l’espace, un feuilleton de science fiction passionnant en bande dessinée qui montrait des robots extraterrestres intelligents mais au comportement bizarre enlevant une famille terrienne dans un but inconnu. Deux visions précoces de l’intelligence artificielle.

A comparer avec l’IA générative d’aujourd’hui qui ne sait toujours que générer du texte, des images ou d’autres médias puis s’arrêter-là. Pas dialoguer, condition sine qua non fixée par Alan Turing dans son fameux test que ChatGPT est incapable de passer en dépit des millions de dollars investis.

Jamais l’IA des médias n’a donné naissance à une œuvre de science fiction car elle n’a rien à raconter. C’est du calcul.

Pour le public, pour nous, l’entrée de l’intelligence artificielle dans la réalité c’est l’apparition du duo Pandora-Maïeutique à Paris en 1987 qui a montré que le pilotage d’un robot type Hal 9000 était réaliste dès cette époque.