I – Informaticiens et fonctionnaires : endoctrinés
La psychologie des hauts-fonctionnaires, et en premier lieu des énarques, on la connait. Ce sont d’excellents élèves bourrés d’un savoir théorique inculqué par des profs et des programmes concoctés par l’Education Nationale. A peine issus des « grandes écoles » on leur confie des postes prestigieux à la tête d’administrations ou d’entreprises publiques. Ils se retrouvent avec des responsabilités énormes alors qu’ils sont sans expérience et ne savent rien de la direction d’une entreprise (l’esprit d’équipe ! le respect du personnel ! l’obsession de la valeur ajoutée !).
La psychologie des chercheurs informaticiens en intelligence artificielle on la connait aussi en partie puisque, en France en tout cas, ce sont… des fonctionnaires ! L’autre partie relève de leur formation et de leur vécu professionnel (et souvent personnel) marqué par l’échec : en tant qu‘informaticiens, ce sont les rois du « bug », un défaut unique dans l’histoire des sciences qui fait planter toutesleurs réalisations sans exception à des instants aléatoires. D’où le mécontentement des utilisateurs. 71 % des programmes sont ainsi rejetés par eux avant livraison (voyez ce tableau du Chaos Report) ! Et après, il y a tout ce qui n’a pas été détecté…
Quelle que soit la technique, on s’attend à ce qu’elle fonctionne normalement une fois entre nos mains. Un pont, technique souvent pris en exemple, est une réalisation autrement complexe qu’un programme mais, une fois bâti, on lui confie nos vies pendant près d’un siècle sans bug : « les ponts ont une durée de vie limitée, théoriquement de 100 ans, mais en réalité, statistiquement, de 70 ans, avec de fortes variations selon les types d’ouvrages, de 35 à 250 ans » (Sécurité des ponts). Voyez le Pont du Gard construit par les Romains à l’époque du Christ et encore emprunté par les voitures au 20ème siècle.
Ce blog est plein de mes démêlés avec eux (AFIA, liste de ceux qui s’opposent à toute diffusion de mes découvertes, Wikipedia, etc.) aussi bien en France qu’ailleurs. Que peut-il donc bien se passer unanimement dans la tête des informaticiens pour s’opposer ainsi non stop depuis 35 ans et sans la moindre honte à la diffusion d’une invention indispensable à l’humanité et, qui plus est, qu’elle attend ?
En fait, comme le fonctionnaire, l’informaticien est maintenu dans l’abstraction depuis son plus jeune âge par l’école, puis par sa formation à l’écriture des programmes faite par des informaticiens. On lui entre dans le cerveau une doctrine d’une grave fausseté : que l’ordinateur est une machine idiote, que c’est lui et personne d’autre qui lui donne l’intelligence. Quand il y a un programme à développer, l’ordinateur ne sait rien. Dans ce domaine il est vierge. Ca c’est vrai. Le boulot du développeur consiste alors à imaginer ce que la machine devra exécuter pour traiter le cas, dans un langage codé (« la programmation, appelée aussi codage ») inaccessible aux non informaticiens, très difficile à relire, et en essayant de ne rien oublier.
Après moult essais et bugs, il voit, comme par magie, ce qu’il a sorti de son propre cerveau devenir réalité : l’ordinateur lit son programme et fournit les bons résultats. Quelle satisfaction ! En fait il vient d’effectuer un travail manuel sujet à erreurs humaines et son programme reste plein de bugs. Il s’en doute mais il ignore lesquels car il n’est pas tombé dessus en dépit de nombreux tests. Ce sont les utilisateurs qui les rencontreront et pesteront.
II – L’informaticien se prend pour un artiste et il a raison
Ce qu’il vient de réaliser c’est de l’art. Cela sort de son cerveau sans avoir obéi à aucune règle scientifique. Il vient d’inventer. Il a trouvé des ruses pour contourner la prétendue bêtise de l’ordinateur, des ruses que personne d’autres n’aurait trouvées. Et ça fonctionne. Quelle jouissance ! Le programmeur est un artiste. Un informaticien américain bien connu a publié toute une série de livres à succès sur « the art of programming » montrant qu’un programme est l’expression d’idées, d’astuces et de l’intelligence propres à son développeur. Deux développeurs ne réaliseront jamais le même programme pour traiter le même problème ! Lui-même non plus à quelques jours d’intervalle !
Alors, il se sent remis en cause au plus profond de lui-même quand on critique son œuvre. Comme un artiste. C’est son existence même qui est contestée. Si en plus un trublion comme moi-même, même pas informaticien, prétend avoir trouvé une solution qui le rend inutile, c’est toute sa vie qui bascule. Il ne sait rien faire d’autre ! Un ordinateur pourtant « idiot » fait beaucoup mieux que lui et beaucoup plus vite, sans le moindre bug. Et ça, il est incapable de le nier, il sait mieux que personne ce dont est capable un ordinateur correctement programmé.
Alors ? Quelle solution lui reste-t-il ? Faire l’autruche !
Il affecte n’être pas au courant, il ne répond plus à mes questions. Tout mon blog en est plein : « pas de réponse ». Résultat, par son silence il n’informe pas la planète du progrès déterminant qui permet à toute personne d’enseigner ce qu’elle veut à une machine. Quand je le lui reproche… « pas de réponse » !
III – Mark Saroufim, chercheur américain appliquant la politique de l’autruche comme les autres
J’ai rédigé cet article parce que je viens de rencontrer une fois de plus (début 2021) le syndrome de l’autruche chez un chercheur informaticien, Mark Saroufim pourtant plein de personnalité. Un américain spécialiste de l’IA informaticienne (qui n’en est pas…). Il vient de reconnaitre auprès de ses collègues la faillite de cette IA pourtant vantée partout dans les médias. Voilà le titre de son article (dans LinkedIn) : « Apprentissage automatique : la grande stagnation. Les bureaucrates dirigent l’asile ». Un article applaudi par ses collègues.
Il y déclare lui-même, l’apprentissage automatique, centre de l’IA informaticienne actuelle, c’est du calcul matriciel : « La multiplication matricielle a été inventée en 1812 par Jacques Philippe Marie Benet, mais vous seriez pardonné de penser qu’elle a été inventée beaucoup plus tard. » En effet, les médias nous assommant de fake news répétant en boucle les déclarations des chercheurs et des GAFA (les multinationales américaines du web) comme quoi ils auraient inventé une IA efficace qu’on pourrait finir par les croire. En fait, ces « chercheurs » n’ont rien inventé. Si les principes de leur IA existaient en 1812, la recherche informaticienne en intelligence artificielle est donc bien en 2021 « en grande stagnation ».
Tombant sur cet article, j’applaudis à mon tour sa franchise et son ouverture d’esprit et en profite pour lui parler d’une vraie IA, celle qui raisonne. Redoutant son absence de réponse j’ajoute : « Combien de fois ai-je contacté des chercheurs de cette façon ! Ils disent: « Oh oui, très intéressant, dites-m’en plus ». Je leur en dis plus et, là, plus personne ! Ils ne répondent plus. »
Mark Saroufim me répond : « Cela ressemble au début d’un bon article de blog – oui, j’aimerais en savoir plus ». Je lui en dis plus. Et là, le scénario habituel… « pas de réponse » ! Je le relance publiquement et fermement en lui rappelant que j’avais prédit sa réaction. Pas de réponse. Notre discussion sur LinkedIn est pourtant publique ! Cherchez mon nom dans cette page et vous verrez qu’aujourd’hui encore ce cours échange, lui qui envisageait « un bon article de blog ».
Même ses collègues qui l’applaudissaient ne réagissent pas à mes commentaires. C’est vraiment bizarre.
La politique de l’autruche a encore frappé. Ce n’est pas par ces « chercheurs » que la connaissance parviendra au public.
IV – Google : les plus grandes entreprises mondiales, américaines, sont également atteintes par cette maladie
Où trouve-t-on le plus grand nombre d’informaticiens ? Aux Etats-Unis chez les « GAFA » qui sont des entreprises d’informatique : Google (90 000 pers), Apple (140 000), Facebook (59 000), IBM (350 000), Microsoft (150 000), Amazon qui distribue des produits physiques mais n’existe que par l’informatique dédiée au web (1,2 million de salariés !), etc. La production de logiciel est probablement le premier secteur économique dans le monde. En tout cas, c’est là où les profits sont les plus énormes. Si l’on est aux Etats-Unis, sans être un génie, il suffit de tomber par chance sur un créneau informatique d’avenir pour bâtir en quelques années un empire indestructible. Voyez Mark Zuckerberg (Facebook fondé il y a seize ans) qui apporte un service web terriblement banal, ou Bill Gates (Microsoft) qui a hérité quasiment gratuitement de la filiale micro-ordinateurs d’IBM vendus partout dans le monde, IBM ne croyant pas à son avenir !
Aux US, il suffit de quelques années pour produire des géants dans des créneaux qui s’ouvrent grâce à l’informatique (Amazon en 1994, Google en 1998, Facebook en 2004, …).
Le cas Google (comme le cas Microsoft d’ailleurs) est emblématique. Dix ans après sa création elle fait déjà 1 milliard de dollars de… bénéfices ! Aujourd’hui ils s’élèvent à 34 milliards de dollars. Elle peut donc offrir un service au monde sans concurrence. Elle s’est progressivement équipée d’un million d’ordinateurs interconnectés ! Ceux-ci téléchargent en permanence la totalité des pages web existant dans le monde, soit aujourd’hui 130 000 milliards de pages, et les remettent à jour quotidiennement. Qui peut rivaliser avec ces énormes moyens ? Et où est le génie là-dedans ? C’est la technique du marteau-pilon. Des concurrents font aussi bien sans avoir le dixième ou le centième de financement (Qwant).
Le moteur de recherche Google, comme tous les moteurs de recherche, fait une analyse statistique des requêtes menant à ces 130 000 milliards de pages. Il compare la demande de l’utilisateur avec la page qu’il a finalement acceptée. A force de calculs et de temps machine consacré aux calculs, la corrélation est de plus en plus précise. Le traducteur Google, qui est excellent, opère de même : il est basé sur la « traduction automatique statistique » une méthode courante qui compare constamment les éléments du texte à traduire avec les traductions déjà faites, par exemple celles des traducteurs humains des Nations Unies. Pour accélérer les calculs Google utilise une technique algorithmique exploitant le calcul matriciel qui fut inventé en 1812 comme on l’a vu plus haut. Rien d’innovant là-dedans.
La seule innovation de Google, finalement, c’est d’appeler ce vieux calcul matriciel « intelligence artificielle ». Et c’est là que je dis STOP ! L’intelligence ne calcule pas ! Elle est basée sur du raisonnement et fournit des résultats qu’elle peut expliquer, soit tout le contraire de l’IA de Google, Facebook, IBM et consorts, qui est d’incapable d’expliquer quoi que ce soit. Un calcul ou un algorithme ne comprend rien à ce qu’il fait. 8 x 9 = 72 ne s’explique pas. Il faut additionner 8 fois 9 pour constater que le résultat donne toujours 72. Alors, quand on parle de centaines ou de milliers… Quant à l’intelligence artificielle, ce nom a été donné dans les années 1970 par John McCarthy a des techniques faisant raisonner l’ordinateur ce qui lui permet de dialoguer et de résoudre les problèmes posés par les humains. Il est interdit de lui donner un autre sens. Google, comme tous les GAFA, trompe le public en dévoyant ce mot dans son propre intérêt et en refusant obstinément depuis sa naissance (1998) de parler de la vraie intelligence artificielle née en France.
C’est une entreprise d’informaticiens : elle n’a pas le sens de l’intérêt général. Aujourd’hui, quand les médias parlent d’IA, ils parlent de calculs matriciels, jamais d’ordinateurs capables de raisonner. Voilà le résultat du matraquage mensonger d’entreprises informaticiennes comme Google, Facebook ou IBM.