Jadis les appelait-on futurologues. Souvenez-vous de noms tels ceux d’Alvin Toffler (et Le Choc du futur) et Stanley Hoffmann. Plus avant, un homme politique français qu’appréciait Valéry Giscard d’Estaing (en particulier parce qu’ils étaient tous les deux polytechniciens et que l’ancien Président disait y déceler une garantie de fiabilité), surnommé JJSS. On a reconnu la figure à tous les sens radicale (et originale) de Jean-Jacques Servan-Schreiber. A l’adresse de ses détracteurs, Giscard répondait ‘‘non, non, détrompez-vous, il n’a pas une case en moins, il a une case en plus’’. JJSS avait lancé et publié un fameux Défi français quasi co-écrit par ce remarquable haut fonctionnaire et co-fondateur du Point que fut Olivier Chevrillon. Ce Défi était une ode à la civilisation américaine que nous étions invités à imiter et à dépasser.
Aujourd’hui ne parle-t-on plus de futurologie mais, plus modestement, de prospective. Une stature et une pensée en laiton, claire, carrée, méthodique, et subtil ‘‘valorisateur scientifique’’ (autre nom de la ‘‘vulgarisation’’), Jean Staune s’avère au travers de cette Grande mutation dont il donne ici quelques indices un fort honorable prospectiviste.
Nous relèverons ici deux notes dominantes de son enquête.
1/ Le changement de paramètre.
Appelez le ‘‘logiciel’’, ‘‘matrice’’, ‘‘archétype’’, ‘‘inconscient collectif’’, comme vous voudrez, il s’agit de l’étalon (de pensée) d’appréhension, de mesure des événements. Pour envisager l’avenir, il nous faudrait du tout au tout apprendre à substituer la déduction au raisonnement général (le plus souvent inconscient) qui est actuellement le nôtre (à savoir l’induction). Un raisonnement inductif se fonde sur l’observation de ce qui était et dont l’expérience nous montre qu’il (ce passé) a tout lieu de se reproduire. Nous pensons par induction comme Monsieur Jourdain faisait de la prose sans le savoir, c’est-à-dire constamment.
Problème : d’un point de vue strictement logique, épistémologique, il est souvent difficile de scinder nettement induction et déduction.
Il y a, il reste des zestes de déduction dans l’opération d’induction (et inversement) tout comme la litote n’est parfois pas loin de pouvoir s’identifier à l’euphémisme.
En outre, certaines sciences humaines (dont, tout simplement, l’Histoire événementielle) tendraient (l’emploi du conditionnel montre notre prudence) à détecter, entre autres à travers la réalité de la notion de cycles, qu’ils pourraient exister objectivement des répétitions, des récurrences à travers les siècles.
En termes philosophiques, la novation répétée continument qu’on appelle l’innovation ne permet pas d’envisager que l’espèce humaine pourrait vivre des changements, des évènements l’affectant à la racine. Au contraire, le progrès technologique, matériel (avec peut-être la réduction notable de la souffrance physique) tous azimuts pourrait-il s’accompagner d’un enracinement de la nature humaine.
Autrement dit, le transhumanisme et tout ce qui s’y rattache n’a pas forcément de beaux jours devant lui.
2/ Il y a un gros mensonge et une non moins grosse vérité dans l’IA : elle n’est pas du tout, mais du tout intelligente (et ne pourra jamais l’être, aux deux sens de l’expression) ; elle est non moins artificielle et superficielle (et ne pourra que le demeurer). La bonne prospective a tous les risques de devenir de plus en plus hasardeuse et ardue.
En s’appuyant entre autres sur les travaux de chercheurs comme Nassim Taleb et Nate Silver, Staune, chiffres à l’appui, détrompe ceux qui placent naïvement leur confiance dans les prouesses de l’IA. Principalement repose-t-elle sur l’accumulation exponentielle de données, leur traitement et leur mise en relation de corrélation.
L’illusion première nourrie à son endroit est cette croyance imaginative que, de l’accumulation infinie de quantité (le fait brut, la donnée) va surgir comme par voie de génération spontanée de la qualité.
Mais, dépourvue de tout esprit (au sens de spirit), mue tout au mieux par la raison calculante, compilative, (au sens de mind), l’IA est, par sa nature même, incapable de passer de la quantité à la qualité, de la compilation à l’assimilation, du fait au sens du fait. Nous venons là de nous exprimer en termes simples de philosophie cognitive et morale. Laissons maintenant Nassim Taleb user des mots de la statistique : « …trouver des relations est facile dans n’importe quel environnement riche en données…La clé est de déterminer si ces relations représentent du bruit ou un signal… Ce que j’appelle la tragédie du Big data réside dans le fait que les fausses corrélations (le bruit) que l’on peut tirer d’un ensemble de données croissent de façon exponentielle par rapport aux données elles-mêmes. »
L’ouvrage de Jean Staune est encore plus riche qu’il n’y paraît de prime lecture. Il devra trouver des prolongements allant dans le même sens spiritualiste (qui est le ligne latente de l’auteur), en particulier à travers travaux sur la langue et le langage, les philosophies des sciences et de la connaissance en général, non moins la théologie. En attendant, on en conseillera la lecture à des personnes comme Laurent Alexandre, ou Yann Le Cun. A bons entendeurs…
Hubert de Champris