Les conflits d’opinion dans lesquels nous nous lançons s’égarent trop souvent sur l’écueil d’une forme ou d’une autre d’amalgame,d’épouvantail et de procès d’intention contre lesquels j’aimerais proposer un outil intellectuel. On peut y recourir dans le cadre d’un débat d’idées où chacun cherche à améliorer sa compréhension du monde et/ou de la pensée d’autrui. Bien sûr, si votre but est de ridiculiser autrui, de faire votre intéressant ou de gagner des points de popularité devant une foule, il ne pourrait que vous encombrer, et la visite de ce blog risque fort de vous ennuyer.
Comme j’ai eu l’occasion de le dire ailleurs, nous nous intéressons
aux moyens par lesquels chacun peut gagner au
débat plutôt qu’aux tactiques pour gagner le
débat
Ce que j’appelle la Triade Zététique est un prisme qui nous
force à toujours distinguer 3 registres dans nos interactions : l’individu,
ses idées, ses arguments.
1. L’individu : J’ai le droit inconditionnel de penser ce que je veux et de témoigner de mon vécu, de mes ressentis. Nul ne peut nier ma subjectivité et mes affects. Nul ne peut prétendre connaître mes intentions.
2. Les idées : Mes opinions, mes représentations, mes priorités, mes valeurs sont discutables, elles peuvent être erronées et ne doivent donc pas être soustraites à la critique qui me permettra de les corriger.
3. Les arguments : Nous n’exprimons pas toutes nos pensées, nous ne défendons pas toutes nos idées. Quand nous le faisons, c’est avec des arguments dont le rôle est d’être évalués par autrui. Les arguments n’ont de raison d’être que s’ils sont examinés, auscultés, mis à l’épreuve, chahutés,etc.
Le Triade Zététique est un moyen de reconnaître et de signifier ce qui appartient au terrain du débat d’idées et ce qui en est exclu.
Nos critiques, nos doutes et nos remises en question ne peuvent concerner que les arguments et les idées. En retour, nous devons nous engager à ne jamais prendre comme une attaque personnelle les critiques qui ciblent nos propos ou nos comportements.
La Triade Zététique rejoint les principes de la communication non violente en cela qu’elle interdit les jugements et accusations. Les procès d’intention sont également proscrits par cet outil, en tout cas en principe, car les intentions et les motivations intimes des individus ne sont que rarement démontrables ou réfutables. Mais il y a plus important : nous devons nous souvenir qu’un argumentaire de mauvaise qualité n’est pas la preuve que les idées défendues sont forcément fausses. Il suffit de passer quelques minutes sur twitter pour s’aviser que des causes importantes sont parfois mal défendues, que des concepts intéressants sont traités n’importe comment, des postures tournées en ridicule par ceux-là même qui les adoptent. Montrer qu’un argument est invalide n’est pas suffisant pour réfuter une idée, il faut encore produire un argumentaire qui permette de le conclure.
Avoir la Triade Zététique à l’esprit au moment de prendre la parole en direct ou sur les réseaux peut être un moyen d’être plus assertif et d’éviter de transformer un débat en combat.
Trouvez-vous ce concept utile ? Estimez-vous qu’il mérite de figurer parmi les outils de la pensée critique à côté du Rasoir d’Ockham,de la Théière de Russell, de la Guillotine de Hume, du Rasoir de Hanlon, du Curseur Vraisemblances et autre Dragon de Sagan ?
Si vous pensez que les figures géométriques retrouvées dans les champs de céréales depuis 60 ans ne sont pas l’œuvre d’humains, vous êtes partisans de l’hypothèse « exotique » et vous appartenez au groupe des exoticiens. Les exoticiens favorisent généralement deux types d’hypothèses : l’intervention extraterrestre, ou la manifestation d’énergies qui viendraient d’un autre plan. Dans les deux cas, les figures sont considérées comme des messages importants, chargés d’un sens qu’il faut décrypter. Mais il y a une troisième voie, celle qui pense que les humains ne sont pas concernés. À travers les agroglyphes la Terre régulerait simplement les énergies qui la parcourent pour recharger des hauts lieux. Bon, d’accord.
Umberto Molinaro fait profession de dire aux gens ce qu’il faut croire sur les Crop Circle
Aucun sceptique attaché à la rigueur de la méthode scientifique ne peut affirmer savoir que tous les Crop Circles du monde sont des canulars, des œuvres de « land art », des sortes de tags exécutés pour la beauté du geste, pour troller les croyants, pour occuper une soirée désœuvrée ou répondant à mille autres motivations. De fait, nous ignorons individuellement et collectivement assez de choses pour pouvoir croire dans des manifestations du paranormal et du surnaturel un peu partout sur Terre, mais sur les mêmes fondations on peut aussi croire que le surnaturel n’existe pas du tout et professer exactement le même niveau de certitude avec tout autant de légitimité. Cela veut dire que nos ignorances ne sont pas le bon matériau pour nous forger une opinion. Il faut sans doute se tourner vers les choses que l’on sait, même si c’est insuffisant et frustrant, sans quoi nous sommes condamnés à commettre la faute logique de l’appel à l’ignorance : Personne n’a la preuve que je ne peux pas me dédoubler et voler à travers les murs, personne ne peut prétendre savoir que je ne lis pas l’avenir, et cette ignorance est la preuve que si ça se trouve c’est vrai.
Nous savons que l’agroglyphe de Sarraltrof a été exécuté par un petit groupe d’humains curieux de voir comment il serait reçu, interprété, analysé par des gens passionnés par le sujet, parfois prêts à parcourir des centaines de kilomètres pour le voir de près. Nous le savons mieux que personne parce qu’on était là et qu’on y a participé.
Nous sachions
Nous savons que sa conception n’a pas requis de grandes compétences en mathématiques et que sa confection n’a réclamé qu’environ une heure à une équipe peu expérimentée dans les travaux publics ou l’architecture. Le défi est donc à la portée de n’importe qui d’un peu organisé.
Nous savons que, d’emblée, une partie du public a suspecté la véritable nature de cette figure géométrique bourrée de petits défauts. Et nous savons aussi que des centaines ou des milliers de gens ont déclaré un peu partout avoir la certitude qu’il ne pouvait s’agir que d’un message provenant d’ailleurs, et cela pour des raisons catégoriques :
Aucun humain n’aurait la capacité de le réaliser
La résonance des propriétés mathématiques de la figure dépasse l’entendement
De nombreuses mouches ont été prises au piège des énergies et collées aux épis
La configuration du couchage des blés n’est pas compatible avec le simple outillage que des humains auraient employé (des cordes et des planches de bois)
Les géobiologues mesurent de très forts taux vibratoires dans la figure
Certains ressentent dans la figure des émotions, des sensations qui ne peuvent que signifier une origine paranormale.
Certains ont reçu des messages d’entités non humaines qui leur ont révélé l’origine de l’agroglyphe et une partie de sa signification.
Evidemment, rien de tout cela ne tient une seconde quand on sait la vérité sur le CC de Sarraltroff, et désormais ceux qui prétendaient savoir vont devoir changer leur histoire et trouver des moyens de sauver leur croyance du démenti que les faits leur infligent. La plupart y parviendront sans doute, les autres, plus chanceux ou plus honnêtes, entameront le chemin douloureux de la remise en question et de l’abandon des illusions. Et ils seront les vrais gagnants de l’histoire.
Une petite partie de la presse a couvert le sujet. Parfois avec la prudence requise, parfois en exprimant une bienveillante condescendance envers les hypothèses exoticiennes, rarement en donnant la parole à des sceptiques 1, en contextualisant les croyances dans une dynamique socio-psychologique, en donnant à la partie du public qui serait interpellée et incertaine les clefs pour ne pas se faire avoir par des récits farfelus. C’est un peu comme s’il y avait d’un côté les gens raisonnables qui savent bien que tout ça n’est pas sérieux, et de l’autre d’indécrottables crédules à qui on aurait renoncé à s’adresser autrement qu’en leur disant gentiment qu’ils ont bien raison de croire ce qui leur fait plaisir.
L’incompétence ou l’impossibilité (quelle qu’en soit la cause) généralisée des médias à apporter au public la démarche intellectuelle la plus prudente à adopter vis-à-vis de tels objets justifie pleinement le projet de ce Crop Circle et du secret dans lequel nous l’avons entrepris à l’initiative d’Arnaud de la chaîne Astronogeek. D’autres vidéastes ont participé au projet, et vous devriez aller jeter un œil sur les vidéos qu’ils ont réalisées autour de ce projet, toutes sortent aujourd’hui !
Nous ajouterons évidemment le lien vers la vidéo de La Tronche en biais sur cette affaire.
Il serait facile de tourner en ridicule tous ceux qui ont prétendu savoir ce que de toute évidence ils ne savaient pas sur ce Crop Circle. Une fois toute l’affaire révélée, on peut s’amuser à compter les points. Mais il nous semble plus important de ne pas accabler les exoticiens prosélytes et d’en tirer une leçon collective. Elle tient en une phrase : il n’y avait aucune bonne raison de penser que cette figure n’était pas d’origine humaine.
Il y avait même toutes les raisons de penser le contraire, et tous les outils étaient disponibles pour bien se questionner et aboutir aux bonnes conclusions. Conclure ne veut pas dire se fermer complètement aux explications alternatives. Comme dit tout au début de cet article : nous ignorons trop de choses sur le monde pour nous montrer immodérément affirmatifs. Mais en l’absence de réponse définitive sur ce qui est vrai ou faux, sachons faire preuve de sagesse en utilisant à bon escient les concepts de vraisemblable et invraisemblable.
Il y a très probablement de la vie ailleurs que sur Terre. Il est vraisemblable que de la vie intelligente se trouve en ce moment quelque part. Il est même possible qu’une civilisation plus avancée que la nôtre sillonne l’espace. Oui. Tout cela est bien envisageable, il est raisonnable de considérer que ces idées ont une réalité, même en l’absence de preuve, tout simplement car nous avons accumulé assez de connaissances pour savoir qu’il y a des raisons de croire que c’est vrai. Mais que la Terre soit discrètement visitée par des êtres venus d’ailleurs ou que des entités (Êtres de Lumière, Galactiques, ou ce que vous voulez) viennent coucher les blés pour harmoniser les énergies de la planète ou nous adresser des messages, ça c’est invraisemblable parce que ce n’est cohérent avec rien de ce que nous savons, et cela nous demande de supposer bien trop de choses au sujet de ce que nous ignorons. Il est sage de considérer que c’est improbable sans s’interdire de jouer avec l’idée et d’en faire de réjouissantes fictions. Jusqu’à preuve du contraire.
Et quand à ceux qui, en l’absence de preuve ou contre les faits eux-mêmes, vous disent qu’ils savent quelque chose et sont en contact avec des entités qui les informent, vous devriez maintenant avoir de bonnes raisons de penser que leur honnêteté intellectuelle est peu vraisemblable.
Par Sebastian Dieguez, titulaire d’une seule thèse, affilié à la NASA et visiteur du campus de Harvard qu’il a traversé une fois pendant ses vacances.
Note :
Le texte qu’on va lire a été initialement rédigé pour figurer dans mon livre Total Bullshit ! et s’intitulait « Etude de cas I : La revanche d’un cancre ». Il n’a finalement pas été retenu pour diverses raisons, mais, quoi qu’il en soit, il s’agissait d’appliquer le concept théorique de bullshit, longuement développé dans les 4 premiers chapitres du livre, à un cas particulier afin d’en illustrer l’intérêt heuristique. De fait, on comprend à mon avis beaucoup mieux des anomalies telles que le cas Aberkane une fois qu’on a saisi ce qu’est et comment fonctionne le bullshit. Néanmoins, pour que le texte soit lisible sans que l’on se soit préalablement plongé dans les parties théoriques du livre, j’ai considérablement altéré le chapitre initial afin qu’il soit lisible isolément. Il va sans dire, cependant, que pour profiter d’une expérience de lecture optimale, l’utilisateur serait fort bien avisé de faire l’acquisition du livre, et d’y insérer mentalement le présent texte entre le chapitre 4 et le chapitre 5.
Le cas Aberkane
J’ignorais tout d’Idriss Aberkane avant que des internautes ne s’offusquent de son portrait dithyrambique paru sur le site du Monde, dans la rubrique « Science & Médecine » le 24 octobre 2016. On y découvrait un « jeune chercheur » d’à peine 30 ans, « bardé de diplômes » et « passionné de neurosciences, biologie, informatique, mathématiques, philosophie, géopolitique », qui s’est donné pour mission d’« ouvrir les sciences au grand public ». En particulier, son pédigrée académique avait de quoi donner le vertige :
« Son CV, gargantuesque, cumule diplômes, fonctions, publications et conférences : enseignant-chercheur à l’Ecole centrale de Paris et à Polytechnique, affilié à l’université Stanford, normalien, ambassadeur du Campus numérique des systèmes complexes Unitwin-Unesco, créateur de trois start-up, titulaire de trois doctorats : en neuroergonomie et économie de la connaissance (Ecole polytechnique), en littérature comparée (université de Strasbourg) et en diplomatie (Centre d’études diplomatiques et stratégiques). »[1]
Hélas, le milieu académique étant particulièrement pointilleux pour tout ce qui concerne postes, publications, statuts et distinctions, certains se sont immédiatement interrogés devant ce curriculum particulièrement flatteur… et ont donc procédé à quelques vérifications. Pour ce qui me concerne, étant neuroscientifique mais n’ayant néanmoins jamais entendu parler d’un personnage aussi brillant, j’ai simplement souhaité savoir sur quoi portaient ses travaux afin de m’en faire ma propre idée. Malheureusement, je n’ai trouvé aucune publication scientifique d’Aberkane, pas la moindre ! Dommage. Il n’est pas rare, en effet, quand on travaille dans un domaine aussi foisonnant que celui des sciences cognitives et des neurosciences, de découvrir des chercheurs particulièrement prometteurs, ou même des séries de travaux qui nous avaient complètement échappé, mais dont l’importance, immédiatement, ne fait aucun doute.
Ce ne devait pas être le cas avec cet individu. Je n’entre pas dans le détail du CV gonflé aux hormones d’Aberkane, que d’autres se sont donné la peine d’investiguer minutieusement[2], forçant au passage Le Monde à réexaminer son portrait et même à le retirer en urgence, à la fois de leur site et de la version papier dont la sortie était prévue pour le lendemain. Un discret correctif est ensuite apparu sur la version online, et le portrait a fini par être publié dans l’édition papier du 1-2 novembre 2016, avec quelques retouches. Dans cette version définitive, on apprenait qu’Aberkane « irrite certains chercheurs » et qu’il « joue des codes honorifiques d’un milieu académique souvent plus frileux [que lui] ».
Qu’Idriss Aberkane ne soit pas du genre « frileux », cela ne fait guère de doute lorsqu’on voir la manière dont il se présente sur son CV, et dans le simple fait qu’il ait acquis trois thèses en à peine trois ans. Par exemple, même après le tumulte causé par l’article du Monde, Aberkane persiste à se présenter comme « co-auteur final » d’une publication en psychoacoustique. Passons sur le fait que la publication en question n’est pas du tout un article à proprement parler, mais simplement une note soumise à un congrès. Le problème est que la notion de « co-auteur final », telle que l’invente Aberkane, n’a aucun sens en science, elle ne peut servir qu’à faire passer sa contribution pour plus importante qu’elle ne l’a été[3], et surtout à tenter de sauver et mettre en avant ce qui semble être son unique « contribution » scientifique, datant de 2007, alors que, selon ses termes, il était « invité (…) comme assistant de recherche rémunéré au département de psychologie expérimentale de l’Université de Cambridge ». Justement, Aberkane dit avoir été « invité » et « interne » à Cambridge, et « invité » et « affilié » à Stanford. Il joue ici encore sur les mots, les termes « visiting scholar » n’ayant rien de prestigieux dans le monde académique anglo-saxon et le terme « intern » signifiant simplement stagiaire (« rémunéré » ou pas). Quant à « affilié », le terme est suffisamment vague pour qu’on puisse se dire « affilié » à une institution elle-même « affiliée », d’une manière ou d’une autre, à « Stanford », ce qui ne fait pas de vous une personne que s’arrachent les universités les plus prestigieuses du monde. Après tout, étant moi-même « co-auteur final » d’un article rédigé avec un collaborateur de la NASA, je me retrouve de facto « affilié » à la NASA[4].
Je me fiche en général bien de savoir si quelqu’un travaille à Stanford, à Harvard ou à la NASA, mais ce qui m’interpelle ici c’est la volonté évidente de laisser entendre que c’est le cas[5]. Rien de tout cela n’est évidemment nécessaire quand vous faites des choses intéressantes par ailleurs, surtout qu’il n’y a rien de honteux pour un chercheur confirmé à avoir été stagiaire ou simplement d’être allé jeter un coup d’œil à des laboratoires à l’étranger, sur « invitation » ou pas.
Il n’y a donc, d’un point de vue strictement scientifique, à peu près rien de concret qui permette de juger du talent d’Idriss Aberkane. C’est d’autant plus dommage que, comme il ne cesse de le répéter, il est l’auteur de trois thèses, obtenues entre décembre 2013 et février 2016, sur trois sujets complètement différents (« diplomatie », « littérature comparée »[6] et « neurosciences et économie de la connaissance »). Voilà qui aurait du produire une matière amplement suffisante pour permettre quelques publications à droite et à gauche. Malgré tout ce qu’on peut entendre sur la galère et l’arbitraire du jeu des publications académiques, quand on dispose de données ou même simplement de bonnes idées, il y a toujours moyen, en se mettant vraiment au travail, et peut-être en revoyant ses ambitions à la baisse, de sortir quelque chose quelque part.
Mais dans le cas présent, les thèses en question semblent pour ainsi dire se suffire à elles-mêmes. Trois thèses ! Voilà de quoi impressionner son petit monde… Sauf, naturellement, quiconque connaît un tant soit peu le milieu académique. De fait, si un chercheur ou un chef de laboratoire voyait la présence de trois thèses sur le CV d’un candidat, dans la plupart des cas il le rejetterait immédiatement, d’autant plus si le candidat, sur toute la durée de ces « doctorats », n’a pas su produire la moindre publication scientifique. « Avoir » trois thèses n’est absolument pas un gage de compétence, bien au contraire, c’est la preuve qu’on a probablement affaire à un touriste académique, quelqu’un qui n’a ni projet, ni discipline, ni à vrai dire aucun sérieux. De plus, un employeur universitaire, constatant que les trois thèses ont été acquises en moins de trois ans, et sachant qu’une véritable thèse demande à peu près 4 ans de travail assidu dans un laboratoire, aurait à se demander si celles-ci ne sont pas, peut-être, des thèses de complaisance.
Le fait est que le monde académique est peut-être un peu « frileux », mais il n’a rien contre les touche-à-tout, les personnes curieuses et ouvertes, et encore moins celles qui ont de multiples talents. A cet égard, si on dispose de ces qualités, une thèse suffit, et même largement. Mais trois thèses en trois ans, si ça peut époustoufler des animateurs de télévision et des journalistes, c’est en principe quelque chose de complètement rédhibitoire pour un scientifique[7].
Je m’en tiendrai là pour ce qui concerne le profil et la carrière scientifique d’Idriss Aberkane, c’est déjà plus qu’il n’en faut pour mon propos. Je note simplement qu’avant la remise en cause frontale de ses exagérations et embellissements, jamais, à ma connaissance, Aberkane n’a spontanément corrigé le tir quant aux titres élogieux dont la presse l’affublait, y compris celui de professeur et de « chercheur émérite »[8].
Pourquoi Le Monde, et une grande partie des médias, a cru bon de dresser un portrait aussi exagéré d’Idriss Aberkane (et même de lui consacrer un portrait tout court), s’il n’a en réalité jamais rien accompli scientifiquement, ni rien d’autre de véritablement tangible ? Ah mais c’est qu’il a écrit un livre[9], et qu’il s’agissait d’en faire la promotion. Un livre étant un objet concret, on se dit donc qu’on va y trouver de quel bois se chauffe Aberkane pour de vrai, et en quoi consiste exactement sa contribution à la connaissance. Il est en effet fort possible pour des personnes sans qualifications et sans travail scientifique, ou même pour des personnes au parcours inhabituel et aux prétentions douteuses, de produire néanmoins de l’excellente vulgarisation, et même de synthétiser de façon originale et productive le travail des autres. C’est peut-être un talent de ce genre qui justifie la célébrité et l’attention portée sur Aberkane, ainsi que le succès commercial de son ouvrage. Hélas, une lecture attentive de Libérez votre cerveau ! indique qu’il n’en est rien.
Le reste de ce texte s’efforcera de présenter le curieux ouvrage en question, et tentera d’expliquer l’étonnante mécanique du bullshit qui s’y déploie. Ce que j’appelle la « méthode Aberkane » est en effet un exemple assez spectaculaire de bullshit, et ce cas me fournit ainsi l’occasion d’appliquer le concept de clarisme de Diego Gambetta, la notion de mimétisme épistémique, la variété pseudoscientifique du bullshit performatif, de dire quelques mots sur deux tendances contemporaines de bullshit (le technobullshit et le neurobullshit), et d’introduire le concept d’« effet gourou inverse », c’est-à-dire l’effet gourou de Dan Sperber dans sa version contemporaine[10]. Mon hypothèse n’est pas simplement qu’on comprend mieux le cas Aberkane grâce à la notion de bullshit : je pense surtout que le bullshit offre le seul moyen de saisir en quoi consiste exactement l’entreprise d’Aberkane.
Mais j’ai d’abord la lourde tâche de parler du contenu de Libérez votre cerveau ! Même si je dois avouer que cette lecture ne m’enchantait pas énormément, rien ne m’avait préparé à une expérience aussi étrange. Je ne peux qu’en donner ici une idée très générale et mettre en avant certains aspects choisis, car la nature même du bullshit aberkanien m’empêche d’en fournir un compte rendu en bonne et due forme.
En effet, ce « traité de neurosagesse pour changer l’école et la société » (c’est le sous-titre) ne fait que trimballer le lecteur d’une chose à l’autre sans que l’on sache jamais où l’auteur veut en venir. Tout n’est que coq-à-l’âne permanent entre anecdotes personnelles, pseudo « coups de gueule », vagues affirmations, diagnostics à l’emporte-pièce, soudaines « perles de sagesse », conseils en vrac, et comparaisons hasardeuses. Titres et intertitres ne renseignent quasiment jamais sur ce dont il sera question dans chaque section, les répétitions pullulent, sans que cela n’empêche les contradictions flagrantes, et surtout rien, dans ce livre, n’est jamais mené sérieusement à son terme, ou à quelque chose qui ressemblerait, même vaguement, à une conclusion. Tel un garnement hyperactif, Aberkane pense généralement en avoir fini avec quelque chose avant même d’avoir commencé, ce qui rend la lecture – dans la mesure, évidemment, où l’on tente véritablement de lire ce livre du début à la fin – franchement pénible.
On a pu relever un certain nombre d’erreurs dans l’ouvrage[11], mais ce n’est pas vraiment ce genre de détails qui me frappe le plus. Les livres de vulgarisation contiennent immanquablement des erreurs et des raccourcis, et il n’y a rien de surprenant à ce que nombre de ce type d’ouvrages s’avèrent au final très décevants, surtout pour les spécialistes. Non, ce qui m’étonne réellement, ce n’est pas la présence d’erreurs, mais leur caractère tout à fait révélateur sur l’expertise et la rigueur de l’auteur. Par exemple, jamais un spécialiste des sciences cognitives ne traduirait « cognitive miser » par « miséreux cognitif » (p. 90). C’est déjà faux en anglais, mais surtout c’est un contresens total, puisque miser signifie « avare », et le concept de cognitive miser renvoie à des opérations mentales économiques effectuées sur la base de schémas de pensée pour ainsi dire « prêts à l’emplois », qu’on appelle des heuristiques. Mais de toute façon, plutôt que d’explorer ce concept et les très intéressants débats qui l’entourent, Aberkane s’en détourne immédiatement pour évoquer « la grandeur de la conscience » dont manquerait le « tout-venant politicien », ce qui conduit immanquablement à l’horreur nucléaire de Nagasaki… avant de passer tranquillement à tout autre chose.
Quelqu’un qui sait de quoi il parle prendrait également bien garde de ne pas écrire répétitivement « facteur G », même, ou surtout, quand il s’agit de conspuer ce concept (p. 21). C’est pédant, je sais, mais le facteur général d’intelligence s’abrège g, en minuscule et italique, en tout cas dans l’énorme littérature sur ce concept fort complexe et controversé, mais qui mériterait à tout le moins un exposé plus instructif que la diatribe désorganisée qu’Aberkane lui consacre. Cela lui éviterait d’énoncer une ânerie comme celle-ci : « le simple fait que des humains au facteur G [sic] moins éminent aient survécu deux cent mille ans démontre que la nature, elle, ne nous a pas sélectionnés sur ce principe » (p. 23). Ce qui est encore plus épatant, c’est que nos ancêtres aient tous trouvé le moyen de survivre suffisamment de temps pour se reproduire sans avoir « libéré leur cerveau » grâce au livre d’Aberkane.
Il n’est d’ailleurs guère étonnant que notre auteur s’offusque de la « vénération des données dans notre monde académique » (n.1, p. 43), cela explique parfaitement ses difficultés à interpréter celles-ci correctement (et probablement également son refus obstiné d’en récolter, de les analyser et de les publier). Ainsi, quand Aberkane aurait quelque chose de potentiellement intéressant à nous apprendre à propos, justement, de données scientifiques, il utilise systématiquement cette belle occasion pour complètement flancher. Prenons une expérience qu’il cite en page 59. Voici ce qu’il en dit :
« En 2011, Kazuhisa Shibata et ses collaborateurs de l’université de Boston parviennent à accélérer un apprentissage simple en stimulant le cortex visuel primaire de leurs sujets. L’expérience est marquante. Les sujets résolvent un puzzle sur un écran ; on étudie l’activité de leur cortex visuel par imagerie à résonance magnétique fonctionnelle (IRMf). Ensuite, on utilise l’IRM pour stimuler le cortex de nouveaux sujets, qui n’ont jamais vu ce puzzle. Résultat : ces sujets apprennent sensiblement plus vite à le résoudre, du fait de leur stimulation en amont. On a accéléré leur apprentissage. Cette technique (…) est un pas décisif vers « l’impression » d’une connaissance dans le cerveau. »
Connaissant l’étude en question, je me rends assez mal compte de ce qu’un lecteur non-informé peut comprendre à ces lignes. A mon avis pas grand-chose, mais surtout absolument rien de ce que cette étude a réellement montré. Notre prodige de la vulgarisation a certes choisi un exemple assez compliqué, mais dans ce cas il aurait dû prendre le temps de bien expliquer la chose, ou au moins de la comprendre lui-même. L’étude porte en fait sur la question débattue de l’apprentissage perceptif visuel : est-il lié causalement à l’activité du cortex visuel primaire ? Pour le savoir, des chercheurs ont mis au point un dispositif astucieux en plusieurs étapes. D’abord, les sujets, au nombre de 10, effectuaient une tâche classique de discrimination visuelle : il s’agit simplement de juger de l’orientation d’un patch de lignes parallèles présenté très brièvement sur un écran, en l’occurrence de détecter les patches tournés de 10°, de 70° (les lignes sont alors presque à la verticale) ou de 130°. On obtient ainsi leur performance de base, les gens étant plus ou moins doués pour ce genre d’exercice. Ensuite, on glisse les mêmes sujets dans un scanner, et on enregistre leur activité cérébrale lorsqu’ils regardent attentivement chacun des différents patches, sans avoir à juger de leur orientation, ni rien faire d’autre. Les trois orientations choisies sont suffisamment distinctes pour qu’on puisse identifier leur « signature » respective dans le cortex visuel, et ce pour chacun des sujets indépendamment. Une fois ces données récoltées, les sujets peuvent entamer la troisième phase de l’étude, qui est assurément un coup de génie : pendant plusieurs jours de suite, ils vont à nouveau être passés au scanner, mais pour se livrer uniquement à la tâche ahurissante consistant à devoir faire grossir un cercle sur un écran par la seule force de leur pensée, sans aucune autre forme d’instruction. De fait, voici exactement ce que leur disaient les chercheurs : « débrouillez-vous pour réguler la partie postérieure de votre cerveau de sorte à rendre le cercle vert qui va vous être présenté dans 6 secondes aussi grand que possible ». L’astuce marche de la manière suivante : pour chaque sujet, les chercheurs ont sélectionné le profil d’activité, la signature cérébrale donc, enregistrée pour une orientation précise du patch lors de la deuxième phase de l’expérience. Quand, dans la troisième phase, l’activité de ce réseau de neurones particulier est reconnue par le scanner, alors l’information est retransmise à un ordinateur qui fait que le cercle vert sur l’écran s’agrandit un peu. Mais, c’est le point crucial, les sujets n’ont aucune idée de ce qu’ils doivent faire ! Simplement, en pensant à des choses et d’autres, pendant les 5 ou 10 jours d’« entraînement » qu’ils subissent ainsi, ils en viennent progressivement à trouver les moyens « mentaux » de faire grandir le cercle. Ils apprennent à activer eux-mêmes, sans le savoir, la région du cerveau qui est associée à une orientation particulière du patch perçu en début d’expérience, et seulement cette orientation-là. La dernière phase de l’expérience reprend simplement la tâche de la première phase, et surprise, on découvre que les sujets sont devenus nettement meilleurs pour détecter l’orientation du patch dont ils ont auto-activé, à leur insu, la signature cérébrale. Ils se sont donc « entraînés » à faire grossir un rond, sans savoir qu’ils activaient ainsi de manière répétée une aire cérébrale servant à détecter l’orientation de lignes parallèles. Conclusion : le cortex visuel primaire est donc bien causalement associé à l’apprentissage perceptif. Observation tout aussi instructive : les sujets n’ont pas fait le moindre progrès pour détecter les autres orientations.
J’ai évidemment dû faire plus long qu’Aberkane, mais je vois mal comment on pourrait résumer cette étude, tout en la rendant claire, autrement qu’en en détaillant chaque étape et la logique générale du dispositif. Et si je ne me suis pas fait comprendre, ce n’est pas vraiment mon affaire, puisque ce n’est pas moi qui ai décidé d’évoquer cette étude très sophistiquée dans un livre de vulgarisation. Mais ce que tout le monde aura compris, il me semble, c’est que cette expérience ne montre absolument pas qu’on peut « accélérer un apprentissage »[12], qu’il n’y avait aucun « puzzle » à « résoudre », que personne n’a directement « stimulé » le cortex visuel primaire des sujets, et qu’à aucun moment de « nouveaux sujets » ne sont intervenus. Mais de toute façon Aberkane n’en dit pas plus, puisqu’il enchaîne immédiatement sur tout autre chose, qui s’avère d’ailleurs tout aussi fantaisiste.
On pourrait reprendre quasiment chaque étude mentionnée dans le livre pour des confusions et des raccourcis hâtifs de ce genre, mais celui-ci est particulièrement instructif en ce qu’il est révélateur des méthodes et des intentions d’Aberkane. En effet, Aberkane fait grand cas de la « neuroergonomie » dans son livre et ses conférences, et il avait là l’occasion de développer un exemple spectaculaire et brillant de la manière dont un « entraînement » cérébral parfaitement inconscient peut conduire à l’amélioration de certaines capacités perceptives (sans pour autant se généraliser). Au lieu de cela, il se lance dès le début du livre dans l’hyperbole la plus extravagante, sans que jamais il ne prenne la peine d’étayer correctement ses affirmations. Ainsi entame-t-il son introduction : « Nous n’utilisons pas bien notre cerveau. A l’école, au travail, en politique, nous n’utilisons pas ergonomiquement notre cerveau (…) La neuroergonomie, c’est l’art de bien utiliser le cerveau humain (…) Faire de la neuroergonomie, c’est changer le monde, cerveau après cerveau, et changer la destinée de l’humanité. Faire de la neuroergonomie, c’est libérer la vie mentale des gens » (p. 15), et beaucoup plus loin, cette seule définition de la neuroergonomie : « l’art de présenter les savoirs de façon digeste et accessible, donc efficace » (p. 108)[13].
Bien sûr, il y aurait beaucoup à dire sur un pareil programme, sauf qu’on n’en saura rien dans le livre d’Aberkane, puisque son propos se contente de bifurquer sur les horizons radieux de l’humanité que représentent les calculateurs prodiges et les mentalistes, avant de se tourner soudainement vers cette chose épouvantable qu’est l’école. Aberkane, en effet, a de nombreux griefs contre celle-ci. Non pas qu’il se plaigne que les enfants d’aujourd’hui ont trop de liberté, qu’on leur laisse trop d’autonomie ou qu’ils ne sont pas suffisamment cadrés par une figure autoritaire. Non, il opte pour l’autre lubie : celle qui soutient qu’à l’inverse, l’école bride la créativité par un système absurde de compétition entre les élèves visant à formater leurs esprits afin qu’ils soient utiles à la société comme de bons petits moutons. On réfrène un long bâillement tout le long de cette rengaine entendue mille fois, en attendant de découvrir comment la neuroergonomie, ou quoi que ce soit d’autre, permettrait de régler ce débat navrant une bonne fois pour toutes. Hélas, il va sans dire qu’aucune solution concrète n’est proposée, si ce n’est d’invoquer le besoin d’expérimenter, de développer l’excellence secrète et précieuse de chacun, de « remettre l’épanouissement au cœur de la mission éducative » (p. 129), sans oublier bien évidemment de « remettre le plaisir au cœur de l’école » (p. 132), tout en gardant à l’esprit que « l’éducation ergonomique est multimodale » (p. 125). Bref, autant de poncifs éculés saupoudrés à la sauce start-up, qui ne semblent conduire qu’à cet aphorisme bullshit, dont Aberkane semble très fier puisqu’il le qualifie de « neurosagesse fondamentale » (p. 130) : « Il ne faut pas forcer le cerveau à ressembler à notre école, il faut forcer notre école à ressembler à notre cerveau » (p. 126)[14]. Pour Aberkane, en effet, « plus on s’imprègne de cette formule, plus on quitte la caverne du conditionnement ».
Sauf qu’avant de chercher à nous conditionner à ne plus être conditionnés, Aberkane, et tous les gogos des vertus de la « neuroéducation » ou de « l’éducation ergonomique », devraient plutôt se demander si la principale vertu et fonction de l’école, au final, ne serait pas précisément de ne pas s’adapter au cerveau humain, puisqu’il s’agit, si j’ai bien compris le concept d’éducation, de faire en sorte que les enfants sortent un peu de leur nature animale pour intégrer ce qu’on appelle la culture, qui, comme la science, s’oppose tout de même assez souvent à nos instincts primaires et aux intuitions biaisées de notre cerveau. Il se pourrait bien qu’apprendre à réfléchir, acquérir des informations historiques, géographiques, linguistiques, etc. n’ait rien de « naturel », et de toute façon les instituteurs n’ont pas attendu Aberkane et les neurosciences pour parvenir à instruire correctement au moins quelques générations d’Homo Sapiens[15].
Quoi qu’il en soit, ce genre de réflexions n’est guère susceptible de freiner les ardeurs d’Aberkane, car notre prodige est de toute évidence un homme pressé. Ainsi, sur l’idée générale que la culture exploite certaines fonctions ancestrales du cerveau humain à des fins nouvelles, il y aurait bien des choses tout à fait passionnantes à dire et à explorer[16]. Mais ce serait là un projet tout à fait barbant et excessivement technique, alors qu’il lui suffit de le considérer comme acquis et de l’utiliser à toutes les sauces sans trop s’attarder sur des détails scientifiques.
Cette légèreté et cette hâte se reflètent hélas dans d’innombrables problèmes, comme par exemple le fait que les pages 250-252 semblent directement pompées de Wikipédia, bien qu’adroitement paraphrasées. On trouve également de sérieux soucis de référencement, comme lorsqu’Aberkane s’aventure à « discuter » les différences entre hommes et femmes quant à la séduction[17]. Page 168, il écrit ceci : « En 1997, Rand Fishskin et Richard Miller sondent ainsi des étudiants avec la question : « Combien de partenaires sexuels désirez-vous dans la vie ? » Il se dégage une moyenne supérieure à 60 chez les garçons, contre 2.7 pour les filles ». Une affirmation qu’Aberkane appuie curieusement avec un article de Pedersen et al. (2002) qui ne rapporte absolument pas ces chiffres, mais plutôt l’inverse : hommes et femmes désirent essentiellement le même nombre de partenaires sexuels, et ce nombre est proche de 1. Dans cet article, on trouve bien une référence à un chapitre de livre écrit par Lynn Carol Miller et Stephanie Allison Fishkin en 1997, qui comporte effectivement les chiffres avancés par Aberkane. Mais, outre que notre petit génie semble avoir inventé de toute pièce les prénoms de ces chercheuses tout en les transformant en hommes, l’objet de leur interprétation consistait justement à minimiser ces moyennes, puisqu’une très petite minorité d’hommes répondaient qu’ils souhaitaient entre 1000 et 10’000 partenaires sexuelles tandis que la plupart, comme les femmes, répondaient quelque chose entre 0 et 20, ce qui évidemment rend l’usage de la moyenne totalement inopérant sur cette question. De fait, en examinant la médiane de ces données, on tombe sur un nombre de partenaires désirés remarquablement proche pour les hommes et pour les femmes, c’est-à-dire 1[18].
On pourrait évidemment me reprocher de pointer du doigt certaines maladresses malheureuses plutôt que de m’intéresser au fond de l’ouvrage. Le problème, c’est que je ne peux pas m’attarder ici à décortiquer le livre en entier, mais si j’utilise ces exemples, c’est bien parce que l’ensemble du texte est conçu avec la même nonchalance et absence de rigueur. Tout est à l’avenant. Et si Aberkane a d’évidents soucis avec la présentation des faits et une façon de raisonner pour le moins cavalière, ce qu’il a à proposer de son cru n’est guère plus encourageant.
Ainsi, page 122, il présente sa « théorie du suicide », qu’il « résume en une phrase : « Self-ExploDes », littéralement « il auto-explose » ou « l’explosion du moi » ». Selon Aberkane, les gens se suicideraient parce qu’ils ont une « mauvaise image de soi-même », qu’ils ont perdu le « goût de l’exploration », et qu’ils sont victimes de « désocialisation », trois malheurs dont l’école contemporaine se rendrait coupable. Sur un sujet aussi sérieux, Aberkane ne craint donc pas à la fois d’avoir inventé la poudre et de lancer des accusations irresponsables et graves. Mais comme à son habitude, il n’en dit pas plus et passe immédiatement à autre chose, alors qu’on aurait évidemment souhaité avoir plus de détails sur cette « théorie », comme par exemple sur quelles données elle se base, comment on pourrait la mettre à l’épreuve, en quoi elle se distingue des autres théories du suicide développées de longue date par d’innombrables chercheurs, quelles sont ses prédictions, bref, le genre de choses qui accompagne généralement l’énoncé d’une « théorie ». Sans quoi, évidemment, on voit mal ce qui la distinguerait d’une simple opinion.
Autre trouvaille aberkanienne : la « matrice Love Can Do », développée, nous dit l’auteur, « à Centrale et à Stanford » (p. 136). On pourrait, selon ce « modèle de management inspiré de ceux élaborés par les grands cabinets de conseil », situer les individus en fonction des axes du plaisir (Love) et de la compétence (Can Do). Ainsi, il y a des gens qui aiment ce qu’ils font mais qui sont incompétents, et d’autres qui sont très doués mais qui s’ennuient. Idéalement, pense Aberkane, qui fournit même un schéma pour qu’on comprenne bien, il faudrait devenir très compétent pour ce qu’on aime faire, et réciproquement bien sûr. Et c’est tout. On se demande bien ce qu’attend le comité Nobel pour récompenser cette découverte aussi époustouflante qu’audacieuse, et ce qu’on trouve dans l’eau de Stanford qui puisse expliquer l’émergence, à cet endroit particulier, d’idées aussi révolutionnaires[19].
Une autre avancée majeure introduite par Aberkane ? L’« hyperécriture ». Notre système d’écriture actuel, en effet, n’est pour Aberkane « qu’un modeste début » (p. 197). On pourrait, explique-t-il, « systématiser davantage l’externalisation de notre vie mentale, et ce mouvement produirait de fascinants médias ». Comment ? Son idée consiste à « spatialiser et écrire notre pensée », non pas avec des mots, mais avec des dessins, sur lesquels on pourrait placer nos idées, puis zoomer pour encore placer d’autres idées, et ainsi obtenir une sorte de vue d’ensemble manipulable à volonté. Qui sait, peut-être qu’en poursuivant ce qu’il appelle « [s]es travaux » (p. 198) sur le sujet, Aberkane en viendra un jour à inventer le croquis, la figure, le schéma, le plan, l’interface, le graphique, le gribouillis sur un coin de table, ou même le dessin ?[20]
Je reviendrai plus bas sur une autre « théorie » d’Aberkane, mais je crois que ces trois exemples en disent assez sur le potentiel créatif de ce « remue-méninges », comme le désignait son portrait du Monde. Pour l’heure, il me reste à terminer ce douloureux survol par quelques mots sur le style et le message général de l’ouvrage. J’ai déjà relevé l’absence totale de construction et de progression dans le texte, où les thèmes se succèdent sans lien évident, sont brusquement abandonnés en cours de route, et ne sont jamais correctement introduits, définis ou argumentés. En fait, on ne sait jamais de quoi Aberkane nous parle exactement, ni même pourquoi il nous en parle. Ce ne serait pas si grave si, de fait, le seul (mais vague) fil conducteur apparent du texte ne ressemblait pas à un crédo sur l’importance de présenter optimalement les fruits de la connaissance au public, de sorte à ce qu’il puisse les intégrer facilement et y prendre du plaisir. C’est tout le paradoxe de Libérez votre cerveau ! : l’ouvrage est censé présenter et défendre les principes généraux, tirés de la recherche scientifique la plus pointue, guidant l’accès à la connaissance, mais ces principes ne sont jamais clairement établis, et surtout ils ne sont de toute évidence pas appliqués. Je ne suis pas un spécialiste de la neuroergonomie, mais il me semble qu’un fatras ininterrompu de faits isolés, de digressions sans but, d’anecdotes et d’opinions personnelles, d’erreurs grossières, de coq-à-l’âne inexpliqués, de « théories » bidon, de truismes, d’hyperboles et d’aphorismes péremptoires, ne font pas vraiment de la bonne vulgarisation.
L’idée qu’Aberkane semble se faire de la vulgarisation, c’est qu’il faut sans cesse employer des analogies et des métaphores. La connaissance, le cerveau ou l’apprentissage deviennent ainsi, indifféremment, des villes, des rivières, des buffets gastronomiques, du sexe, un avion, des champs de légumes, des galaxies, des entreprises, sans que jamais tout cela ne mène à rien, ni n’aide à la compréhension de quoi que ce soit[21]. Il y a quelque chose de franchement infantilisant dans cet usage permanent et hasardeux de la comparaison, une vision condescendante de la vulgarisation, que l’auteur a même tenu à exacerber par la présence incongrue d’une sorte de bande-dessinée en milieu d’ouvrage, qui n’est ni introduite, ni présentée, ni expliquée dans le texte courant, et qui reprend les plus belles perles du livre sans y ajouter la moindre plus-value, et encore moins de structure.
Mais ce qui frappe le plus dans ce livre, c’est le caractère péremptoire du propos. Aberkane semble habité par un fantasme de toute-puissance, convaincu qu’il est de contribuer à changer le monde, attribuant à chaque page les bons et les mauvais points, identifiant sans peine les gentils et les méchants, égrenant les conseils et les leçons tel un oracle, dénonçant les crétins qui ne savent pas y faire et donnant majestueusement raison à ceux qui ont l’heur de lui plaire. Pour quelqu’un qui ne cesse de parler de l’arrogance des « scientifiques » et les dangers de « l’ego », on ne peut qu’être stupéfait par le narcissisme du personnage. De fait, bien qu’il ne cesse de s’émerveiller des pouvoirs insondables de l’amour, de la fraternité et de la sagesse (ou même de la « neurosagesse »), ce qui ressort avant tout de Libérez votre cerveau !, c’est une infinie amertume, une aigreur, un mépris, une rancœur dont il ne semble même pas s’apercevoir. Je veux bien admettre qu’il y a de nombreux problèmes en France, et ailleurs, pour ce qui concerne l’éducation, les institutions universitaires et les rigidités administratives qui empêcheraient de « réussir » ou d’« innover ». Mais Aberkane ne fait que le décréter sans vraiment argumenter ni expliquer les causes de cet état de fait, autrement bien sûr qu’en évoquant la sempiternelle peur du changement, le goût pour la conformité, les ravages de l’entregent et la frilosité des dirigeants et décideurs, sans se figurer une seule seconde, bien entendu, que des individus dans son genre puissent faire partie de ces problèmes. Pour ce qui concerne la France, j’ai en effet bien l’impression que la mise en avant permanente de pseudo-experts, d’imposteurs et de grandes-gueules en tout genre contribue largement à éclipser nombre de travaux remarquables, et pire, à dévaloriser les valeurs primordiales pour l’avancement des connaissances que sont la rigueur, la patience, l’humilité, la précision et tout simplement le travail.
Il est d’ailleurs particulièrement révélateur que la cible principale de la bile aberkanienne concerne l’institution scientifique. A en croire Aberkane, les chercheurs seraient des tocards moulés dans un système décérébrant et conformiste, une « caste » qui se ferait « une fierté d’avoir castré [son] émerveillement » (p. 117), obsédée par les données, les statistiques et les publications, dont l’entreprise principale serait de rendre malheureux et d’exclure de son petit cercle quiconque oserait sortir des sentiers battus et présenter une idée originale et créative. Pourtant, pour sclérosée, coincée, conformiste, frileuse et bornée qu’elle soit, Aberkane se réclame quand même de la science et de ses découvertes inouïes quand ça l’arrange, et prétend avoir compris exactement comment la présenter idéalement au grand public. Ce qui semble complètement le dépasser, c’est que cette connaissance scientifique ne sort pas de nulle part, et qu’il a bien fallu des gens créatifs et audacieux, mais aussi patients, rigoureux et respectueux de la méthode scientifique, pour y aboutir, c’est-à-dire tout le contraire de sa « démarche ». Qui plus est, lorsqu’il s’agit d’exalter ses lubies sur les bienfaits de la neurostimulation, des jeux vidéo, du raisonnement collectif ou des propriétés « quantiques » du cerveau, il n’exprime soudain plus le moindre scepticisme quant à la validité et la solidité de ces domaines de recherche. C’est tout de même curieux, pour quelqu’un qui semble vaguement conscient de l’existence du biais de confirmation[22].
Voilà pour le tableau général du cas Aberkane. Je m’en tiendrai là, même si je suis très loin d’avoir fait le tour des exagérations de son CV et des inepties contenues dans son livre, sans même parler des platitudes qu’il assène à ses lecteurs du Point et de ses techniques de conférencier motivationnel. J’ignore, du reste, tout de ses activités de « consultant », des « trois start-ups » qu’il est censé avoir fondées, de la « recherche industrielle » qu’il prétend devoir garder « confidentielle », et de ses talents d’« enseignant », mais ayant lu son livre de bout en bout et dans les moindres recoins, j’en sais largement assez pour me permettre de le qualifier de bullshitteur. Avec Aberkane, il y a même bullshit à tous les étages, si j’ose dire. Et c’est bien dans ce registre qu’il peut véritablement nous apprendre quelque chose, comme je vais à présent l’illustrer.
Car moi aussi, j’ai une « théorie ». Si j’ai évoqué cette histoire lamentable de CV gonflé aux hormones, ce n’est pas, ou pas seulement, pour déplorer un cas supplémentaire d’imposture et de supercherie intellectuelle dans le paysage médiatique français, mais pour bien saisir en quoi consiste exactement le livre écrit par Aberkane. Mon hypothèse, en effet, est que le sens attribué à Libérez votre cerveau ! présente la particularité assez inédite de dépendre entièrement de l’idée que le lecteur se fait de son auteur. J’avance qu’il est en effet nécessaire de croire qu’Idriss Aberkane est un « petit génie » pour que son livre prenne le moindre sens, et que sans cela, il n’en a aucun.
Il n’y a d’ailleurs guère besoin de s’attarder sur le bullshit produit par Aberkane en tant que tel. Sur la question de son CV, nous avons vu qu’il ne ment pas forcément ouvertement, mais plutôt qu’il joue sur les mots, qu’il exagère l’importance de certaines « activités », qu’il cherche à impressionner en s’association à des affiliations et dénominations prestigieuses, et qu’il laisse souvent aux autres le soin d’exagérer son profil sans prendre le soin de les corriger. Le bullshit se situe ici dans l’impression qu’il cherche à produire à partir de peu de choses, sans trop se soucier de la véracité du tableau ainsi produit, mais sans prendre le risque non plus d’inventer purement et simplement n’importe quoi. Pour ce qui est du livre, le bullshit se situe dans l’indifférence à l’égard de la connaissance et de la question sous discussion qui conduisent à un texte désorganisé, bâclé et souvent incorrect. Pour ce qui me concerne, ces points sont établis et ne présentent quasiment aucun intérêt : on a affaire à un bullshitteur comme il y en a des milliers d’autres, du bullshit standard en somme.
Ce qui me semble beaucoup plus instructif, c’est de tenter de comprendre pourquoi quelqu’un dont le CV est bidon et le livre totalement inepte parvient à se faire prendre au sérieux. Pour percer ce mystère, il faut à mon avis placer l’analyse du bullshit à un niveau plus dynamique, qui permettrait d’en saisir la diabolique efficacité. Aussi étonnant que cela puisse paraître, il me semble en effet qu’Aberkane a trouvé le moyen, probablement sans s’en rendre compte, d’allier plusieurs mécanismes du bullshit, qui isolément n’auraient aucune efficacité pour son projet, mais dont la combinaison lui permet de l’accomplir quasiment sans effort. Le « projet » en question reste cependant assez flou dans mon esprit, mais quelque chose me dit que c’est également le cas pour l’intéressé lui-même[23].
La connaissance pour les nuls
La première chose à saisir dans la méthode Aberkane, c’est l’adéquation parfaite entre sa conception, largement inconsciente, de ce qu’est la connaissance, et son absence de rigueur. Je m’appuie ici sur le concept de clarisme (ou « machisme discursif ») développé par le sociologue Diego Gambetta (1998)[24]. Brièvement, Gambetta s’en servait pour dénoncer une certaine attitude – dont l’expression « Claro ! » (qu’on peut traduire de l’espagnol, pour ce qui nous concerne ici, par « mais évidemment, je le savais déjà ! ») est l’une des manifestations les plus courantes -, qui consiste à avoir des opinions fortes, sur tout et n’importe quoi,dès le départ. Pour cet auteur, cette attitude reflète une croyance culturelle sur la nature même de la connaissance, dont la propriété principale serait, de ce point de vue, d’être holistique, c’est-à-dire totalisante. Dans une telle culture, il faut savoir quelque chose, sinon c’est qu’on ne sait rien ; et ne pas savoir est considéré comme une défaite déshonorante. Tandis que savoir, ou simplement donner l’impression de savoir, donne des gages considérables en matière de réputation et d’image[25].
Tout, dans le parcours plus ou moins imaginaire d’Aberkane et dans son livre, transpire le clarisme. Le seul fait de se réclamer des esprits universels de la Renaissance afin de décréter l’avènement imminent d’une « neuronaissance » (sans quoi nous aurons naturellement à faire face à l’apocalypse du « neurofascisme »), indique qu’Aberkane perçoit la connaissance comme un tout dont on dispose ou non, plutôt que comme une démarche exigeant un véritable travail spécifique. De même, son « concept » de « neurosagesse », bien que grotesque, signale également très bien cette idée d’une connaissance globalisante et d’un esprit apte à saisir d’emblée ce qui est vrai, ce qu’il faut faire, et de quoi l’avenir sera fait[26]. Il le dit d’ailleurs explicitement, et c’est même plus ou moins l’objet de son œuvre (pour ce qu’on peut en comprendre) : chacun peut ouvrir prodigieusement son esprit à condition de se « libérer » de certains obstacles et de trouver les bons « leviers ». Il est donc possible, pour tout le monde, d’augmenter globalement sa « connaissance », à condition de savoir comment s’y prendre et d’exploiter les conditions favorables à une telle accumulation de savoirs.
Fort bien, mais qui dirait une chose pareille s’il ne l’avait pas lui-même réalisée ? Imagine-t-on l’auteur d’une méthode infaillible pour arrêter de fumer donner des conférences, écrire des livres et écumer les plateaux de télévision pour vanter sa découverte, la clope au bec ? Bien sûr que non, l’implication est très claire : Aberkane ne dit rien d’autre, tout au long de son livre, que « comme moi, vous pouvez aussi devenir des prodiges et des sages », « comme je l’ai fait, vous aussi vous pouvez libérez votre cerveau ». Lorsqu’il évoque son « parcours », ce n’est jamais pour dire qu’il vise l’excellence, ni qu’il cherche les moyens d’y parvenir. C’est pour laisser entendre qu’il y est déjà, dans l’excellence. De fait, si ce n’était pas le cas, on voit mal pourquoi il faudrait prendre ses conseils et ses opinions au sérieux.
Voici donc un paradoxe remarquable. Une conception « clariste » de la connaissance, c’est-à-dire l’idée que celle-ci dépend avant tout d’une sorte de vision irénique, incantatoire et subjectiviste du savoir, conduit immanquablement à un excès de confiance en soi, à l’habitude de prendre des raccourcis intellectuels, à l’illusion de savoir et de comprendre des choses que l’on n’a fait que survoler, à la prétention d’être en mesure de communiquer ce savoir à autrui, et, en somme, à la conviction qu’on peut se passer du genre de travail et de rigueur auquel des personnes moins brillantes et moins passionnées doivent généralement s’astreindre pour maîtriser leur sujet. Mais en retour, et c’est là le paradoxe, cette attitude produit l’illusion que le clariste doit savoir de quoi il parle : une telle confiance, une telle passion, une telle aisance à se prononcer sur d’innombrables sujets et à voler de l’un à l’autre ne peut pas signaler autre chose que de la compétence.
Il me semble qu’Idriss Aberkane fournit un bel exemple du désastre auquel peut mener une conception relativiste de la connaissance et une tendance au clarisme. Tandis qu’il conspue ceux qu’il perçoit comme des tâcherons conformistes bien à l’étroit dans leur petit domaine de prédilection et allergiques à toute innovation, il croit se distinguer en observant que « La mise en perspective est pourtant une posture remarquable de la conscience humaine (…) et il faudrait l’encourager plutôt que la réprimer » (p. 237), remarque absolument typique du bullshitteur qui se figure mettre les choses « en perspective » sans y avoir toutefois compris quoi que ce soit. On lit aussi, page 189, ce remarquable poncif qui n’épatera que ceux qui s’imaginent que la connaissance est avant tout une affaire de subjectivité : « Le « fait objectif » n’a guère plus de sens, car il n’y a pas de faits, il n’y a que des perspectives, même dans une expérimentation scientifique ».
Cette prétention inouïe à porter des jugements et décréter des vérités ultimes va évidemment de pair avec la personnification à outrance de Libérez votre cerveau !, où Aberkane ne parle en définitive que de lui, et où il encourage tous ses lecteurs à faire comme lui. Ainsi, parmi mille autres exemples, des deux dernières pages du livre, où il conseille tout simplement d’« Ignorez vos pairs ! » (mais pas lui, naturellement) et conclut par cette perle : « Ma note ? J’ai Moi/20. Et vous ? » (pp. 277-278). Cette posture clariste, relativiste et subjectiviste, en un mot ce bullshit, n’existe en réalité que pour se substituer au travail qu’il aurait fallu fournir pour vraiment dire quelque chose, et nous allons voir à quel point elle est en fait consubstantielle au projet d’esbroufe aberkanien, puisqu’elle nourrit l’illusion qu’un tel aplomb, de la part d’une jeune personne qui bénéficie d’une telle exposition publique, ne saurait reposer uniquement sur du vide.
La technique du camouflage
On le voit, le bullshit aberkanien ne peut fonctionner que s’il dispose d’un public, et d’un contexte général, qui lui mâche, pour ainsi dire, la moitié du « travail ». Il lui faut donc un environnement social qui valorise des éléments de culture clariste, en particulier l’idée qu’il existe des « intellectuels » capables de s’exprimer sur tout et n’importe quoi à la demande, que le « savoir » s’incarne assez littéralement dans des individus qui deviennent dès lors des people de la connaissance, et que le « débat public » est au final une sorte de joute qui dépend des talents rhétoriques et des opinions de chacun, plutôt que de faits objectifs douloureusement acquis par un travail rigoureux de recherche. Autant dire une infrastructure non seulement favorable au bullshit, mais entièrement dévouée à la production et à la transmission incessante de bullshit. Un tel environnement mélangerait allégrement les genres et offrirait une grande perméabilité entre les milieux académiques, politiques, médiatiques, culturels et économiques, si bien qu’il serait parfois difficile de savoir où quelqu’un se situe (ou même où l’on se situe soi-même).
Si quelqu’un, par exemple, n’ayant pas la moindre publication scientifique à son actif, ni aucun accomplissement notable dans les domaines sur lesquels il s’exprime, n’aurait évidemment aucune chance d’impressionner des véritables chercheurs, il pourrait néanmoins compter, dans un milieu tel que je viens de le décrire, sur des journalistes, des éditeurs ou des organisateurs de conférences pour le présenter comme un « petit génie » et pour l’aider à se promouvoir. Ce milieu qui autorise la confusion la plus complète entre sciences, médias, opinions, faits, autopromotion et vulgarisation, bien entendu, existe : c’est à peu près le monde dans lequel nous vivons. Pour autant, il n’est pas donné à tout le monde de pouvoir l’exploiter de manière parfaitement opportuniste, encore faut-il en avoir le désir, et calibrer adéquatement son bullshit pour en tirer le maximum de profits.
Comment s’y prend Aberkane ? C’est très simple, il fait, littéralement, son « intéressant ». Qu’est-ce que « faire son intéressant », au juste ? C’est singer les attributs du genre de choses ou de personnes qui sont véritablement « intéressantes », afin d’en retirer de manière abusive certains des bénéfices légitimes, en particulier en termes d’attention portée, de temps consacré et de prise au sérieux. Ce sont évidemment, en général, les petits enfants qui « font leur intéressant », de sorte à sortir de leur ennui tout en faisant perdre leur temps aux adultes. Aberkane, naturellement, n’est plus un petit enfant, par conséquent sa technique pour « faire son intéressant » est plus sophistiquée. Il joue en fait un personnage, un rôle qui est celui d’un individu qui serait passionné par tout ce qui est intéressant en ce moment, et qui en plus se montrerait tout à fait décidé à partager ses connaissances et son enthousiasme pour tout ce qui est intéressant. Et qu’est-ce qui est intéressant en ce moment ? Tout d’abord, comme le montre le succès invraisemblable des conférences de type TED, la gloire des Youtubeurs et l’engouement pour les concours du style « ma thèse en 180 secondes », ce qui compte avant tout, c’est précisément de faire preuve d’enthousiasme, d’être bien décidé à motiver et inspirer son public, et surtout de faire en sorte que chacun passe un bon moment et en ressorte avec l’envie de foncer, de gagner, et de s’engager pour créer un monde meilleur, avec le sentiment « d’avoir appris quelque chose ». « Je n’ai, pour ma part, aucun complexe à encourager le Wow effect, que j’ai appris d’une chose aussi « vulgaire » que les médias de masse » reconnait Aberkane (pp. 117-118)[27]. Il a même retenu cette recette d’une profondeur stupéfiante d’un coach :
« … les trois étapes d’une bonne conférence :
« Bon sang, ça je ne le savais pas ! »
« Je suis bien content de le savoir. »
« J’ai envie d’en savoir plus. » »
Wow, effectivement. Il s’agit donc, assez littéralement, d’épater le chaland sur le mode « le saviez-vous ? » C’est le corollaire, en quelque sorte, de la culture clariste, où le « claro ! » signifie généralement, « ben évidemment, je le savais déjà, tu ne m’apprends rien ! », tandis que de l’autre côté, un importun s’évertue à démontrer l’ignorance de son interlocuteur en lui « apprenant des choses », et s’attend en plus à ce que celui-ci lui témoigne un peu de gratitude pour son admirable générosité épistémique.
Notons que le contenu des connaissances en question n’a évidemment aucune importance : ce qui est intéressant, c’est simplement que quelqu’un se montre très intéressé par quelque chose. Or, si quelqu’un est intéressé par quelque chose, c’est forcément qu’il sait de quoi il parle, et s’il nous fait en plus l’honneur de partager un peu de sa passion pour les choses intéressantes, c’est bien qu’il doit être prodigieusement intéressant lui-même. Il s’agit donc d’une forme de bullshit performatif qui paraît, à première vue, complètement délirante, mais j’avance à titre d’hypothèse que cette forme absurde d’autophagie épistémique existe bel et bien : plutôt que de s’intéresser à quelque chose, il suffit désormais de se montrer intéressé tout court[28].
Peu importe donc ce qu’Aberkane écrit ou ce qu’il a à dire : il le fait avec passion, il y met de l’énergie, il dit des choses dont il nous dit qu’elles font réfléchir. Comme le garçon de café de Sartre joue son rôle de garçon de café, Aberkane endosse l’habit du génie qui refuse de s’enfermer dans sa tour d’ivoire et qui accepte de descendre sur terre pour transmettre son savoir au gens modestes[29]. Il joue au prodige-proche-des-gens, en somme. Or, que fait un bon prodige-proche-des-gens ? Il explique bien. Avec lui, enfin, on comprend bien, parce qu’il prend la peine d’user, pour la gouverne des simples mortels avides de choses intéressantes, de métaphores frappantes, de comparaisons habiles, d’analogies mémorables, et de simplifications plaisantes. Mais s’il explique bien, c’est surtout parce qu’il veut et sait nous faire partager sa passion. Les esprits chagrins peuvent évidemment se demander ce qu’on comprend exactement grâce au prodige-proche-des-gens qui explique bien, mais pour le « grand public », s’il explique bien, c’est naturellement parce qu’il sait de quoi il parle. De fait, si le prodige-proche-des-gens prend la peine de nous conduire sur les chemins ardus de la connaissance, c’est forcément qu’il connaît le chemin, et qu’il connaît même le meilleur chemin, ainsi que tous les bons raccourcis. En effet, Aberkane étant un expert en « neuroergonomie », il connaît par cœur les boutons sur lesquels il faut appuyer afin de « libérer » notre cerveau des innombrables entraves qui ralentissent sa route vers l’illumination. Ainsi, la boucle performative est bouclée sur elle-même : la seule et unique connaissance qu’Aberkane « communique », c’est qu’il communique de la « connaissance ». Même si cela semble proprement ahurissant, il semble donc suffire d’expliquer bien, même quand on n’a rien à expliquer. D’un point de vue purement esthétique, il faut l’admettre, la performance est assez vertigineuse.
Tout cela, il faut le rappeler, est accompli à très peu de frais. En fait, je dirais même qu’un tel système auto-performatif ne peut subsister que si on y touche le moins possible. Pour laisser entendre le plus de choses possibles sur son talent, son génie et ses compétences, il vaut clairement mieux en faire le moins possible. A cet égard, il me semble que le seul véritable risque qu’a pris Aberkane sur toute la longueur de Libérez votre cerveau ! est d’y avoir introduit ses ridicules « équations » sur les liens entre attention et connaissance. Le psychologue et mathématicien Nicolas Gauvrit s’étant déjà donné la peine de dire ce qu’il fallait en penser[30], je ne m’attarderai donc pas sur cet épisode navrant de l’histoire des pseudosciences[31]. Il révèle cependant un trait fondamental du bullshit, qui est son caractère mimétique. Étant donné que ces « équations » ne découlent d’aucune démonstration empirique concrète et n’ont, à ce jour, aucune application réelle, on peut dire, à la lettre, qu’elles ne servent à rien. Le problème n’est donc pas qu’elles soient fausses ou incohérentes, bien qu’elles le soient, mais qu’elles n’existent qu’à titre purement décoratif, essentiellement pour illustrer l’hypothèse stupide selon laquelle « le débit instantané de connaissance est proportionnel à l’attention, qui varie dans le temps »[32] (p. 113). Il n’est donc pas exclu d’en conclure qu’il ne les utilise qu’à des fins d’intimidation mathématique, c’est-à-dire pour « faire scientifique ». A ce compte, Aberkane entre clairement dans la catégorie des pseudosciences, ou de la science facsimile, qui consiste à endosser les habits de l’institution scientifique (ici sous la forme d’équations) pour en retirer tous les bénéfices (en termes de statut, de réputation, de prestige), sans en souffrir les inconvénients (travailler, vérifier, comparer, tester, répondre aux critiques, bref, tout le travail barbant des vrais scientifiques), tout en se permettant d’attaquer ladite institution pour sa frilosité, son conformisme et ses prétentions[33].
Il est néanmoins douteux qu’un CV bidon, une conception biaisée de la connaissance, une approche performative de la vulgarisation, et une tentative maladroite de mimer la science suffisent à expliquer le succès d’Aberkane. Il lui restait encore à calibrer son bullshit sur le genre de choses jugées aujourd’hui importantes et intéressantes. L’écologie de bazar ne fait évidemment pas défaut à son arsenal. Avec ses jérémiades sur la supériorité infinie de la nature, les incroyables trouvailles de l’évolution et les confins insondables du cosmos, le tout empaqueté dans une énième notion laissée sans définition, le « neuromimétisme », selon lequel il faudrait sans cesse s’inspirer de la « nature » et mieux respecter cet engin fascinant qu’est le « cerveau », Aberkane est à peu près sûr de ne pas décevoir la fibre « bio » de ses lecteurs. Comme toujours avec lui, rien de tout cela n’a besoin d’être défendu ni argumenté, il lui suffit simplement de dire que l’on ferait bien de s’inspirer de la nature et de prendre soin de notre cerveau, mais on ne saura ni comment, ni pourquoi, ni en quoi sa posture est originale ou admirable. Tout ce qui compte, c’est qu’Aberkane soit perçu comme quelqu’un qui a compris une vérité d’une grande profondeur, quelle que soit exactement cette vérité si profonde.
Mais c’est évidement dans les « nouvelles technologies » et les « neurosciences » que notre bullshitteur s’épanouit le mieux. Puisque c’est ce-dont-tout-le-monde-parle en ce moment, c’est donc que c’est intéressant, et si quelqu’un en parle, c’est donc que ce qu’il a à dire est intéressant. Outre Idriss Aberkane, on voit ainsi fleurir, pour ainsi dire mécaniquement, une quantité invraisemblable de spécialistes auto-proclamés sur ces thèmes, exactement comme si ceux-ci agissaient comme des attracteurs à bullshit.
Pour ce qui concerne le technobullshit, le critique et journaliste Evgeny Morozov en a donné les grandes lignes dans son livre Pour tout résoudre, cliquez ici[34]: il s’agit d’une posture idéologique gouvernée par la croyance au « solutionnisme », c’est-à-dire non pas l’idée raisonnable de chercher à trouver des solutions pour résoudre des problèmes, mais celle qui consiste à inventer des problèmes parce qu’on disposerait d’une nouvelle « solution ». A ce titre, ce que Morozov appelle « l’Internet », toujours avec des guillemets, est cette espèce de vague nébuleuse conceptuelle qui contient toutes les solutions du monde. Le technobullshit est également « époqualiste » à l’extrême : il se nourrit de la conviction que notre époque est absolument unique et sans précédent, et par conséquent qu’elle requiert à tout prix une « révolution », de l’« innovation », des « ruptures », et de la « disruption ». Naturellement, quiconque ne se montrerait pas aussi convaincu est immédiatement taxé de ringardise, et pire, de ralentir la marche de l’Humanité vers les horizons radieux promis par « l’Internet ». Avec son futurisme débridé, son messianisme décomplexé, ses gourous-stars, ses rituels d’admission, son auto-célébration permanente, son rejet des « ennemis » et « outsiders », son alarmisme doublé de promesses oraculaires, et son ignorance délibérée de l’histoire et de toute objection, il va sans dire que le technobullshit n’est qu’un avatar du bullshit religieux. Un parallèle qui n’a guère besoin d’être détaillé pour ce qui concerne son incarnation la plus imbécile, le « transhumanisme », surtout que le terme apparaît pour la première fois dans… le Paradis de Dante[35]. Bref, le technobullshit n’est donc ni plus ni moins que la novlangue d’une secte, et à défaut d’en devenir un gourou, à peu près n’importe qui peut s’improviser apprenti-gourou dans ce registre. En particulier la génération des digital hâtifs, et on ne peut que féliciter Idriss Aberkane d’avoir su tirer son épingle du jeu sur ce créneau fort encombré des ravis de la start-up[36].
Alliance quasiment parfaite des bullshits technologique, managérial et spirituel, le technobullshit ne peut cependant guère se passer aujourd’hui de son petit frère, le neurobullshit. C’est bien sûr ici que le festival Aberkane atteint le paroxysme du bullshit, à tel point qu’on a du mal à croire qu’il ne s’agisse pas d’un canular. Aberkane, on l’a vu, nous engage à faire preuve de « neurosagesse », il préconise l’avènement d’une « neuronaissance », vante les mérites du « neuromimétisme », défend les « neurodroits »[37], met en garde contre le « neurofascisme », évoque le « neurolibéralisme », se gargarise de « neuro-inspiration », s’émerveille des « neurotechnologies » et de la « neurocybernétique », passe rapidement sur le « neurodesign », la « neurochronologie » et la « neurométrique », s’épate de la « neuronique », invente la « mésoéconomie neuronale », et il découvre même, tout bonnement, que « l’expérience, c’est de la neuro ».
C’est aussi très « neuro », naturellement, d’inclure quelques images du cerveau au milieu d’un tel déluge de neuro-néologismes (neurologismes ?), mais celles-ci, on s’en douterait, sont purement pro forma, et ne renseignent sur rien, si ce n’est qu’Aberkane sait exploiter la « neurophilie » contemporaine qui porte à croire qu’on a expliqué et compris quelque chose grâce à la seule présence d’une image du cerveau[38]. Hélas, Aberkane semble surtout ignorer que l’usage intempestif du préfixe « neuro » est devenu depuis un moment déjà un sujet de plaisanterie entre neuroscientifiques[39], qui parlent désormais volontiers eux-mêmes de « neuromanie », de « brainwashing », de « neuro-couilles », de « neuromythes » et, bien évidemment, de « neurobullshit »[40]. A part jeter de la poudre aux yeux aux néophytes, on ne voit guère l’intérêt de multiplier à ce point tous ces neuroconcepts imbéciles, surtout que chez Aberkane, ils ne sont jamais définis, n’apportent strictement rien à un propos déjà impossible à suivre, et sont encore moins utilisés à bon escient. On a simplement affaire à de la neuro-incantation.
L’effet gourou inverse
Dans un bref élan de lucidité, Aberkane nous informe en page 37 qu’« Il faut penser par soi-même et dénoncer les absurdités, quelle que soit l’autorité qui les profère ou les pratique ». C’est effectivement un excellent conseil, mais pour ce qui concerne Aberkane, la question se pose de savoir de quelle autorité, exactement, il s’agit. Nous avons vu, même beaucoup trop longuement, qu’il n’en a aucune, ni dans le domaine de la recherche, ni dans celui de la vulgarisation. Pourquoi faudrait-il prendre au sérieux ce qu’il raconte, puisque non seulement il ne sait pas de quoi il parle, mais il est quasiment impossible de savoir de quoi il parle ?
Je crois que le cas Aberkane ne nous laisse pas d’autre choix que de postuler un mécanisme pervers, que j’appelle effet gourou inverse. L’effet gourou (tout court) est un concept développé par l’anthropologue Dan Sperber, dont je ne peux ici que donner les grandes lignes. Sperber expliquait le succès de textes indéchiffrable de certains intellectuels particulièrement obscurs par l’effet cumulé de la réputation de leur auteur et de l’effort consacré, par le lecteur, à tenter d’y comprendre quelque chose. Il y a chez les auteurs réputés profonds et difficiles une « promesse de sens (…) en fait jamais remplie », comme disent les philosophes Barberousse et Huneman à propos d’Alain Badiou[41]. De ce fait, on peut devenir un gourou du seul fait qu’on ne nous comprenne pas. C’est cette prime à l’obscurité que décrit donc l’effet gourou : puisqu’on n’y comprend rien, c’est que l’auteur doit être génial, et comme l’auteur est réputé génial, il est dans le fond normal, et même souhaitable, qu’on ne comprenne pas vraiment ce qu’il dit.
Cette explication me paraît hautement plausible pour ce qui concerne le contexte particulier évoqué par Sperber (en gros, le milieu intellectuel parisien des années 1970). Mais il me semble qu’on peut étendre le concept d’effet gourou à d’autres sortes de gourous, ou d’autres propos, pas nécessairement obscurs, que peuvent tenir les gourous. L’obscurité et l’obscurantisme, à ce titre, ne seraient que des variétés possibles de bullshit, et on peut très bien envisager une semblable « promesse de sens » dans des énoncés parfaitement clairs, et même banals, si l’on est disposé à y chercher de la profondeur. Je pense que c’est sur cette base que fonctionne le cas Aberkane, mais d’une manière assez sophistiquée.
Rappelons que son CV est bidonné, qu’il n’a aucun accomplissement notable à son actif, et qu’il n’a rien d’intéressant à dire dans son livre : on pourrait penser que c’est vraiment mal parti pour espérer être pris au sérieux par qui que ce soit. Mais de même qu’on peut gagner une fortune au poker sans jamais avoir eu une bonne main, grâce au bullshit, que Frankfurt voyait d’ailleurs comme relativement proche du bluff, c’est tout à fait possible[42]. Voici comment j’envisage la stratégie pour y parvenir. D’une part, Aberkane met en avant sa prétention à transmettre ses connaissances au grand public. Or, comme on l’a vu, qui songerait à se lancer dans un projet pareil sans avoir réellement de connaissances intéressantes à partager ? Voici déjà une inférence abusive de gagnée pour Aberkane : s’il a écrit un livre, s’il passe à la télé, s’il donne des conférences, c’est forcément, déduit automatiquent son public, qu’il a des choses à dire. Mais ce qu’il dit est extrêmement simple, et même naïf : ce sont essentiellement des poncifs, des comparaisons sans queue ni tête, des slogans péremptoires, quelques perles de sagesse pseudo-profondes, des « coups de gueule » par ci par là. Pour autant, il le fait avec enthousiasme, il y met de la passion, il semble vraiment y croire : par conséquent, son public en déduit naturellement que ce qu’il doit être en train de faire, c’est de rendre très simple et accessible des choses en réalité beaucoup plus complexes et savantes. La seule raison logique qui explique les banalités et les inepties d’Aberkane, c’est qu’il doit nécessairement en savoir beaucoup plus que ce qu’il nous transmet. Il le dit d’ailleurs sans arrêt : grâce à la « neuroergonomie », qui consiste à présenter les choses d’une façon agréable et facilement digestible pour le cerveau, n’importe qui peut saisir des concepts extraordinairement complexes et profonds, pour autant qu’ils aient été calibrés de manière experte. Par conséquent, le seul fait qu’Aberkane dise quelque chose, même n’importe quoi, signale à son auditoire et à ses lecteurs qu’il doit être un génie qui parvient néanmoins à se faire comprendre.
Provenant d’un génie, des platitudes et des âneries, même si elles n’ont rien d’obscur, acquièrent soudain une signification particulière : elles sont la simplification de quelque chose qui nous échappe. De fait, le génie ne peut malheureusement que s’abaisser jusqu’à nous, simples mortels, il ne peut pas nous hausser jusqu’à son niveau. Chez Sperber, l’autorité du gourou est d’abord établie, et ensuite ses obscurités sont interprétées comme géniales. Aberkane, lui, a inventé l’effet gourou inverse. Comme il n’a ni autorité ni réputation, il brûle les étapes et se présente d’emblée comme un scientifique déterminé à partager ses connaissances de manière simple : il intimide non par obscurité, mais par simplification. Au lieu de la prime à l’obscurité, il a opté pour la prime au poncif.
Ce faisant, évidemment, il usurpe la fonction même de la vulgarisation. Il en emploie les codes à la mode, qui sont de faire du storytelling, de se montrer passionné, de produire des analogies à outrance qui « parlent aux gens », de jouer la fausse modestie. Il imite, en somme, la vulgarisation telle qu’il la conçoit. L’excès de simplification donne ainsi l’impression d’avoir affaire à un expert, et surtout à un expert qui fait l’effort d’être proche-des-gens. Le malheur, c’est que ce type de vulgarisation infantilisante conduit en fait à de gros malentendus[43]. Il y a en effet pire que de ne rien comprendre à quelque chose, c’est de le comprendre de travers en se figurant l’avoir très bien compris[44], comme l’illustre Libérez votre cerveau ! page après page.
De plus, on l’a vu, Aberkane ne se prive jamais de critiquer le milieu scientifique. Mais qui d’autre qu’un grand scientifique serait le mieux placé pour faire ça ? Ou, à défaut, qui d’autre qu’un véritable génie que ce milieu aurait rejeté injustement, victime de la frilosité de quelques caciques que toute innovation ou originalité rendraient phobiques ? Critiquer quelque chose avec véhémence implique mécaniquement qu’on a une légitimité à le faire, car la critique sévère requiert de savoir de quoi l’on parle, de se sentir concerné, bref, d’avoir compris quelque chose que les personnes critiquées n’auraient pas compris. La critique performative offre ainsi, à très peu de frais, une certaine autorité à celui qui la pratique. Et cela marche d’autant mieux si l’on se présente par ailleurs comme modeste, sage (ou « neurosage »), proche-des-gens et passionné.
Comme les gourous parisiens de Sperber laissaient entendre leur prodigieuse profondeur simplement grâce à leur obscurité, Aberkane laisse entendre son insondable génie et sa réussite grâce à sa simplicité et aux critiques qu’il ose se permettre. Dans le premier cas, on se fatigue à essayer de comprendre du non-sens, dans le second cas, on croit avoir compris autre chose que des banalités sans intérêt. Il est possible que la configuration du cerveau humain facilite grandement ce genre de phénomènes, auquel cas Aberkane aura véritablement su appliquer un principe de « neuroergonomie » pour accomplir son imposture. Je doute, cependant, que ce genre de pratiques soit très « neurosage »… De fait, si l’effet gourou inverse a très bien réussi à Aberkane, ce qui m’inquiète surtout c’est que je ne vois pas de raison pour que cette stratégie ne se multiplie pas à l’avenir. Pour le comprendre, il suffit d’envisager comment, dans certains scénarios alternatifs, le cas Aberkane n’aurait tout simplement pas pu exister. En effet, imaginons ce qui se serait produit en changeant simplement quelques variables. Le tableau suivant résume les différents cas de figure :
Manuscrit bâclé
Manuscrit travaillé
IA se présente comme un génie
Libérez votre cerveau !
Vulgarisation banale (non publié)
IA se présente pour ce qu’il est réellement
Ratage (non publié)
Témoignage – pamphlet (spiritualité)
IA est un génie
Honte
Bon livre
Prenons d’abord le statut académique d’Aberkane, qu’il aurait pu présenter en toute sincérité, ou qui aurait pu être tout autre. Grâce à son bullshit et l’effet gourou inverse, Aberkane est, dans la vraie vie, un individu qui se présente et qu’on présente comme un génie, mais qui est en réalité loin d’en être un. Il produit un manuscrit extraordinairement bâclé et inintéressant, qu’il publie avec succès sous le titre Libérez votre cerveau ! C’est la situation que tout cet article a décrite.
Qu’en aurait-il été si Aberkane s’était présenté pour ce qu’il est réellement, c’est-à-dire une personne qui n’a ni carrière, ni réputation scientifique, et qui n’a certainement rien accompli de génial, mais qui a quand même envie de parler de… tout un tas de choses ? Libérez votre cerveau ! n’aurait alors eu aucun intérêt. En effet, pourquoi prêter la moindre attention à quelqu’un qui conspue, dans un texte bâclé, un milieu dans lequel il a échoué et auquel il n’a jamais accédé, qui enchaîne laborieusement des opinions sans aucune structure, et qui offre d’innombrables conseils et fulgurances sans la moindre légitimité pour le faire ? Ce serait simplement l’œuvre d’un ancien stagiaire qui a passé quelques jours à Stanford et à Cambridge sans avoir réalisé quoi que ce soit de concret, et le livre aurait donc aussi bien pu être écrit par un garagiste, un trader, un coach ou un bloggeur quelconque. Non seulement il n’aurait eu aucun intérêt, mais il serait en fait incompréhensible : on ne saurait tout simplement pas ce qui porte son auteur à égrener autant d’inepties et de prophéties absurdes. Le manuscrit n’aurait probablement pas été publié, ou en tout cas il n’aurait eu aucun succès, et n’aurait certainement pas obtenu la moindre attention.
A présent, imaginons, pourquoi pas, qu’Aberkane ait réellement été un « « petit génie » des neurosciences appliquées »[45], une sorte de pointure véritablement reconnue et respectée, dont les nombreuses publications et inventions de haut standing seraient régulièrement citées, et qui susciterait, pour le coup, le désespoir et la jalousie de ses moins talentueux confrères, écœurés par le succès amplement mérité de cet incroyable prodige. Dans ce cas, ce véritable génie se serait tout simplement couvert de honte en sortant un livre pareil. Pourquoi un génie des neurosciences (appliquées ou pas) perdrait-il son temps à ruiner sa réputation en alignant ses griefs et ses idées les plus plates sans jamais présenter l’excellent travail qui a fait sa juste réputation de génie ? Le livre aurait peut-être été publié, en vertu de la brillance de son auteur, mais cela aurait eu pour effet de nuire à sa réputation.
Voyons maintenant ce qu’il en aurait été si Aberkane avait en fait écrit un excellent livre, le fruit d’un très long et rigoureux travail, dénué de tout travers, arrogance, narcissisme, néologismes stupides et raccourcis foireux, au lieu, donc, de Libérez votre cerveau ! Le véritable Aberkane, celui qui se présente comme un génie mais qui n’en est pas un, aurait alors produit un livre de vulgarisation sur le cerveau (ou en tout cas sur un sujet précis) comme il y en a mille autres. Comme ses qualifications sont bidon, je pense que les éditeurs auraient rechigné à publier le livre, préférant sans doute que quelqu’un de plus réputé dans son domaine se charge de le signer. Certes, certains de ces livres se vendent heureusement très bien, mais ce n’est généralement pas avec de la bonne vulgarisation qu’on devient célèbre.
Qu’aurait écrit de bon, à présent, un Aberkane honnête qui ne se ferait pas passer pour un génie ? L’exercice de pensée est certes difficile, mais j’imagine qu’il aurait produit quelque chose comme un manifeste personnel bien structuré et argumenté. On serait alors dans le registre, non pas de la vulgarisation scientifique, mais du témoignage personnel voire de l’autobiographie, ou du pamphlet s’il décidait d’aller sérieusement au bout de sa critique de la société, de la science et de la politique, ou encore, éventuellement, du traité spirituel ou du manuel de coaching s’il préférait mettre l’accent avec au moins un peu de rigueur sur sa conception de la « neurosagesse ». Je pense que ce type d’ouvrage passe largement inaperçu, mais il existe sans doute un public restreint pour ce genre de choses. Quoi qu’il en soit, je vois mal comment la vie et les opinions d’un cancre pourraient remporter le même succès que Libérez votre cerveau !
Enfin, envisageons un Aberkane véritablement génial, qui travaillerait très dur pour expliquer en quoi il est génial dans un livre destiné au grand public. On aurait alors certainement un très bon livre, susceptible d’intéresser tous ceux qui sont concernés par la discipline dans laquelle excellerait cet Aberkane, ou qui voudraient en savoir plus sur les découvertes et le parcours d’une personne véritablement brillante. Ce genre de livre peut heureusement remporter un grand succès, quoique pas toujours. En tous les cas, ils sont susceptibles de tenir sur la durée, et de servir de document incontournable pour de nombreux futurs étudiants et chercheurs. Ce serait, en somme, un classique. Le problème, évidemment, c’est que les véritables génies qui savent très bien écrire ne courent pas tellement les rues…
On le voit, le cas de figure représenté par le vrai Aberkane et son vrai livre est en fait le moyen le plus simple et le plus économique pour obtenir une visibilité médiatique et un succès de vente. Cela peut paraître insensé, mais dans les conditions économiques et culturelles actuelles, j’ai donc bien peur que le cas Aberkane ne soit que le prélude à un déluge d’impostures et d’essais médiocres du même genre que le sien. Les exemples de « réussite », désormais, risquent bien de s’incarner dans des petits malins qui ont réussi à sortir leur épingle du jeu à très peu de frais, simplement en endossant l’apparence d’individus auxquels ils vont progressivement se substituer : c’est-à-dire ceux qui tiennent leur renommée de leur travail, et pas uniquement l’inverse.
Anderson, M. (2014). After phrenology: neural reuse and the interactive brain, Cambridge, MIT Press.
Barberousse, A. & Huneman, P. (2016). Un « philosophe français » label rouge : relecture tripodienne d’Alain Badiou, Carnets Zilsel, avril, http://zilsel.hypotheses.org/2548
Blancke, S., Boudry, M., Pigliucci, M. (2017). Why do irrational beliefs mimic science? The cultural evolution of pseudoscience, Theoria, 83, 78-97.
Bouveresse, J. (1999). Prodiges et vertiges de l’analogie : de l’abus des belles-lettres dans la pensée, Paris, Raisons d’Agir.
Bowers, J. (2016). The practical and principled problems with educational neuroscience, Psychological Review, 123, 600-612.
Changizi, M. (2011). Harnessed: how language and music mimicked nature and transformed ape to man, Dallas, BenBella.
Collins, A. (2014). Advice for improving memory : exercising, strengthening, and cultivating natural memory, 1860-1910, Journal of the History of the Behavioral Sciences, 50, 37-57.
Dehaene, S. & Cohen, L. (2007). Cultural recycling of cortical maps, Neuron, 56, 384-398.
Derksen, A. (2001). The seven strategies of the sophisticated pseudo-scientist : a look into Freud’s rhetorical tool box, Journal for General Philosophy of Science, 32, 329-350.
Dieguez, S., Mercier M., Newby N., Blanke O. (2009). Feeling numbness for someone else’s finger, Current Biology, 19(24): R1108-R1109.
Dieguez, S. (2014). La narration imagée de l’homme-machine, Histoires Littéraires, 59-60, 15-40.
Dieguez, S. (2018). Total Bullshit! Au cœur de la post-vérité, Paris, PUF.
Frankfurt, H. (2005). On bullshit, Princeton, Princeton University Press. Traduction française par Didier Sénécal : L’Art de dire des conneries, Paris, Mazarine.
Gambetta, D. (1998). « Claro ! » An essay on discursive machismo, in J. Elster (éd.) Deliberative Democracy, Cambridge, Cambridge University Press, pp. 19-43.
Harrison, P. & Wolyniak, J. (2015). The history of « transhumanism », Notes and Queries, 62, 465-467.
Jacob, J. (2011). Edgar Morin : la fabrique d’une pensée et ses réseaux influents, Villeurbanne, Golias.
Keehner, M. & Fischer, M. (2011). Naive realism in public perceptions of neuroimages, Nature Reviews Neuroscience, 12, 118.
Keyes, R. (2004). The Post-truth era: dishonesty and deception in contemporary life, New York, St. Martin’s Press.
Legrenzi, P. & Ulmità, C. (2011). Neuromania: on the limits of brain science, Oxford, Oxford University Press.
Menary, R. (éd.) (2010), The Extended mind, Cambridge, MIT Press.
Miller, L. & Fishkin, S. (1997). On the dynamics of human bonding and reproductive success: Seeking “windows” on the “adapted-for” human-environmental interface, in J. Simpson & D. Kenrick (éds.), Evolutionary social psychology, Mahwah, Erlbaum, pp. 197-235.
Morozov, E. (2014). To save everything, click here: the folly of Technological Solutionism, New York, PublicAffairs.
Muzur, A. & Rinčić, I. (2013). Neurocriticism: a contribution to the study of the etiology, phenomenology, and ethics of the use and abuse of the prefix neuro-, JAHR (European Journal of Bioethics), 4, 545-555.
Nickerson, R. (1985). Understanding understanding, American Journal of Education, 93, 201-239.
Oreskes, N. (2017). Systematicity is necessary but not sufficient : on the problem of facsimile science, Synthese.
Pasquinelli, E. (2012). Neuromyths: why do they exist and persist?, Mind, Brain, and Education, 6, 89-96.
Pedersen, W., Miller, L., Putcha-Bhagavatula A.D., Yang, Y. (2002). Evolved sex differences in the number of partners desired? The long and the short of it. Psychological Science, 13, 157-161.
Satel, S. & Lilienfeld, S. (2013). Brainwashed: the seductive appeal of mindless neuroscience, New York, Basic Books.
Sharrer, L., Rupierer, Y., Stadtler, M., Bromme, R. (2017). When science becomes too easy: Science popularization inclines laypeople to underrate their dependence on experts, Public Understanding of Science, 26, 1003-1018.
Shibata, K., Watanabe, T., Sasaki, Y. & Kawato, M. (2011). Perceptual learning incepted by decoded fMRI neurofeedback without stimulus presentation, Science, 334, 1413-1415.
Sperber, D. (2009). L’effet gourou, L’autre côté, 1, 17-23 (traduction de Nicolas Pain) ; version anglaise : (2010). The guru effect, Review of Philosophy and Psychology, 1, 583-592.
Sperber, D. & Hirschfeld, L. (2004). The cognitive foundations of cultural stability and diversity, Trends in Cognitive Sciences, 8, 40-46.
Trout, J. (2008). Seduction without cause: uncovering explanatory neurophilia, Trends in Cognitive Sciences, 12, 281-282.
Walsh, R. (2015). What is wisdom ? Cross-cultural and cross-disciplinary syntheses, Review of General Psychology, 19, 278-293.
[1] Je cite à partir de : http://inscide.fr/affaire-aberkane/
[2] Voir en particulier les excellentes analyses disponibles sur le site menace-theoriste.fr, ainsi que inscide.fr/affaire-aberkane/ et hemisphere-gauche.blogs.liberation.fr/2016/10/27/la-science-et-les-medias-ce-que-revele-le-succes-litigieux-didriss-aberkane/.
[5] Ralph Keyes signale de manière intéressante que Stanford compte parmi les universités les plus populaires sur les CV bidon (Keyes, 2004, p. 65).
[6] Il faudra que quelqu’un se penche un jour sur cette « thèse » en particulier, disponible ici : https://tel.archives-ouvertes.fr/tel-01151138/document. J’ai tenté de m’y mettre, mais après quelques pages j’avoue que cette tâche est au-dessus de mes forces.
[7] Il est possible qu’Aberkane ait simplement mal compris la signification du concours « ma thèse en 180 secondes » : il ne s’agit malheureusement pas du temps limite pour la réaliser.
[8] Lors d’un débat radiophonique en 1965, Malcolm X parvint à excéder un contradicteur en l’appelant, avec la plus grande obséquiosité, « docteur » tout le long de la discussion, jusqu’à ce qu’évidemment celui soit contraint d’admettre qu’il ne dispose pas de ce titre :
« – J’aimerais vous faire remarquer, Docteur Hall (…)
– Malcolm, vous savez fort bien que je ne suis pas docteur.
– Ah bon ! A vous entendre, on croirait que vous êtes expert en quelque chose et je vous ai pris pour un docteur. » (Confrontation avec un « expert », In Le Pouvoir noir, Paris, La Découverte, 2002 p. 219, traduit de l’américain par Guillaume Carle). On peut se demander si aujourd’hui, en France, cette excellente astuce aurait la moindre chance de produire l’effet escompté. Ça n’a en tout cas jamais dérangé quelqu’un comme Boris Cyrulnik, depuis de nombreuses années, de se laisser attribuer quantité de titres et de fonctions largement imaginaires (cf : http://allodoxia.blog.lemonde.fr/2013/06/27/boris-cyrulnik-stop-ou-encore-partie2/).
[9]Libérez votre cerveau ! Traité de neurosagesse pour changer l’école et la société, Paris, Robert Laffont, 2016. Toutes les citations et paginations qui vont suivre renvoient à cet ouvrage. Il existe désormais une version poche et une deuxième édition en grand format : j’ai rapidement feuilleté ces éditions dans une librairie et il me semble qu’aucun changement majeur n’y a été apporté. La pagination de la version poche est bien sûr altérée, mais celle de la réimpression en grand format semble conservée. On y trouve simplement, en plus de la préface inutile et paresseuse de Serge Tisseron pour la première édition, une nouvelle introduction assez bizarre d’Yves Burnod, qui vient à la rescousse de son génial protégé (il est le rapporteur d’une de ses thèses) en expliquant que Libérez votre cerveau ! est, si j’ai bien compris, une sorte de « voyage ». Quelques petites broutilles semblent avoir été corrigées (ou plutôt supprimées) à droite et à gauche, mais dans l’ensemble, d’après ce que j’ai pu voir, ces nouvelles éditions ne changent rien à mon propos.
[10] Toutes ces notions sont élaborées assez longuement dans mon Total Bullshit ! (PUF, 2018), y compris les concepts d’« indifférence à l’égard de la connaissance » et de « question sous discussion » qui sont brièvement mentionnées plus loin. De même, l’effet gourou de Dan Sperber (2009) y fait l’objet d’un long exposé (pp. 146-165). La seule nouveauté théorique qu’on trouvera ici – et à vrai dire c’est la raison principale qui m’a motivé à publier ce texte -, c’est le concept d’ « effet gourou inverse », qui justifie à mon avis à lui tout seul le temps consacré à un sujet aussi dérisoire que le cas Aberkane.
[12] De fait, il a fallu dans cette étude de 5 à 10 jours d’un entraînement aussi étrange que fastidieux pour obtenir une amélioration d’à peine 6% de discrimination signal/bruit, qui plus est réservée exclusivement à une orientation de lignes particulière. C’est peut-être un début encourageant, mais il reviendrait à Aberkane de nous expliquer exactement du début de quoi il s’agirait.
[13] En page 77, Aberkane va jusqu’à ressortir la fable que nous n’utiliserions que « 10% » de notre cerveau, ne se rendant apparemment jamais compte que son livre rejoint une longue tradition de charlatans de l’esprit prétendant dévoiler nos pouvoirs insoupçonnés (Collins, 2014).
[14] Aberkane est friand de ce tic rhétorique du renversement pseudo-éclairant : « Le cerveau fonctionne ainsi, les ordinateurs, non » (p. 89) ; « Ce n’est donc pas à la ville de prendre sur mes nerfs, ce sont à mes nerfs de prendre sur la ville » (p. 166) ; « mettre l’éducation au service de la liberté et pas l’inverse » (p. 229) ; « La liberté est mère de toutes les productions humaines, dont la sécurité, l’inverse n’est pas vrai » (p. 36) ; « nous ne sommes pas là pour nous conformer à une empreinte, mais pour laisser la nôtre » (p. 40) ; « je rêve d’un monde où l’armée se battrait pour adapter les ingénieuses solutions de neuronique de la vie civile et non l’inverse ; où le génie civil serait le professeur systématique du génie militaire et non l’inverse » (p. 259) ; « Une certaine génération de chercheurs et de philosophes a voulu limiter la cognition au langage, alors que l’esprit contient le langage, mais le langage ne contient pas l’esprit » (p. 88) ; « c’est au pouvoir de s’incliner devant la sagesse, pas l’inverse » (p. 239) ; etc. De manière amusante, René Pommier a également détecté cette astuce rhétorique chez Roland Barthes : « Beaucoup de ses phrases, en effet, sont construites sur le modèle « Ce n’est pas… c’est » ou « C’est…, ce n’est pas », Roland Barthes se plaît notamment à énoncer ce qui semble être une évidence pour affirmer ensuite que ce n’est pas du tout ça, mais tout le contraire » (Pommier, 2017, p. 155), et de fournir, lui aussi, une série spectaculaire d’exemples dans une longue note (n. 26, pp. 185-186).
[15] Sur les prétentions et les contradictions de la « neuropédagogie », voir Bowers, 2016.
[16] De fait, si Aberkane souhaitait réellement instruire ses lecteurs sur le sujet, il lui aurait fallu au minimum faire le point sur le nombre considérable de théories, de travaux et de controverses en cours sur les notions de « réutilisation », d’« exploitation », d’« extension » ou de « recyclage » neuronal, qui montrent bien à quel point la « neuroergonomie » est loin d’être encore une discipline établie, et encore plus loin d’être utilisable. Voir Anderson, 2014 ; Changizi, 2011, Dehaene & Cohen, 2007 ; Sperber & Hirschfeld, 2004 ; Menary, 2010.
[17] A cet égard, Aberkane gratifie le lecteur de propos assez étranges que ne renierait pas le plus ringard et misogyne des coaches en séduction. On apprend ainsi qu’il « existe deux types de couples », celui qui obéit à la formule de « l’offre et de la demande », et celui « basé sur l’amour inconditionnel », qui serait, hélas, « rarissime ». Qu’à cela ne tienne, « les ressorts neuroergonomiques de l’attraction, de l’addiction et de la formation mécanique des couples demeurent (…) très intéressants pour qui veut améliorer son expérience romantique d’autrui ». Et qui ne le voudrait pas ? On peut donc se tourner vers l’expertise de ces grands neuroergonomes que sont les « pick-up artists ». Pour une « expérience romantique » optimale, donc, voici comment procéder : « on suscite une dépendance forte de la cible, en lui offrant, en quantités contrôlées, les émotions, mots et comportements qu’elle désire, souvent sans le savoir. Cette méthode [que d’autres appelleraient simplement le bullshit] ne peut fonctionner que si la cible ne se connaît pas elle-même – ce qui est la règle plutôt que l’exception ». Quelles bécasses, ces « cibles » ! (pp. 167-168).
[19] Le modèle « Love Can Do » d’Aberkane est en réalité plus instructif qu’il n’y paraît. A mon avis, il révèle en grande partie le problème avec la méthode Aberkane. Ayant décidé que les gens les plus passionnés sont les plus productifs, il semble croire qu’il lui suffit de se montrer passionné pour qu’on en infère son talent. Or, d’une part, les gens passionnés par quelque chose mais qui sont néanmoins totalement ineptes sont légion, et d’autre part, dans tous les domaines, il faut à un moment ou un autre apprendre des choses et réaliser des tâches franchement barbantes pour parvenir à maîtriser son sujet. En science en particulier, et malheureusement, tout n’est pas « fun and games ». Peut-être bien que la passion et « l’amour » permettent parfois d’accomplir de grandes choses, mais ce n’est certainement pas une condition suffisante, et je ne pense pas qu’elle soit nécessaire non plus. Mais chez Aberkane et ses admirateurs, je soupçonne que cette équation « amour=talent » leur permet de nourrir l’illusion qu’une personne passionnée est forcément douée, et que l’absence de talent s’explique uniquement par un manque d’« envie », que telle ou telle institution sociale ou scolaire n’aurait pas su transmettre. On se demande tout de même si, étant « invité » à Stanford, un chercheur n’utiliserait pas mieux son temps à accomplir véritablement de grandes choses, plutôt qu’à simplement dessiner un schéma illustrant comment l’amour permet d’accomplir de grandes choses.
[20] Ici encore, je ne peux m’empêcher de penser que si Aberkane trouve que l’écriture, en tant que système de communication, « n’est plus satisfaisante » (p. 60) – « les écritures neuronales seraient un médium bien plus riche, qui permettrait de transmettre directement expériences et émotions », dit-il sans en dire plus – c’est qu’il se figure être beaucoup trop génial pour devoir prendre la peine d’exprimer clairement et patiemment des idées via un système qui, il est vrai, demande tout de même un peu d’organisation et de rigueur. Ecrire est déjà une expérience assez pénible quand on sait ce qu’on voudrait écrire, mais pour celui qui n’a en fait rien à dire, j’imagine que la souffrance ressentie peut avantageusement s’expliquer en blâmant les insuffisance du système de communication lui-même, plutôt que sa propre incurie.
[21] Bouveresse, 1999 avait bien relevé cette tendance à l’analogie compulsive chez les charlatans et imposteurs intellectuels.
[22] Le concept est brièvement évoqué p. 187, puis repris de manière assez bizarre en p. 249 à propos de « trois cas d’école » : « la tuerie de Charlie Hebdo, les attentats du 13 novembre, à Paris, le crash du vol 9525 de la Germanwings. » Pour Aberkane, ces trois événements concernent « des jeunes qui, n’ayant pas pu donner de sens à leur vie, ont (…) essayé d’en trouver un à leur mort. » Mais Aberkane s’étonne que ce soit uniquement les cas des attentats de Paris qui aient contribué, selon lui, à « facilement renforcer le modèle du choc civilisationnel », « mythe » selon lequel il existerait des « civilisations intrinsèquement irréconciliables », avec un « écho (…) immense », et ce malgré le fait que le crash-suicide de Germanwings ait été « plus meurtrier (…) que les deux attentats idéologiques réunis » et qu’il est « basé sur les mêmes motivations (donner du sens à sa mort) ». Pourtant, comme « le biais de confirmation est un puissant ressort d’aveuglement cognitif », poursuit Aberkane, « on se souviendra mieux des attentats idéologiques que du crash, parce que le crash ne vient pas conforter un système de pensée sidérant ». On laissera au lecteur, à titre d’exercice, le soin d’évaluer la qualité de l’argumentation d’Aberkane sur ce point, et de décider si oui ou non c’est là le meilleur exemple possible de « biais de confirmation » qu’on pouvait fournir dans un livre de vulgarisation. Pour ma part, il est en tout cas certain que je ne monterai plus jamais dans un avion piloté par un membre de l’Etat Suicidaire qui souhaite explicitement la mort des passagers non-suicidaires, faussement suicidaires ou insuffisamment suicidaires, même si ce préjugé absurde devait faire de moi une victime de plus du biais de confirmation.
[23] Comme le faisait remarquer Sam Harris à Nassim Nicholas Taleb dans un tweet mémorable : « Je vous qualifierais bien d’« imposteur », mais je n’arrive pas à savoir ce que vous prétendez être » (31 décembre 2015). Soit dit en passant, on ne s’étonnera pas qu’Aberkane mentionne favorablement Taleb dans son livre à plusieurs reprises, de même que le très douteux « sage » Pierre Rahbi. Il se forme souvent, de manière assez intéressante, une forme de communauté d’esprit entre bullshitteurs.
[25] Cette conception de la connaissance s’opposerait à une approche analytique, selon laquelle la connaissance et le progrès de la connaissance concerne surtout des points particuliers à discuter et résoudre au cas par cas avec patience et méthode, et qui ne préjugerait en rien de ce que les individus savent en général à partir de ce qu’ils savent ou ignorent en particulier.
[26] Ici comme ailleurs, Aberkane aurait pu éclairer le lecteur sur ce qu’il entend par « sagesse » (neuro ou pas), mais ne le fait pas (voir Walsh, 2015).
[27] Sur ce point au moins, on le croit volontiers, bien que le mot « scrupule » aurait été plus approprié que « complexe ». On peut également se réjouir de la santé d’Aberkane, dont l’organisme est de toute évidence fortement immunisé contre le syndrome de l’imposteur, cette terrible affection qui remplit de complexes et de scrupules des gens pourtant réellement compétents.
[28] Pour être tout à fait précis, il faudrait dire que, plutôt que de « faire son intéressant », Aberkane « fait l’intérêt », « fait la passion » ou « fait la vulgarisation », selon l’étrange et terrifiante rhétorique des personnages de Soft Goulag – un roman dystopique injustement méconnu d’Yves Velan (Genève, Zoé, 2017/1977) -, qui, par exemple, « font l’humour » quand ils décident que le moment est bien choisi pour introduire « le rire », ou « [font] sentir la participation » lors d’une fête.
[29] A propos d’Edgar Morin, Jacob, 2011 a trouvé cette formule particulièrement heureuse : c’est quelqu’un qui aime à « se penser penseur » (p. 57).
[31] J’ajoute tout de même une équation qu’Aberkane semble avoir ajoutée au livre, et qui a donc échappé à Nicolas Gauvrit, lequel a travaillé, le pauvre, à partir d’un « article » antérieur auto-publié par Aberkane. Voici donc la bête : ji(k) a A(t) (Res (Sp, Ev)) (p. 115). Impressionnant, n’est-ce pas ? Pas de panique, il s’agit simplement, explique l’auteur, du phénomène suivant : « Le débit instantané de connaissance est proportionnel à l’attention multipliée par la résonance entre l’activité spontanée et évoquée du cerveau – Res (Sp, Ev) » (p. 115). Ce n’est probablement pas la formulation la plus heureuse, mais qu’importe, puisqu’Eureka !, nous savons désormais qu’il est particulièrement simple d’apprendre ce que nous savons déjà, en particulier quand nous y jetons un œil, mais que malheureusement nous n’apprendrons rien du tout si nous sommes mort, puisqu’il n’y aura alors plus d’activité spontanée du cerveau, et que celle-ci n’entrera donc plus en résonance avec l’activité évoquée, quel que soit le niveau d’attention par lequel on multiplie tout ce bazar. Il n’y a pas à dire, les neurosciences, quand c’est bien expliqué, c’est vraiment passionnant.
[32] J’ai consacré un temps et une attention déjà parfaitement déraisonnables à lire le livre d’Aberkane, je ne suis donc vraiment pas sûr que le relire une dizaine de fois de plus en y consacrant encore davantage de temps et d’attention me permettra de multiplier en proportion la somme des connaissances que j’y ai acquises. Ce n’est peut-être pas très scientifique, mais à ce stade je préfère vraiment laisser à d’autres le soin de mener cette expérience.
[33] Comme disait Derksen, 2001 à propos de Freud : « un pseudo-scientifique tentera de se comporter comme un vrai scientifique », et utilisera pour ce faire tout l’arsenal du « Pseudo-Scientifique Sophistiqué » ; voir également Blancke, Boudry & Pigliucci, 2017 ; Oreskes, 2017 ; ainsi que http://espritcritique.info/?p=172.
[35] Harrison & Wolyniak, 2015. Voir aussi Thomas Metzinger, « Silicon Valley is selling an ancient dream of immortality », 18 août 2017, ft.com.
[36] Si on y ajoute la secte symétrique des critiques auto-proclamés des dangers épouvantables que font peser les nouvelles technologies sur l’avenir de l’humanité, le niveau de bullshit dans ce domaine explose à mon avis tout ce qu’on avait pu voir dans n’importe quel autre secteur, et je vois mal comment on pourra un jour « innover » dans le bullshit pour dépasser cette apogée. Pour un exemple parmi cent autres, on pourra lire cette analyse d’un cas assez grave par Alexandre Moatti : Bernard Stiegler : lost in disruption ?, https://zilsel.hypotheses.org/2878.
[37] Et vous aussi, vous pouvez désormais défendre vos « neurodroits », comme vous y autorise, et même vous y encourage, Idriss Aberkane : « Je n’ai donc écrit ce livre que pour une raison : que n’importe qui, n’importe quand, puisse le citer, comme on cite une Constitution pour rappeler ses droits fondamentaux, pour affirmer solennellement : « Mon cerveau est sacré, mes nerfs sont sacrés, ce n’est pas à mes nerfs de servir ton système, c’est à ton système de servir mes nerfs. » (p. 218-219).
[45] Ces curieux guillemets à « petit génie », qu’on trouve sur le quatrième de couverture de Libérez votre cerveau !, auraient peut-être dû mettre la puce à l’oreille à quelques lecteurs et journalistes.
NDLR : Nous nous sommes déjà penchés sur le cas particulier d’Idriss Aberkane pour montrer à travers lui un certain nombre de dérives médiatiques et éditoriales en lien avec la culture scientifique du public (ou son absence). À ce travail, on a reproché de ne pas s’intéresser au fond, au contenu du travail présenté par ce monsieur. L’auteur du billet ci-dessous nous a contacté pour nous proposer sa longue et laborieuse analyse, exemple vivant du principe d’asymétrie de Brandolini. Vous pourrez constater qu’il faut du temps, de l’énergie et beaucoup de détermination pour douter suffisamment des propos d’Idriss Aberkane, et pour les vérifier ; tout cela pour constater à quel point le contenu est au diapason du pedigree en toc que nous avons œuvré à révéler.
À la vérité, Idriss Aberkane n’aurait jamais dû pouvoir faire illusion, et il ne faut pas voir dans notre travail un acharnement, mais une étude de cas qui a la prétention d’être utile pour que d’autres cas du même genre soient reconnus comme tel beaucoup plus rapidement, afin que la vraie parole scientifique retrouve dans les médias la place qu’elle mérite.
Acermendax.
Dr Aberkane en conférence au CERA :
« Moi, rentrant de Stanford avec ma théorie « l’économie de la connaissance maximise le pouvoir d’achat des amoureux », vous me croirez ou pas, à l’école Centrale, ça leur parlait pas des masses. Alors je me suis dit : on est France, je vais faire un diagramme cartésien ; ça va leur parler ça. […] J’ai appelé ça Love Can Do : sur l’axe des x, vous allez mettre « est-ce que vous savez faire le métier ? Can Do » ; […] et ça c’est l’axe du « est-ce que j’aime ça ? Love » ; et ça vous le mettez sur l’axe des y, parce que « y », en anglais, ça se dit « why », « pourquoi ? ». Donc « Comment je travaille ? » et « Pourquoi je travaille ? ». […]
Moi, si je me faisais chier à donner ces conférences, j’aurais arrêté depuis longtemps ! Quand on aime faire ce qu’on fait, en général, on prête plus d’attention aux détails ; et comme disait Léonard : « C’est l’attention aux détails qui fait l’excellence, et l’excellence, c’est pas un détail. »
Pour prêter l’attention aux détails, il faut aimer ça. »
Voici en quels termes s’exprimera Idriss Aberkane à environ un quart d’heure de conclure sa conférence de presque trois heures donnée à Bressuire pour le CERA (Centre d’Échanges et de Réflexion pour l’Avenir) le 21 mars 2018, mise en ligne sur Youtube le 24 mai 2018, et intitulée Comment muscler et libérer votre cerveau ?
À l’écran, il est présenté comme « chercheur en neurosciences » ; dans la description de la vidéo, comme « génie précoce titulaire de trois doctorats à 29 ans » ; sur son compte Twitter, comme « Hyperdoctor Biomimicry Polymath Neurogeek ». Nous attendons logiquement de lui une rigueur scientifique exemplaire (pour un chercheur revendiquant trois doctorats, c’est la moindre des choses), les preuves d’une production intellectuelle de haute valeur (comme avec tout génie) et une maîtrise incontestable des savoirs issus des multiples disciplines qu’il croise (c’est que « polymathe » est d’ordinaire réservé aux éminences universelles du genre d’Aristote, de Vinci, Leibniz, Goethe, etc.)
L’absence d’articles de recherche nous contraignant à reporter notre attention sur ses seules œuvres disponibles — son livre (un article est prévu) et ses conférences —, c’est donc à travers un long fact-checking commenté de la présente conférence (travail assurément fastidieux, mais seul moyen d’évaluer la qualité du travail de M.Aberkane) que nous allons rendre compte de l’ineffable attention aux détails dont notre chercheur fait montre.
Que la longueur et la densité de l’intervention nous aient fait renoncer à l’exhaustivité, pour nous incliner à ne traiter que les passages les plus éloquents (déjà nombreux), n’a pas rendu notre regard moins vétilleux là où il dut s’appesantir, sans doute par humble attachement à l’un des plus clairvoyants préceptes de Léonard : « Les détails font la perfection, et la perfection n’est pas un détail. » (Source).
Bien sûr, pensez à vous référer à la vidéo originale pour vérifier que cette critique est honnête.
Saint-Augustin (02:38)
« Lui, là, c’est Saint-Augustin. Saint-Augustin était kabyle, comme tous les génies [sic!]. Et là en fait, il en a plus rien à foutre, il télécharge directement la vérité dans sa tête. Là, vous le voyez, il est en train de procéder à un téléchargement de vérité directement dans sa tête. Et, en fait, cette toile, elle est super subversive — pour autant qu’une toile du temps de Louis XV pouvait être subversive. En fait, il est en train de piétiner les bouquins, c’est pas pour rire ! C’est-à-dire que là, il en a plus rien à foutre : il télécharge la vérité direct dans sa tête ! Et qu’est-ce qu’il utilise pour télécharger la vérité dans sa tête ? Son cœur. Il utilise son cœur, parce qu’on savait, déjà à l’époque, que quand on aime quelque chose, on l’apprend plus facilement… »
La toile ne date pas du règne de Louis XV (1715-1774) : elle est de Philippe de Champaigne (1602-1674 ; peintre tellement subversif qu’il eut pour mécènes Marie de Médicis et le Cardinal de Richelieu), et ne fait qu’illustrer la doctrine de Saint-Augustin sur la Grâce, à savoir que cette dernière relèverait de la prédestination, de l’élection divine — chacun serait élu ou damné dès l’origine. Le cœur enflammé est le symbole de sa foi ; symbole que l’iconographie catholique attribue à ce saint.
«… En fait, on sait ça depuis très longtemps, on le sait depuis l’antiquité. […] Pour télécharger directement la connaissance dans son cerveau, il va utiliser sa passion pour la vérité [sic!]. C’est de là que vient le mot « aimant » en fait. Du temps d’Aristote, on pensait vraiment qu’un aimant, le magnétisme, était une sorte de sympathie, une sorte d’amour qui se passait entre les deux objets, et donc c’est pour ça qu’aujourd’hui en langue française on appelle ça “un aimant”. »
La forme adjectivale ou participiale aimant (du verbe « aimer ») et le substantif aimant ont des racines différentes. Ce dernier partage la même étymologie que diamant, un dérivé du latin populaire adimas, -mantis, forme dissimulée du latin classique adamas, -mantis, au sens, soit de « fer très dur », ou de « pierre précieuse ». Pierre d’aimant et diamant étaient caractérisés par leur dureté.
Aimer et Amour ont pour étymologie le latin amare.
C’est Onomacrite (chresmologue grec du VIe s. av. J.-C.) qui, à travers ses poèmes, nous fournit le plus ancien nom de l’aimant : μαγνήτης (magnitis). Cette dénomination provient manifestement du lieu où a été découvert l’aimant, c’est-à-dire en Asie mineure, où deux villes portaient le nom de Magnésie.
« Je vais être sincère : je n’ai pas de message plus important que celui qui va s’afficher dans cette petite bulle. […] Ce message, c’est que toute révolution dans l’histoire de l’humanité, qu’elle soit philosophique, morale, politique, technique, religieuse, légale, c’que vous voulez ; dans tous les domaines, si c’est une révolution, ça passe toujours, systématiquement, inévitablement, par trois étapes, toujours : d’abord c’est considéré comme ridicule, ensuite c’est considéré comme dangereux, et enfin c’est considéré comme évident. »
C’est là galvauder le sens et exagérer la portée d’un aphorisme de Schopenhauer pour se l’approprier à peu de frais. À la seconde étape du processus, le philosophe parle de rencontrer une forte opposition, non une accusation de dangerosité — la seconde n’étant qu’un cas particulier de la première. Pour lui, c’est le chemin que suivrait toute vérité — et toute vérité n’est pas forcément une idée révolutionnaire ; surtout que le degré de subversion d’une telle idée est très variable selon le champ dans lequel elle s’applique.
Schopenhauer ou pas, l’infinité de syllogismes inopérants que permet d’élaborer la formule en révèle rapidement les limites. Ici, le détournement et la récupération de ce « triptyque dialectique » ont moins pour fonction d’apprendre au public à identifier le schème d’un changement de paradigme que de prémunir notre conférencier contre la déconstruction de ses propres idées. Manœuvre prophylactique qui, le cas échéant, exempte du devoir d’argumenter, la « loi » étant elle-même auto-immune.
Observer avec quelle vitesse et quelle autorité s’imposèrent des théories scientifiques parmi les plus authentiquement révolutionnaires, comme celles de la sélection naturelle de Darwin et de la Relativité d’Einstein (malgré les critiques qu’elles essuient aujourd’hui encore), doit suffire à convaincre que cette « loi » n’a pas la vigueur d’une évidence.
Q.I. et Intelligence Artificielle (25:00)
« Un des premiers rôles du Q.I. dans l’histoire, c’était de vérifier quand quelqu’un avait eu un trauma, s’il avait eu des pertes cognitives ou pas. »
Il n’existe pas de test de Q.I. pour adulte avant celui de Weschler, datant de 1939. Le premier test psychométrique utilisable servant à mesurer l’intelligence fut élaboré par les français Alfred Binet et Théodore Simon en 1905, sur demande du gouvernement. Il avait pour fonction de détecter un éventuel retard mental chez les élèves et de prédire la réussite scolaire, non celle de mesurer les pertes cognitives suite à un AVC ou quelconque trauma. Ce test deviendra ensuite le quotient intellectuel avec William Stern en 1912.
Si le Q.I. ne peut prétendre à résumer l’intégralité de l’intelligence humaine, il existe chez les professionnels de la psychologie et des sciences cognitives un quasi consensus pour dire que celui-ci mesure plutôt bien ce qu’ils nomment « intelligence générale » (facteur g), ou « puissance mentale » — non parce qu’ils l’affirment arbitrairement, mais parce que les données recueillies depuis plus d’un siècle d’étude convergent et confirment la validité du Q.I.
« Mais à partir du moment où une intelligence artificielle arrive à passer des tests de Q.I., bah ! on a deux solutions. Soit on se dit : ”ça y est, on est cuit, on est foutu, parce que maintenant le robot est aussi intelligent que nous” ; soit on se dit : “le Q.I. est au cerveau ce que l’ombre est à la main”. »
Aux dernières nouvelles, l’intelligence artificielle de Google — la plus performante — obtient 47 à un test de Q.I., ce qui est moins bien qu’un enfant de 6 ans (55). Microsoft Bing obtient 32 ; Siri d’Apple, 24 ; un adulte moyen, 100 ; un HPI (Haut Potentiel Intellectuel), plus de 130 ; un THPI (Très Haut Potentiel Intellectuel), plus de 145-150.
L’énoncé nous laisse pourtant croire que l’I.A. affiche désormais un Q.I., sinon supérieur, au moins égal à celui d’un humain moyen. Gardons bien cette suggestion fautive en mémoire : en un point-clé de la conférence, elle servira de base implicite à une pseudo démonstration d’envergure.
Dealers d’attention (39:25)
« De l’attention et du temps. […] L’attention, ça se paie, ça vaut de l’argent ; ça vaut même beaucoup d’argent. Les gens qui vendent de l’attention aujourd’hui sont des gens ultra riches. Ils s’appellent Google, Facebook, Twitter, Youtube — qui appartient à Google. Les gens qui sont des dealers d’attention aujourd’hui, sont des gens pleins aux as. »
Comme Idriss Aberkane, ici ou ailleurs, fait souvent état de sa fascination pour la réussite financière de grandes multinationales, telles les GAFA et autres firmes majeures de la Silicon Valley, presque toujours présentées comme pourvoyeuses de modèles inspirants, initions-nous au Persuasive Design, ou comment ces dealers d’attention utilisent les connaissances en psychologie pour maximiser la dépendance des utilisateurs envers leurs produits — enfants et adolescents, plus vulnérables encore que les adultes, étant leurs cibles privilégiées.
« Par exemple, dans l’économie de la connaissance (vous savez que c’est mon grand dada), eh bien ! en quoi aimer ce qu’on fait nous rend plus performant ? Là, on est train de réaliser un transfert de connaissances. Là je vous donne de la connaissance [sic!], et vous êtes en train de me donner quoi en échange ? […] Il est impossible de télécharger une connaissance dans sa tête sans avoir payé de l’attention et du temps, c’est pas possible. […] Ça, c’est les deux choses qui sont sinequanone pour installer un savoir dans votre tête. Alors ça donne cette petite équation tout mignonne. »
φ(k) = At
Nicolas Gauvrit, agrégé de mathématiques et docteur en sciences cognitives (notre conférencier n’est ni l’un ni l’autre), a analysé l’un des rares articles « scientifiques » publié sur HAL par Idriss Aberkane lui-même, où la mignonne équation apparaît : aucun terme n’est clairement défini, les incohérences abondent et l’une des démonstrations est mathématiquement fausse, puisqu’elle déroge au théorème de Cantor. Le titre sentencieux de cette critique sans concession, Le baratin à la française, est amplement justifié.
Après quelques circonvolutions, Idriss Aberkane nous dévoilera la signification quintessentielle de son équation :
« J’utilise mon cœur[…], ma passion, pour faire rentrer la connaissance dans ma tête »
Trêve Olympique (54:00)
« Thèbes venait, Sparte venait, Athènes venait. C’était trois villes qui passaient leur temps à se mettre sur la gueule le reste de l’année, mais y avait la trêve olympique : ils regardaient les jeux et ils ne se battaient pas. »
Sur Wikipédia : « Cette trêve est sans doute de durée variable selon la localisation des jeux. Elle pouvait probablement varier d’un à quatre mois, mais nous sommes très mal documentés sur ce point (3) ; pour les Jeux olympiques, elle est instituée pendant le mois qui précède les Jeux (4). Pendant cette trêve, la cité accueillant les jeux ne peut pas être attaquée. De même, spectateurs, sportifs et officiels en déplacement ou de retour de jeux, ne peuvent être inquiétés lorsqu’ils traversent des zones en guerre. En effet, contrairement à une légende tenace, la trêve antique n’implique absolument pas l’arrêt de toutes les guerres ; ce n’est qu’un « cessez-le-feu partiel »(5). Cette trêve était purement utilitaire. Sans elle, les jeux n’auraient pas pu se tenir en raison des incessants déplacements des sportifs, d’agônes en agônes. »
La note n°5 renvoie à l’ouvrage de Decker et Thuillier Le sport dans l’antiquité – Égypte, Grèce, Rome.
Wolfgang Decker est un historien allemand spécialiste de l’histoire de l’activité physique antique en Égypte et en Grèce. Il est professeur à l’Institut d’histoire du sport de l’École supérieure du sport de Cologne et cofondateur de la revue du sport antique Nikephoros en 1988.
« Vous savez qu’en Chine il y a une université qui forme des joueurs professionnels ? Ça s’appelle le Lanxiang Institute of Technology, c’est une université… d’État ! Et cette université d’état forme des joueurs professionnels. C’est ce qu’on appelle le sport électronique, le e-sport… »
Lanxiang Institute of Technology n’est pas sans rappeler le prestigieux Massachusetts Institute of Technology (MIT), sauf que l’on ne trouve aucune page officielle et presque aucune trace du « LIT » (dix résultats seulement après une recherche Google ciblée ; des liens datant de plusieurs années ; une page Facebook non-officielle vide de tout contenu), et que ces cours de gaming sont en fait dispensés par la Lanxiang Technical School, un lycée technique situé à Jinan, ville de l’Est de la Chine. Quant aux diplômes délivrés par certaines universités (notamment en Russie, en Finlande ou en Angleterre), ils valident surtout des formations au commerce et à la promotion de l’e-sport.
Secrétariat d’état à l’e-sport en Corée du Sud (55:54)
« … En Corée [du sud], ils ont un secrétariat d’état les mecs, un secrétariat d’état à l’e-sport !… »
Nulle composition officielle du gouvernement Sud-Coréen ni aucun article ne mentionne une telle instance d’ordre étatique. Il existe en revanche la KeSPA (Korean eSports Association), d’ailleurs en proie à des affaires de corruption.
« … Y a des compétitions et des Olympiades. À votre avis, combien gagnent les gagnants des Olympiades d’e-sport, typiquement sur un jeu qui s’appelle Starcraft 2, ou sur Dota 2 ? C’est des prix de combien ça ? Genre on peut en vivre ou pas ?… Alors on peut carrément en vivre ! En fait, on peut même s’acheter plusieurs villas vue mer à Biscarosse. C’est six millions. En 2014, les gagnants de compétitions de Starcraft 2 ou Dota 2 prenaient six millions de dollars… »
Un champion du monde de Starcraft 2 remporte cent mille, non six millions de dollars — ce qui est vrai pour Dota 2, qui se joue en équipes de cinq ; les gains remportés à ce jeu ont même doublé en quatre ans.
Pour mieux appréhender la réalité du pro-gaming en Corée et de l’e-sport en général, référons-nous à deux articles de la presse internet spécialisée. Dans le premier, la réalité des conditions de vie des joueurs pro d’e-sport en Corée, publié par le site Hitek en septembre 2016, nous apprenons ceci :
— La plupart des pro-gamers coréens ont entre 15 et 17 ans ;
— Ils n’ont pas de vrais contrats de travail (le problème du travail des enfants se pose) ;
— En Pro-League, ils touchent en moyenne 6 735€ par an (630€ par mois équivalent à 44h au SMIC Coréen ; les pro-gamers font 60h par semaine, dont plus de la moitié la nuit ou le week-end), et seules quelques stars gagnent dans les 140 000€ par an ;
— Ils vivent dans des Gaming House 24h/24 ;
— Beaucoup souffrent de blessures chroniques à la fin de leur (très courte) carrière (le plus souvent d’un syndrome du canal carpien, contre lequel Idriss Aberkane nous mit en garde en dénonçant le manque d’ergonomie de nos traditionnelles tables d’écolier) ;
— Plusieurs scandales de paris illégaux et de matchs truqués ont déjà défrayé la chronique ;
— Nombre de jeunes e-dépendants vont en centre de réhabilitation, et le gouvernement a même dû instaurer un couvre-feu numérique pour limiter la casse (Loi Cendrillon) — bien sûr, les PC Bang et l’industrie du jeu ont râlé, à cause des pertes de profit.
Dans le second, le dur métier de pro-gamer, publié par le site Je suis un gamer en avril 2016, cela :
— Si les pro-gamers sont adulés comme des stars, ils sont loin de toucher autant qu’un Lionel Messi ou un Roger Federer. Leur salaire équivaut à ce que gagne plus ou moins un Youtubeur de moyenne catégorie ;
— Riot Games, l’un des plus gros éditeurs dans le secteur de l’e-sport verse en moyenne 2000 dollars à ses meilleurs joueurs professionnels. Les joueurs européens spécialistes de League of Legends touchent des salaires à peu près identiques ; en Chine, environ 10 000 euros, parce qu’ils sont sous la tutelle d’un riche milliardaire. C’est par le biais du sponsoring et l’animation de leur chaîne Youtube que, notamment, certains joueurs de Call of Duty parviennent à dégager quelques 20 000 euros. Seules quelques très rares stars sont millionnaires et à l’abri du besoin ;
— Leur vie est faite d’ascèse, et leur quotidien très surveillé ne laisse aucune place à l’intimité : les équipes sont souvent regroupées au sein de grands appartements dans lesquels ils s’entraînent jour et nuit sous le regard de leur coach attitré. Les joueurs se réveillent, se couchent, mangent et jouent ensemble ;
— Bora, un ancien joueur de Fnatic (une team française) s’était confié au magazine L’Équipe : « On s’est entraîné plusieurs fois par obligation, parce qu’il faut qu’on le fasse, mais pas parce qu’on aime ça ». Il avouait aussi volontiers que la pratique du jeu est quelque peu malsaine ;
— Il n’y a pas de vraies procédures de recrutement. Pour être repéré, le mieux est de figurer au classement mensuel de son jeu de prédilection ; ce qui implique passer un nombre d’heures faramineux à jouer en ligne ;
— Si les cas de syndrome du canal carpien sont confirmés être récurrents dans le milieu, les yeux sont mis eux aussi à rude épreuve. Les joueurs ont développé des réflexes visuels semblables à ceux d’un pilote de chasse, mais leur cornée s’abîme prématurément : de nombreux pro-gamers portent des lunettes ;
— Le statut juridique des joueurs demeure flou, mais des lois devraient clarifier tout ça pour permettre au business de l’e-sport de se développer.
« …Et derrière, il y avait Google, Facebook, Apple, Tesla, qui leur offraient des salaires de footballeurs pour entraîner leur intelligence artificielle. Et c’est ça le sujet en fait… »
L’information selon laquelle Google et Tesla verseraient des salaires de footballeurs à des gamers professionnels pour qu’ils entraînent leurs I.A. est invérifiable — donc suspecte. Surtout quand deux articles du site IGN France, spécialisé dans l’actualité du jeu vidéo et de la high-tech, donnent une version assez différente de la manière dont ces deux firmes entraînent leurs I.A. respectives.
Deepmind : L’I.A. de Google s’entraîne désormais à Starcraft 2 – un RTS [Real-Time Strategy game] au service de la recherche (10/08/17) :
« Deepmind, la société de Google spécialisée dans la recherche en intelligence artificielle et ses bienfaits, vient d’annoncer un partenariat avec Blizzard Entertainment en vue d’entraîner son I.A. sur Starcraft 2. […]
En plus d’une API de Machine Learning à laquelle les chercheurs et développeurs peuvent accéder dans le jeu, Blizzard met à disposition une base de données riche de replays anonymes réalisés sur le célèbre RTS. […]
En étudiant les replays de vrais gamers, l’IA de DeepMind, via un processus d’apprentissage par imitation, sera ainsi capable de compléter plus facilement toutes sortes de tâches. »
L’IA d’Elon Musk bat un joueur pro de Dota 2 – un bot de génie (14/08/17) :
« Tremblez joueurs professionnels, les robots pourraient bien un jour vous battre à n’importe quel jeu vidéo, et pas seulement au jeu de Go.
OpenAI, l’association de recherche en intelligence artificielle co-fondée par Elon Musk, vient notamment de créer un bot capable de terrasser les plus grands joueurs de DotA 2. C’est d’ailleurs ce qui est arrivé récemment au championnat The International 2017. […]
Le bot d’OpenAI, qui s’est entraîné seul au 1v1, a ainsi défait pour la première fois des joueurs pro faits de chair et d’os, comme Arteezy et Sumail de la team Evil Genius. Puis est arrivé le tant attendu face à face contre Dendi. Et contre toute attente, l’IA a remporté le match haut la main. »
À titre indicatif, le salaire annuel moyen d’un footballeur professionnel évoluant dans les premières divisions des grands championnats européens (anglais, espagnol, italien, allemand et français) est de 1 776 915 euros, soit presque 150 000 euros mensuels… en moyenne ! Le salaire annuel moyen dans le moins bien doté des clubs de Ligue 1 (qui est la moins bien dotée des cinq plus riches divisions européennes), c’est-à-dire à l’ESTAC Troyes, était tout de même de 340 000 euros pour la saison 2017/2018, soit un peu plus de 28 000 euros mensuels.
Travail du cerveau, consommation de glucose et intelligence (56:40)
« Revenons à la question du travail du cerveau. […] En physique, ça se mesure en quoi le travail ?… [il tend l’oreille] En joules ! Très bien ! Le travail est une énergie en physique. Eh bien ! pour le cerveau, c’est pareil… C’est une simplification, mais 95% de toutes les publications scientifiques en neurosciences cognitives, c’est la consommation comparée de glucose par le cerveau, c’est tout. […] Tomographie à émission de positrons [TEP], l’imagerie à résonance magnétique fonctionnelle [IRM], c’est aussi ce qu’on appelle la BOLD, Blood Oxygenation Level Dependance : c’est, en gros, quelle partie du cerveau est plus irriguée ; plus irriguée parce qu’elle a besoin de plus d’oxygène pour métaboliser plus de lactate.
Pour simplifier vraiment, le travail dans le cerveau, ça peut se mesurer en « combien ç’a cramé de carburant aujourd’hui ». À votre avis, dans laquelle des tâches suivantes votre cerveau travaille le plus, c’est-à-dire consomme le plus de glucose, de lactate précisément : Jouer aux Échecs ? Jouer au jeu de Go ? Faire un nœud de cravate ? Faire une mayonnaise ? Extraire la racine treizième d’un nombre à cent chiffres ? Résoudre des équations différentielles aux dérivées partielles stochastiques ? Ou jouer à Starcraft 2 ?
À votre avis, dans quelle situation votre cerveau va cramer le plus de glucose ? Alors, de très très loin Starcraft 2 ! C’est laquelle la moins consommatrice de glucose ? […] La réponse, c’est la racine treizième d’un nombre à cent chiffres. »
Analyser l’activité du cerveau face à des tâches cognitives en fonction de sa consommation de glucose observée par TEP peut nous renvoyer à des études comparatives qui établissent une corrélation négative entre la consommation de glucose et la réussite à des tests psychométriques standardisés (matrices progressives de Raven, WAIS) ; corrélation négative également observée lorsqu’il y a entraînement et apprentissage préalables. En résumé, il en ressort que les gens possédant un Q.I. élevé utilisent leur cerveau de manière plus optimale, c’est-à-dire qu’ils gaspillent moins d’énergie et mettent naturellement en veilleuse les zones du cerveau moins utiles à la réalisation d’une tâche cognitive ciblée. Voici comment des chercheurs ayant produit une étude de ce genre révisent la notion d’intelligence (du moins la partie de celle-ci que mesure les tests psychométriques standardisés) durant l’introduction où ils se réfèrent aux publications antérieures à la leur :
« Ces études ont été interprétées comme une preuve d’un modèle de l’intelligence selon l’efficacité du cerveau : l’intelligence n’est pas fonction d’avec quelle ardeur le cerveau travaille, mais plutôt d’avec quelle efficacité il travaille. Cette efficacité peut aussi bien découler de la désuétude de nombreuses zones cérébrales non pertinentes pour bien exécuter une tâche que d’une utilisation plus ciblée des zones cérébrales pertinentes pour exécuter cette tâche. »
Corréler (arbitrairement) le niveau difficulté d’une tâche pour le cerveau à sa plus ou moins grande consommation de glucose est peu pertinent ; frauduleux est d’en laisser inférer que plus une tâche augmente la consommation de glucose par le cerveau, plus elle requerrait d’intelligence pour la bien exécuter.
« Les serveurs de Google consommeront plus d’énergie pour effectuer la recherche d’une pizzeria à Bressuire, que pour résoudre une équation différentielle aux dérivées partielles stochastiques […], ou pour jouer aux échecs. »
D’après notre conférencier, une requête Google demande donc à l’intelligence artificielle de mobiliser plus d’énergie, de résoudre plus de pages de calculs et de composer avec davantage d’ambiguïté que pour (entre autres) vaincre l’humain aux échecs. Or l’intelligence artificielle de Google, qui, rappelons-le, est la plus performante du genre, n’obtient qu’un pauvre score de 47 à un test de Q.I., tandis qu’une corrélation positive entre le classement Elo d’un joueur d’échecs et sa réussite à des tests psychométriques a été montrée expérimentalement. Selon la logique du raisonnement et les critères d’évaluation choisis pour le conduire, l’I.A. devrait terrasser l’humain à des tests de Q.I. Il n’en est rien : le raisonnement est caduc.
Tout grand joueur d’échecs peut aisément apprendre à faire une mayonnaise et un nœud de cravate, mais parmi les nombreux individus sachant faire une mayonnaise ou un nœud de cravate, infiniment peu seront un jour en mesure de vaincre un grand maître international — même avec beaucoup d’entraînement.
« Le jeu d’échecs, eh oui ! c’est dur, d’accord, mais en fait, les machines battent les humains, ça y est, c’est fini ! Depuis 95, les meilleurs humains ne peuvent plus battre les meilleures machines. C’est terminé. »
Kasparov fut vaincu par Deep Blue en 1997, au terme d’un match très serré (3.5 / 2.5) ; l’« ogre de Bakou » était parvenu à battre Deep Blue assez largement (4-2) un an auparavant.
Derrida, Ambiguïté, Philosophie et Ésope (1:02:55)
« Pendant très longtemps, on a cru que l’intelligence était la capacité à s’exprimer sans ambiguïté. Il y a eu toute une controverse là-dessus dans les années 90. Il y avait un grand philosophe, qui s’appelait Jacques Derrida, et il devait avoir un doctorat Honoris Causa de l’université de Cambridge. Il y a eu une tribune publiée contre lui […], qui a été signée par des grands professeurs, qui ont dit : « Jacques Derrida n’est pas un philosophe. » Ils ont signé une tribune dans le Time de Londres ; c’était du sérieux… »
Nous ne saurons point sur quelles sources s’appuie l’idée louche selon laquelle un consensus voyait l’intelligence comme fonction de la capacité à s’exprimer sans ambiguïté, mais Nietzsche — grand philosophe qui ne s’interdisait ni la contradiction, ni l’emploi d’un style ciselé pour orner sa pensée pénétrante de beauté formelle — avait sa petite idée sur la raison qui poussent certains à « hermétiser » leur pensée :
« Qui se sait profond, s’efforce à la clarté ; qui veut paraître profond, s’efforce à l’obscurité. »
Il y a de sérieux motifs pour se défier du style indigeste de Derrida et penser que s’exprimer d’une manière aussi nébuleuse (à grands renforts de néologismes et de mots-valise) relève davantage de l’imposture que du génie. Néanmoins, jamais les signataires de la tribune s’opposant à ce que Derrida reçoive un titre honorifique de l’Université de Cambridge en 1992, qu’il a finalement reçu à l’issue d’un vote, ne disent qu’il est inintelligent ou qu’il n’y a point de philosophie dans ses ouvrages, mais qu’il ne jouit pas d’une grande reconnaissance par ses pairs (en Angleterre comme en France), qu’il est inintelligible au premier abord, et qu’une fois produit l’effort mental pour extraire la substance de ses écrits, il ne reste que trivialités et fausses affirmations.
Afin de lever toute ambiguïté, ci-dessous les trois derniers paragraphes de la fameuse tribune :
« Beaucoup ont voulu donner à M. Derrida le bénéfice du doute, insistant sur le fait qu’un langage d’une telle profondeur et d’une telle difficulté d’interprétation doit cacher des pensées profondes et subtiles.
Quand l’effort est fait pour le pénétrer, cependant, il devient clair, au moins pour nous, que, là où des affirmations cohérentes sont faites, elles sont fausses ou triviales.
Le statut académique basé sur ce qui nous semble n’être pas plus que des attaques semi-intelligibles sur les valeurs de la raison, de la vérité et de l’érudition n’est pas, selon nous, un motif suffisant pour l’obtention d’un doctorat honoris causa dans une université distinguée. »
« …Ils disaient : « Jacques Derrida n’est pas un philosophe, parce qu’il s’exprime dans une langue extraordinairement ambiguë, et l’ambiguïté est contraire à la philosophie »… faut pas avoir lu Ésope pour dire des conneries pareilles ! »
Ésope n’est pas un philosophe, mais l’inventeur de la Fable en tant que genre littéraire ; il est à peine contemporain de Pythagore — le premier à s’être proclamé philosophe. La plupart des fables de La Fontaine sont une traduction et une adaptation en vers réguliers français des fables d’Ésope. Dès lors, difficile de saisir en quoi la lecture de telles fables est censée réfuter « l’ambiguïté est contraire à la philosophie ».
Le mot même de Philosophie (à l’instar du mot Poésie) est trop souvent l’objet de méprises. La démarche philosophique — quoiqu’elle use de matériel verbal — a bien plus à voir avec une discipline scientifique qu’avec une discipline littéraire : elle vise à établir des connaissances par des moyens rationnels. Quant à la poésie versifiée de bonne facture, elle est bien moins le fruit d’heureuses intuitions que d’une besogne exacte — inspirée par de strictes règles formelles, les principes directeurs de la composition musicale et la logique idéo-verbale (ce qu’attestent les plus grands poètes français, de Nicolas Boileau à Paul Valéry, en passant par Hugo, Baudelaire et Verlaine).
« La définition rigoureuse d’un algorithme c’est : « Suite d’instruction à effectuer sans ambiguïté ». C’est la définition mathématique d’un algorithme. Et c’est ce qui fait que la recette des crêpes n’est pas encore un algorithme… »
Confirmation de Serge Abiteboul — titulaire de la chaire d’Informatique et sciences numériques au Collège de France en 2011-2012 : « Un algorithme, c’est extrêmement simple, on connaît ça depuis toujours. Un enfant qui s’habille le matin suit un algorithme (en apprenant assez vite qu’il y a un ordre à suivre et qu’il aura quelques difficultés à enfiler ses chaussettes après ses chaussures). Vous aussi, quand vous suivez une recette de cuisine. Un algorithme, c’est une séquence d’instructions utilisée pour résoudre un problème. »
« … Parce que la recette des crêpes, y a plein de degrés de liberté. [Par exemple,] selon la quantité de Grand Marnier que vous mettez dans la pâte. »
Dans ce cas, ce n’est plus une recette, et le terme s’avère aussi impropre que trompeur.
Jouer à Starcraft 2 vs jouer du Chopin (1:04:50)
« Et, donc, loin devant tout ça, vous avez « jouer à Starcraft 2 ». Je comprends bien que ça paraît dingue ! Un joueur professionnel de Starcraft 2, il a 400 actions par minute. Pour vous donnez une idée, c’est comme jouer la partie la plus dense de la Grande Valse Brillante de Chopin en continu pendant trente minutes. Les gars, vous les voyez, ils sont comme ça pendant trente minutes [il agite ses doigts et meut ses mains sur un axe horizontal, comme on mimerait un pianiste]. Un clavier de piano a plus de touches qu’un clavier d’ordinateur. Un clavier de piano a 85 touches, un clavier d’ordinateur a de moins de touches utiles que ça, mais si vous rajoutez la souris, on va dire que ça fait pareil. Une partie professionnelle dure trente minutes, un joueur pro a 400 apm et il y a 85 actions possibles. Ça vous fait combien de parties possibles ? 85 puissance 30 x 400… »
Au-delà du fait qu’un clavier de piano soit composé de 88 touches ; que jouer du piano implique aussi l’usage de pédales ; qu’un pro-gamer effectue en moyenne 250 apm (des clics de souris en majorité), dont beaucoup sont inutiles ; qu’il suffise de visionner quelques vidéos, où la caméra est dirigée sur les mains du joueur (la gauche se déplace peu et s’active sur une zone restreinte du clavier ; la droite gère la souris), pour réaliser que comptabiliser 85 touches utiles au jeu ne peut résulter que d’une sévère discalculie de l’observateur, oser la comparaison entre jouer à Starcraft 2 et jouer du Chopin est, évidemment, aussi ridicule que dangereux.
Ridicule, parce que la qualité et la finesse de développement des fonctions sensibles et cognitives requises pour interpréter avec maestria n’importe quelle œuvre musicale élaborée, tout en communiquant au public un subtil nuancier d’émotions propices aux plus transcendants transports de l’âme, seront toujours indéfinissablement supérieures à celles requises pour exceller à Starcraft 2. Les pro-gamers, tout comme les sportifs, ne sont point des artistes.
Dangereux, parce que, durant une conférence d’essence (prétendument) scientifique (malheureusement beaucoup le croient…), ayant (soi-disant) pour thème et enjeu centraux la promotion de méthodes d’apprentissage respectueuses des mécanismes cérébraux les mieux identifiés, et favorisant un développement cognitif le plus vertueux et le plus épanouissant possible, opérer un tel rapprochement, sans précaution ni réserve, invite le chaland à opiner que travailler à devenir champion de Starcraft 2 ou musicien émérite serait assez semblable en matière de bénéfices pour le cerveau, voire même que poursuivre le premier objectif améliorerait davantage la cognition et requerrait plus d’intelligence. Les (seuls et admirables) bienfaits de la musique (ou même du jeu d’échecs) sur le cerveau, la santé psychique et la réussite scolaire sont pourtant notoires.
En admettant que la comparaison soit recevable, et qu’on puisse en déduire une hiérarchie en matière de performance « neuro-intellectuelle », cela ferait de tout batteur de jazz un monstre cognitif. À la grande époque du Be-Bop — style caractérisé par un phrasé virtuose et des tempi très enlevés (souvent entre 200 et 300 bpm) —, un jazzman pouvait, allant de clubs en clubs, jouer plus de dix heures par jour. Rien qu’à la main droite (celle qui marque le swing), un batteur est au moins à 6 actions par mesure (si c’est du 4/4), soit 300 actions par minute à un tempo de 200 bpm. Ajoutons les trois autres membres, toutes les nuances dynamiques et de timbre possibles, le fait de devoir maintenir une pulsation régulière en interaction avec les autres musiciens, tout en nourrissant le débat improvisé de sa propre expressivité sans nuire à la cohésion d’ensemble, etc., et le nombre des possibles apparaîtra comme démentiel ; bien supérieur à celui d’une partie de Starcraft 2, sur un plan strictement comptable. De plus, considéré la dépense physique de chacun, il y a également fort à parier que la consommation de glucose par le cerveau d’un batteur dépassera de loin celle d’un pro-gamer.
Feindre de souscrire à cette comparaison, ainsi qu’à la logique d’évaluation l’ayant inspirée (pour en bien mesurer les conséquences), peut faire aboutir à deux conclusions. L’une est cocasse ; l’autre, absurde :
N’importe quel bon musicien (même amateur) possède un cerveau infiniment plus performant qu’un champion de Starcraft 2 — Cerveaux ! Préférez la musique au e-sport !
Un batteur est supérieur à un violoniste — un pianiste à un bassiste, un organiste à un flûtiste, etc. — Idée puissamment ridicule, dont l’espoir de se muer un jour en évidence est nul.
World of Warcraft et potentiel économique du jeu (1:17:32)
« Je vous ai dit que les jeux sont des aspirateurs à « At ». À votre avis, combien de temps l’humanité a accumulé sur ce jeu, World Of Warcraft [WOW] ?[…] Régalez-vous : si on met bout à bout toutes les heures qui ont été claquées sur WOW, ça fait sept millions d’années, entre 2004 et 2014 seulement. C’est cinquante fois plus que toutes les heures travaillées par Apple et tous leurs fournisseurs depuis 1976. Apple, c’est la société la plus riche au monde. […] Quand ils appellent leur banque pour savoir combien ils ont sur leur compte courant, la banque répond quoi à votre avis ? Je parle de trésorerie, de liquide… la banque répond : « Votre compte est créditeur du PIB du Qatar, plus du budget de défense allemand plus le budget de défense français « . Deux cent cinquante milliards en liquide ! Avec un cinquantième des heures passées sur WOW. Alors bien sûr, si je vous disais qu’un jour peut-être, on pourrait créer le PIB du Qatar en jouant à un jeu, c’est ridicule, non ? [il lève son pouce à l’horizontal pour symboliser la première étape du processus Ridicule-Dangereux-Évident, et sourit longuement…] »
Début 2018, la trésorerie d’Apple s’élevait à 268 milliards USD, mais là n’est pas le plus important.
Tout lecteur qui, en amont, aura pris le temps de parcourir l’article sur le Persuasive Design sait désormais par quel usage malsain des connaissances en psychologie les grands éditeurs de jeux vidéo optimisent l’aspiration des « At », encourageant de fait les comportements addictifs, en dépit des graves conséquences psycho-sociales que cela peut avoir sur les esprits fragiles.
Faire la promotion de Starcarft 2, même sur fond de raisonnements fallacieux et de comparaisons ineptes, est une chose — ça reste un RTS complexe, qui demande vraiment vitesse de réflexion et concentration soutenue —, mais s’ébaudir des sept millions d’années de temps de cerveau disponible qu’a aspirées un MMORPG (Massively Multiplayer Online Role-Playing Game) comme World Of Warcraft, sans aucune espèce de modération, pour démontrer le potentiel productiviste des jeux, en est une autre, d’autant plus discutable. Vu ce qui a précédé, le public est incité à croire que tous les jeux vidéo se valent et renferment des qualités semblables.
Les MMORPGs, de par leur essence même, sont parmi les jeux les plus chronophages et les plus addictifs. Une enquête de l’OCDE de 2015, réalisée dans 65 pays, est plutôt claire sur l’impact de ce type de jeux : si une consommation modérée et solitaire (eh oui!) de jeux vidéo édifiants augmentent en moyenne les performances scolaires, les jeux en réseaux, eux, et ce quelle que soit la fréquence à laquelle ils sont consommés, les amoindrissent. Par voie de conséquence, de tels jeux auront tendance à réduire la productivité de leurs usagers et à les faire souffrir davantage. Ce qui est tout de même ballot.
« L’attachement à un projet. J’aime beaucoup cet exemple, on va faire un petit test : qui dans la salle a déjà entendu parler de Samuel Pierpont Langley ? Ah ! Ah ! C’est ça le problème ![…] Samuel Pierpont Langley, c’est un mec dont tout le monde se contrefout aujourd’hui, et c’était le gars payé par le Président des États-Unis pour faire voler le premier avion. Et le gars, c’était le gendre idéal : il avait une chaire au Smithsonian (le Collège de France américain), il jouait au golf avec le Président, il avait le New-York Times qui le suivait partout, et bien entendu il avait du pognon. Donc, le type, il avait les conditions idéales pour faire voler le premier avion. Qui a fait voler le premier avion ?[…] Les frères Wright, dans les livres d’histoire américain, c’est eux qui ont fait voler le premier avion… »
Samuel Pierpont Langley était déjà un scientifique reconnu pour ses travaux de physique et d’astronomie avant de se lancer dans l’aventure de l’aviation. Il fut même admiré par Graham Bell (l’inventeur du téléphone), lorsqu’il réussit à faire voler pendant plus d’une minute un avion sans pilote, propulsé par deux hélices à moteur ; il réitéra l’expérience avec succès en diverses occasions. C’est après plusieurs crashes et avoir épuisé ses fonds (50.000 USD), alloués dans le cadre de la guerre contre les Espagnols, qu’il se résigna, tandis que neuf jours plus tard les frères Wright réussissaient le premier vol motorisé avec pilote. En 1917, les États-unis baptiseront de son nom l’une des bases aériennes les plus prestigieuses du territoire américain, celle qui deviendra le centre d’essais de la NACA, puis de la NASA. Il est toujours considéré comme un des pionniers et précurseurs de l’aviation.
«… Pourquoi on connaît les frères Wright et pas Samuel Pierpont Langley ? Qui étaient les frères Wright ? Ben, au départ, c’étaient des vendeurs de pièces détachées de vélo à 60km de Dayton dans l’Ohio. Leur pedigree, c’était ça.[…] Pourquoi c’est eux ? Pourquoi c’est pas un mec du MIT, de Polytechnique ou d’Oxford ? Parce que, eux, quand ils partaient sur le champ, il envoyait cinq lots [gratuits?] de pièces détachées par jour. C’est-à-dire que, eux, ils se crashaient cinq fois par jour ! [ça peut vite revenir cher] Mais quand vous êtes Samuel Pierpont « fucking » Langley, vous ne pouvez pas vous crasher une seule fois ![…] Parce que l’échec coûte cher, et que pour bien apprendre, il faut que l’échec coûte pas cher. Si vous voulez bien apprendre, bien innover, bien créer, ou bien changer le monde, ou avoir un prix Nobel, c’que vous voulez, eh bien ! il faut que l’échec soit pas cher. Parce que c’est l’essai-erreur qui crée la nouveauté.[…] Quand vous êtes les frères Wright dans l’Ohio, tout le monde s’en fout que vous vous crashiez avec votre machine infernale dans les champs de maïs [sauf les agriculteurs]. Du coup, vous allez pouvoir faire cinq essais par jour ; et, du coup, vous allez battre ce mec… »
Les frères Wright n’étaient pas que de simples vendeurs de bicyclettes : ils connaissaient les travaux de Lilenthal et ne se crashaient pas cinq fois par jour. Ils ont d’abord essayé leur planeur comme un cerf-volant ; l’ont piloté du sol ; en ont augmenté l’envergure plusieurs fois pour qu’il puisse éventuellement accueillir un pilote ; ont construit une soufflerie dans leur atelier pour faire des tests de portance en laboratoire pendant un an ; ont encore augmenté l’envergure, et ont réalisé environ 700 vols planés. C’est surtout leur travail sur la pilotabilité qui leur a permis d’être les premiers, non leurs multiples échecs. Ils étudiaient beaucoup la théorie, et se sont révélés d’excellents ingénieurs (quoique dépourvus de formation académique) dans leur résolution analytique du problème.
« … C’est pas moi qui ait découvert ce vrai grand principe, c’est un type qui s’appelle Simon Sinek ; je vous recommande vivement ses travaux, où il dit clairement que « l’échec est un diplôme »… Mmmh… Et que si vous n’avez pas ce diplôme de l’échec, si vous n’avez géré l’échec dans votre vie, il ne faut essayer de faire quelque chose de nouveau, parce que quelque chose de nouveau, par définition, ça ne marche pas du premier coup. »
L’anecdote des « cinq crashes par jour » lui vient justement de Simon Sinek, conférencier spécialiste en marketing et management, qui prétend avoir compris et codifié ce qui fait ou non le succès d’une entreprise (au sens le plus général du terme, marchande ou non). Il s’agit d’utiliser une procédure de communication dans laquelle il faut respecter l’ordre Why ? How ? What ?, et basée sur l’idée suivante : « Ce que les gens achètent, ce n’est pas ce que vous faîtes, mais pourquoi vous le faîtes. » Concept du Why ? How ? What ? que nous voyons reparaître dans le titre de la thèse d’Idriss Aberkane en Sciences de gestion à Paris-Saclay. Rappelons-nous qu’il annoncera en fin de conférence être revenu de Stanford avec le diagramme conceptuel du Love / Can Do, qu’il définit lui-même par Pourquoi je travaille ? et Comment je travaille ?
Le leitmotiv de tout coach en développement personnel, et autres consultants en marketing, est de nous vendre une recette prétendument miracle, une sorte d’algorithme de la réussite, en parfait accord avec la théorie classique de l’économie, qui considère les agents comme rationnels, donc un éventuel succès comme le résultat du talent et de la technique conjuguées. La rationalité des agents, ainsi que l’idée d’une réussite relevant essentiellement des qualités de celui qui la rencontre, ont été indubitablement réfutées. Notamment par Daniel Kahneman, prix Nobel d’économie en 2002 pour ses travaux sur le jugement et la prise de décision, professeur émérite à l’université de Princeton, spécialiste de psychologie cognitive et d’économie comportementale.
À la page 272 de son célèbre ouvrage Système 1, Système 2 – les deux vitesses de la pensée (dont nous conseillons à tous la lecture), en place d’ouverture du sous-chapitre Le talent et la chance, Daniel Kahneman écrit :
« Il y a quelques années, John Brockman, aujourd’hui rédacteur en chef du magazine en ligne Edge, a demandé à plusieurs scientifiques de citer leur « équation préférée ». Voici ce que j’ai proposé :
Succès = talent + chance
Grand succès = un peu de talent + beaucoup de chance »
Ancrer en soi que l’on gouverne moins ses actions que les aléas de la fortune n’en déterminent le terme est assez inconfortable ; mais cela a le mérite d’être vrai.
Effet Bannister (1:14:48)
« Roger Bannister, il arrive dans un contexte où il y a des congrès de médecine, des congrès de la faculté qui disent : ”Courir un mile en moins de quatre minutes, c’est pas possible, c’est une limite physiologique du corps humain, on peut pas »[…]. Et puis, Roger Bannister, il avait pas suivi le symposium de médecine de Cambridge, et du coup il a couru un mile en 3 minutes et 59 secondes. Et c’qu’est intéressant, c’est qu’une fois qu’il a fait ça, dans le monde, vous avez trois cents personnes en six mois qui ont couru le mile en moins de quatre minutes. Comment on interprète ça ? Est-ce que leur nutrition a changé ? Est-ce qu leur entraînement a changé ? Est-ce que leur physiologie a changé ? [etc.] Ou bien est-ce simplement parce qu’ils savaient mentalement, ils savaient que c’était possible, parce que quelqu’un l’avait fait ? On appelle ça l’effet Bannister. Et l’effet Bannister, vous le trouvez dans tout un tas de domaines. »
Roger Bannister était lui-même étudiant de médecine à Oxford et médecin junior lorsqu’il réalisa sa performance ; il fit par la suite une brillante carrière de neurologue.
Il semble que l’« effet Bannister » n’ait jamais existé et qu’aucun congrès de médecine n’ait jamais statué que courir le mile en moins de quatre minutes fût une limite physiologique infranchissable — cela relèverait plutôt de la croyance populaire. Durant l’année 1954, après le premier exploit daté du 6 mai, John Landy sera le SEUL et UNIQUE coureur, excepté Bannister lui-même, à descendre sous les quatre minutes. Dans les deux ans qui suivirent, il ne seront que huit ou neuf à courir le mile en moins de quatre minutes ; de 1954 à 1959, environ une trentaine.
Les méthodes d’entraînement se sont justement affinées à cette époque-là, et la précédente stagnation des records sportifs s’explique tout simplement par l’événement Seconde Guerre Mondiale.
Le « Bannister effect » n’existe pas et n’a jamais existé : c’est un mythe. Mythe que l’on retrouve sur de nombreux sites anglophones proposant des méthodes miracles pour développer son potentiel.
Expérience de Charisse Nixon et théorie de l’Impuissance Apprise (1:18:50)
« Y a une professeure américaine, qui s’appelle Charisse Nixon, et elle fait un test avec ses enfants : elle leur demande de faire des anagrammes. Voyez dans la colonne de gauche [Bat-Melon-Cinerama], la copie qu’elle va donner à tous ses élèves de sa classe, donc trente élèves. Et elle leur dit, quand vous avez résolu cette copie, donc trouvé les anagrammes de ces mots, vous levez la main. Et, à trois élèves, elle va les piéger, elle va leur filer la copie de droite [Whirlpool – Leprechaun – Cinerama]. Dans la copie de droite, les deux premiers, vous pouvez chercher tout ce que vous voulez, y a pas d’anagrammes en langue anglaise. Par contre, le dernier, c’est le même. […]
Qu’est-ce qui se passe, en fait ? Quand les autres élèves, qui ont la copie avec les deux premiers impossibles, ils voient toute la classe qui lèvent la main, eh ben ! ils sont convaincus que le troisième est impossible aussi. Et ils le disent ! On les passe au détecteur de mensonges : pour eux, le troisième est impossible. Et, […], quand on leur demande : « Comment vous vous êtes sentis ? » Ils répondent : « Je ne me suis jamais senti aussi con. » On appelle ça “l’Impuissance Apprise”… »
Quiconque visionnera attentivement la vidéo Youtube de l’expérience filmée de Charisse Nixon constatera que :
La seconde liste (piégée) n’est pas celle que Charisse Nixon distribue — les motifs de cette substitution sont énigmatiques, car les deux premières anagrammes demeurent insolubles ;
Elle la distribue à toute la moitié gauche de la classe, non à trois élèves seulement ;
Parmi ceux ayant reçu la liste piégée, au moins six élèves trouvent la réponse à la troisième anagramme, et au moins autant sèchent parmi ceux ayant reçu la liste normale
Jamais il n’est question d’un passage au détecteur de mensonges ;
Un seul des élèves en échec répond s’être senti « stupide » ; les autres, « sous pression », « confus(e) », « frustré(e) ».
Vu la petitesse de l’échantillon, son protocole défectueux et ses résultats, l’expérience en elle-même n’a pas grande valeur et ne prouve rien.
Cette vidéo a beaucoup circulé dans le milieu professoral, via les réseaux sociaux. Tout en invitant à regarder l’enregistrement, la plupart des commentateurs annoncent (à l’instar de Lucien Marbeuf sur son blog L’instit humeurs, hébergé par le site de FranceInfo) que tous les élèves ayant reçu la liste piégée échouent à la troisième anagramme… Le but est visiblement de suggérer que l’impuissance apprise pourrait se révéler une des causes principales de l’échec scolaire, puisque cinq minutes d’exposition à l’incontrôlabilité (c’est de celle-ci que découle éventuellement l’impuissance acquise) auraient suffi à conditionner la moitié d’une classe. C’est un genre d’heuristique : on s’épargne d’avoir à penser la complexité du problème, tâche cognitivement coûteuse.
Les analyses et expériences des chercheurs ayant étudié le phénomène sont pourtant autrement plus fines et plus rigoureuses, comme nous allons le voir sous peu.
« … Je ne vous surprendrai pas en vous disant que c’est un paradigme qui a été découvert par la CIA pendant la guerre froide […], par un professeur qui s’appelait Martin Seligman et qu’avait torturé des chiens. […] Martin Seligman, il a pris une cage avec un mur [au milieu]. D’un côté de la cage, il balance une décharge électrique […], le chien saute le mur, et il va du côté de la cage protégé. Ensuite, il balance une décharge de l’autre côté, et il voit que le chien saute, très bien. Ensuite, il est vraiment salaud, il balance des décharges des deux côtés. Et une fois que le chien s’est rendu qu’il peut plus rien faire, il se prostre, il accepte son destin, et, quand on ouvre la cage, il sort pas : Impuissance Apprise. »
Les résultats d’expériences menées sur des chiens par Martin Seligman en 1967, et desquelles il a tirée la théorie originelle de l’impuissance acquise en 1975, ne sont pas ceux-là. D’après l’introduction et le premier chapitre des vingt-cinq pages (pp. 677-702) consacrées à une présentation théorique de l’impuissance acquise dans L’année psychologique de 1996, les observations de Seligman furent les suivantes :
Les animaux préalablement exposés à des chocs électriques inévitables réalisaient de moins bonnes performances et se montraient plus passifs, dans une nouvelle situation d’apprentissage d’évitement des chocs électriques, que des animaux n’ayant pas été exposés à l’incontrôlabilité ;
Trois types de déficit émergent chez l’animal : a) cognitif ; b) motivationnel ; c) émotionnel ;
Un moyen d’éviter ces effets consiste à « immuniser » l’animal contre l’apprentissage d’incontrôlabilité en l’exposant préalablement au contrôle. L’exposition à l’incontrôlabilité n’altère pas les performances des animaux lorsqu’ils ont été exposés à des chocs électriques contrôlables vingt-quatre heures avant la phase d’entraînement.
Pour mettre en évidence de tels effets chez l’être humain, on a utilisé d’autres méthodes, plus déontologiques, comme, par exemple, confronter les sujets à des bruits désagréables incontrôlables ou à des problèmes sans solution. Si des effets analogues à ceux observés chez les animaux peuvent affecter l’être humain, ils semblent se dissiper plus rapidement chez ce dernier (ce qui doit être confirmé par davantage d’études). En bref, la théorie originelle de Seligman clive et engendre diverses écoles d’interprétation, et rien n’est clairement établi quant à la manière d’expliquer les effets de l’incontrôlabilité chez l’humain.
« Pour être tout à fait honnête, j’ai décidé d’écrire mon bouquin parce qu’on ne savait pas que le professeur Seligman avait participé au programme de torture de la CIA […] ; ç’a été révélé plus tard. Il faisait partie de l’Américan Psychological Association, […]. Il était un membre éminent de cette association, et aujourd’hui, on a toutes les preuves qu’il a participé au programme de torture de la CIA. C’est là que j’ai voulu faire mon bouquin. […] On pourrait parler des neurosciences pour le grand public. S’il y a des gens qui font du travail pour voir comment manipuler les gens, ce serait pas mal qu’il y ait des gens qui fasse du travail pour essayer de les informer. Et c’était un peu le sujet de ce boulot… »
C’est donc un sursaut éthique qui l’a décidé à écrire son livre. Un article s’occupera bientôt de vérifier si Idriss Aberkane y informe aussi consciencieusement le public qu’il le fait durant ses conférences.
«… L’impuissance apprise, testée à l’école, ça marche super bien. Et le pire, c’est que quand il y a un échec scolaire, on ne peut pas dire si l’échec est dû au fait que l’élève est bête, c’est-à-dire à une déficience cognitive, ou si c’est parce qu’il croit qu’il est bête. Pour le savoir, il faudrait mettre l’élève en imagerie cérébrale. On ne peut pas avoir une IRM par école. »
Nul besoin d’une IRM pour évaluer les capacités cognitives d’un élève en difficulté ; un test de Q.I. contrôlé y parvient en général très bien. Par exemple, et malgré ce que clament et relaient souvent les livres et la presse grand public, la recherche scientifique montre qu’une immense majorité des enfants à haut potentiel (Q.I. > 130) ne connaissent pas l’échec scolaire — échec qui peut aussi s’expliquer, ou être aggravé, par des facteurs environnementaux négatifs (instabilité familiale, maladie, pauvreté). Sans risque de se fourvoyer, nous pouvons supposer que le nombre de cas d’échec scolaire s’expliquant principalement par l’impuissance acquise doit être assez marginal. Quoiqu’il ne faille pas négliger les effets de l’impuissance apprise, il ne faut pas, non plus, en exagérer l’importance.
À la page 691 du document susnommé, dans la partie réservée à la « théorie informationnelle de l’IA » (théorie qui met l’accent sur le déficit cognitif), nous pouvons lire que : « Toutefois, l’existence d’un transfert d’apprentissage d’incontrôlabilité n’a jamais été clairement démontrée. » Puis, juste avant la conclusion, à la page 693 : « […], compte tenu des déficits de performances enregistrés suite à l’exposition à l’incontrôlabilité, on a tenté d’appliquer la théorie originelle de l’IA à la situation scolaire, mais peu de correspondances pouvaient être établies entre les situations en laboratoire et la situation des élèves en échec scolaire. »
Rappel : L’école ne soumet aux élèves que des problèmes solubles.
« Alors, si on en revient à des expériences de conditionnement, dont l’objectif est de se libérer, vous avez entendu parler de l’expérience de la prison de Stanford, ou pas. Et, pourtant, tout le monde devrait en avoir entendu parler, parce que c’est une expérience extraordinairement intéressante. Très controversée à l’époque, qui ne respecte pas la règle n°1 de la doxa scientifique actuelle : “ne faîtes pas partie de votre propre expérience”. […] Et pourtant l’expérimentateur, il a fait ça. Il a pris un car d’étudiants… Non ! Pas que d’étudiants ; de pères de famille, de gens qui avaient été vérifiés dans leur background aucun antécédent d’ordre judiciaire ou psychiatrique. Et il leur dit : “à partir de maintenant, tous les gens à ma gauche, vous allez jouer des faux prisonniers dans une fausse prison ; tous les gens à ma droite, des gardiens, dans une fausse prison.” […]
Il a dû arrêter l’expérience en 72 heures ; c’est totalement parti en vrille ; et lui le premier […], il s’est mis à abuser. […] En 72 heures, il y avait vraiment des prisonniers qui croyaient qu’ils étaient coupables et méritaient leur sort, et des gardiens qui devenaient complètement sadiques. Rien, et c’est ça la conclusion de l’expérience, rien dans la recherche d’antécédents n’aurait permis de soupçonner ça, rien ! Philip Zimbardo a appelé ça « l’effet Lucifer ». Dans les bonnes conditions, vous pouvez transformer une part significative de la population… C’est jamais 100%, il y a toujours quelqu’un qui va se lever. En l’occurrence, il avait une étudiante à lui dans les gardiens qui lui a dit : “Stop ! On on arrête tout, t’es en train de devenir fou”, et qu’il a sortie. Ils se sont mariés ensuite. […]
Ça peut se terminer mal quand on sait pas, parce que, oui, ça s’est reproduit cette histoire ; ça s’appelle la torture d’Abu Ghraïb, pendant la guerre d’Irak. […] Et Philip Zimbardo a eu à témoigner, pendant le procès des soldats qu’ont fait ça. […] Il a dit : “Mais les gars, vous le saviez ! Quand vous donnez trop de pouvoir à certaines personnes, elles vont en abuser, juste pour le fun.” […]
Ça n’avait pas été suffisamment diffusé… »
Les vingt-quatre participants à l’expérience étaient tous des étudiants masculins payés quinze dollar par jour, sélectionnés parmi soixante-dix candidats s’étant portés volontaires pour participer à une expérience sur la vie en prison, présentée comme telle. Christina Maslach, dont l’intervention a mis fin à l’expérience, et qui s’est effectivement marié avec Zimbardo ensuite, a justement obtenu son doctorat de psychologie à Stanford en 1971 (année de l’expérience), et si elle a participé, c’est en tant qu’observatrice extérieure, non en tant que gardienne. Les deux-tiers des gardes n’ont présenté aucun comportement cruel ou inhabituel. Le garde le plus célèbre, surnommé John Wayne, a même expliqué qu’il essayait simplement d’imiter le personnage de Strother Martin (Captain) dans Cool Hand Luke (avec Paul Newman). L’expérience s’est arrêtée au bout de six jours, non après soixante-douze heures ; elle devait initialement durer deux semaines.
L’étude présente de nombreux défauts :
Biais de sélection (manière orientée de présenter l’expérience pour recruter des participants) ;
Biais de confirmation (Zimbardo avait une idée préconçue d’à quels résultats l’expérience devait aboutir) ;
Échantillon trop petit et non-représentatif de la population ;
Participation active et partiale de l’expérimentateur dans le rôle de l’autorité suprême (Zimbardo incarnait le surintendant de la prison) ;
Constat par des pairs que les résultats étaient rendus insignifiants en raison de l’insuffisance des contrôles ;
Témoignages des participants ne cadrant pas toujours avec les conclusions de Zimbardo ;
Contexte socio-politique virulent affectant la neutralité de l’expérience (des émeutes en milieu carcéral avait fait la une de l’actualité).
Autant d’anomalies et d’irrégularités protocolaires qui font de l’expérience de la prison de Stanford une imposture et une fraude scientifique, dont il faut s’interdire de tirer un quelconque enseignement général sur la psychologie humaine.
Le quatrième lien range même les pseudo enseignements psychologiques de l’expérience de la prison de Stanford dans la catégorie « Ridiculous Lies ».
Zimbardo, appelé par la défense des geôliers tortionnaires de la prison d’Abu Ghraïb, à comparaître au tribunal comme témoin-expert, y a fait cette fameuse déclaration : « Vous ne pouvez pas être un concombre doux dans un tonneau de vinaigre. » D’après lui, les accusés étaient peu responsables de leurs actes et surtout victimes de l’environnement. Les juges ne l’ont pas entendu de cette oreille.
Nous pourrions aussi opposer à Zimbardo un court extrait du dernier chapitre de La culture du narcissisme, écrit en 1979 par le sociologue américain Christopher Lasch :
« La thérapie considère comme une maladie ce qui aurait pu être jugé comme une action imputable à la volonté, ou, au contraire, au manque de volonté ; elle donne, ainsi, au patient, le moyen de lutter contre sa maladie (ou de s’y résigner), au lieu de se blâmer irrationnellement. Mais, lorsqu’elle est appliquée de manière injustifiée, hors du cabinet de consultation, la moralité thérapeutique favorise la disparition du sens moral. Il existe un rapport étroit entre l’érosion du sens moral et l’affaiblissement de l’autonomie. […] Qui dit : “Tu n’es pas coupable”, dit aussi : “Tu n’es pas capable”. »
Fritz Zwicky (1:34:40)
« Ça c’est quelqu’un que j’aime beaucoup : il s’appelle Fritz Zwicky, et il était complètement jeté le mec, complètement. C’était un génie. Très très grand physicien américain d’origine suisse. Et c’est quelqu’un qui a découvert, spéculé, pardon : la matière noire, l’énergie noire et les étoiles à neutrons.
Le problème, c’est qu’il a spéculé ça dans les années 40, et que tout ça a été découvert dans les années 60 à 80. Donc, évidemment, sa carrière a été relativement pénible ; mais, coup de bol, il était autiste, donc il en avait absolument rien à foutre de ce que les gens pensaient de lui. Et il avait du coup une insulte préférée : « connard sphérique » [spherical bastard], qui veut dire que, sous n’importe quel angle, t’es un connard en fait. »
Il est aujourd’hui considéré comme le père théorique de la matière noire, des lentilles gravitationnelles galactiques et des étoiles à neutrons — mais certainement pas de l’énergie noire ; objet physique proposé en 1998 pour expliquer l’accélération de l’expansion de l’Univers ; même Wikipédia enjoint ses lecteurs à ne surtout pas confondre ces deux obscurités physiques.
Ce polytechnicien suisse d’origine bulgare (et non américain d’origine suisse) a fait une brillante carrière universitaire et scientifique aux États-Unis. Dès 1925, il est appelé à travailler à Caltech, et dispose d’un bureau situé dans le même couloir que celui d’Oppenheimer, après avoir reçu la bourse internationale de la Fondation Rockfeller. Il est nommé professeur d’astronomie en 1942, et il travaille également comme directeur de recherche pour Aerojet Engineering Corporation — il détient de plus de 50 brevets, dont beaucoup dans la propulsion à réaction. Membre du personnel de l’Observatoire du Mont Wilson et de l’Observatoire Palomar pendant presque toute sa carrière. Reconnu et honoré de son vivant, principalement pour ses innovations et ses nombreux travaux en astronomie, il reçoit en 1949 la médaille présidentielle de la Liberté des mains de Truman ; en 1972, la médaille d’or de la Royal Astronomical Society, et est nommé professeur émérite de Caltech en 1968. Un astéroïde et un cratère lunaire portent son nom.
Il était également réputé pour son caractère bourru, la crainte qu’il inspirait à ses étudiants et une certaine propension à l’outrecuidance, ce qui explique son insulte favorite (« spherical bastard »). Le génie est loin de toujours s’accompagner de douceur et de magnanimité (cf. Newton, Michel-Ange, Schopenhauer, etc.)
Sa carrière ne peut être considérée comme « pénible ».
D’où provient l’information que Zwicky eût été autiste ? Mystère. En revanche, Zwicky est cité, en épigramme, à la page 73 du livre Univers et l’Infini de Joseph Silk, au chapitre 6, Amas et formation d’amas : « Il y a d’un côté ces jeunes cosmologistes et physiciens enthousiastes mais complètement irresponsables qui construisent des univers imaginaires qui n’ont aucune valeur scientifique ni artistique. Il manque simplement à ces hommes une bonne appréciation de la pauvreté en faits définitivement connus et la conviction que sans de tels faits toute spéculation est largement futile… Et d’un autre côté, il y a beaucoup trop d’observateurs, notamment parmi ceux qui font usage des grands télescopes, dont les connaissances en physique fondamentale sont maigres… Les interprétations sont trop souvent de type autiste plutôt que scientifique… »
Pourquoi diable un autiste (qui, si le on le sait l’avoir été, devait se savoir l’être) justifierait-il le rejet d’interprétations spéculatives en les accusant d’autisme ? Si cet autisme présumé (fantasmé?) l’avait rendu indifférent aux jugements extérieurs et aux affres de l’ostracisme, pourquoi aurait-il si souvent qualifié ses congénères de « spherical bastard » ?
« Autrement, quand une techno n’est pas mignonne, voilà ce qu’il lui arrive [image d’un fragment de rouage] : ça c’est la machine d’Anticythère, c’est un ordinateur analogique quand Jules César avait quatorze ans. Et c’est pas un truc « borderline » que je vous raconte, c’est de l’archéologie de base.[…] C’est une machine qui est aussi compliquée que la machine Enigma des nazis pendant la deuxième guerre mondiale. Pour être tout à fait exact, elle est quelque part entre la Pascaline de Pascal et la machine Enigma des nazis en matière de complexité algorithmique. C’est comme si je vous disais un MacBook Air du temps de Jésus-Christ ; c’est le même écart.[…] Ça prédisait les éclipses ; c’était indiscernable de la magie ; et comme c’était indiscernable de la magie, ben ç’a disparu : les gens en ont eu peur ! »
On parle dans le cas de la machine d’Anticythère du premier calculateur analogique parce qu’elle nécessite d’être actionnée par une manivelle, et c’est même pour cette raison que le terme « horloge astronomique » n’est pas vraiment approprié pour la décrire. Son caractère extraordinairement précurseur, en regard de ce que nous savons de l’histoire de la technologie, est qu’elle constitue la première machine à rouages connue et renferme des engrenages différentiels, dont nous n’avons pas trace en Europe avant le XIIIe s. ; mais elle n’est pas à proprement parler une « machine à calculer », ce qu’est en revanche la Pascaline de Pascal, toujours vue comme la première du genre. Quand à la machine Enigma, elle est bien plus complexe, puisqu’elle permet pas moins de 10 puissance 16 possibilités de codage.
À propos de la machine d’Anticythère, Lorenz Baumer, directeur de l’Unité d’archéologie classique de l’UNIGE, nous enseigne que : « Son utilité n’était pas pragmatique. Les savants de l’époque n’avaient pas besoin d’un tel calculateur, une feuille et un crayon suffisaient. Cette machine était un gadget, un objet de luxe montrant tout ce que l’on savait et savait faire au IIe siècle av. J.-C. »
Enfin, présenter un fragment d’antiquité ayant passé deux mille ans dans l’eau pour attester de son manque de « mignonnitude » est ridicule ; mieux vaut s’en référer aux reconstitutions les plus fidèles de l’objet complet — qui avait l’air plutôt joli.
« La boule d’Éole : l’éolipyle. Donc ça c’est juste une machine à vapeur à Alexandrie, dans l’Égypte ptolémaïque. Une machine à vapeur dans l’Égypte du IIIe siècle… Heu… Même pas, même pas, je crois que c’est IIe, je ne saurais plus vous dire… Héron d’Alexandrie, il avait créé ça. Il y avait un temple, le temple d’Éole[…], et du coup l’objectif était de faire un truc : quand vous faisiez une donation, y a un prêtre qui arrivait, qui allumait un feu, et, là, miraculeusement, une minute plus tard, les portes s’ouvraient, comme par magie. Et, en fait, comment ça marchait ? Bah !, c’était une machine à vapeur. Là vous voyez le procédé de base : y a un chaudron, fermé bien sûr, avec de l’eau dedans, et puis y a des tuyaux qui partent vers la boule, et puis autour de la boule vous avez des tuyaux tangents qui tournent quand on allume un feu, et ça, ça actionnait une courroie de transmission avec des poulies. C’était une machine à vapeur ! Dans l’antiquité !
À ma connaissance, la révolution industrielle n’a pas eu lieu à cette époque, parce que ça, c’était indiscernable de la magie. Il a même appelé ça la boule d’Éole, en mode « c’est Éole qui me l’a donnée : je suis pote avec lui ; mais n’essaie pas de le refaire, sinon la foudre va s’abattre sur toi ! » Et c’était ça l’enjeu, c’est-à-dire qu’un innovateur, à l’époque, il fallait surtout pas qu’il montre comment fonctionnait ses inventions ; donc ne pas les rendre mignonnes, et quand vous ne rendez une invention mignonne, elle disparaît… »
Le mécanisme d’ouverture automatique des portes d’un temple — baptisé Machine n°37 (ou n°38, les sources divergent) par Héron d’Alexandrie — n’est pas une machine à vapeur, mais une machine hydropneumatique, dont le principe moteur est différent de celui de l’éolipyle. Nous pouvons d’ailleurs retrouver cette dommageable erreur sur la page Wikipédia consacrée à Héron d’Alexandrie.
L’éolipyle (qui, effectivement, aurait pu déclencher une révolution industrielle avant l’heure si son concepteur en avait perçu tout le potentiel) fut conçu comme un objet de divertissement, une source d’amusement, un jouet ayant vocation à être utilisé comme tel, non comme un objet magique offert par Éole.
Héron d’Alexandrie ne peut avoir vécu à la fois dans l’Égypte Ptolémaïque et durant le IIIe s. ou IIe s. ap. J.-C., et pour cause : l’Égypte Ptolémaïque couvre la période allant de 323 à 30 av. J.-C. Héron a vécu dans l’Égypte Romaine, et c’est pendant la seconde moitié du Ier s. que nous trouvons des traces de sa présence à Alexandrie.
« Un autre exemple, c’est la Pile de Bagdad. Truc de dingue : c’est une pile électrique, chez les sassanides, au plus tard au VIIe siècle, donc en Perse ; en Irak maintenant. On sait absolument pas à quoi elle servait (a priori c’est pas pour charger un Iphone), mais on sait qu’elle fonctionnait. Ou bien c’était pour faire de la galvanoplastie (plaquer un métal), ou bien on soupçonne que c’était pour une cérémonie initiatique dans un temple ; en mode « bzzzit, ainsi parlait Zarathoustra, tu me dois cents balles « … Elle fonctionnait au VIIIe siècle, c’est ça qu’est dingue ! Et elle n’a pas été adoptée, car elle était indiscernable de la magie. Autrement, les gens qui veulent faire adopter la technologie très vite et très bien, comment ils font ? Il la rende mignonne. »
Chacun pourra consulter la page du CNRS consacrée à « La prétendue pile de Bagdad », qui est la source fiable la plus récente (dernière mise à jour : juillet 2017). Fiche classée dans la catégorie « Mythes et légendes de l’électricité et du magnétisme », et que les trois chercheurs l’ayant rédigée introduisent comme suit :
« A la différence de nombreux sites où l’on peut lire que la pile électrique a été inventée il y a 2000 ans et que cette pile servait à la dorure d’objets métalliques, nous disons ici que :
L’hypothèse de l’invention de la pile est très peu vraisemblable aussi bien scientifiquement qu’historiquement, même si on peut toujours imaginer qu’on ajoute des éléments à un objet pour en faire une pile électrique.
La dorure d’objets métalliques par électrolyse supposerait que l’on ait disposé, dans l’Antiquité, de sels d’or en solution, ce qui est encore moins vraisemblable. »
Peu avant de conclure, les auteurs ajoutent : « Paul T. Keyser a imaginé pour le mystérieux vase une autre application électrique, déjà évoquée par Koenig : une utilisation médicale du courant produit, éventuellement dans un cadre religieux. Mais la tension délivrée par une seule « pile » est très inférieure aux valeurs auxquelles l’organisme humain est sensible, en cas d’application sur la peau. »
« On est tellement habitué aux étiquettes, que je suis convaincu qu’un jour vous pourrez mettre grand vin de Bordeaux sur une bouteille de Coca, et les gens l’achèteront comme tel. On nous a conditionnés à réagir sur ce qui est écrit, pas à ce qui est vraiment, pas à la nature même de ce qu’il y a dans le flacon. »
C’est tout à fait juste. Idriss Aberkane est lui-même une allégorie du pouvoir des apparences :
Bien que ses travaux de recherche soient quasi inexistants et que l’intéressé ne puisse revendiquer aucune réalisation scientifique citée dans la littérature, il est crédité des titres de « chercheur en neurosciences » et « génie précoce ».
Trois doctorats (mais aucun en neurosciences), un CV époustouflant, une faconde hypnotique, des présentations avantageuses à la TV et dans la presse, et beaucoup s’enivrent de ses discours, sans avoir conscience à l’évidence du décalage entre le produit et son emballage.7
Repas de connaissances et 20/20 de moyenne (02:02:18)
« Interrogeons-nous juste sur cette ergonomie de l’apprentissage. […] Ça peut être bien de faire des allégories, des paraboles.[…] Alors, imaginez : vous êtes dans un hôtel cinq étoiles devant un buffet à volonté. […] Et là, vous avez faim. Ben vous êtes au paradis ! Et, maintenant, imaginez que le maître d’hôtel débarque, et qu’il vous fait : « Tu dois tout manger… Tout ! Et tout ce que tu laisseras sera porté sur l’addition. […] Tu seras sanctionné sur ce que tu n’as pas mangé. Si tu en laisses trop, non seulement tu paieras une addition mirobolante, mais, en plus, tu seras dégagé de l’hôtel, on fera une haie d’honneur pour t’humilier ; on sera tous autour de toi en train de chanter que t’es un crevard qu’a pas réussi à finir le buffet”. Et puis, le maître d’hôtel sort et vous fait : « Ah ! Au fait, t’as une heure. Parce que quelqu’un l’a fait avant toi en une heure, donc on sait que c’est possible. »
Là vous êtes en enfer. Le buffet est le même, mais les règles du jeu ont changé. Y a Règle n°1, y a Règle n°2 : l’une, c’est le paradis ; l’autre, c’est l’enfer. Si cette situation arrivait à vos gosses une fois dans leur vie ; que quelqu’un les séquestre et les oblige à bouffer un buffet entier, sous peine de sanctions ; si ça vous était arrivé même à vous, vous seriez en analyse pendant dix ans. Et si je vous disais que ça vous est déjà arrivé, pendant pas un jour, mais trois mille jours dans votre vie.
C’est quoi cette situation que je viens de décrire ? [il affiche un air affecté] À beaucoup d’égards, dans l’enseignement, vous êtes sanctionné, non pas sur ce que vous avez mangé, mais sur ce que vous n’avez pas mangé. »
I. Aberkane nous affirme qu’entre la manière paradisiaque et la manière infernale de présenter ce buffet, seules les règles du jeu auraient changé. Élèves attentifs et studieux, nous achoppons sur l’exposé du docteur Aberkane : si pour la version infernale nous avons bien assimilé les (méchantes) règles du jeu (l’image de la haie d’humiliation étant délirante à souhait), nous peinons à voir selon quelles règles nous devons jouer dans la version paradisiaque… Eurêka ! Mais c’est bien sûr ! Il y a tout simplement absence de règles ! Pas de règle : c’est le Paradis. Malgré cette réjouissante illumination, les apprenants avides de logique et de cohérence que nous sommes demeurent insatisfaits : Comment des règles inexistantes peuvent-elles changer ? Si la règle est l’absence de règle, est-ce encore une règle ?… Il nous répétera pourtant : « Y a Règle n°1, y a règle n°2, y en a une, c’est le paradis, et l’autre, c’est l’enfer. »
Quand bien même la règle n°1 serait « mangez ce que vous pouvez ou voulez, au rythme qui est le vôtre » (ce qui revient à dire « faîtes comme vous voulez », soit une absence de règle, bref…), cela implique, d’une part, une complète individualisation de l’enseignement pour chaque élève (ce qui est irréaliste) ; d’autre part, que les élèves dotés d’appétits modestes et d’une digestion lente verront leurs camarades les plus voraces engloutir et assimiler la connaissance avec une vitesse et une efficacité bien supérieures aux leurs (ce qui ne rendra pas moins visibles les différences de capacités entre les élèves, ni n’abolira la hiérarchie dont naît parfois un sentiment d’infériorité).
Que l’on soit jugé sur ce que l’on a mangé ou sur ce que l’on a pas mangé, que cela change-t-il vraiment au résultat ? Dans un cas, il s’agit d’une addition à partir de 0 en fonction de 20, qui est le maximum « mangeable », dans l’autre, d’une soustraction à partir de 20, qui est toujours le maximum « mangeable » : 0 + 15 = 15 ou 20 – 5 = 15. Vaut-il mieux établir comme principe que tout le monde part de zéro, ou que tout le monde peut potentiellement arriver à 20 ? Constatant à quel point il aisé de présenter les choses aussi négativement que positivement, dans un sens comme dans l’autre, la métaphore ne peut être que défaillante.
De plus, celle-ci se fonde implicitement sur la contre-vérité (démagogique et bien-pensante) que les enfants (et les individus en général) auraient tous les même capacités cognitives à la base : les psychologues sérieux et rationnels savent que c’est faux. La nature ne se préoccupe point de démocratie et de politiquement correct, et, comme disait Feynman : « La réalité doit avoir préséance sur les relations publiques, car la nature ne peut pas être dupe. »
Avons-nous déjà vu un élève être sévèrement blâmé parce qu’il a 16 ou 18, au prétexte qu’il n’aurait pas mangé tout le buffet ? Un élève qui présente plus de 16 de moyenne au baccalauréat ne reçoit-il pas une mention « Très Bien » ? N’est-il pas édifiant d’enseigner que la perfection est un idéal vers lequel il faut tendre, mais que l’atteindre relève de l’exception ? Certains préfèreront croire que tout le monde est exceptionnel, c’est-à-dire eux les premiers… Nous renvoyons ceux-ci à l’effet Dunning-Kruger, ou encore aux diverses études montrant qu’une large majorité de gens s’estiment au-dessus de la moyenne.
Elon Musk et le moratoire sur les armes autonomes (2:14:00)
« Il [Elon Musk] a milité pour qu’il y ait un moratoire sur les armes autonomes ; ça c’est la classe. Vous vous rendez compte que ce ne sont pas nos élus qui ont fait ça, c’est un gars privé ! qui a milité pour qu’il y ait un moratoire, une convention de Genève des armes autonomes.[…] Donc, lui, il a fait un moratoire là-dessus, et je le respecte énormément pour ça. »
C’est « Le Rapporteur spécial des Nations Unies sur les exécutions extrajudiciaires, sommaires ou arbitraires, Christof Heyns, [qui] a appelé [le] jeudi [30 mai 2013] à un moratoire sur le développement et l’utilisation des « robots létaux autonomes » (RLA), afin de permettre une réflexion internationale sur l’encadrement de ces machines dotées du pouvoir de tuer. »
Cette initiative émane bien d’une instance officielle internationale, en l’occurrence de l’ONU, et non d’un « gars privé ». Elon Musk n’est qu’un des célèbres signataires (parmi cent autres chercheurs, dont Stephen Hawking, Steve Wozniak et Noam Chomsky) de la lettre ouverte, datant du 27 juillet 2015 (soit deux ans après le premier appel de Christof Heyns), publiée par le Future of Life Institute (FLI) à l’occasion de l’IJCAI, une conférence internationale sur l’intelligence artificielle, qui s’est tenue, cet été-là, à Buenos Aires.
« Y a une société finlandaise qui a mis un implant sous-cutané pour faire pointer ses employés en échange de smoothies gratuits…[rires du public] Les mecs ont dit oui ! »
Il n’est pas question de la Finlande, mais de la Suède, et nul article ne semble mentionner que les (ou la partie des) salariés ayant accepté l’implant d’une puce RFID par leur entreprise l’ont fait en échange de smoothies gratuits : il sont tout simplement volontaires. L’achat de smoothies au distributeur n’est qu’un exemple parmi d’autres des possibles usages de la puce — comme le pointage, l’ouverture des portes à accès sécurisé, ou encore l’utilisation de la photocopieuse.
« Une fois que vous avez créé une fenêtre, pour vous, pour votre consommation personnelle, sur les nouveaux écouteurs qui vont bien, la nouvelle bande-dessinée pour votre collection ou votre lieu de vacances ; quand vous fermez votre fenêtre, vous détruisez de la connaissance, et c’est jamais bon de détruire de la connaissance… »
Avant qu’il n’en vienne au sandwich de la connaissance, nous pouvons apercevoir, en guise d’illustration de ce qu’est un repas de connaissances sur internet, que les mots-clés inscrits par Idriss Aberkane dans la barre de recherche du navigateur Google sont : « latest apple product ». Nous sommes pantois (ou feignons de l’être), et comprenons mieux son refus de définir ce qu’est une connaissance, ainsi que son militantisme en faveur d’une économie de la connaissance. C’est que sa définition pourrait grandement choquer l’esprit commun ; esprit commun qui accole généralement les notions de savoir et d’érudition à celle de connaissance.
« Moi j’ai voulu inventer le sandwich de la connaissance. […] C’est facile à préparer, c’est facile à manger, c’est facile à partager : vous cassez le sandwich en deux, hop !, c’est bon, en une seule action, c’est partagé… »
Pour qui a bien suivi les précédents enseignements du Dr. Aberkane, l’image du sandwich est très contrariante, car elle rentre en conflit avec ses propres énoncés sur le partage de connaissances, à savoir que partager un bien le divise, mais que partager une connaissance la multiplie. Couper un sandwich en deux le multiplie-t-il ?
L’aporie illustre les limites (vites atteintes) d’un exposé presque entièrement fondé sur des métaphores.
Origine de la lettre « A » et alphabet phénicien(2:28:20)
« La lettre « A », c’était une tête de taureau[…] Y avait même pas de prononciation, y avait pas de son, c’était juste une note, pour étendre la mémoire humaine. Et puis petit à petit, par les échanges sur les tablettes d’argile, la lettre s’est retournée ; et on s’est retrouvé chez les Phéniciens, qui ont créé le premier alphabet connu de l’humanité, après les sumériens où c’était pas un alphabet. Eh bien ! On s’est retrouvé avec une tête de taureau, la lettre « A », la plus vieille lettre encore en existence aujourd’hui… »
Des sons et des prononciations étaient évidemment associés aux pictogrammes et aux idéogrammes, avant même qu’ils ne deviennent des phonogrammes. Le mouvement va forcément du parlé vers l’écrit.
Bien que l’alphabet phénicien soit à la base de la plupart des alphabets du monde, le premier alphabet organisé connu est en écriture cunéiforme simplifiée de trente signes ; il fut inventé à Ougarit, ville commerçante de la côté syrienne vers le XIVe siècle av. J.-C.
Chez les phéniciens, l’aleph n’a pas connu de rotation supérieure à 90° ; ce sont les grecs qui le retourneront complètement pour engendrer l’alpha que nous utilisons encore aujourd’hui.
« Ma lettre « A », ben c’est le fleuve, hmm… Parce que le fleuve, c’est le repère d’espace par excellence. […] Le fleuve, c’est le point de repère dans l’histoire humaine ; alors, du coup, j’en ai fait un lac, parce que je vis à Neufchâtel. […] Et, du coup, vous voyez, on met tous les onglets autour, les onglets qui seraient pertinents par rapport à une recherche donnée. […] Vous faîtes une recherche, du coup, comme ça vous pouvez chercher une série d’onglets directement. […] Et, directement, vous avez une série de contenus pertinents. […] Ben ça, pour moi, c’est un sandwich de connaissances. Le pain, c’est le fleuve : ça permet de tenir le contenu, et en même temps c’est plus agréable à manger parce qu’il est là. Pour votre esprit, manger, c’est spatialiser[…] Ça favorise votre digestion, parce que c’est spatialisé. […] Les protéines, c’est les liens que vous voyez là. […] Et la salade, elle est pas montrée là, mais c’est les espaces roses, où en fait je mettrai des forêts pour décorer, et très rapidement on pourrait faire : « Cette forêt est offerte par BMW »… Et, là, vous avez le modèle économique. […] Donc, le sandwich de connaissances, c’était ça la réflexion de cette thèse, car si on échoue à l’inventer, ce putain de sandwich, eh bien ! ça va se passer par intraveineuse. »
L’analogie lac/pain est illogique : le lac rassemble autour de lui ; le pain, en lui. Dans un cas, les ingrédients sont à l’extérieur ; dans l’autre, à l’intérieur. Le premier évoque un fluide en mouvement ; le second, un solide statique.
En énumérant les ingrédients composant la « série de contenus pertinents », nous remarquons qu’il n’y a au menu que des GAFA, du Instagram, du Snapchat, du Linkedin, du Twitter, (dans le meilleur des cas) du TED et du Wikipédia. N’en soyons point indisposés, et même repaissons-nous de voir enfin une logique se dégager de l’image : un sandwich, par définition, c’est de la « fast-food ».
N.B. : Qui se rendra sur le site de Chréage (son « bébé », comme il dit), découvrira, qu’après avoir été fleuve, puis lac, le pain est devenu brin d’ADN. Les Métamorphoses du vide.
Oiseau jardinier satiné ; poisson-globe et crop circles (2:35:20)
Oiseau jardinier satiné
« L’oiseau jardinier satiné, on l’appelle comme ça parce qu’il a une plume bleue sur l’épaule. […] Le signe des temps est qu’avant il mettait des petites fleurs bleues, et que les petites fleurs bleues ont disparu, alors maintenant, il met des brosse à dents, des capuchons de stylo et des bouchons de bouteille. […] Si jamais la femelle veut bien de lui, eh bien ! il aura des œufs avec elle. Eh bien ! cet oiseau, il illustre les trois « P » de l’amour : Précision, parce que quand il est amoureux, il arrive à dévisser un bouchon de bouteille, c’est super chaud. »
Si l’oiseau jardinier satiné s’appelle ainsi, c’est parce qu’il a un plumage intégralement noir qui produit des reflets bleutés selon l’angle d’incidence de la lumière (principe de l’iridescence), non parce qu’il a une plume bleue sur l’épaule. Ils ne dévisse pas les bouchons de bouteilles en plastique bleu dont il décore, entre autres objets, son nid de séduction : il les glâne tels quels.
« Vous avez par exemple ces fameux cercles extra-terrestres dans les océans ; vous avez peut-être vu ça sur les réseaux sociaux. Donc, en fait, c’est un petit poisson, qui est tout petit[…], qui, quand il veut avoir une descendance, fait ce grand espace qui est l’équivalent d’une demi-douzaine de terrains de foot. »
Un terrain de football pour les matchs internationaux fait 7000m2 ; un mâle humain moyen, disons 180cm de haut ; le poisson-globe en question, 12cm de long ; un « crop circle » nuptial, 2m de diamètre au maximum. Six terrains de football représentent donc une surface de 42 000m2 ; le poisson-globe est quinze fois plus petit que notre mâle humain (180/12 = 15).
Un « crop circle » eut dû s’étendre sur 2800m2 pour équivaloir à six terrains de foot à l’échelle du poisson-globe ; pour qu’un « crop cricle » de 2m de diamètre équivalût à six terrains de foot à l’échelle humaine, le poisson-globe eut dû mesurer moins d’un demi-millimètre.
En 1895, Paul Valéry, alors âgé de 24 ans, après de brèves études de droit, publiait Introduction à la méthode de Léonard de Vinci, et ce n’est sûrement pas un hasard que le génial académicien ait plus tard renchéri sur le maître universel : « Qui veut faire de grandes choses doit penser profondément aux détails. »
Quoique Idriss Aberkane ait déjà avancé que l’« on mesure la grandeur de ce que l’on fait à l’importance des gens qui essaient de vous arrêter », il nous a clairement indiqué, en accord avec Léonard et Valéry, que l’on mesure le degré de grandeur, d’excellence ou de perfection d’une œuvre à l’aune de l’attention aux détails que son auteur y prête, traduction concrète de l’amour qu’il lui porte. C’est donc avec des outils de sa propre invention qu’il est juste d’évaluer la qualité du travail fourni. Le diagramme du Love Can Do rend une appréciation sans complaisance : Idriss Aberkane n’aime faire, ni ne fait bien ce qu’il fait — ou prétend faire.
Comment travaille-t-il ? Manifestement, sans rigueur ni probité. Il en résulte, d’une part, que lui payer de l’attention et du temps est toujours un commerce fâcheux ; d’autre part, qu’il est indigne de confiance, donc en marge de la science.
Pourquoi travaille-t-il ? Censément, pour émanciper les consciences et participer à rendre le monde meilleur. Louable dessein. Mais on ne peut ni libérer les cerveaux en les enfermant dans le mensonge, ni changer un monde que l’on décrit tel qu’il n’est pas, avec force métaphores spécieuses pour seuls appuis rhétoriques, et pour seuls modèles économiques des multinationales régnantes, qui font vraiment le monde tel qu’il faudrait le changer.
Nul besoin d’avoir trois doctorats (l’auteur principal de cet article n’a jamais fréquenté les amphithéâtres) pour invalider la quasi intégralité d’une conférence de trois heures vendue par Idriss Aberkane, dont, pourtant, nous attendions légitimement compétence et expertise véritables. « Docteur », « chercheur, « génie », « polymathe », autant de titres valorisants qui confèrent prestige et autorité à celui qui les porte, à condition qu’ils soient mérités.
« Ce n’est pas le titre qui honore l’homme, mais l’homme qui honore le titre. » Nicolas Machiavel
NB : Monsieur Aberkane a évidemment un droit de réponse sur les pages de ce blog.
Depuis fin 2016, le cas d’Idriss Aberkane a attiré l’attention du monde de la vulgarisation scientifique par son travail clinquant, mais surtout en raison de l’argumentaire massue dégainé à longueur d’interview : un curriculum vitae incroyable, et auquel beaucoup ont choisi de croire alors qu’il aurait fallu en douter. Il a ainsi été épinglé dans plusieurs critiques rédigées par des vulgarisateurs des sciences très attachés à la probité de ce métier.
La réaction de l’intéressé aux critiques de son discours consiste à jouer la victime et à maintenir son scénario : il est un génie jalousé. Ce choix est sans doute motivé par le succès que ses mensonges lui permettent de rencontrer auprès des médias et des éditeurs. Nous devons donc interroger d’urgence un système qui récompense la fraude et se montre incapable d’une autocritique avant qu’il soit trop tard.
Le livre d’Idriss Aberkane (un traité de développement personnel grimé en expertise sur les neurosciences et les sciences de l’éducation) rencontre visiblement un franc succès, pour le plus grand plaisir de son éditeur. Assez logiquement, un autre livre est en préparation. Afin de s’assurer que la presse ne puisse qu’être élogieuse à la sortie de ce futur livre, l’éditeur tente une manœuvre stupide : la censure des blogs se montrant critiques envers le lucratif auteur. C’était tout début 2018. Quelques mois plus tard, nous découvrons un nouveau produit dans la galaxie Aberkane : un cours en ligne payant. Et il est temps pour un nouveau chapitre.
Episode de janvier 2018 : Censure de la critique
Fin janvier 2018 on apprend que des blogueurs et des hébergeurs ont été mis en demeure de retirer des articles critiques envers Idriss Aberkane. L’avocat des éditions Robert Laffont donne pour motif la diffamation dont l’auteur serait victime. Le délai de prescription étant écoulé, la démarche est tout au plus un coup de bluff.
Extrait d’un article d’Arrêt sur Images.
« Plusieurs blogueurs scientifiques, hébergés notamment sur Marianne.fr et Libération.fr, ont reçu une mise en demeure de l’avocat de l’éditeur Robert Laffont. Ce dernier demande le retrait d’articles publiés en 2016, critiques d’Idriss Aberkane. Ce jeune essayiste et chroniqueur au Point, spécialisé dans l’optimisation des performances du cerveau, publié chez Robert Laffont, publie un nouveau livre prochainement. » (source)
Un coup pour rien : ces articles sont toujours en place, on peut même espérer qu’ils ont joui d’un effet Streisand bien mérité. Le blog La Menace Théoriste n’a reçu aucun courrier de l’avocat en question. Cette péripétie illustre un décalage par rapport à la manière dont un scientifique répond aux critiques : par le débat ouvert, la démonstration méthodique, la publication de ses travaux dans des journaux d’experts… Aberkane ne sait pas (ou ne veut pas ?) se défendre sur le terrain scientifique. Il s’agit d’un comportement qu’on a vu chez les frères Bogdanov qui ont le procès facile dès qu’on remet en cause la scientificité de leurs thèses.
Contrairement au scénario victimaire qu’il répand, Idriss Aberkane n’est pas étrillé pour son seul CV, mais bel et bien pour le contenu indigent de ses articles et conférences et pour sa posture faussement disruptive (c’est à la mode) avec le système en place.
L’intéressé a choisi de ne jamais répondre sur le fond à ces critiques, comme le ferait un authentique chercheur. Ceux qui ne lui accordent guère de crédit ne sont pas surpris par cette posture, les autres devraient s’en offusquer. Idriss Aberkane aurait dû suivre le conseil d’Isaac Asimov (qui nous accompagnera tout au long de ce billet) :
« On gagne toujours à jouer cartes sur table, surtout lorsqu’on a la réputation de cacher son jeu. » (Fondation, Tome 1).
Une stratégie de personnification.
Auprès de ses fans, la victimisation fonctionne bien, c’est naturel. On peut comprendre que ceux qui sont attachés à certaines valeurs dont ils pensent qu’Aberkane les défend, voire qu’il les défend seul contre tous, croient a priori que les critiques sont inspirées par de mauvais sentiments à l’égard de sa personne. Il nous faut donc rappeler, comme à chaque fois, que nous opérons bien la distinction entre les individus, leurs idées et leurs arguments. Les arguments sont faits pour être secoués et mis à l’épreuve, les idées sont faites pour être remises en cause, aucun des deux n’a droit au respect. Ainsi seulement peut-on épargner l’intégrité des personnes avec lesquelles nous serions en désaccord. Il faut donc comprendre que nul ne fait le procès d’Idriss Aberkane ; c’est sa rhétorique, son recours aux mensonges par déformation sémantique, et le système qui permet à ces mensonges de lui apporter du succès qui sont les cibles des nombreuses critiques.
Mais le gros problème ici, et il n’est pas de notre fait, c’est que le principal produit que vend Idriss Aberkane, c’est… Idriss Aberkane : « Mon CV, c’est la partie la plus solide de mon ouvrage » dit-il le 17 novembre 2016 sur France 24. Cette stratégie d’incarnation du produit commercial est très efficace pour la viralité dudit produit, elle créé un lien affectif avec le public, et elle personnalise d’emblée n’importe quel critique. De fait, on ne peut pas critiquer le produit Idriss Aberkane sans donner l’impression qu’on critique la personne qui porte le même nom.
Eléments de défense employés par Idriss Aberkane :
« Les petits esprits attaquent les gens, les grands esprits attaquent les idées »
« Vous savez bien qu’on ne peut pas être crédible aujourd’hui si on n’est pas attaqué ».
Le Point : un journal complice de fraude intellectuelle. D’abord en attribuant à Aberkane des titres qu’il n’a pas (« chercheur en neurotechnologies à Polytechnique et à Stanford ») ce qu’un minimum d’éthique journalistique permet de vérifier. Mais aussi en lui confiant régulièrement une pleine page pour qu’il partage ses opinions en tant qu’expert qu’il n’est pas, acquérant au passage une légitimité qui entretient l’imposture.
Sur le biomimétisme, mieux vaut se tourner vers des personnes qui ont un vrai bagage scientifique et des prétentions conformes à leur pedigree comme Janine Benyus.
Episode de juin 2018 : Le cours en ligne.
Idriss Aberkane vend désormais de la neuroergonomie. En flagrante contradiction avec le cœur de son propos : le besoin de la libre circulation de la connaissance, le voici qui marchande l’accès à environ huit heures de vidéo. Le texte de sa présentation d’une minute trente est un parfait exemple de sophistique où l’on n’apprend rien sur le contenu du cours, car ce qu’il nous faut apparemment savoir c’est combien leur auteur est un homme à succès. De la poudre aux yeux !
Examiner la rhétorique déployée dans la petite annonce vidéo permet de révéler de façon éclatante le sophiste derrière le « neurosage ». Puissante ironie, cette vidéo est l’archétype de la manipulation mentale contre laquelle il promet de protéger ses élèves.
« Bonjour mesdames et messieurs, je m’appelle Idriss Aberkane. Je suis docteur de l’école Polytechnique en sciences cognitives appliquées aux sciences de gestion. J’ai été chercheur à l’université de Stanford à vingt ans… »
On n’est pas « chercheur » à l’université si l’on n’est pas docteur, ou à tout le moins co-auteur d’un travail de recherche publié dans un journal scientifique. À 20 ans, monsieur Aberkane avait tout au plus un DEUG. Personne n’appelle un étudiant en DEUG « chercheur », même quand il participe à des travaux de recherche, et cette ambiguïté confine au mensonge pour quelqu’un du métier. Le même type de mensonge se retrouvait déjà dans son CV avec le mot « professeur« . On doit malheureusement constater qu’Idriss Aberkane n’a pas fini de mentir, même sous la pression des fact-checkers. Sur ce besoin de se prévaloir de titres universitaires, citons Isaac Asimov : « La gloire passée ne nourrit guère. »
« Je suis resté affilié à cette université pendant plus de sept ans. Je suis également passé par Normal Sup et Cambridge »
Mais sans produire aucun article de recherche… Donc probablement sans faire de travail de recherche. Donc probablement sans y être chercheur. Nous assistons ici à une manipulation de l’effet halo. Apposer une chose très positivement connotée (Stanford) à côté d’une autre (Idriss Aberkane) a tendance à produire une sorte de contagion des qualités de la première vers la seconde.
L’ensemble de cette introduction est un long argument d’autorité, l’un des sophismes les plus répandus dans les pseudosciences.
« Et pourtant dans le cours que je vais vous faire, je vais vous parler de l’importance d’être autodidacte. De l’importance de l’échec. Je vais vous dire que l’échec est un diplôme. Mais je vais surtout vous parler de neuroergonomie. »
Les cours en ligne s’adressent à des personnes qui ne sont pas dans le parcours classique des universités et écoles. Les phrases ci-dessus ressemblent beaucoup à ce qu’il faudrait dire pour les rassurer et les flatter. À ce sujet, citons Isaac Asimov : « L’anti-intellectualisme a été un fil conducteur qui serpente à travers notre vie politique et culturelle, nourrie par la fausse idée que la démocratie signifie que « mon ignorance vaut autant que vos connaissances ». »
« Ca a l’air de quelque chose d’ésotérique, de quelque chose de réservé à une élite neuroscientifique particulière. Mais pas du tout. Celui qui connait son cerveau, eh bien il connait la condition humaine, si on voulait adapter les phrases de Montaigne au présent d’aujourd’hui. Je voudrais vous montrer dans ce cours que connaître son cerveau est décisif au 21è siècle parce que si vous ne connaissez pas votre cerveau, d’autres gens le connaîtront pour vous et ce ne sera pas dans votre intérêt »
Tout est vrai dans ces phrases. La mise en garde est curieusement pertinente. Notez bien qu’il n’est pas question pour moi d’être en désaccord avec tout ce qui sort de la bouche de ce monsieur. Du reste, les baratineurs ont toujours intérêt à mettre un maximum de vérités dans leur baratin.
« J’ai écrit un livre à ce sujet qui s’appelle « Libérez votre cerveau ; traité de neurosagesse pour changer l’école et la société ». Ce livre a connu un certain succès puisqu’il a été vendu à plus de 200 000 exemplaires à travers le monde. Il a été traduit en chinois, coréen, japonais, russe, grec et allemand. Espagnol, bien sûr. Et italien. »
Cette fois, c’est un argument ad populum. La popularité d’un livre n’est pas garante de la véracité de son contenu, on trouverait bien des exemples au cours de l’histoire. Mais le spectateur pourra être impressionné par ce sophisme s’il ne le reconnait pas pour tel.
« Eh bien dans ce livre j’ai inventé le mot de neurosagesse pour rappeler quelque chose qu’Isaac Asimov avait dit, qui sera la structure de mon cours : une civilisation qui produit beaucoup de connaissances et peu de sagesse est vouée à l’extinction, eh bien voyons quelle sagesse nous pouvons tirer de l’étude de nos propres nerfs. »
Ainsi s’achève cette annonce. Rappelons que le concept de neurosagesse n’a jamais été soumis à l’examen des scientifiques du domaine, et qu’à ce titre il ne vaut scientifiquement pas plus que n’importe quel concept de fiction. Isaac Asimov, grand auteur de SF, mais également prolifique vulgarisateur des sciences, n’a jamais prétendu que ses romans avaient une valeur scientifique, tout simplement car il savait distinguer science et fiction.
Pourquoi un cours en ligne?
Quand un chercheur fait carrière, qu’il est reconnu pour ses compétences, le parcours classique est d’obtenir un poste dans un organisme de recherche, et éventuellement dans une université. C’est le parcours que l’on s’attend à voir embrasser celui qui tient les propos d’Idriss Aberkane sur « l’école et la société ». Son souci affirmé pour la circulation de la connaissance et de la sagesse y trouverait des moyens à sa mesure. De nos jours, les plus prestigieuses universités mettent en ligne les cours de leurs professeurs. Vues des centaines de milliers de fois, ces cours sont gratuitement accessibles à tous, moyennant d’en avoir le temps et d’y consacrer beaucoup d’attention.
Mais notre homme fait un choix différent, celui de vendre ses cours comme un vulgaire coach de vie. Cette stupéfiante contradiction marque une nouvelle étape dans le parcours de simili gourou qui éloigne de plus en plus Idriss Aberkane de la crédibilité académique dont pourtant il se réclame. Tout cela est-il compatible avec le complaisant autoportrait servi par l’intéressé sur tous les supports depuis des années ?
Pour citer encore Isaac Asimov : « Une « information fausse » est par définition incompatible avec toutes autres informations connues. C’est le seul critère qui nous permette de distinguer le vrai du faux. » (Les Robots).
Sur le site de la société qui vend le cours, Mybebooda, la présentation joue également (et uniquement) cette partition de l’excellence scientifique d’Aberkane.
« Idriss Aberkane, neuroscientifique de renom au parcours remarquable, y consacre sa vie et la démocratise à travers cette formation. » (source)
Un scientifique a du « renom » quand il publie des travaux commentés, repris, critiqués, salués, par ses pairs, pas quand il écrit dans le Point ou passe à la radio pour un livre de développement personnel.
« Les choses n’ont pas besoin d’être vraies, du moment qu’elles en ont l’air. » nous disait déjà Isaac Asimov.
« A l’aide d’études, d’exemples pratiques et d’histoires concrètes, Idriss Aberkane va vous enseigner les subtilités de la neuroscience et vous permettre de reprendre le contrôle de votre mental, donc de votre identité et de votre place au sein de la société (au travail, en famille, en couple…). » (emphases d’origine)
Entre les lignes, nous avons ici un vrai programme de coach de vie. On ne nous explique pas ce que signifie « reprendre le contrôle de votre mental », et cela est délibéré puisque le chaland pourra y trouver le sens de ce dont, justement, il se persuade qu’il manque.
« La neuro-ergonomie, la neuro-sagesse et la (sic) neuro-mimétisme sont des concepts qui lui tiennent particulièrement à coeur et que vous retrouverez dans sa formation. Ces notions ne se limitent pas seulement au bien-être individuel, elles impactent l’évolution de la science et de nos sociétés. »
Les chercheurs brillants qui ont 3 doctorats et réalisent de vrais travaux de recherche ne finissent pas sur un site, à vendre quelques heures de cours (offre spéciale : 70€ au lieu de 126€ !) en compagnie d’individus dont la stature scientifique ne fait guère illusion. Regardez plutôt.
Luc Bodin délivre ses enseignements sur les « soins énergétiques ». Ancien médecin, on ne le trouve pas au registre de l’ordre des médecins, mais en revanche cité par la MIVILUDES qui s’inquiète de ses pratiques (Cf ce document pdf, page 16). La fiche que le PSIRAM lui consacre est éclairante sur sa nature de charlatan (et ce, qu’il ait ou non l’intention claire et consciente de tromper les gens).
Mais on peut citer également Olivier Chambon, lui aussi docteur. Ses cours concernent la loi d’attraction (= pensée magique) et l’intelligent design (créationnisme).
Mais il y a aussi le docteur Jean-Jacques Charbonier, connu pour prétendre détenir les preuves scientifiques de la vie après la mort et organiser de grandes séances collectives où des personnes endeuillées entrent en contact avec leurs défunts. Ces activités sont loin d’être bénévoles.
Et il y en a d’autres…
Cherchons des solutions plutôt que des coupables
Ce contexte jalonné de docteurs experts en pseudo-sciences nous éclaire sur le niveau de scientificité des cours d’Idriss Aberkane. À ce stade, nous constatons avec regrets que la prudence à laquelle nous appelions les sympathisants d’Idriss Aberkane déjà en 2016 était justifiée, et nous estimons achevée la démonstration de son divorce d’avec toute activité authentiquement scientifique. Au delà du cas personnel sur lequel s’appuie cet article, nous devons insister sur le contexte qui autorise le succès d’entreprises n’ayant de scientifique que les atours. Les indices de manque de sincérité de la démarche sont nombreux depuis les début de sa présence médiatique. Les mêmes indices devraient nous alerter dans bien d’autres cas… Qu’ils réussissent malgré tout à faire illusion nous informe sur la faiblesse des connaissances du monde médiatique sur le monde académique (en espérant que cela ne signe pas davantage un mépris, ce qui pourrait se révéler dramatique). Il n’y a aucune fatalité au succès des faussaires, il ne dépend que de l’engourdissement de notre vigilance épistémique.
Laissons le mot de la fin à notre aîné, Isaac Asimov :
« Voyez-vous, si vous désirez devenir riche rapidement, ne vous cassez pas la tête, créez une nouvelle religion. »
NB : Monsieur Aberkane a évidemment un droit de réponse sur les pages de ce blog.
Nous croisons désormais le mot allopathie dans tous les médias. On s’en est rendu compte lors de la polémique qui a accueilli la tribune de 124 médecins « contre les fake médecines » (les thérapies non conventionnelles), où le mot s’est trouvé dans la bouche ou sous la plume d’une bonne partie des journalistes et des médecins.
Que signifie-t-il ?
Larousse en ligne : « Mode habituel de traitement médical qui combat la maladie en utilisant des médicaments qui ont un effet opposé aux phénomènes pathologiques. »
Personne ne peut comprendre cette définition sans avoir connaissance du principe de similitude. Selon ce principe, on pourrait soigner en utilisant des substances qui ont sur le corps le même effet que la maladie que l’on cherche à soigner. Comment ? En les diluant : c’est la théorie derrière l’homéopathie. Dès lors, on doit bien constater qu’on ne parle d’allopathie que dans un énoncé où il est question de distinguer l’homéopathie de ce qui n’est pas l’homéopathie.
La plupart de ceux qui utilisent des remèdes homéopathiques ou qui en prescrivent ne se documentent pas intensément sur la manière dont ces remèdes sont fabriqués ni sur le corpus théorique censé expliquer leur mode d’action. Pour comprendre pourquoi on peut dire que l’allopathie n’existe pas, il faut rappeler les principes de l’homéopathie, inventée par Samuel Hahnemann en 1796.
Les principes de l’homéopathie.
Principe de similitude: « Un produit toxique provoque des lésions. Ce même produit, préparé selon les techniques homéopathiques, sera capable de traiter un malade qui présente des lésions du même type ». (source)
Principe de dilution: Hahnemann se rend compte que ses remèdes sont plus efficaces quand ils sont dilués. (On notera que lorsqu’ils ne sont pas dilués, ces remèdes sont censés rendre malade, donc la dilution était préférable pour ses patients…) Plus la dilution est grande, plus le remède serait efficace, en parfaite contradiction avec l’effet-dose démontré pour la plupart des substances chimiques, et sans qu’un cadre théorique n’explique rationnellement cet effet allégué. Heureusement, en l’absence de preuve des effets de la dilution, il n’y a en réalité rien à expliquer, cf l’histoire de la dent d’or de Fontenelle.
Principe de dynamisation: Entre chaque dilution, le remède est secoué plus d’une centaine de fois (on trouve difficilement la description exacte de cette étape chez les fabricants) car Hahnemann avait estimé que ses remèdes secoués dans la sacoche de sa selle lorsqu’il se rendait au chevet d’un malade à cheval avaient une plus grande efficacité que les remèdes non secoués. Aucune explication n’est donnée sur la raison de cette amplification d’efficacité
La dynamisation « active la force du médicament » selon www.homeomalin.com
Est appelée « allopathie » la médecine qui ne se fonde pas sur ces trois principes.
Le désir d’une « autre » médecine
Avec le temps « allopathie » est devenu synonyme de « médecine officielle » avec ses médicaments, ses pratiques invasives, ses protocoles froids, sa logique « occidentale ». Les partisans des thérapies non conventionnelles ont pris l’habitude d’employer ce mot pour désigner la médecine pratiquée par les médecins, c’est-à-dire… la médecine.
Rappelons que la médecine (que nous proposons de ne jamais appeler allopathie) utilise une large gamme de techniques depuis la prise en charge psychologique jusqu’à la chirurgie réparatrice en passant par de très nombreux médicaments dont la plupart des principes actifs sont extraits ou ont été conçus à partir d’extraits de plantes. « Se soigner par les plantes » est l’un des principes de la médecine conventionnelle. Croire se soigner par les plantes avec l’homéopathie est en revanche un grave contresens, le meilleur exemple en étant le produit star Oscillococcinum, fabriqué à partir de cœur et de foie de canard.
Si l’on résume, le mot allopathie a été créé par Samuel Hahnemann en opposition à son propre concept d’homéopathie. Il s’agit donc d’un terme interne à la doctrine homéopathique. Cette origine n’est pas anecdotique, elle éclaire la nature rhétorique du mot. Chaque fois que vous employez ce terme, vous mettez artificiellement sur un pied d’égalité l’homéopathie et la Médecine Fondée sur les Preuves (Evidence Based Medicine).
D’aucuns croient que la Terre est plate. Ils sont très prolixes sur les réseaux et nomment ceux qui se fient à la géologie, à la géographie, à l’astronomie, bref à la science, des globistes. Le mot globiste appartient à la doctrine « platiste », il a pour but de poser une fausse équivalence entre deux points de vue dont un seul repose sur l’ensemble des connaissances patiemment établies tandis que l’autre repose sur l’acte de foi et le rejet des méthodes d’acquisition des savoirs éprouvées et sans cesse améliorées de la démarche scientifique. Nous serions choqués, et avec raison, si les journalistes se mettaient à parler du « globisme » des géologues, car le globisme n’a pas de sens en dehors de la rhétorique platiste.
Dans un autre registre, on connaît les négationnistes de l’histoire, et leurs tentatives de discréditer une version du génocide juif qu’ils jugent officielle et pilotée par le pouvoir politique. On n’imagine pas qu’un média s’abaisse à qualifier de « chambre-à-gaziste » un historien non négationniste.
Quand sur France inter, il y a une dizaine de jours, on se demande « Peut-on réconcilier homéopathie et allopathie ? », on pose donc une question privée de sens. L’allopathie est spécifiquement définie, conçue, pour tenter de rassembler dans un seul mot tout ce qui n’est pas la doctrine homéopathique. Force est de constater l’efficacité du procédé et donc de veiller à s’en défendre.
Les mots ont un sens
Il faut interpeller les journalistes qui emploient ce mot, probablement sans savoir l’effet qu’il vise à produire. De leur côté, charge aux journalistes d’accepter la critique et de veiller à ne pas être malgré eux les vecteurs d’une dialectique commerciale qui alimente une industrie parapharmaceutique sous perfusion à la fois de la Sécurité Sociale et de la crédulité d’un public mal informé sur la confiance qu’on peut accorder à l’homéopathie.
Les journalistes acceptent parfois, et c’est heureux, de prendre en compte la critique et s’engagent à faire preuve de plus de rigueur. Mais, naturellement, les journalistes ne sauraient être plus exigeants sur ces questions que le corps médical lui-même, lequel devrait bannir l’usage d’un mot qui est le puissant ambassadeur d’une doctrine incapable d’assortir ses allégations de la moindre preuve depuis maintenant 222 ans.
Bonjour, merci pour votre retour. Nous en tiendrons compte pour le prochain article à ce sujet. Par ailleurs, nous avons publié d'autres articles de fond sur l'homéopathie https://t.co/SeVONgqlcC Bonne soirée !
La charge de la preuve n’a jamais incombé à ceux qui doutent de l’efficacité d’un soin, et deux siècles sont plus qu’assez pour comprendre ce que le consensus scientifique a désormais établi.
https://menace-theoriste.fr/wp-content/uploads/2018/04/medecine.jpg495866Acermendaxhttps://menace-theoriste.fr/wp-content/uploads/2015/08/menace_theo2-300x145.pngAcermendax2018-04-12 14:03:242018-04-12 14:15:03L’allopathie n’existe pas
Un sondage sur les « théories du complot » fait la une des journaux aujourd’hui (voir en fin d’article les captures d’écran).
On appelle « théorie du complot » le recours à des explications de type conspirationniste2 pour des événements par ailleurs élucidés. La terminologie n’est pas sans défaut, car les vrais complots (projet secret d’un petit groupe aux dépens des intérêts d’un autre groupe) existent. Et à titre personnel je regrette que cette formulation ajoute son coup de canif au concept de « théorie » par ailleurs si malmené et incompris, en particulier par les personnes qui rejettent la parole scientifique et accordent du crédit aux explications « alternatives » volontiers conspirationnistes.
Etudier l’adhésion d’une partie de la population à des idées conspirationnistes est une tâche importante et complexe. Complexe, car il est bien évident que le conspirationniste ne sera que peu motivé à répondre honnêtement à un sondage s’il juge que les sondages sont un outil de manipulation. Importante parce que ces idées virales ont des conséquences sur les comportements des individus et sur la société. Le cas le plus grave est peut-être le mouvement antivax qui sème la panique chez les jeunes parents et met en danger de nombreuses vies.
Or donc, ce sondage est intéressant s’il permet de dresser un état des lieux des croyances des français. Le permet-il ? Ce n’est pas certain, en tout cas faut-il prendre du recul. Rappelons que le sondage a été fait via Internet sur 1252 personnes qui ont simplement répondu à un questionnaire en ligne.
Il faut lire le rapport de près pour être bien certain que les auteurs n’ont pas rangé dans la catégorie complotisme la croyance suivante :
« Dieu a créé l’homme et la Terre il y a moins de 10 000 ans »
Cette croyance religieuse littéraliste est citée par les sondeurs pour mesurer sa corrélation avec les croyances complotistes. Comme c’était attendu, cette corrélation est forte. Ce créationnisme « Terre Jeune » est surtout le marqueur d’un rejet de la méthode scientifique.
Le sondage montre le lien entre la lecture de l’horoscope et la croyance dans les théories du complot. Le rapport conclut à un lien entre complotisme et superstition que l’on aimerait voir explorer un peu plus efficacement qu’avec le seul proxy de l’horoscope. On sait que ces mécanismes de croyance sont proches dans le sens où ils sont stimulés dans le même sens par un sentiment de perte de contrôle 3, mais il existe toutes sortes de superstitions qu’il semble audacieux d’assimiler toutes à la consultation de l’horoscope.
On observe que 12% des sondés « sans religion » croient à la Terre Jeune. C’est un chiffre étonnant qui doit nous alerter. Certes on peut croire à une création du monde récente par Dieu sans adhérer à une religion, mais l’énoncé est fortement lié à une lecture littérale de la Bible, et 12% c’est considérable. On aimerait en savoir plus sur ces 12% pour écarter la possibilité d’un trollage pur et simple du sondage.
La formulation des questions est-elle neutre ou induit-elle une réponse plutôt qu’une autre ?
Les questions du sondage semblent interdire une interprétation propre des résultats. C’est un vrai festival !
« Sur une échelle de 0 à 10 où la note 0 correspondrait à quelqu’un qui fait tout à fait confiance et qui croit tout ce qu’on lui dit et la note 10 correspondrait à quelqu’un « à qui on ne la fait pas »
Cette question revient à demander aux gens d’estimer leur propre degré de crédulité. Cela semble peu corrélé à l’adhésion aux théories du complot. Un scientifique très rigoureux et un complotiste forcené pourront sans mal se donner la note maximale. Croire au résultat de cette question, c’est négliger l’effet Dunning-Kruger.
« A propos des médias (journaux, radios, télévisions), de laquelle des opinions suivantes vous sentez-vous le plus proche ?
• Leur rôle est essentiellement de relayer une propagande mensongère nécessaire à la perpétuation du « Système »
• Etant largement soumis aux pressions du pouvoir politique et de l’argent, leur marge de manœuvre est limitée et ils ne peuvent pas traiter comme ils le voudraient certains sujets
• Travaillant dans l’urgence, ils restituent l’information de manière déformée et parfois fausse .
• Globalement, ils restituent correctement l’information et sont capables de se corriger quand ils ont commis une erreur.»
Ici, on se trouve forcé d’entrer dans l’une des 4 cases prédéfinies, ce qui représente une amputation de la réalité tout à fait majeure. D’une part, les propositions ne sont pas mutuellement exclusives, il eut donc été préférable d’accorder un choix multiple et ordonné, d’autre part des avis alternatifs peuvent être défendus au sujet des possibles lacunes méthodologiques des journalistes qui ne sont pas imputables à un manque de temps, à des pressions ou à un refus de se corriger.
« Il est possible que la Terre soit plate et non pas ronde comme on nous le dit depuis l’école »
Cette question contient deux problèmes. D’abord : oui, il est possible de penser que la Terre soit plate et non pas ronde, si et seulement si un grand nombre de conditions sont réunies 4. La réponse peut donc être un « oui » sans arrière pensée, totalement décorrélé du niveau de complotisme des sondés. La question comporte aussi une mention à l’école qui est de nature à focaliser la réponse sur un élément non lié à la forme de la Terre. La question porte-t-elle sur la rotondité de la Terre ou sur la confiance à accorder à ce qu’on apprend à l’école ? On peut gager que les réponses n’ont pas toutes été données au même aspect de la question.
Sur l’immigration, on demande aux sondés si leur avis peut se formuler ainsi :
« C’est un projet politique de remplacement d’une civilisation par une autre organisé délibérément par nos élites politiques, intellectuelles et médiatiques et auquel il convient de mettre fin en renvoyant ces populations d’où elles viennent. »
La proposition contient deux énoncés sans lien logique. D’un côté le complot des élites, de l’autre la réaction qu’on devrait adopter. C’est le seul item qui permet au sondé de dire qu’il souhaite que les immigrés rentrent « d’où ils viennent ». À quelle partie de cette proposition les sondés se sont-ils identifiés ? Mystère !
« Les pays européens ont le devoir d’accueillir les personnes poussées à l’exil par la guerre et la misère, et c’est aussi leur intérêt économique à long terme.»
À nouveau deux réponses se cachent dans une phrase. Le devoir moral n’implique pas un intérêt économique et vice versa. Les sondés rétifs à l’un de ces deux aspects rejetteront cette réponse alors même que l’autre aspect aurait pu les satisfaire.
« Les élections en France sont organisées de manière suffisamment transparente et sûre pour éviter les tricheries et assurer la réalité des votes »
On se demande quelle sûreté est sous-entendue, et dans quelle mesure cette sûreté associée à une transparence suffit à assurer la « réalité » des votes. Les « tricheries » lors des élections pourraient bien survenir pour d’autres raisons… Le moins qu’on puisse dire est que la question, derechef, n’est pas univoque. Chacun peut l’entendre d’une manière différente et donc on se demande bien ce qui est mesuré dans les réponses.
Faute envers la pensée critique et envers la logique.
La première étape de la pensée méthodique employée en science est le scepticisme a priori sur les faits. Les sondés n’ont pas été autorisés à suspendre leur jugement. Pire, on les a interrogés sur des théories dont ils n’avaient jamais entendu parler en les forçant à avoir un avis sur le champ. Cette erreur est de nature à biaiser considérablement les chiffres obtenus.
Pour illustrer les résultats aberrants que cette erreur de méthode produit :
35% des français ont déjà entendu dire que « Les groupes terroristes djihadistes comme Al-Qaïda ou Daech sont en réalité manipulés par les services secrets occidentaux » et 31% adhèrent à cette idée. Seulement 4% des Français connaîtraient cette théorie sans y croire… Mieux encore : si 27 % des Français ont déjà entendu parler des explications des révolutions française et russe par l’action de sociétés secrètes, ils sont 28 % à adhérer à cette explication.
D’un point de vue rationaliste, il est incompréhensible que les sondeurs n’aient pas ajouté une case « ne se prononce pas » à chacune de leurs questions. Mais peut-être le but était-il de pouvoir corréler des chiffres gonflés avec des appartenances politiques, auquel cas le sondage serait parfaitement calibré. À tout le moins, le tableau final semble peu à même de refléter la réalité des croyances ou de l’absence de croyance des Français sur des sujets où la formulation des questions a un fort impact sur la réponse, surtout en se permettant d’étiqueter une partie de l’échantillon « complotistes ».
Toutes les « théories du complot » n’ont pas la même notoriété
Que conclure ?
Que les médias souhaitent alarmer la population sur l’épidémie de croyances irrationnelles et dangereuses qui nous envahit est sans doute une bonne chose, et c’est certainement ce qui a motivé le relais massif des résultats de ce sondage. Toutefois, on ne peut pas faire l’économie d’une analyse très critique de tels résultats. Des questions réductrices ne laissant pas la liberté au sondé de suspendre son jugement, même sur des théories dont il n’a jamais entendu parler ne pouvaient qu’aboutir à un tableau alarmant. La conclusion imprimée sur les journaux: « 79% des Français croient au moins à une « théorie du complot » » est donc totalement abusive.
Au demeurant, nous n’avons pas besoin que les chiffres soient si hauts pour reconnaître l’urgence de réagir à la séduction de certains récits et à la viralité de la méfiance envers tout ce qui s’apparente à une version officielle. Les autorités politiques évoquent aujourd’hui une nouvelle loi anti fake news, mais on peut douter que la loi soit le moyen par lequel on luttera efficacement contre la désinformation. On ne peut plus empêcher les fausses informations d’atteindre les individus. Désormais il nous faut rendre les individus aptes à se défendre eux-mêmes, à acquérir une autonomie suffisante pour exercer leur esprit critique, y compris envers les informations délivrées par les médias qui ne sont pas suspectés de prime abord de propager des faussetés.
Le monde des médias ne peut plus être juge et parti quant à la qualité des informations qui circulent.
Beaucoup de gens utilisent l’homéopathie en France. Cette thérapie non conventionnelle touche tout le monde, des médecins diplômés l’emploient, elle est en partie remboursée par la sécurité sociale. Pour ces raisons le citoyen qui admet son incompétence à juger de la qualité d’un médicament s’en remet facilement aux preuves sociales qui l’entourent ; l’homéopathie ça marche puisque tant de gens semblent la valider.
Autour des innombrables anecdotes que l’on partage sur l’efficacité de l’homéopathie, on entend quelques autres arguments en faveur de cette pratique.
Les médicaments homéopathiques seraient plus « naturels ».
L’homéopathie, ce serait le soin par les plantes.
Se soigner à l’homéopathie, c’est résister à Big Pharma.
Même si ça ne marche pas, ça ne peut pas faire de mal.
Vous avez le droit de croire tout ce que vous voulez et de faire vos choix de santé comme vous l’entendez. Ce serait embêtant, toutefois, que ces choix se fassent de manière non éclairée, sans que vous sachiez pleinement ce que vous faites. Et si les 4 arguments ci-dessus étaient faux ?
Le mieux pour juger est encore de regarder la gamme des produits homéopathiques.
RAYONS X DOSE 9CH
Les laboratoires Boiron vous demandent de croire qu’une dilution de rayons X (Oui, la notice indique que ce produit contient des rayons X) va vous permettre de mieux supporter le traitement de votre cancer par radiothérapie.
Indications :
RAYONS X 9CH Tube Dose est un médicament homéopathique utilisé en cancérologie.
RAYONS X DOSE 9CH s’utilise :
*En cancérologie : pour diminuer les effets secondaires de la radiothérapie, notamment dans les cancers du sein.
En France, 60% des malades du cancer ont recours (pas forcément de manière exclusive) à des « médecines alternatives » qui n’ont pas prouvé leur efficacité. Ceux qui vendent ces produits ne ciblent pas au hasard. Sans doute savent-ils que cette clientèle assurée ne se retournera jamais contre eux. Si la maladie les emporte, ils ne témoigneront pas, mais s’ils se remettent une partie d’entre eux diffusera l’idée que l’homéopathie aide à guérir.
Les malades du cancer qui utilisent exclusivement les « médecines alternatives » multiplient en moyenne par 2,5 leur risque de mourir dans les 5 ans.
« S’ils le vendent, c’est que ça a été testé ! » avons-nous envie de rétorquer.
Saviez-vous que les produits homéopathiques peuvent être vendus sans faire la preuve de leur efficacité ?
NB : Si l’efficacité spécifique de « RAYONS X DOSE 9CH » venait à être démontrée, nous amenderions aussitôt cet article.
Crédit : Véro Laborde
URANIUM NITRICUM GRANULES 15CH
Les laboratoires Boiron vous vendent des granules imbibés d’une solution aqueuse ayant été en contact avec de l’Uranium pour soigner les troubles liés à la présence de glucose dans les urines.
Nous n’avons pas trouvé d’article expliquant le mode d’action de ce produit, ni, bien sûr, aucun document prouvant son efficacité.
Médicament générique de Classe thérapeutique: Métabolisme et nutrition
Principes actifs: Uranium nitricum, Manganum, Syzygium jambolanum, Cineraria maritima, Juglans regia, Pancréine
Laboratoire: Boiron
Indication
Etats glycosuriques.
Posologie URANIUM COMPOSE BOIRON Granules homéopathiques Tube de 80 Granules
5 granules 2 fois par jour
Contre indications
En raison de la présence de saccharose et de lactose, ce médicament est contre-indiqué en cas de galactosémie congénitale, d’intolérance au fructose, de syndrome de malabsorption du glucose et du galactose ou de déficit en lactase ou en sucrase-isomaltase.
Murus Berlinensis
Boiron n’a pas le monopole du remède improbable. Les laboratoires Helios vous vendent des pilules aspergées avec une solution de Mur de Berlin.
Les pilules de Mur de Berlin vous aident à lutter contre les sensations d’oppression. Nous sommes preneurs de sources montrant une efficacité thérapeutique. Une chose est sûre : des gens achètent et consomment ces produits homéopathiques.
Medorrhinum
Indiqué pour lutter contre « Agitation, précipitation, douleurs constrictives » et les infections et irritations des muqueuses, ce « médicament » est fabriqué à partir...
« d’un lysat de sécrétions urétrales purulentes blennorragiques, prélevées sur des malades n’ayant pas encore été traités par des antibiotiques ou des sulfamides. »
Il est commercialisé par les laboratoires Boiron.
Apis mellifica
La teinture mère d’Apis mellifica est obtenue par macération dans l’alcool d’abeilles ouvrières vivantes entières. Le nom latin de l’abeille est Apis mellifera ; les homéopathes inventent traditionnellement des noms latins à leurs produits.
Selon le principe de similitude de l’homéopathie, pour soigner des douleurs de type irritation et brûlure, vous avalez un produit fabriqué à partir d’abeille, car les abeilles, quand elles vous piquent, provoquent justement ce type de douleur.
Magnetis polis arctis (pôle nord d’un aimant). indications : Évanouissement.Hémorragie.Orchite.Paraphimosis. Prolapsus anale.Rhumatisme.Mal aux dents.Ulcères.
Mephitis putorius (sécrétions des glandes anales du putois ou de la mouffette) Indications : *En pneumologie : en cas de bronchites ou d’affections pulmonaires, contre les toux spasmodiques et violentes qui s’accompagnent d’une sensation de suffocation. *Dans les troubles du comportement : en cas de spasmophilie.
Mais il semble plus honnête de parler du produit homéopathique le plus vendu, le plus célèbre, donc sans aucun doute le plus fiable…
OSCILLOCOCCINUM
Les laboratoires Boiron le vendent depuis très longtemps et gagnent beaucoup d’argent avec lui. On en voit la publicité sur tous les supports. On s’attend donc à ce que ce produit là, au moins, ait pour lui des preuves scientifiques sérieuses. Mais non.
Ceux qui le consomment ignorent bien souvent le mode de fabrication d’Oscillococcinum. Il ne s’agit pas d’un extrait de plante comme on le croit souvent, mais d’une macération de coeur et de foie de canard de barbarie. Après 40 jours de macération, le coeur et le foie sont mixés. On récupère le liquide de ce lysat que l’on va diluer 100 fois pour obtenir 1 CH (la dilution au centième d’Hahneman). D’autres préfèrent la dilution Korsakov : on renverse le contenu. Puis on remplit le contenant en considérant qu’on a récupéré la partie de la solution restée collée au verre. La dilution Korsakov revient à compter le nombre de rinçages de la vaisselle de laboratoire.
Entre chaque dilution, il semble important de « dynamiser » la solution. La dynamisation est tout simplement une agitation vigoureuse du liquide.
«Selon la légende, on raconte qu’Hahnemann a découvert l’importance de la dynamisation des remèdes homéopathiques grâce à ses nombreux périples à cheval à travers la campagne allemande pour se rendre au chevet de ses malades. Il transportait ses précieux médicaments dans une sacoche accrochée à sa selle et put vite constater que les secousses du voyage les rendaient plus efficaces. Il en déduisit le principe de la dynamisation.» Source.
La dynamisation permettrait « d’activer la force du médicament. » Les homéopathes vont jusqu’à dire « Selon des recherches récentes, cela modifie la structure physique de la dilution, d’où son importance et son efficacité. » mais sans fournir de lien vers l’étude qui autoriserait à affirmer une telle chose. Le standard chez les laboratoires Boiron serait de 240 secousses en 7,5 secondes.
L’Oscillococcinum que vous consommez est le résultat de 200 dilutions Korsakov : la 200ème eau de vaisselle du tube où ont macéré 40 jours durant un foie et un cœur de canard.
La lutte contre les manipulations de l’homéopathie est décourageante tant les gens semblent désireux de ne pas savoir ce que contiennent ces produits mis en vente sans contrôle de la sincérité de leurs prétentions thérapeutiques, sans validation des principes de fabrication, sans corpus théorique crédible visant à expliquer leur mode d’action supposée. Cet avis est celui des Académies des sciences partout en Europe.
Il existe désormais pléthore de méta-analyses, le niveau le plus élevé de la publication scientifique, qui établissent la nullité totale de l’intérêt thérapeutique des produits homéopathiques. Plus les études sont construites sur des appareils statistiques solides, plus la conclusion est formelle : l’entièreté des bénéfices est due à des effets contextuels (rassemblés sous l’appellation placebo). Mais on a beau répéter les choses, présenter des critiques structurées, les gens veulent y croire.
Le lien de confiance entre le soignant et le soigné est le bien le plus précieux que la médecine peut construire, il est celui qui permet l’observance du traitement, la meilleur coopération, la communication la plus efficace. Trop souvent la médecine conventionnelle n’est pas à la hauteur de cet enjeu. Elle ne prend pas assez en compte les besoins psychologiques des patients qui veulent se sentir soignés, considérés, écoutés, pris en charge. Si la médecine ne répond pas à ces besoins, d’autres vont le faire, même si c’est une réponse illusoire et intéressée par l’appât du gain. Dès lors la confiance se perd et rien ne la ramènera tant que ces besoins ne trouveront pas de réponse satisfaisante dans le giron de la « médecine fondée sur les preuves ».
« Je jure, en présence des maîtres de la faculté, des conseillers de l’ordre des pharmaciens et de mes condisciples :
(…)
D’exercer, dans l’intérêt de la santé publique, ma profession avec conscience et de respecter non seulement la législation en vigueur, mais aussi les règles de l’honneur, de la probité et du désintéressement
(…)
Que les hommes m’accordent leur estime si je suis fidèle à mes promesses. Que je sois couvert d’opprobre et méprisé de mes confrères si j’y manque. »
La science moderne se doit d’éviter les écueils de l’hybris, l’orgueil démesuré du savant fou, qui a pu sévir dans bien des domaines au cours des derniers siècles. Eugénisme, vision mécaniste du vivant, réductionnisme à outrance et arrogance ne sont pas des attributs « naturels » de la science, mais la manifestation de l’abus de pouvoir que certains ont voulu commettre et parfois ont commis en son nom. Dans l’ensemble, les scientifiques sont innocents dans ce procès que veulent leur intenter les contempteurs du matérialisme. Pour bien le montrer nous prendrons l’exemple de Philippe Guillemant.
Philippe Guillemant, physicien, est ingénieur de recherche au CNRS. Il est surtout connu pour mettre en avant dans des livres, des blogs et des conférences, c’est-à-dire en dehors du cadre de son travail scientifique, et sans lien direct avec les données produites par ses travaux, des croyances sur la nature de la conscience, la modification de l’espace-temps par nos intentions, la vie après la mort, etc. Ses écrits sont intéressants car on y trouve un condensé des critiques de type métaphysique adressées à la science telle qu’elle se pratique mais surtout telle qu’elle se pense. Accusée d’être dogmatique, emprisonnée dans un paradigme matérialiste, la science –mainstream– académique aurait tout faux.
Le cœur du dogme scientifique mainstream serait la croyance dans « le dieu hasard », et Guillemant en dresse les 10 commandements que l’on retrouve sur son site doublecause.net :
La nature est sans but et sans la moindre finalité — Déterminisme
L’univers est né d’une explosion originelle (big-bang) — Néo-créationnisme
Tout ce qui arrive est le résultat de la causalité (temporelle = du passé) — Fatalisme
La conscience est un produit du cerveau — Matérialisme
La réalité est indépendante de nos états de conscience — Objectivisme
Le passé ne peut plus être modifié (irréversibilité) — Passéisme
L’évolution de la vie est due à la sélection naturelle du plus fort — Darwinisme
Nous sommes des machines que la technologie peut améliorer — Transhumanisme
La mémoire, les intuitions et les visions sont issues de notre cerveau — Réductionnisme
Tous les phénomènes inexplicables sont des illusions ou des hasards — Scientisme
Cette liste n’est pas anecdotique, elle est l’un des argumentaires majeurs de la théorie de la « double causalité » défendue par Guillemant. Sans ambages, il affirme que ces dix idées sont toutes fausses ; en conférence, il défie les zététiciens et autres matérialistes de les démontrer. Nous allons voir qu’il s’agit d’une question chargée, car pour démontrer ces 10 points, encore faudrait-il les tenir pour défendables.
Cependant, il n’incombe à personne de défendre le portrait singulier que Guillemant dresse de la science. Ces dix commandements sont des hommes de paille, des contrefaçons de la véritable structure épistémique du monde scientifique contemporain. C’est pourquoi il peut donner l’illusion, mais seulement l’illusion, de battre en brèche l’édifice de ce qu’il nomme « la science matérialiste ».
Le principal intérêt de répondre à ce portrait trompeur n’est pas de montrer la fausseté des théories de Guillemant, car les théories fausses pullulent tant qu’il faudrait plusieurs vies remplies d’abnégation pour se coltiner leur assommante lecture, et celle-là ne possède pas de mérite particulier qui la distinguerait assez des autres pour la rendre plus digne de cet investissement. Non, l’intérêt réside dans la manière dont est attaquée la science et dans ce que cela nous permet de dire sur la nature de ce projet humain. Définir la science, la distinguer des autres activités, productions, démarches intellectuelles, est une tâche quasi impossible, car les frontières que la science partage avec la fiction, l’imagination, la spéculation, la pensée magique, la pensée de groupe, voire la profession de foi, sont floues dès l’instant où l’on cherche à en suivre le tracé exact. Ce problème de la démarcation restera probablement irrésolu longtemps, mais grâce aux errements de Philippe Guillemant, nous pouvons plus aisément voir ce que la science n’est pas.
Pour ce faire, reprenons les 10 allégations attribuées à la science.
1 – La nature est sans but et sans la moindre finalité – Déterminisme
Ce point est fondamental pour Guillemant, il lui permet de poser la pierre centrale de sa théorie : la rétrocausalité. En supposant une idéologie « déterministe » selon laquelle la nature n’aurait aucune finalité, puis en affirmant qu’elle est fausse, il oublie toutefois une étape cruciale : démontrer que les scientifiques critiqués affirment une telle chose de manière dogmatique.
En réalité les scientifiques sont des gens beaucoup plus prudents que ce qui est laissé entendre. Ils appliquent le principe de parcimonie (le rasoir d’Ockham) qui leur évite d’employer dans leurs modèles des entités dont l’existence n’est ni prouvée ni requise pour rendre compte des faits. La finalité en fait partie. Autrefois, nos intuitions téléologiques avaient tôt fait d’attribuer des projets, des objectifs, des intentions à la nature ; en conséquence de quoi il fallait supposer l’existence d’entités capables d’implémenter ces projets. Nous n’en sommes plus là, et l’évacuation de ces entités imaginaires a été la condition des progrès de la connaissance scientifique, car tant qu’une entité ontologique est là pour justifier l’existence d’un phénomène (Zeus est à l’origine de la foudre), elle bloque le passage de l’investigation rationnelle dudit phénomène (la foudre est produite par des masses d’air électriquement chargées dont le comportement est décrit par des modèles physiques). Pour autant, si des entités sont requises pour expliquer des phénomènes encore mystérieux, rien ne s’y oppose. Il faudra simplement démontrer leur nécessité théorique.
Évacuer la finalité de la nature n’est donc pas un dogme, mais une mesure d’hygiène intellectuelle, ce n’est pas une conclusion, mais une précaution.
À l’appui de sa thèse sur l’existence d’une double causalité, Guillemant cite le physicien Holger Bech Nielsen selon lequel « la probabilité que le futur n’ait aucune influence sur le présent est extrêmement faible. »
En 2009, Nielsen est co-auteur d’une théorie qui explique pourquoi le Large Hadron Collider (LHC) échoue à découvrir le boson de Higgs. Ce boson serait une particule de nature si odieuse qu’elle provoquerait une ondulation en arrière dans le temps qui arrêterait le LHC avant toute expérience susceptible de produire un résultat[1]. Quand le LHC a annoncé avoir validé la découverte du boson de Higgs le 4 juillet 2012, l’hypothèse rebrousse-temps de Nielsen a bien sûr été réfutée. Mais rappelons que, quand bien même le LHC eut échoué dans ses projets, l’hypothèse téléologique ne s’en serait pas trouvée validée pour autant, sauf pour ceux qui auraient choisi d’y croire a priori. Car pour vérifier cette hypothèse, il faudrait démontrer que toutes les autres hypothèses envisageables sont fausses et ne pas se contenter de chérir son hypothèse préférée tant qu’elle s’accommode bien avec les faits.
2 – L’univers est né d’une explosion originelle (big-bang) — Néo-créationnisme
Initialement le terme « Big Bang » était une caricature. Le mot est resté, mais caricatural il demeure. D’une part, il ne s’agit pas d’une explosion à proprement parler, mais d’un violent mouvement d’expansion, et qui ne concerne que l’univers observable. Les experts du domaine se gardent bien de conclure sur quoi que ce soit au-delà du mur de Planck où seuls s’aventurent quelques spéculations qu’il faut traiter avec prudence. Ils savent également que le Big Bang n’est pas nécessairement le début de la totalité des choses existantes, puisqu’on ignore ce qui peut exister au-delà de l’univers observable. La description ci-dessus est donc déloyale, ce que Guillemant admet puisqu’il la corrige lui-même sur son blog.
Par ailleurs, il est parfaitement injustifié d’appeler néo-créationnisme la théorie du Big Bang puisque les créationnismes ont pour point commun de supposer un acte de création volontaire. Nulle part les équations ne prévoient une intention créatrice, et les cosmologistes prennent soin le plus souvent de ne surtout pas employer un langage qui encourage une lecture intuitivement déiste en raison du raccourci mental suivant : « un phénomène de grande envergure nécessite une cause de grande envergure. La cause de l’univers doit donc être incommensurable », car un tel raccourci réifie un concept divin, une entité ontologique dont a déjà dit qu’elle n’aidait pas la science à expliquer le monde. L’erreur que représente ce raccourci mental de la commensurabilité des effets avec les causes est mis en évidence par la théorie du chaos.
Pour Guillemant, le Big Bang serait contredit par de multiples arguments, le principal étant une influence du futur sur les événements passés :
« il est beaucoup plus rationnel de considérer les conditions initiales du big-bang comme des conditions qui changent au cours du temps car elles dépendent du temps présent, donc comme des conditions finales et non pas initiales ».
On retombe sur ce qui est avancé dans le point précédent et qui sera rappelé dans le suivant : la négation du principe de causalité.
3 – Tout ce qui arrive est le résultat de la causalité (temporelle = du passé) — Fatalisme
En dépit de la bizarrerie de certains résultats de la physique quantique (et seulement aux échelles microscopiques où cette discipline sait décrire des phénomènes), la règle de la causalité : « la cause précède l’effet » n’a jusqu’à présent reçu aucun démenti. Dans le monde macroscopique des événements qui constituent notre existence, la causalité s’applique toujours, pour ce qu’on en sait. Si l’inverse s’avérait, si un jour ce pilier de la logique était renversé, vous ne l’appendriez pas en lisant ces mots, ni dans la prose de Monsieur Guillemant, et lui-même n’en ferait pas un simple item d’une liste sur un billet de blog. Cela ferait à coup sûr les gros titres des journaux, même s’ils laissent rarement la Une aux informations scientifiques, et si aucune avalanche de prix ne venait récompenser l’étonnante découverte, à tout le moins nous sentirions partout les fumets d’une controverse sans précédent.
Mais contemplons le calme plat qui accueille ces allégations. Et ajoutons un mot pour relever que le principe ici remis en question est celui de causalité et de déterminisme, en aucun cas celui d’un fatalisme qui implique une négation de la liberté humaine, notre impuissance à faire des choix dans notre existence. L’usage du mot fatalisme a ici tout d’un chiffon rouge, technique rhétorique visant à rendre intenable la position critiquée.
4 – La conscience est un produit émergeant du cerveau— Matérialisme
Les diverses objections avancées par Guillemant, quand elles sont honnêtes, peuvent se résumer à ceci : nous n’avons pas la preuve absolue que la conscience est produite par le cerveau. Admettons cela. D’un certain point de vue, c’est vrai. Mais que dire que la proposition qui veut que la conscience provienne d’autre part, notre cerveau jouant uniquement le rôle d’antenne, de capteur ? Elle a le grand, l’exorbitant avantage d’être irréfutable. À l’heure actuelle, personne n’a proposé d’expérience qui permettrait de démontrer ou de réfuter cette idée.
Dès lors, quelle est l’option la plus rationnelle ? La grande majorité des gens n’a aucun problème à admettre que dans l’état actuel de nos connaissances, l’hypothèse la plus vraisemblable est que notre cerveau complexe est la source du phénomène mal compris, mal défini, mais universellement partagé au sein de notre espèce (et dans quelques autres) qu’est la conscience. Nous ne disposons d’aucune bonne raison de supposer l’existence d’une entité supplémentaire pour justifier de la manifestation dans le monde sensible de ce phénomène.
Là encore l’idée que le cerveau est l’organe qui produit la conscience n’est pas un dogme, c’est une position ontologique privilégiée car elle est en adéquation avec tous les faits connus et parce qu’elle respecte le principe de parcimonie. C’est la position la plus humble. La charge de la preuve incombe à qui voudrait ajouter une entité dans l’équation.
Ci-dessous la conférence TED où Anil Seth nous explique que nous ne sommes pas totalement ignorants sur ce qu’est -en tout cas sur ce que fait- la conscience.
5 – La réalité est indépendante de nos états de conscience — Objectivisme
« Cette idée est le socle de ma théorie qui considère que nos états de conscience déterminent le choix d’univers dans lequel nous vivons au sein du multivers. »
Il s’agit ici de défendre l’idée que la pensée peut influencer la matière. C’est la croyance dans le psi, dans la voyance, et dans une forme de pensée magique. Et c’est en effet incompatible avec les modèles actuels que la science propose pour expliquer le fonctionnement de la nature. Mais une telle idée n’est pas inaccessible à l’expérimentation. C’est ce à quoi s’emploie la parapsychologie. À l’heure actuelle cette discipline intéressante n’a pas produit des résultats susceptibles de démontrer l’existence de phénomènes qui échapperaient aux modèles en vigueur en physique, en chimie ou en biologie. Mais la recherche est possible et elle a lieu.
Toutefois la pensée magique n’appartient pas au registre des explications auxquelles la science a recours, car les protocoles utilisés en routine, et notamment le principe des tests en aveugle, évacuent la possibilité que les résultats soient affectés par les états mentaux des expérimentateurs. Cela n’élimine pas complètement la possibilité de biais, mais force est d’admettre qu’on manque des preuves de l’existence de biais qui cacheraient cette réalité que certains prétendent connaître par des moyens qui leur appartiennent.
Cela nous ramène à la charge de la preuve ; elle incombe à ceux qui prétendent que la conscience affecte le monde physique autrement qu’à travers l’activité neuromusculaire du corps contrôlé par cette conscience.
6 – Le passé ne peut plus être modifié (irréversibilité) — Passéisme
Ce principe ne prend sans doute du sens qu’à l’intérieur de la théorie de l’univers bloc de Guillemant. Mais sans qu’il soit besoin d’entrer dans le détail, notons son argument :
« … il convient de considérer que le passé puisse changer. C’est d’ailleurs la meilleure façon d’expliquer le fameux principe anthropique qui soulève le mystère du réglage fin des conditions initiales de l’univers. »
L’argument du réglage fin de l’univers et du principe anthropique (fort) est un classique de l’apologétique : la partie de la théologie qui entend argumenter pour prouver ‘rationnellement’ l’existence de Dieu.
Il s’agit de l’un des sophismes les plus séduisants du monde. Vertigineux, il consiste à constater que les propriétés de la matière, de l’énergie et de l’espace-temps, si elles étaient un tant soit peu modifiées, élimineraient toute possibilité d’existence de la vie telle que nous la connaissons. Il faudrait croire qu’un formidable hasard a produit les conditions bien précises qui nous ont permis d’exister, ou bien admettre que ce n’est pas le hasard, que quelque chose (quelqu’un) est à l’origine de ces conditions providentielles. Cela semble plus sensé, et certainement nous en retirons un sentiment de closure mentale bien plus fort : nous avons l’impression de toucher du doigt une réponse solide.
L’antidote à ce sophisme est donc forcément décevant, car il est désespérément trivial. Nous ignorons s’il existe ou s’il n’existe pas une infinité d’univers avec une infinité de combinaisons de constantes physiques. Mais dans tous les univers où cette combinaison est compatible avec l’apparition d’une forme de vie intelligente finira par éclore l’hypothèse de ce principe finaliste. À l’inverse, partout où les propriétés de la matière n’autorisent pas l’émergence d’une vie intelligente, personne n’est là pour s’en étonner. Cet étonnement particulier est le privilège unique, personnel et égocentrique d’absolument n’importe quelle forme de vie intelligente, n’importe où, n’importe quand. Le principe anthropique est donc une tautologie qui n’a sa place dans aucune théorie scientifique sérieuse.
7 – L’évolution de la vie est due à la sélection naturelle du plus fort – Darwinisme
L’anti-darwinisme ressemble au principe anthropique fort cité précédemment : on ne le rencontre pas dans les écrits scientifiques sérieux. Précisons au cas où que « la sélection du plus fort » est une formulation totalement étrangère à Darwin et à la biologie de l’évolution. On la doit à Spencer, c’est donc du Spencerisme, et ce n’est pas de la science mais de la (mauvaise) politique.
« on s’aperçoit aujourd’hui avec l’évolution énorme de la biologie que la vie ressemble plus à une technologie qu’à un processus soumis aux lois du hasard. »
Le hasard des mutations génétiques correspond à une toute petite partie des principes darwiniens. L’autre partie, la plus importante du point de vue théorique, est le principe de sélection des réplicateurs. Sont retenus par la sélection réalisée au fil d’innombrables générations les réplicateurs qui possèdent les caractères héritables conférant les meilleures capacités à se reproduire. Dans un monde où les conditions environnementales ne varient pas quotidiennement de façon aléatoire, la sélection de l’environnement sur les réplicateurs ne se fera PAS au hasard. Dès lors, la réduction du darwinisme à une croyance dogmatique dans le hasard ne tient absolument plus. Encore faut-il s’intéresser à ce que dit réellement la théorie de l’évolution plutôt qu’à la caricature qu’en font ceux qui comprennent, dans la douleur, que les principes darwiniens ont joué historiquement un rôle déterminant dans la remise en cause du dualisme métaphysique.
Anti-evolution books on sale in Dayton, Tennessee, where the ‘Monkeyville’ trial of Professor John T Scopes took place. (Photo by Topical Press Agency/Getty Images)
8- Nous sommes des machines que la technologie peut améliorer — Transhumanisme
Le transhumanisme est un jugement sur la nature humaine, sur la possibilité d’augmenter l’humain dans ses capacités et dans sa longévité. Il s’agit d’une position axiologique indépendante du matérialisme métaphysique imputé ici au monde de la science. La preuve en est que de nombreux scientifiques qui se reconnaissent dans le matérialisme n’ont aucune tendresse pour le transhumanisme. Cet item est un pur procès d’intention, mais pas seulement. Car Philippe Guillemant argumente contre la faisabilité de l’amélioration du corps humain en arguant que le seul moyen d’envisager une telle entreprise passe par « la création d’une âme », d’une « conscience (…) greffée sur ce système ».
Il s’agit d’allégations proprement farfelues puisque des chercheurs travaillent d’ores et déjà sur des prothèses qui permettent de réparer le corps humain, de lui redonner de la mobilité ou de la sensibilité. Ces chercheurs ne s’encombrent pas de considérations de cet ordre, et leur travail porte ses fruits. Cela n’implique aucunement qu’on veuille réduire l’humain à une « machine » ou qu’il soit forcément souhaitable d’augmenter ses capacités si les moyens se présentent, car le transhumanisme est un courant de pensée, mais il n’est pas consubstantielle de la science, même matérialiste.
On voit mal ce que ce huitième point apporte à la tentative de démonstration, mais on devine qu’il prolonge la défense du dualisme qui motivait déjà l’attaque contre le darwinisme au point précédent.
9 – La mémoire, les intuitions et visions sont issues de notre cerveau — Réductionnisme
Ce neuvième point n’est pas différent du quatrième. Et la réponse sera la même : les phénomènes liés à la cognition, qu’il s’agisse de la conscience, de la mémoire, de l’imagination ou des croyances sont irrémédiablement liés à la structure du cerveau car quand le cerveau est affecté, ces cognitions le sont également. Mais Guillemant argue de l’impossibilité pour le cerveau -dans le paradigme actuel- de stocker les images qui nous reviennent en mémoire.
« On ne sait pas expliquer en particulier comment un cerveau parviendrait à mémoriser ou à synthétiser des images séquentielles. »
Nous sommes bien obligés de lui répondre que bon gré mal gré, le cerveau parvient à faire ce qui lui semble impossible. Il nous reste à comprendre ce que c’est exactement que fait le cerveau, et comment. Qui le nie ?
Pour répondre à cette impossibilité par lui supposée, Guillemant invoque « l’information du vide quantique » qui rejoint sa théorie de l’univers bloc. L’invocation du quantique est classique dans les pseudosciences. Ici comme ailleurs, on note un sérieux hiatus entre les faits mobilisés (liés à la physique quantique) et les phénomènes que l’on cherche à expliquer, ici les phénomènes intégrés à l’échelle d’une structure très complexe et de très grande taille : le cerveau. Les plus grands spécialistes des sciences cognitives et les plus grands spécialistes de la physique quantiques évitent en général de tripatouiller les disciplines des autres avec les concepts qui ne fonctionnent que dans le périmètre de leurs travaux, c’est pourquoi toute invocation de la physique quantique dans des mécanismes qui se manifestent à de grandes échelles et à de forts niveaux d’intégration est au minimum extrêmement suspecte.
Ajoutons à cela l’aveu de l’auteur lui-même sur le fait qu’on ne sait pas comment le cerveau produit les images dont nous faisons l’expérience dans notre phénoménologie, et nous constatons qu’il s’agit ici, derrière les concepts compliqués, d’un argument de l’ignorance. Sous prétexte que les scientifiques ne savent pas répondre, alors la théorie de l’univers bloc devrait être recevable… alors qu’elle n’apporte aucune démonstration directement liée au phénomène inexpliqué.
10 – Tous les phénomènes inexplicables sont des illusions — Scientisme
L’homme de paille est ici manifeste, car il est bien évident qu’avant qu’un phénomène soit expliqué par la science, il est ou bien inconnu ou bien inexpliqué. « Inexplicable » ne fait partie du vocabulaire de la science, puisque cette dernière est une démarche qui vise, au moins en intention, à expliquer tout ce qui est observable et pensable. On se réfugie en revanche dans l’inexplicable quand on refuse les explications que la science apporte à des phénomènes réputés paranormaux. La résistance dans ce domaine est très grande. L’attachement à des hypothèses et à des entités métaphysiques rend parfois le discours scientifique difficile à supporter.
« On connait la musique:
– Les synchronicités seraient des projections, – Les ovnis seraient des hallucinations, – Les E.M.I. seraient des hallucinations, – La psychokinèse serait une tricherie, – Les P.E.S. seraient le fruit du hasard ou de la virtuosité, – Le chamanisme serait une croyance indigène, – Les guérisons inexpliquées seraient de l’effet placebo, – La médiumnité serait du charlatanisme, – etc. »
Au regard de l’énumération livrée par l’auteur, on se contentera encore une fois de revenir aux bases de l’épistémologie de la science. Les hallucinations, la tricherie, la virtuosité, les croyances, le charlatanisme et l’effet placebo… existent. Cela est acquis. Par ailleurs, un certain nombre des phénomènes présumés paranormaux trouvent des explications globalement complètes de la part de la science ; c’est le cas notamment des EMI. Parmi les phénomènes qui peuplent le monde, qu’ils appartiennent ou non à la liste ci-dessus, peut-être se trouve-t-il un phénomène réel qu’il reste à décrire clairement, à délimiter et à prouver. Et ensuite seulement il sera temps de lui trouver une explication, et éventuellement de mettre en défaut le paradigme matérialiste si décrié par l’auteur. Rappelons Fontenelle :
« Assurons nous bien du fait avant de nous inquiéter de la cause ».
Au terme de ces 10 arguments dont aucun ne tient la route, quelle est la conclusion de Philippe Guillemant ?
« En conclusion:
La pseudo-science matérialiste est morte et enterrée par la théorie et l’expérience de la vraie science que les hommes ont réussi à construire et qui est celle que j’aime, malgré une énorme pression pour les en détourner qui s’exerce toujours aujourd’hui au travers de la techno-science passée aux mains des multinationales. Le fait qu’elle survive dans les médias dominants qu’ils financent est donc bien une affaire de religion imposée par ce pouvoir de l’argent, car seule une religion peut survivre malgré son caractère irrationnel. »
Un immense procès d’intention teinté de conspirationnisme vient couronner un propos qui vise manifestement à rationaliser une croyance dualiste que l’auteur confesse dans la plupart de ses interventions. Concluons à notre tour sur un point fondamental qui met en échec les très nombreux théoristes arguant que la science académique serait pseudoscientifique au titre qu’elle refuse de considérer leurs hypothèses avec toute l’attention qu’ils croient mériter.
Le matérialisme de la science telle qu’elle se pratique n’est pas un matérialisme métaphysique, ce n’est pas une opinion sur la nature des objets qui peuplent le réel. C’est un matérialisme méthodologique. Il est incontournable, car c’est lui qui permet d’empêcher l’inflation ontologique qui voudrait à chaque phénomène mystérieux attribuer une entité non moins mystérieuse qui en serait la cause. Le matérialisme méthodologique de la démarche scientifique a cela de vertueux qu’il est parfaitement capable de tester des hypothèses non matérialistes. Une entité immatérielle est investigable dès lors qu’elles a un effet sur le monde matériel, et les êtres vivants en font partie. On est donc capable de mettre en place des protocoles pour tester, par exemple, la voyance, le pouvoir de l’esprit sur la matière, la médiumnité, etc. Tous ces phénomènes, s’ils existent, mobilisent probablement des mécanismes ou des entités qui échappent à la description matérialiste du monde. Mais si un jour on prouve leur existence, ce sera au travers d’une méthodologie matérialiste, car elle seule permet d’éliminer les explications matérialistes.
Le scientisme, c’est demander à la science plus qu’elle ne peut apporter, c’est violer le périmètre de ses compétences. La science n’a pas réponse à tout, elle le sait, et Philippe Guillemant semble l’oublier. Le paradigme actuel, pour imparfait qu’il soit (qui prétend le contraire ?) est donc investi du pouvoir de se corriger, de se prouver à lui-même qu’il pourrait avoir tort. Cette vertu absente des croyances dogmatiques et des discours glorifiant le dualisme désarme complètement l’agression que représentent les 10 faux commandements dont Philippe Guillemant a besoin d’affubler la science académique pour se rassurer sur la scientificité de sa théorie fétiche. On est fondés à penser qu’il s’agit en réalité d’une tentative de justifier une croyance bien fragile reposant sur des faits souvent discutables… comme les synchronicités.
Les progrès de la connaissance n’ont pas besoin que le paradigme actuel soit parfait, indépassable ; nous avons au contraire tout intérêt à ne surtout pas oublier que nous n’avons accès qu’à des représentations du monde et pas à la réalité elle-même. Ce rappel à une humilité épistémique nous permet de mieux résister aux affirmations des théoriciens quand, pour défendre leur point de vue, ils ne trouvent rien de mieux que de caricaturer la science.
Nicolas Meyrieux anime la chaîne Youtube « LA BARBE » dont nous avons déjà eu l’occasion de déplorer le manque de rigueur dans un précédent article. Pour toute réaction, l’intéressé nous a adressé un message privé où il se déclarait outré que nous ayons osé faire savoir à son public que sa vidéo contenait des informations fausses, voire des mensonges délibérés. Une nouvelle vidéo sur sa chaîne, cette fois sur les semences, vient malheureusement nous montrer que ceux qui refusent la critique ont peu de chance de s’améliorer, même quand ils travaillent en collaboration avec France Télévisions.
Comme le précédent article sur le sujet, celui-ci est construit en grande partie sur des remarques et des sources dénichées par Bunker D. Merci à lui.
Un peu d’histoire
On nous sert Pétain (et une caricature de Hitler jusque dans la miniature de la vidéo) afin d’user du déshonneur par association, sophisme qui permet d’attaquer l’image d’une personne ou d’un groupe de personnes en l’associant dans l’esprit de l’auditoire avec une personne ou un groupe de personne qui joue le rôle de repoussoir. Ici, c’est du classique, on est dans le Point Godwin sans imagination dès le départ.
Ainsi, on nous apprend que le Catalogue Officiel des Espèces et Variétés, qui a pour but de réguler le marché des semences, serait l’idée d’un certain Philippe Pétain en 1941. Pourtant, ce Catalogue remonte à 1932. Pour le savoir, il suffisait de consulter Wikipédia.
« En France, le catalogue des espèces et variétés de plantes cultivées est créé en 1932, et géré par le Comité de contrôle des semences. Il permet d’éviter, dans la profusion de semences, que les différentes variétés soient vendues sous le même nom, ou qu’une même variété ait des appellations différentes. Il clarifie l’offre et protège l’utilisateur qui est ainsi assuré de l’identité de la semence qu’il achète. »
Ce catalogue est lui-même inspiré du « registre des plantes sélectionnées » créé fin 1922, comme on peut le lire sur… Wikipédia, encore.
Notez l’objectif du catalogue : « Il clarifie l’offre et protège l’utilisateur qui est ainsi assuré de l’identité de la semence qu’il achète. » Le Catalogue officiel a été conçu pour protéger les clients des semenciers, et pas les semenciers eux-mêmes, et certainement pas leurs droits de propriété sur le vivant.
De l’homogénéité
Il faut aussi noter que l’homogénéité de la variété, l’un des principes de bases du Catalogue, n’a pas pour but d’homogénéiser les fruits pour les cageots, contrairement à ce que nous présente le vidéaste : il s’agit encore de protéger l’acheteur, afin qu’il ne joue pas à la loterie à chaque lot de graines. Quand il achète, le cultivateur sait à quoi s’attendre, il a la garantie d’obtenir des produits de la qualité attendue.
Cette homogénéité est aussi une garantie pour le consommateur dans la mesure où la dérive génétique et les croisements accidentels peuvent amener de mauvaises surprises. Par exemple, en 2015, des graines de courgettes replantées dans un jardin allemand ont donné des fruits contenant de la cucurbitacine E. Il s’agit d’une toxine produite par les cucurbitacées à l’état sauvage. Elle est extrêmement toxique pour l’homme. Le consommateur du gratin de courgettes en est mort. En réaction à cette affaire, on a rappelé qu’il était plus sûr de racheter les graines pour éviter ce genre de mésaventures (heureusement rares).
Vers le monopole
En 1949, un décret interdit la commercialisation de plantes non-enregistrées. L’agriculteur n’est plus autorisé à revendre ses graines, mais en revanche il peut toujours les ressemer lui-même (Wikipédia, toujours). C’est le début de la protection des semenciers. Les agriculteurs n’ont plus le droit de revendre la descendance directe, presque identique, d’une variété développée par un semencier. C’est seulement en 1961 que le Certificat d’Obtention Végétale (COV), en plus d’assurer le monopole du semencier, impose à l’agriculteur de payer une taxe s’il replante. C’est surtout cela qui implémente la propriété intellectuelle sur les graines. On peut juger cela discutable, mais pour le critiquer, il faut commencer par présenter les faits honnêtement.
Nicolas Meyrieux dénonce une détestable protection des industriels. Mais réfléchissons à la réalité du sélectionneur de graines, devenu un métier à part entière au cours du XVIIIè siècle, avec notamment Vilmorin, Clause et Tézier (plus d’infos ici). Ces sélectionneurs ont pour but de produire des variétés améliorées : meilleurs rendements, meilleures résistances, meilleurs produits.
Le vidéaste se drape sous la caricature pour incarner un vilain industriel, lequel explique qu’évidemment ils ne vendent pas les variétés les plus résistantes. La limite de l’exercice de Nicolas Meyrieux est que cette blague confine à la désinformation dans un format qui a pourtant vocation à être informatif. Ceux qui rient à cette blague oublient-ils qu’une telle réalité impliquerait une profonde stupidité de la part des agriculteurs ? Rappelons que leur métier consiste à s’approvisionner aux meilleures sources, à acheter les meilleurs produits. Et qu’ils connaissent leur métier.
Si les avantages des graines développées par les semenciers ne valent pas le coût, les cultivateurs savent parfaitement qu’ils peuvent se mettre à la place aux sémences paysannes. Car oui, ce qui est dit dans la vidéo…
« Et dire qu’avant, pour les agriculteurs, c’était une évidence de garder la meilleure partie de leur récolte pour la semer l’année suivante. Et maintenant, ils ne peuvent même plus le faire. »
…est un mensonge.
Si l’agriculteur achète une variété qui n’est pas ou plus protégée par un COV (rappelons leur durée limitée), il peut à loisir utiliser ses propres graines tant qu’il n’en fait pas commerce. Et si vous pensez que cette possibilité est seulement théorique car le système actuel rend de telles semences introuvables, peut-être devriez-vous écouter ce qu’en dit un homme de terrain, tel Gilles vk agriculteur du Loiret. Sur sa chaîne Youtube, celui-ci présente son métier en vidéos, et… il replante d’une année sur l’autre !
F1, les hybrides de la mort qui tue
En lieu et place d’une explication, par exemple de ce qu’est la vigueur hybride, Nicolas Meyrieux nous livre une caricature ridicule des F1 qui seraient le produit de l’acharnement machiavélique des scientifiques pour appauvrir les ressources génétiques des cultures. Le propos et les illustrations qui l’accompagnent relèvent de la manipulation. L’intérêt de croiser des lignées ‘pures’ est d’assurer l’homogénéité de la F1. Rappelons-nous que l’homogénéité est recherché dans l’intérêt des agriculteurs. Ceci étant, il est souhaitable de cultiver de multiples variétés.
Quand il nous dit que l’hybridation permet de « [découvrir] plein de gènes inconnus » (ce qui ne veut strictement rien dire.)le vidéaste semble avouer qu’il ne sait pas du tout de quoi il parle, qu’il ne saisit pas les bases de la génétique et qu’il n’a pas compris que ce croisement a pour but de bénéficier des traits des deux variétés de départ.
« Les hybrides F1 produisent plus au m² mais ils sont moins nutritifs et demandent plus de produits phytosanitaires. Donc au final, ils sont moins rentables. »
Cette allégation n’est assortie d’aucune espèce de preuve ou de source. Nous savons que bon nombre des informations de cette vidéo (et de la précédente) sont tout bonnement fausses. Comment croire celle-ci, qui semble tomber de nulle part ? Derechef on constate que chez Monsieur Meyrieux, les agriculteurs sont des bouffons qui ne savent pas choisir les cultures les plus rentables.
On nous dit que les hybrides ont généralement une descendance pourrie (typiquement -20% de rendement), voire ont une stérilité mâle. Et cela est exact. En conséquence l’agriculteur a bel et bien intérêt à racheter du F1 pour la culture suivante plutôt que de semer ses propres graines. Mais cette conséquence découle du fonctionnement des organismes avec lesquels on ne fait pas ce qu’on veut quand on veut.
Semenciers, agriculteurs (et consommateurs en bout de chaîne) recherchent certains traits, et l’hybridation permet d’aller plus vite dans l’obtention de ces traits qu’au loto des mutation aléatoires. Dans ce contexte la stérilité mâle est parfois utilisée pour empêcher l’autopollinisation lors des croisements qui aboutissent à la production de F1. Mais quand on ne l’explique pas, on peut facilement invoquer du « On fait ça pour forcer à racheter ». C’est un procès d’intention qui confine au complotisme.
Absurdités et compagnie
Au détour d’une phrase, on apprend que les hybrides sont « programmés » pour résister à tel ou tel truc. On se demande à partir de quelle source ce script a été rédigé.
Au sujet des résistances verticales et horizontales, là encore, Nicolas Meyrieux fait preuve d’une maîtrise très approximative, voire absente, du sujet. Il nous explique que la résistance verticale (monogénique) protège contre un élément quand la résistance horizontale (polygénique) protège contre plusieurs maladies. En réalité, une résistance verticale à une agression ne se fait que par un mode d’action, tandis qu’une résistance horizontale bénéficie de plusieurs modes d’action. En clair la plante dispose de plusieurs moyens de défense, ce qui rend l’apparition de pathogènes résistants beaucoup moins probable. Les semenciers sont parfaitement conscientsdu fait qu’une résistance horizontale est largement préférable, mais elle est aussi plus complexe et plus coûteuse à obtenir. Encore une fois, ne prenons pas les professionnels du secteur pour des imbéciles. La compétition existe entre les semenciers. Celui qui met sur le marché une variété mal foutue ne la vendra pas très bien.
Enfin disons un mot sur…
« le premier maïs hybride F1 s’appelait le maïs Terminator »
On se demande encore d’où vient cette information. La technologie Terminator concerne les OGM, une technologie bien distincte de celle des hybrides dont on nous parlait auparavant. Et si elle vise à empêcher la replante, elle « n’a jamais été intégrée dans des variétés commerciales » (devinez la source…)
Bref
Une nouvelle fois La Barbe nous sert une vidéo motivée par les bons sentiments de la lutte contre les abus de pouvoir des industriels, mais avec des informations fausses, des caricatures en lieu et place d’explications et en creux l’injure jetée à la face des professionnels du secteur, tous désignés comme d’avides manipulateurs ou de placide victimes. On est face à une rhétorique de la peur que le même Nicolas Meyrieux avait pourtant su dénoncer avec justesse dans une autre vidéo.
Pour offrir les meilleures expériences, nous utilisons des technologies telles que les cookies pour stocker et/ou accéder aux informations des appareils. Le fait de consentir à ces technologies nous permettra de traiter des données telles que le comportement de navigation ou les ID uniques sur ce site. Le fait de ne pas consentir ou de retirer son consentement peut avoir un effet négatif sur certaines caractéristiques et fonctions.
Fonctionnel
Toujours activé
Le stockage ou l’accès technique est strictement nécessaire dans la finalité d’intérêt légitime de permettre l’utilisation d’un service spécifique explicitement demandé par l’abonné ou l’internaute, ou dans le seul but d’effectuer la transmission d’une communication sur un réseau de communications électroniques.
Préférences
L’accès ou le stockage technique est nécessaire dans la finalité d’intérêt légitime de stocker des préférences qui ne sont pas demandées par l’abonné ou l’internaute.
Statistiques
Le stockage ou l’accès technique qui est utilisé exclusivement à des fins statistiques.Le stockage ou l’accès technique qui est utilisé exclusivement dans des finalités statistiques anonymes. En l’absence d’une assignation à comparaître, d’une conformité volontaire de la part de votre fournisseur d’accès à internet ou d’enregistrements supplémentaires provenant d’une tierce partie, les informations stockées ou extraites à cette seule fin ne peuvent généralement pas être utilisées pour vous identifier.
Marketing
Le stockage ou l’accès technique est nécessaire pour créer des profils d’internautes afin d’envoyer des publicités, ou pour suivre l’internaute sur un site web ou sur plusieurs sites web ayant des finalités marketing similaires.