« Long-termisme » : les milliardaires remplacent la charité par le transhumanisme

Arrêts sur images publie un excellent résumé de ce qu’il se passe en ce moment aux États-Unis. Sourcé, fiable et prédictif. A lire sans attendre.

59
SHARES
420
VIEWS
zoesagan.io zoesagan.io zoesagan.io
ADVERTISEMENT
Issue du concept d’ « altruisme efficace » venu d’Oxford, l’idéologie « long-termiste » propose d’oublier tous les soucis du monde actuel pour se concentrer sur la colonisation spatiale et le transhumanisme du prochain millénaire. La Silicon Valley adore.

Il y a quelques semaines, alors que je préparais la chronique autour du feuilleton Elon Musk et Twitter – feuilleton qui, à l’heure d’écrire ces lignes, n’est toujours pas terminé et toujours aussi peu intéressant –, je tombais sur un article passionnant du magazine étasunien Salon intitulé (je traduis) « Elon Musk, Twitter et le futur : sa vision du long terme est encore plus bizarre que ce que vous pensez ».  Au-delà de ce titre un poil vague et réducteur, l’auteur Phil Torres, doctorant en philosophie et spécialiste de l’étude des « risques existentiels » pour l’espèce humaine, analyse les décisions de l’excentrique milliardaire au prisme d’une idéologie anglophone naissante et encore largement méconnue sur cette rive de l’Atlantique : le « long-termisme ».

Elon Musk, Twitter et le futur : sa vision du long terme est encore plus bizarre que ce que vous pensez
Elon Musk, Twitter et le futur : sa vision du long terme est encore plus bizarre que ce que vous pensez Salon, 30 avril 2022

Selon l’auteur, c’est la philosophie long-termiste qui permet à Musk d’affirmer que « SpaceX, Tesla, Neuralink et la Boring Company (les entreprises qu’il dirige, ndlr) sont de la philanthropie », alors qu’aux yeux du profane, elles ressemblent surtout à des start-ups immensément lucratives et que Musk a plus la silhouette de Lex Luthor que de l’Abbé Pierre. C’est toujours en vertu d’une pensée long-termiste, persiste Torres, que Musk envisage le (toujours pas acté) rachat de Twitter comme relevant du « futur de la civilisation » (en mettant la main sur une gigantesque base de données conversationnelles, relevait Olivier Ertzscheid sur AOC le 2 mai dernier). Et pas comme un simple caprice de troll à 44 milliards de dollars ou une manière de dominer un peu plus le classement des plus grandes fortunes mondiales. La vision long-termiste serait le prisme d’analyse manquant à toute exégèse muskienne, une sorte de pierre de Rosette pour comprendre les lubies absurdes et démesurées de nos techno-barons. Trigger warning : le monde dont ils rêvent est un enfer.

Ironiquement, tout a commencé par une idée plutôt bien intentionnée. Au tournant de la décennie, alors que les époux Gates lancent l’opération Giving Pledge, qui permettra à 200 milliardaires de se faire passer pour des philanthropes pendant que leurs fortunes respectives explosent, une poignée de philosophes d’Oxford décide de réinventer la philanthropie : plutôt que de donner en fonction des causes qui leur tiennent à cœur, ils décident d’optimiser l’impact de chaque dollar donné à une ONG, en commençant par développer une méthode de calcul pour mesurer « scientifiquement » cet impact. L’idée, en gros, c’est que chaque dollar dépensé sauve le maximum de monde. Ce ménage à trois entre charité, rationalité et analyse de données est baptisé « altruisme efficace » en 2011 (d’autres préfèrent l’appeler « altruisme pour les nerds », mais chacun son truc). La communauté des altruistes efficaces, qui s’auto-définissent comme « EAs », grandit rapidement au-delà des frontières d’Oxford et s’agrège autour de fondations philanthropiques comme Giving what we can, GiveWell ou la fondation 80 000 Hours, qui encourage les jeunes diplômés à choisir leur carrière pour maximiser leur « impact positif sur le monde ».

Le banquier philanthrope (sic), explique très sérieusement MacAskill […] est comparable à Oskar Schindler, l’industriel allemand qui sauva entre 1000 et 1200 Juifs du nazisme en les faisant travailler dans son usine de munitions.

Utiliser la méthode scientifique pour maximiser l’impact de son action philanthropique ? Noble idée, me direz-vous. Sauf que la « logique »déraille rapidement. Selon l’altruisme efficace, expliquent doctement le philosophe William MacAskill et ses copains, la meilleure façon d’aider le monde reste encore… de foncer à Wall Street, car faire un maximum de pognon permet ensuite d’en redistribuer encore plus aux pauvres – selon le mythe tenace du ruissellement, que les vainqueurs du capitalisme adorent se raconter entre eux. Le banquier philanthrope (sic), explique très sérieusement MacAskill dans un article académique, est comparable à Oskar Schindler, l’industriel allemand qui sauva entre 1 000 et 1 200 Juifs du nazisme en les faisant travailler dans son usine de munitions. Pragmatique. Allez donc bosser en sifflotant pour Total ou Dassault, promet MacAskill à l’élite académique d’Oxford, Cambridge ou Harvard, puisque votre conscience sera absoute par la promesse d’un chèque mensuel à l’organisation qui sauve le monde en contrepartie. Repenser le commerce des indulgences chrétiennes à l’âge du nécro-capitalisme, c’est malin.

Selon l'altruisme efficace, faire le bien, c'est encore faire de l'argent !
Selon l’altruisme efficace, faire le bien, c’est encore faire de l’argent ! The Atlantic, 15 juin 2015

On pourrait en rire… si cette gigantesque entreprise de justification morale du philanthro-capitalisme ne connaissait pas un tel succès auprès de l’élite socioéconomique. Le mouvement dispose aujourd’hui d’un solide réseau de centres de recherche, compte parmi ses membres la 58e fortune mondiale – le crypto-milliardaire Sam Bankman-Fried, qui a prévu de donner 99 % de sa fortune à la philanthropie –, a désormais ses textes fondateurs (comme le livre Doing Good Better de MacAskill, publié en 2015), peut s’appuyer sur 200 groupes dans plusieurs dizaines de pays, organise plusieurs conférences chaque mois et possède sa communauté d’utilisateurs en ligne, qui affine sans cesse les méthodes et la philosophie du mouvement. Surtout, l’argent coule à flots : selon MacAskill, désormais à la tête du conglomérat Centre for Effective Altruism (CEA), Centre pour l’altruisme efficace, l’initiative aurait accumulé près de 46 milliards de dollars depuis sa création, recevrait 420 millions de dollars annuellement, et ces dons augmenteraient d’environ 20 % par an. Une prospérité qui permet à ses membres de soutenir un candidat au Congrès étasunien et d’entamer, cette année, un lobbying financier discret auprès de groupes de travail de Washington, notamment autour des politiques sanitaires, détaille Politico.

Quand les "Effective Altruism" s'infiltrent à Washington
Quand les « Effective Altruism » s’infiltrent à Washington Politico, 12 mai 2022

Très bien, mais Elon Musk et le long-termisme, dans tout ça? J’y viens, et accrochez-vous. Quelque part au cours de cette décennie de succès, William McAskill radicalise sa pensée : il ne s’agit plus seulement d’optimiser la redistribution philanthropique, mais de prioriser scientifiquement les décisions à prendre pour garantir le futur de l’espèce humaine contre les « risques existentiels » qu’elle court. Il emprunte le concept de risque existentiel (« x-risk ») au philosophe suédois transhumaniste et futurologue Nick Bostrom, fondateur du Future of Humanity Institute (FHI) d’Oxford. En 2014, Bostrom et MacAskill listent ces risques : on y trouve l’usage incontrôlé des nanotechnologies, la production décentralisée via les imprimantes 3D, la géoingénierie, une collision entre la Terre et un astéroïde, une pandémie, mais surtout le développement d’une intelligence artificielle dite « générale » (AGI), qui égalerait l’intelligence humaine et se dirigerait presque instantanément vers la Singularité, un horizon d’intelligence absolue (théorisé par Ray Kurzweil, transhumaniste en chef chez Google) qui réduirait homo sapiens sapiens au statut de fourmi. Un tel événement aurait, selon l’eschatologie de Bostrom, 10 à 20 % de chance de se produire au cours de ce siècle, bien qu’une telle estimation relève à peu près du doigt mouillé, reconnaît-il.

Bostrom affirme que la civilisation idéale contiendrait jusqu’à 10 puissance 54 « posthumains », à condition que « les esprits futurs soient majoritairement implémentés dans du matériel informatique »

Il n’empêche : selon Bostrom, la priorité absolue est non seulement d’éviter l’extinction, mais de réaliser « le potentiel » de l’humanité. Comment ? En se multipliant dans l’espace, encore et encore, pendant des siècles, jusqu’à atteindre la prospérité absolue. Et c’est là que ça commence à donner le tournis : pour le philosophe, dans un tel scénario, il pourrait exister dans un avenir très très lointain – 1 000, 10 000 ans – jusqu’à 10 puissance 23 humains dans l’Univers si nous colonisions notre voisinage cosmique (le superamas de la Vierge). Ne cherchez pas à traduire ce nombre, vous risquez la fracture. Vous reprendrez bien quand même un peu de puissances de 10 ? Dans ses chiffres mis à jour, Bostrom affirme que la civilisation idéale contiendrait jusqu’à 10 puissance 54 « posthumains », à condition que « les esprits futurs soient majoritairement implémentés dans du matériel informatique ». Quant au « potentiel » de l’humanité réalisé, Bostrom l’imagine comme une société productiviste à l’extrême, aux niveaux de contrôle des ressources et lois naturelles « proches du maximum pouvant être atteint ».

Le long-termisme, c’est ça : penser uniquement en quantités faramineuses d’espace-temps et de populations… face auxquelles les préoccupations de l’ici et du maintenant ne pèsent plus rien. Penser l’humanité comme une simple machine à se multiplier. Pour qu’à la fin, après avoir maximisé la productivité économique, soumis l’intégralité de la nature et colonisé l’entièreté du cosmos, nos descendants transhumains vivent en parfaite harmonie dans de gigantesques simulations informatiques orgasmiques en 60fps. C’est littéralement ce qu’écrit le philosophe suédois dans sa définition de l’utopie.

C’est au nom de cet utilitarisme délirant que Musk, grand fan de Bostrom (il a donné 1,5 millions de dollars au Future of Life Institute, l’organisation-sœur du FHI) évoque sans arrêt le besoin de coloniser d’autres planètes et les périls de l’IA, y compris lors d’une conférence sur l’altruisme efficace organisée en 2015 sur le campus de Google. C’est aussi pour ça que Bezos rêve tout haut d’envoyer « 1000 milliards d’humains » dans des colonies spatiales en forme de cylindres sorties d’un magazine de SF des années 70. C’est enfin pour cela qu’existent des think tanks comme le Global Priorities Institute, le Centre for the Study of Existential Risk de Cambridge, le Long Term Future Fund, l’Open Philanthropy (fondée par Dustin Moskowitz, cofondateur de Facebook), où l’on retrouve de nombreux instigateurs de l’altruisme efficace, conquis par la nouvelle philosophie rationaliste. Des organisations qui, combinées, gèrent des dizaines de millions de dollars chaque année.

L'utopie selon Nick Bostrom : Matrix, mais dans l'espace
L’utopie selon Nick Bostrom : Matrix, mais dans l’espace Nick Bostrom, 2020

Outre le fait de transporter ses adeptes dans des récits de hard SF hédonistes, cet utilitarisme débridé offre de nombreux avantages moraux à la minorité ultra-privilégiée à laquelle il s’adresse. Le premier d’entre eux : assumer sans complexe la défense de leur statut de dominants. Quitte à mettre de côté (pour le bien commun) un truc aussi encombrant que les droits fondamentaux. Au nom du futur, Bostrom a ainsi défendu la possibilité de « frappes préventives » contre un État qui présenterait un risque existentiel pour l’humanité (tant pis pour la souveraineté des États), et la construction d’un « système de surveillance mondial omniprésent et en temps réel » pour prévenir l’émergence d’une technologie incontrôlée (tant pis pour la vie privée). Nick Beckstead, l’un des penseurs principaux du long-termisme, soutient sans trembler le fait de prioriser les vies des habitants des pays riches sur celles des habitants des pays pauvres, car « les pays plus riches innovent substantiellement plus, et leurs travailleurs sont plus productifs ».

Des concepts qui […] justifient entre deux mots latins une forme d’eugénisme, une rhétorique suprémaciste blanche, l’établissement d’un régime de surveillance massive et le perfectionnement du capitalisme productiviste le plus destructeur à la poursuite d’une infinie création de richesse.

William MacAskill, désormais partisan avec la philosophe d’Oxford Hilary Greaves d’une ligne « dure » du long termisme – c’est dire –, affirme qu’il faudrait carrément cesser toute donation à des projets philanthropiques visant à améliorer les conditions de vie des plus pauvres, perçus comme des entreprises « court-termistes » (des projets qu’il a lui-même contribué à lancer une décennie plus tôt, rappelons-le). En bref, sacrifier le présent pour assurer l’avenir. Surtout si ce sont les autres qui trinquent. Quant au philosophe australien d’Oxford Toby Ord, auteur du livre long-termiste The Precipice, il considère  le changement climatique comme un non-événement à l’échelle du posthumanisme, alors que son pays d’origine est en flammes six mois de l’année. Sans surprise, jamais les altruistes efficaces ou les long-termistes n’envisagent l’idée de soutenir des mouvements anticapitalistes et autonomistes pour accéder à un avenir radieux : pour ceux qui en douteraient encore, l’utilitarisme déteste la justice sociale. En dix ans, les fondateurs de l’altruisme efficace ont totalement vrillé idéologiquement.

Contrairement à l’altruisme efficace, qu’il a lui-même défendu médiatiquement, Phil Torres affirme en revanche que son émanation long-termiste est devenue « une religion […] profondément dangereuse » dans trois (!) longs articles angoissés. D’autant plus dangereuse qu’elle séduit une élite technocapitaliste avec des concepts qui, sous couvert de rationalité scientifique et de rigueur mathématique, justifient entre deux mots latins une forme d’eugénisme, une rhétorique suprémaciste blanche, l’établissement d’un régime de surveillance massive et le perfectionnement du capitalisme productiviste le plus destructeur à la poursuite d’une infinie création de richesse. La même qui, par le passé, a marché main dans la main avec l’esclavage et la colonisation.

Rien, absolument rien ne va dans ce package idéologique conçu pour apaiser les consciences de l’élite occidentale blanche, porteuse d’un capital financier ou culturel énorme, et taillé sur-mesure dans leur lexique. « MacAskill est à l’aise avec le langage des représentants du capitalisme mondial », écrit Amia Srinivisan dans la London Review of Books: « La volonté de quantifier […], l’obsession de l’efficacité et de la productivité, la conviction que l’intérêt individuel et la moralité peuvent converger […] Peut-être perçoit-il que ses potentiels adeptes – des millennials privilégiés et ambitieux – ne veulent pas entendre parler de l’iniquité du système qui a construit leur vision du monde. » L’ironie est d’autant plus grande, conclut-elle, que « bien qu’étant majoritairement responsables de la catastrophe climatique, les super-riches seront ceux qui en subiront le moins les conséquences. »  Ils peuvent donc dormir en paix dans leurs résidences climatisées, certains d’œuvrer pour le futur de l’espèce, pendant que leurs décisions rendent le présent invivable, un jour à la fois.

Source : Arrêts sur images

Next Post

EDITOR'S CHOICE

Welcome Back!

Login to your account below

Retrieve your password

Please enter your username or email address to reset your password.