[Total : 1    Moyenne : 4/5]

Singularité : Vernor Vinge décrit l’ère post-humaine et le triomphe de la robotique
Professeur de mathématique et d’informatique et auteur de science-fiction, Vernor Vinge est le brillant esprit derrière l’une des conceptualisations les plus précises et les plus fécondes de la Singularité.

Difficile de résumer cet article en une phrase sans en perdre la puissance, mais l’on peut dire que la Singularité telle que Vinge la conçoit correspond au moment où l’intelligence artificielle des robots ou des programmes est devenue consciente d’elle-même. Partant de ce constat qui semble simple, Vinge va élaborer trois grands axes de réflexion : pourquoi sa Singularité signe-t-elle la fin de l’humanité, comment pourrait-on l’éviter et comment pourrait-on l’encadrer. Nous avons traduit en français l’intégralité de cet essai de futurologie qui pose à la science des questions éthiques aussi essentielles que contemporaines : d’après Vinge, la Singularité aura lieu entre 2005 et 2050 et l’humanité devra être prête à l’accueillir — ou à y faire face.
Dans les trente ans à venir, nous aurons les moyens technologiques de créer une intelligence surhumaine. Peu après, l’ère des Hommes prendra fin. Un tel progrès est-il évitable ? S’il ne l’est pas, pourrions-nous modifier le cours des événements de façon à survivre ? Ces questions restent en suspens. Des éléments de réponses (et des dangers supplémentaires) sont ci-dessous avancés.
Qu’est-ce que la Singularité ?

L’accélération du progrès technologique a été un élément central de ce siècle. J’affirme dans cet article que nous nous trouvons à l’aube d’un changement comparable à celui de l’apparition de la vie humaine sur Terre. L’origine précise du changement est la création imminente, par la technologie, d’entités dont l’intelligence dépasse celle des humains. Il existe plusieurs biais par lesquels la science pourrait réaliser cette avancée (et il s’agit là d’une raison supplémentaire de penser que cela va réellement se produire) :

Des ordinateurs « vivants » et supérieurement intelligents pourraient déjà exister (à ce jour, il existe une controverse quant à la possibilité de créer une machine équivalente à l’Homme. Si la réponse est « oui », alors, sans aucun doute, des êtres encore plus intelligents pourront être construits peu après).
Les grands réseaux informatiques (et leurs utilisateurs) pourraient « se transformer » en entités supérieurement intelligentes.
L’interface ordinateur/humain pourrait devenir si imbriquée que les utilisateurs pourraient être raisonnablement considérés comme supérieurement intelligents.
Les sciences biologiques pourraient créer des moyens d’améliorer l’intelligence naturelle de l’être humain.
Les trois premières possibilités dépendent largement des évolutions du hardware (matériel informatique). Dans ce domaine, le progrès s’est fait selon une courbe particulièrement régulière au cours des dernières décennies. Suivant cette tendance, je pense que la création d’une intelligence surhumaine verra le jour dans les trente prochaines années. Charles Platt a rappelé que les passionnés et spécialistes d’intelligence artificielle affirment la même chose que moi depuis trente ans. Le temps étant relatif, et pour éviter toute ambiguïté, laissez-moi être plus précis : je serais surpris qu’une telle chose se produise avant 2005 et après 2030.

Quelles sont les conséquences de cet événement ? Lorsque cette intelligence surhumaine produira du progrès, ce dernier sera bien plus rapide. De fait, il n’y a aucune raison pour que le progrès lui-même n’implique pas le développement d’entités encore plus intelligentes – dans un délai encore plus court. Selon moi, la meilleure analogie est celle du passé évolutionniste : les animaux peuvent s’adapter à des problèmes et inventer, mais pas plus rapidement que la sélection naturelle ne le ferait – le monde agit tel son propre simulateur dans l’exemple de la sélection naturelle. Nous autres humains avons la capacité d’intérioriser le monde et d’imaginer diverses hypothèses ; nous pouvons résoudre de nombreux problèmes mille fois plus vite que la sélection naturelle. Ainsi, en créant les moyens d’effectuer ces simulations à des vitesses bien plus élevées, l’humanité du futur sera aussi différente de l’humanité actuelle que ne l’est l’humanité actuelle des animaux les moins évolués.
Du point de vue de l’être humain, ce changement impliquera l’abandon, peut-être brutal, de toutes les règles établies, un emballement exponentiel sans aucun espoir de contrôle. Les évolutions que l’on ne pensait auparavant possible qu’en « un million d’années » (si tant est qu’elles ne se produisent jamais…) interviendront probablement au siècle prochain (Greg Bear décrit une situation dans laquelle les changements majeurs se produisent en l’espace de quelques heures).

Je pense qu’il est juste de nommer cet événement une singularité (« la Singularité », pour les besoins de cet article). Il arrive un moment où nos vieux modèles doivent être écartés pour qu’une nouvelle réalité prenne la place. Plus nous approchons de ce moment, plus cette réalité pèsera sur le cours de l’Humanité, jusqu’à ce que la notion devienne banale. Pourtant, lorsque le moment arrivera enfin, il sera peut-être toujours vécu comme une surprise, un saut dans l’inconnu. Dans les années 50, très peu de personnes l’identifièrent : Stan Ulam paraphrasait John von Neumann :

« Une conversation a tourné autour du progrès toujours plus rapide de la technologie et sur les changements dans le mode de vie humain. Ce progrès implique l’émergence d’une singularité essentielle dans l’histoire de la race, au-delà de laquelle l’Humanité, telle que nous la connaissons, ne peut continuer. »

Vernor_Vinge_small
Vernor Vinge.
Von Neumann utilise lui-même le terme de singularité, bien qu’il semble faire référence au progrès habituel, et non pas à la création d’une intelligence surhumaine (selon moi, la surhumanité est l’essence de la Singularité. Sans cela, nous aurions un excès de richesses techniques, jamais convenablement absorbé).

Dans les années 60, certaines des implications d’une intelligence surhumaine ont été reconnues. I. J. Good a écrit :

« Définissons une machine sur-intelligente comme une machine qui surpasse largement toute activité intellectuelle d’un homme, aussi intelligent soit-il. La conception de machines étant l’une de ces activités intellectuelles, une machine sur-intelligente pourrait donc élaborer des machines encore meilleures ; incontestablement, il y aurait alors une « explosion intellectuelle », et l’intelligence humaine se retrouverait complètement dépassée. Il en résulte que la machine sur-intelligente sera la dernière invention que l’homme aura besoin de faire, à condition que ladite machine soit assez docile pour constamment lui obéir (…) Il est probable qu’au cours du XXe siècle, une machine sur-intelligente soit conçue, et qu’elle soit effectivement la dernière invention que l’Homme n’ait jamais à faire. »

Good a saisi l’essence du bouleversement mais ne va pas au bout de la question des conséquences inquiétantes. La machine qu’il décrit ne serait pas plus un outil pour l’Homme que l’Homme n’en est un pour les lapins, les merles ou les chimpanzés.

Tout au long des années 60, 70 et 80, la reconnaissance du cataclysme s’est diffusée. Ce sont peut-être les écrivains de science-fiction qui ont ressenti les premiers impacts. Après tout, ils tentent d’écrire des histoires à propos de la technologie, et de tout ce qu’elle peut nous apporter. De plus en plus, ces auteurs se heurtent au mur opaque du futur. Il fut un temps où ils pouvaient faire se dérouler leurs histoires des millions d’années dans le futur. Ils se sont rendus compte que leurs extrapolations les plus développées aboutissaient à l’inconnu… dès le lendemain. Il fut un temps où les empires galactiques paraissaient relever de la science-fiction. Aujourd’hui, malheureusement, il en va de même pour les empires interplanétaires.

Qu’en sera-t-il des années 90, 2000, et 2010, au fur et à mesure que nous nous rapprocherons de l’instant fatidique ? Comment la Singularité sera-t-elle perçue par l’Humanité ? Pendant un moment encore, la « machine-sapiens » continuera d’avoir bonne presse. Après tout, tant que nous n’aurons pas un matériel aussi puissant que le cerveau humain, il est probablement ridicule de penser que nous serons capable de créer une intelligence équivalente (ou supérieure) à l’intelligence humaine. (Il existe une hypothèse farfelue selon laquelle nous pourrions créer une équivalence humaine à partir d’un matériel moins puissant à la condition de renoncer à la vitesse, en se contentant d’un être artificiel à proprement parler lent. Il est cependant bien plus probable qu’élaborer le logiciel se révèle être une entreprise délicate, impliquant de nombreux faux départs et autres expérimentations. Si tel est le cas, l’arrivée de machines conscientes de leur existence ne se fera pas avant le développement d’un matériel considérablement plus puissant que ce dont dispose naturellement l’Homme.)

Mais le temps passant, nous devrions voir apparaître de nouveaux symptômes. Le dilemme ressenti par les auteurs de science-fiction sera perçu dans d’autres domaines créatifs. J’ai déjà entendu des auteurs de BD se préoccuper de la manière de créer des effets spectaculaires lorsque tout ce qui est visible peut être produit par le tout-venant technologique. Nous verrons l’automatisme prendre la place d’emplois de plus en plus qualifiés. Nous avons d’ores et déjà des outils (programme de mathématiques symboliques, CAO/FAO) nous permettant de nous affranchir des corvées les plus ingrates. Dit d’une autre manière : le travail véritablement productif relève du domaine d’une fraction de plus en plus petite et élitiste de l’Humanité. A l’aube de la Singularité, nous sommes en train de voir les prédictions du véritable chômage technologique enfin se réaliser.
Un autre symptôme de la progression vers la Singularité : les idées elles-mêmes devraient se répandre plus vite, même les plus radicales devenant rapidement lieu commun. Lorsque j’ai commencé à écrire de la science-fiction au milieu des années 60, il semblait aisé de trouver des idées prenant des décennies à pénétrer l’inconscient culturel ; de nos jours, le procédé semble maintenant prendre quelque chose comme dix-huit mois. Bien sûr, cela pourrait s’expliquer par le fait, qu’en vieillissant, mon imagination s’appauvrit, mais j’en perçois les effets chez les autres également. Comme dans la mécanique des fluides, la Singularité se rapproche alors que nous atteignons la vitesse critique.

Et qu’en est-il de l’arrivée de la Singularité elle-même ? Que peut-on en dire véritablement ? Puisqu’elle implique une frénésie intellectuelle, elle se produira probablement plus rapidement qu’aucune révolution technologique ne l’a jamais fait. L’événement déclencheur sera sûrement imprévu – peut-être même aux yeux des chercheurs impliqués (« Mais tous nos modèles précédents étaient figés ! Nous ne faisions que bidouiller quelques paramètres… » pourraient-ils dire). Si le réseau est suffisamment étendu (dans des systèmes embarqués simultanés), nos artefacts, dans leur ensemble, sembleront soudainement se réveiller.

Et qu’arrivera-t-il un ou deux mois (ou un jour ou deux) après cela ? Je ne peux fournir que des analogies : le progrès de l’Humanité. Nous nous trouverons dans l’ère post-humaine. Malgré mon immense optimisme concernant la technologie, je pense que je serais plus rassuré de contempler ces événements métaphysiques en en étant éloigné de mille ans, plutôt que de vingt.
La Singularité peut-elle être évitée ?

Eh bien, peut-être que cela n’arrivera pas du tout. Parfois, j’essaye d’imaginer les symptômes auxquels nous devons nous attendre si la Singularité ne se développe pas. Il y a des arguments fortement respectés de Penrose et Searle contre la mise en pratique de la machine de la sagesse.

En août 1992, Thinking Machine Corporation a tenu un atelier pour enquêter sur la question « Comment construire une machine qui pense ». Comme vous pouvez le deviner à partir de l’intitulé, les participants n’étaient pas spécialement des soutiens des arguments contre la machine intelligente. En fait, il y avait un accord général selon lequel les esprits peuvent exister sur des substrats non-biologiques et aussi selon lequel les algorithmes sont d’une importance extrême pour l’existence des esprits.

Malgré cela, le débat était plus animé concernant la puissance brute de la matière qui est présente dans le cerveau. Une minorité a estimé que les ordinateurs les plus performants de 1992 étaient environ à trois ordres de grandeur de la puissance du cerveau humain. La majorité des participants était d’accord avec l’estimation de Moravec selon laquelle dix à quarante années nous sépareraient de la parité matérielle. Il y avait aussi une autre minorité qui soulignait et faisait remarquer que le modèle informatique des neurones uniques pourrait être bien plus puissant que ce qu’on ne pourrait croire.
Si tel est le cas, notre matériel informatique actuel pourrait être équivalent à dix ordres de grandeur de l’équipement que nous possédons dans nos cerveaux. Si ceci est vrai (ou à cet égard, si la critique de Penrose ou de Searle est valable), on pourrait ne jamais croiser la Singularité. Au lieu de ça, au début des années 2000, nous verrions les courbes de performances de notre matériel informatique se niveler vers le bas — cela à cause de notre incapacité à automatiser le travail de conception nécessaire pour supporter de futurs améliorations du matériel. Nous nous retrouverions avec du matériel très puissant, mais sans la capacité d’aller plus loin. Le traitement de signal numérique commercial pourrait être génial, donnant une apparence analogue même aux opérations numériques, mais rien « ne se réveillerait » et il n’y aurait jamais le coté intellectuel qui est l’essence de la Singularité. On le verrait probablement comme un âge d’or… et ce serait aussi une fin de progrès. Cela ressemble beaucoup au futur prévu par Gunther Stent. En fait, Stent cite explicitement le développement d’intelligence transhumaine comme une condition suffisante pour rendre ses prévisions invalides.

Mais si la technologie nécessaire à la Singularité peut être atteinte, elle le sera. Même si tous les gouvernements du monde devaient comprendre « la menace » et en être morts de peur, le progrès continuerait. Dans la fiction, on a vu passer des histoires de lois qui interdiraient la construction « d’une machine dont le mode de fonctionnement ressemblerait à l’esprit humain ». En fait, l’avantage compétitif — économique, militaire, même artistique — de chaque avancée dans l’automatisation, est si contraignant qu’il dépasse les lois qui interdiraient de tels procédés car il y a la menace que d’autres puissent s’en accaparer.

Eric Drexler a donné des aperçus très pertinents de jusqu’où l’amélioration technique peut aller. Il reconnaît que des intelligences surhumaines seront disponibles dans un avenir proche — et que de telles entités constituent une menace au statu quo humain. Mais Drexler soutient que nous pouvons limiter de tels dispositifs surhumains pour que leurs résultats puissent être examinés et utilisés sans risque. C’est la machine ultra-intelligente de Good, avec beaucoup de prudence. Je soutiens que le confinement est intrinsèquement impraticable. Pour le cas d’un confinement physique : imaginez-vous enfermé dans votre maison avec l’accès à des données seulement limitées à l’extérieur, à vos maîtres. Si ces maîtres peuvent penser à un taux — disons — un million de fois plus lent que le vôtre, il est probable que dans les années à venir, vous puissiez penser à « l’indication utile » qui vous rendra votre liberté. Une telle entité « super-humaine faible » brûlerait probablement en quelques semaines à l’extérieur. « La super-humanité forte » irait au-delà. Difficile à dire précisément à quoi elle ressemblerait, mais la différence semble être profonde. Imaginez diriger l’esprit d’un chien à une très grande vitesse.
Est-ce que mille années de vie ne contribueraient à augmenter la perspicacité humaine ? Maintenant, l’intelligence du chien a été intelligemment ré-accordée et exécutée à grande vitesse, que nous pourrions voir quelque chose de différent. Beaucoup de suppositions au sujet de la super-intelligence semblent être basées sur le modèle « super-humain faible ». Je crois que nos meilleures suppositions peuvent être obtenues en pensant à la nature de la « super-humanité forte ». J’évoquerai à nouveau ce point plus tard dans l’article.

Une autre approche au confinement serait de construire des règles dans l’esprit de l’entité super-humaine (par exemple, les lois d’Asimov). Je pense que toute règle assez stricte pour être efficace produirait aussi un matériel dont la capacité serait clairement inférieure aux versions libres (et la compétition humaine favoriserait le développement de ces modèles plus dangereux). Le rêve d’Asimov est merveilleux : imaginez un esclave dévoué, qui possède 1 000 fois vos capacités dans tous les domaines. Imaginez une créature qui pourrait satisfaire tous vos désirs en gardant 99,9 % de son temps libre pour d’autres activités. Cela créerait un tout nouvel univers que nous ne comprendrions pas, mais qui serait rempli de dieux bienveillants (et l’un de mes vœux serait de devenir l’un d’entre eux).

Si la Singularité ne peut être confinée, à quel point l’ère post-humaine se porterait-elle mal ? Eh bien… plutôt mal. L’extinction pure et simple de l’espèce humaine est une possibilité. Ou, pour paraphraser Eric Drexler quand il s’est exprimé sur la nanotechnologie : étant donné tout ce qu’une telle technologie peut faire, peut-être que des gouvernements décideraient simplement qu’ils n’ont plus besoin de citoyens !

Pourtant l’extinction physique ne peut pas être la possibilité la plus effrayante. Il y a encore des analogies : pensez à nos différentes relations aux animaux. Certains des abus physiques bruts sont invraisemblables, pourtant…. Dans un monde post-humain, il y aurait toujours beaucoup de niches où une automatisation équivalente à celle de l’humain serait désirable : systèmes incorporés dans des dispositifs autonomes, des esprits conscients d’eux-mêmes — une intelligence largement super-humaine serait probablement une Société d’Esprits avec quelques composants très efficaces. Certains de ces équivalents humains ne pourraient être utilisés pour nulle autre chose que le traitement de signal numérique. Ils seraient plutôt des baleines que des humains. D’autres pourraient être très semblables à l’homme, mais avec un caractère unique, un dévouement qui les enverrait dans une clinique psychiatrique si cela se passait dans notre ère.

Quoi qu’aucune de ces créatures ne puisse être faite de chair et de sang, elles pourraient être ce qu’il y a de plus proche, dans le nouvel environnement à venir, de ce que nous appelons aujourd’hui l’humain. I. J. Good avait quelque chose à dire à ce propos, mais aujourd’hui, son conseil serait probablement discuté : Good a proposé « une Meta-règle-d’or », qui pourrait être paraphrasée de la manière suivante : « Traitez vos inférieurs comme vous voudriez être traités par vos supérieurs ». C’est une idée fantastique, mais paradoxale (et la plupart de mes amis n’y croient guère) puisque la récompense est dure à comprendre. Pourtant, si nous trouvons le moyen de la suivre, cela pourrait nous apprendre quelque chose concernant la plausibilité d’une telle bonté dans cet univers.

J’ai soutenu précédemment que nous ne pouvons pas empêcher la Singularité, que son arrivée est une conséquence inévitable de la compétitivité naturelle des humains et des possibilités inhérentes à la technologie. Et pourtant, nous en sommes les initiateurs. Même la plus grande des avalanches est déclenchée par de petites choses. Nous avons la liberté d’établir les conditions premières, de faire en sorte que les choses arrivent d’une manière moins dangereuse que prévu. Bien sûr, on ne sait pas trop quelle est la bonne manière d’orienter les choses.
D’autres chemins vers la Singularité : l’intelligence amplifiée

Lorsqu’on parle de créer des êtres super-humains intelligents, on s’imagine souvent la création d’une intelligence artificielle (Artificial Intelligence, ou AI). Comme je l’ai observé plus haut, il existe cependant d’autres chemins vers la super-humanité. Les réseaux informatiques et les interfaces humain-ordinateur paraissent plus banals que l’AI, mais sont susceptibles de nous mener à la Singularité. C’est cette approche différente que j’appelle l’intelligence amplifiée (Intelligence Amplification, ou IA). L’IA se réalise de façon très naturelle, la plupart du temps sans être reconnue pour ce qu’elle est par ses développeurs. Mais à chaque fois que notre capacité à accéder à l’information et à la communiquer aux autres est améliorée, nous réussissons, en un sens, une amélioration (amplification) de l’intelligence naturelle. Même de nos jours, la combinaison d’un Ph.D. humain et d’un bon poste de travail informatique (même un poste hors-réseau !) pourrait rivaliser avec n’importe lequel des tests d’intelligence écrite qui existent aujourd’hui.

Et il est très probable que l’IA soit un chemin beaucoup plus facile à emprunter pour réaliser cette super-humanité qu’une AI pure. Chez les humains, les problèmes de développement les plus ardus ont déjà été résolus. Créer et améliorer quelque chose à partir de la connaissance que nous avons de l’humain à ce jour, serait plus facile que de comprendre d’abord la totalité de l’humain pour ensuite construire des machines qui incorporent ce tout. Et il existe au moins un précédent conjoncturel pour cette approche. Cairns-Smith a fait l’hypothèse que la vie biologique a pu se développer comme complément d’une vie encore plus primitive, basée sur la cristallogenèse. Lynn Margulis a prouvé avec force que la mutualisation joue un rôle moteur dans l’évolution.
Vous noterez que je ne propose pas d’ignorer la recherche sur l’AI, ou de moins la financer. Les recherches sur l’AI auront souvent des applications dans l’IA, et vice-versa. Je nous suggère d’admettre le fait que dans la recherche sur les réseaux et interfaces, il existe quelque chose d’aussi profond (et potentiellement plus sauvage) que l’AI. Sous cet angle, on pourra voir des projets qui ne sont pas aussi directement applicables que la recherche sur les réseaux et interfaces, mais qui nous servent à avancer vers la Singularité, en passant par l’IA.

Voici quelques projets possibles qui recouvrent une signification particulière selon le point de vue d’une IA :

l’automatisation humain/ordinateur : prenez les problèmes normalement considérés comme ayant des solutions purement informatiques (les problèmes de hill-climbing par exemple), et les programmes et interfaces qui tirent avantage de l’intuition humaine et du hardware disponible. Si l’on considère toutes les étrangetés des problèmes de hill-climbing hyper-dimensionnel (et les fins algorithmes qui ont été conçus pour leur résolution), d’intéressants dispositifs et outils de contrôle peuvent être imaginés pour le « partenaire » humain du binôme ;
développer la symbiose humain/ordinateur en art : combiner la capacité de génération graphique des machines modernes et la sensibilité esthétique des humains. Bien sûr, il existe quantité de recherches sur la conception d’aides informatiques pour les artistes, dans un but d’économie de main-d’œuvre. Je propose que l’on vise à une meilleure fusion des compétences, que l’on reconnaisse explicitement que l’approche coopérative est possible. Karl Sims a fait un travail remarquable en ce sens ;
permettre les équipes humain/ordinateur aux tournois d’échecs. Nous avons déjà à notre disposition des programmes qui peuvent jouer mieux que presque tous les joueurs humains. Mais quel travail a été fait pour savoir comment ce pouvoir pourrait être utilisé par un humain, pour obtenir un résultat encore meilleur ? Si de telles équipes pouvaient concourir à certains tournois au moins, cela pourrait avoir le même effet positif pour la recherche sur l’IA que l’ajout d’ordinateurs aux tournois a eu sur la niche analogue en AI ;
développer des interfaces qui permettent l’accès informatique au réseau sans que la présence d’un humain rivé sur sa chaise devant un ordinateur soit nécessaire (voilà un aspect de l’IA qui a des conséquences connues, si avantageuses en termes économiques que beaucoup d’effort est fourni) ;
développer des « Decision Support Systems » (DSS, systèmes d’informatique décisionnelle) qui soient davantage symétriques. Les recherches et produits DSS ont connu beaucoup de succès ces dernières années. C’est une forme d’intelligence amplifiée, bien que peut-être trop axée sur les systèmes oraculaires. Tout comme le programme donne des informations à l’utilisateur, l’idée qu’un utilisateur guide le programme devrait se répandre ;
utiliser des réseaux locaux (LAN) pour rendre les équipes d’individus réellement efficaces (c’est-à-dire les rendre plus efficaces que leurs composants). C’est généralement le domaine du « groupware », une activité lucrative de plus en plus populaire. Le changement de perspective serait ici d’envisager l’activité de groupe comme une organisation combinatoire. En un sens, cette proposition peut être considérée comme ayant pour but l’invention de « rules of order » (règles de convenance, de conduite) pour de telles opérations. Par exemple, la concentration du groupe pourrait être plus facilement maintenue que dans des réunions ordinaires. L’expertise de chaque membre humain pourrait être isolée des problèmes d’ego, de la sorte que la contribution de chacun soit axée sur le projet d’équipe. Et bien sûr, les banques de données partagées seraient utilisées beaucoup plus facilement que pendant les opérations conventionnelles de tel ou tel comité. (Vous remarquerez que cette proposition concerne davantage les réunions d’équipe en entreprise que les réunions politiques. Dans un contexte politique, l’automatisation décrite ci-dessus ne ferait que donner plus de pouvoir à la personne qui établit les règles !) ;
exploiter l’Internet mondial en tant qu’outil de combinaison humain/machine. De tous les points sur la liste, c’est celui pour lequel le progrès se fait le plus rapidement, et celui qui pourrait nous conduire à la Singularité avant toute autre chose. Le pouvoir et l’influence d’Internet — même celui qui existe aujourd’hui — est largement sous-estimé. À titre d’exemple, je pense que nos systèmes informatiques contemporains crouleraient sous le poids de leur propre complexité, si ce n’était pour la marge de manœuvre qu’accorde l’Usenet à l’administration système et au personnel support ! L’anarchie même du développement du réseau mondial est la preuve de son potentiel. À mesure que la connectivité, la bande passante, la taille des archives et la vitesse des ordinateurs augmentent, nous observons quelque chose de similaire à la vision de Lynn Margulis, soit une biosphère vue comme un processeur de données reproductif, mais à une vitesse un million de fois plus grande et avec des millions d’agents humains intelligents (nous-mêmes).
Les exemples précités illustrent la recherche qui peut être faite dans le contexte des départements contemporains d’informatique. Il existe d’autres paradigmes. Par exemple, nombre de travaux sur l’AI et les réseaux neuraux pourraient bénéficier d’un lien approfondi avec la vie biologique. Au lieu d’essayer simplement de modéliser et de comprendre la vie biologique à l’aide d’ordinateurs, la recherche pourrait être dirigée directement vers la création de systèmes composites qui aient besoin de l’ « éclairage » de la vie biologique, ou pour des fonctions qu’on ne connaît pas encore assez bien pour être mises en œuvre au niveau du hardware. Un rêve de science-fiction de longue date demeure la création d’interfaces directes entre le cerveau et l’ordinateur. En fait, beaucoup de travaux concrets sont possibles dans ce domaine (certains sont d’ailleurs en cours) :
les prothèses sont l’objet d’une applicabilité commerciale directe. Des transducteurs entre les nerfs et le silicone peuvent être fabriqués. Voici une étape stimulante, à court terme, vers la communication directe ;
des liens directs vers le cerveau semblent réalisables, si le bit rate est faible : étant donné la flexibilité d’apprentissage de l’être humain, il ne semblerait pas nécessaire que les réelles cibles neuronales soient précisément sélectionnées. Même un taux de 100 bits par seconde serait d’une grande aide pour les victimes d’accidents vasculaires cérébraux, qui autrement seraient cantonnés à des interfaces fonctionnant par menus ;
un branchement sur le nerf optique a un potentiel proche de 1 Mbit/s. Mais cela requiert de connaître finement l’architecture de la vision, et de placer un imposant tissu d’électrodes avec une infime précision. Si nous voulons une connexion avec une large bande passante qui s’ajoute aux chemins déjà présents dans le cerveau, le problème devient encore plus inextricable. Coller une grille de récepteurs à large bande passante dans le cerveau ne marcherait simplement pas. Mais supposons que cette grille soit placée en même temps que la structure du cerveau se construit, à mesure que l’embryon se développe, cela implique :
des expérimentations d’embryons animaux. Je ne m’attendrais à aucun succès en termes d’IA dans les premières années d’une telle recherche, mais donner à des cerveaux en cours de formation l’accès à de complexes structures neurales simulées pourrait présenter un intérêt certain pour les personnes qui étudient le développement du cerveau embryonnaire. A long terme, ce genre d’expériences pourrait créer des animaux dotés de chemins sensoriels additionnels et de capacités intellectuelles intéressantes.
A l’origine, j’avais espéré que cette discussion sur l’IA permettrait des approches de la Singularité nettement plus sécurisées (après tout, l’IA permet notre participation dans une forme de transcendance). Hélas, en regardant ces propositions a posteriori, une des seules choses dont je sois certain est qu’elles doivent être prises en compte, qu’elles peuvent nous accorder d’autres options. Mais en ce qui concerne la sécurité, eh bien… certaines suggestions font tout de même un peu peur. Un de mes critiques non-officiels me faisait remarquer qu’une IA pour les êtres humains créerait une élite plutôt sinistre. Nous autres êtres humains avons derrière nous des millions d’années d’évolution, qui nous font regarder la compétition d’un regard noir. Ce regard pourrait bien n’être pas si noir que cela dans le monde contemporain, au sein duquel les perdants adoptent les astuces des gagnants et sont cooptés par les entreprises des gagnants. Une créature créée de novo (de manière spontanée) pourrait se montrer plus inoffensive qu’une même entité fondée sur les crocs et les serres. Même la conception d’un Internet qui s’éveillerait en même temps qu’une humanité réunifiée peut être perçue comme un cauchemar.

Le problème n’est pas seulement que la Singularité représente l’évincement de l’humanité du centre du monde, mais qu’elle contredit nos notions d’ « être » les plus ancrées dans nos mentalités. Il me semble qu’une étude précise de la notion de « super-humanité forte » peut nous expliquer pourquoi.
La « super-humanité forte » et ce qu’on peut en attendre

Supposez que l’on puisse fabriquer la Singularité sur mesure. Supposez que l’on soit capable de réaliser nos rêves les plus fous. À quoi aspirerions-nous alors ? À ce que les humains eux-mêmes deviennent leurs propres successeurs, à ce que n’importe quelle injustice soit tempérée par la connaissance que l’on a de nos racines. Pour les êtres humains restés inchangés, l’objectif serait similaire à celui d’un traitement bénin (donnant peut-être même à ces « attardés » l’apparence de maîtriser des esclaves tout-puissants). Ce pourrait être un âge d’or marchant main dans la main avec le progrès (et dépassant la barrière de Stent). L’immortalité (du moins une durée de vie humaine complète, si l’on parvient à faire en sorte que l’Univers survive) serait possible.

Mais dans ce meilleur des mondes possibles, les problèmes philosophiques eux-mêmes deviennent intimidants. Un esprit qui garde la même capacité ne peut vivre à jamais ; après quelques milliers d’années, il ressemblerait davantage à une cassette tournant en boucle qu’à une personne. Pour vivre infiniment longtemps, l’esprit lui-même doit s’agrandir… et une fois qu’il est assez grand et regarde en arrière… comment peut-il se sentir proche de l’âme qu’il était à l’origine ? Certes, l’être ultérieur serait tout ce qu’était l’original, mais de façon beaucoup plus vaste. Et donc même pour l’individu, la notion d’une nouvelle vie qui s’agrandit de façon incrémentale à partir de l’ancienne, développée par Cairns-Smith ou Lynn Margulis, demeure valide.

Ce « problème » de l’immortalité surgit de façons beaucoup plus directes. Les notions d’ego et de « conscience de soi » ont été le ciment du rationalisme pragmatique de ces derniers siècles. La notion de conscience de soi subit pourtant l’offensive, aujourd’hui, des adeptes de l’Artificial Intelligence. L’Intelligence Amplification contredit notre concept d’ego selon un angle différent. Le monde post-Singularité impliquera un réseau doté de très hauts taux de bande passante. Une des caractéristiques de ces entités dotées d’une « forte super-humanité » sera probablement leur capacité à communiquer à des taux variables de bande passante, pour certains beaucoup plus élevés que ceux du langage ou des messages écrits. Que se passera-t-il quand des morceaux d’ego pourront être copiés et fusionnés, quand le niveau de conscience de soi pourra augmenter ou diminuer pour correspondre à la nature des problèmes en question ? Voici des caractéristiques essentielles de la forte super-humanité et de la Singularité. En pensant à ces questions, on commence à pressentir que l’ère du post-humain sera ô combien plus étrange et différente dans son essence — peu importe qu’elle advienne de façon intelligente et inoffensive.

D’un côté, cette vision correspond à nombre de nos rêves les plus heureux : un temps infini, où l’on pourra sincèrement se connaître les uns les autres et résoudre les mystères les plus insolubles. D’un autre côté, cela ressemble beaucoup au pire des scénarios que j’imaginais plus haut dans cet essai.


Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*