Les algorithmes vont-ils dominer le monde ?

Le débat est lancé. Les tenants de l’Intelligence Artificielle, sans trop se préoccuper des aspects techniques qui restent à résoudre, sont convaincus que les algorithmes, de plus en plus « intelligents », vont prendre notre place et n’auront pas plus de considération vis-à-vis de nous que nous n’en avons pour l’homme de Néandertal.

Bien que l’on puisse penser que cette préoccupation reste éloignée de celles d’un responsable de TI, chef de projet ou développeur, les limites de l’Intelligence Artificielle et sa capacité supposée à se substituer à l’être humain, sont à considérer dans la mesure où c’est maintenant qu’il faut prendre des décisions pour éventuellement limiter ce pouvoir numérique que l’on commence à entrevoir. Inquiétude largement partagée par de nombreux scientifiques et industriels, tels Elon Musk et Stephen Hawking.

Pour Elon Musk « Il faut être très prudent avec l’Intelligence Artificielle. S’il fallait miser sur ce qui constitue notre plus grande menace pour l’existence, ce serait ça. De plus en plus de scientifiques pensent qu’il devrait y avoir une surveillance réglementée, au niveau national et international, juste pour nous assurer que nous ne faisons rien de stupide ».

Le britannique Stephen Hawking est allé encore plus loin : « Le développement d’une Intelligence Artificielle complète peut signifier la fin de l’espèce humaine. Une fois que les humains l’auront développée, elle va prendre son envol et se reconstruire à un rythme de plus en plus rapide. Les humains, limités par leur lente évolution biologique, ne pourront suivre et seront remplacés ».

En gros, il y a donc deux écoles : ceux qui voient les machines et leurs algorithmes nous dépasser et nous ramener au rôle d’observateur « zombique » qui n’aura plus de prise sur les évènements et ceux qui, au contraire, pensent que les êtres humains vont trouver les ressources nécessaires pour se « transhumaniser », modifier leur comportement génétique et créer un genre nouveau, peut-être à mille lieues de ce qu’il est aujourd’hui.

Plus qu’à un constat, c’est à une réflexion que nous convions nos lecteurs et abonnés LeMarson, cette appréhension de l’intelligence pouvant constituer la brique de base de ceux qui se lancent dans les algorithmes d’IA, machine learning et autres deep learning. L’arrière-plan d’une activité qui va les occuper pendant une bonne cinquantaine d’années…

 

L’IA est-elle intelligente ?

L’une des questions est de savoir si l’ « Intelligence Artificielle » est intelligente et si l’on ne fantasme pas en imaginant une échéance où elle dépasserait celle des êtres humains

Mais avant de tenter d’y répondre, il faut commencer par essayer de donner une définition de l’intelligence. C’est quoi exactement ?

Généralement, on associe l’intelligence au « libre arbitre ». C’est-à-dire à notre capacité de décider d’une conduite à tenir, indépendamment de toute contrainte ou apprentissage, simplement parce que ça nous chante et que nous l’avons choisie.

Une machine, fut-elle dotée des algorithmes les plus sophistiqués d’IA, n’aura pas cette liberté. Bien au contraire et encore pour quelques temps, l’algorithme ne pourra décider d’une conduite à tenir qu’en fonction d’un traitement et d’une analyse de données, sa décision étant l’aboutissement d’un cheminement algorithmique bien précis qui n’a rien à voir avec le « libre arbitre ». En d’autres termes, l’algorithme va prendre une décision logique, conditionnée par son environnement, alors qu’un être humain pourra faire n’importe quoi, parce que c’est le printemps et que les petits oiseaux chantent. Il est libre, ou tout au moins le croit-il.

C’est déjà une première différence.

La deuxième est qu’un être humain a conscience de ce qu’il fait. Pour lui, la décision est distincte de la conscience qu’il en a. L’algorithme d’IA, lui, n’a pas cette perception.

Le problème est que personne ne sait exactement ce qu’est la conscience, ni où elle se situe. Autant les décisions sont manifestement la conclusion de processus chimiques que l’on peut localiser dans le cerveau, certains parlent même de programmes (Yuval Noah Harari), que l’on peut aussi anticiper en surveillant les stimuli du cerveau, autant on n’a pas la moindre idée de ce qu’est la conscience et si elle se situe dans un lobe du cerveau ou dans l’orteil du pied droit…

 

Les scientifiques sont très divisés sur l’idée que les algorithmes vont nous remplacer ou non dans quelques décennies. Mais tous se posent la question et s’inquiètent de ce que l’on ne traite pas l’hypothèse avec suffisamment de sérieux, comme si c’était de la science-fiction. L’option la plus crédible est celle de la singularité, selon laquelle les algorithmes vont fortement s’améliorer, tout en restant … basiques, bien loin de l’intelligence humaine.

 

Les algorithmes ont-ils besoin d’être intelligents pour nous remplacer ?

Pas forcément.

L’idée que prônent certains scientifiques est que l’IA n’a pas besoin de nous être supérieure au sens intelligence du terme, pour nous remplacer et donc de disposer de sa propre conscience et libre-arbitre.

Et ceci pour une raison bien simple : nous ne sommes pas un modèle d’efficacité et il n’y a aucune raison de vouloir nous imiter.

Au contraire, c’est en s’améliorant sur ses points forts, le traitement des données, que l’algorithme saura d’abord nous accompagner, puis nous supplanter.

C’est ce que pensent les tenants de la « singularité technologique », qui prévoient l’arrivée d’une super intelligence artificielle, qui s’auto-améliorera jusqu’à dépasser l’intelligence humaine et signera du même coup sa fin. C’est le célèbre livre de Raymond Kurzwell en 2005 (aujourd’hui chez Google), « The singularity is near : when humans transcend biology », qui a mis le feu aux poudres et continue de susciter les commentaires les plus enflammés.

Avec en gros deux variantes, entre ceux qui croient que l’IA se débrouillera seule et ceux qui estiment que cette future intelligence sera plutôt le résultat de la collaboration entre les algorithmes et les cerveaux humains, qui eux-mêmes auront progressé.

D’autres, tels le philosophe Max More (« Transhumanism : toward a fururist philosophy », 1990), sont moins pessimistes et pensent que l’être humain va s’affranchir de ses propres limites biologiques, pour devenir « super-intelligent ». Ce qui, évidemment, est en contradiction absolue avec toutes les croyances religieuses.

Parallèlement à ces thèses, d’autres scientifiques estiment que la véritable différence entre l’algorithmique IA et l’être humain se situe dans notre capacité à éprouver des émotions et sentiments. Et donc d’associer une émotion à un événement. Sachant que le même évènement ne provoquera pas les mêmes émotions sur des individus distincts. C’est l’intelligence émotionnelle.

Bref, tout cela est encore un peu confus, le fil rouge étant cependant que dans ces scénarios, l’être humain risque de perdre la position dominante qu’il occupe depuis toujours, voire devenir spectateur de sa propre évolution.   

 

Les nouveaux prophètes de la Silicon Valley prêchent déjà pour l’instauration d’une nouvelle religion fondée sur le pouvoir des algorithmes, capables de manipuler des gros volumes de données. Pour eux, tout ce qui fait l’essence des êtres humains est ramené à des échanges biochimiques sur ces données, les programmes du futur. Nous sommes en quelque sorte préprogrammés et tout ce que nous faisons est prévisible.

 

La religion du « dataïsme »

Très récemment, le livre de Yuval Noah Harari, « Homo Deus », est venu apporter un éclairage très intéressant au débat et il est considéré comme une synthèse crédible de ce qui pourrait nous arriver dans le siècle à venir.

Pour l’historien, l’Homo Sapiens que nous sommes perd le contrôle de sa destinée : « Les gens ne devraient pas se concentrer sur la question de savoir comment arrêter le progrès technologique, parce que c’est impossible ». Il en déduit que les progrès de la bio-ingénierie, des interfaces cerveau-ordinateur et des algorithmes en général, font qu’il est très probable que dans un siècle ou deux, l’Homo Sapiens aura disparu, remplacé par une sorte de mutant numérique.

Yuval Noah Harari constate qu’une nouvelle philosophie est en train de s’installer, qui trouve ses racines en Californie, le dataïsme, qui possède déjà ses « grands prêtres », les évangélistes technologiques. Pour ces nouveaux prophètes, le dataïsme est une foi universelle dans le pouvoir des algorithmes, ce qui à bien y réfléchir, n’est pas dénué de sens.

Car si l’on peut penser que les algorithmes n’arriveront pas à horizon perceptible à nous ressembler sur le plan du libre arbitre, de la conscience, voire de l’intelligence émotionnelle, leur capacité à traiter des volumes gigantesques de données, grâce à une électronique de plus en plus puissante, leur permettra de dominer la race humaine, sans avoir besoin de nous imiter.

Considérons le monde qui nous entoure, c’est déjà ce qui est en train de se produire.

Les algorithmes deviennent pertinents grâce aux réseaux neuronaux et à leurs applications, d’apprentissage automatique et de détection de sentiments cachés, via le « deep learning ». Nous sommes déjà incapables de faire aussi bien qu’eux.

Ils sont susceptibles d’analyser, via le text mining, des volumes énormes de textes et d’en ressortir la « substantifique moëlle », ce que là encore nous ne savons pas faire. Ils savent prédire les évènements avec une précision diabolique et faire ressortir par datamining, des « corrélations non évidentes », comme on dit en mathématiques, portant sur des volumes incompatibles avec notre propre statut.

Les assistants sont déjà installés qui nous remplacent progressivement sur des tâches que nous savons réaliser, mais que pour des raisons diverses, nous ne voulons plus effectuer.

Les exemples sont déjà nombreux de situations dans lesquelles les algorithmes nous ont remplacé et reproduisent ce que nous leur avons appris. Watson d’IBM par exemple, s’avère être un médecin mille fois plus pertinent que ceux de nos hôpitaux, pour être capable d’appliquer des algorithmes sophistiqués sur des « montagnes » de données, ce que nous ne pourrions pas faire sauf à y consacrer quelques centaines d’années.

 

Alphabet, maison mère de Google, a mis en place en 2013 une structure de recherche, Calico, dont l’objectif avoué est de prolonger la vie et, pendant qu’on y est, de vaincre la mort…Les scientifiques (prestigieux) qui y collaborent donnent de la crédibilité à l’approche, mais s’il s’agissait d’une toute autre enseigne que celle de Google et d’Alphabet, nul doute que les dirigeants seraient depuis longtemps sous camisole de force…

 

Alphabet (Google), convaincu de la supériorité des algorithmes, non pas au plan conceptuel, mais efficacité, a mis en place une nouvelle structure en 2013 : Calico, dont l’objectif n’est ni plus ni moins que de mieux comprendre les moteurs de notre évolution biologique et par cela, d’augmenter sensiblement notre espérance de vie pour, peut-être, finir par « tuer la mort »… Et donc s’approcher un peu plus de cette immortalité, tant décriée par l’écrivain français Jean d’Ormesson…

Tout cela aboutira à horizon prévisible à une société dans laquelle les algorithmes travailleront, prédiront, nous aideront et se reproduiront sans notre aide. La grande question étant de savoir si nous aurons su en conserver le contrôle ou si, au contraire, faute de ne plus comprendre comment « ils s’y prennent », ils seront devenus indépendants.

Pour Yuval Noah Harari, il n’y a pas de doute, nous allons disparaître. Et les algorithmes de demain n’auront pas plus d’admiration pour notre « merveilleuse » intelligence, que nous n’en avons aujourd’hui pour les dinosaures du quaternaire…