English German Espagnol Portugese Chinese Japanese Arab Rusian Italian Norvegian Dutch Hebrew Polish Turkish Hindi
Accueil du site > 02 - Livre Deux : SCIENCES > Questions de sciences > Faut-il avoir peur des robots ?

Faut-il avoir peur des robots ?

mercredi 29 avril 2015, par Robert Paris

Faut-il avoir peur des robots ?

« Je pense que nous devrions être très prudents au sujet de l’intelligence artificielle. Si je devais miser sur ce qui constitue notre plus grande menace pour l’existence, ce serait probablement ça. De plus en plus de scientifiques pensent qu’il devrait y avoir une surveillance réglementée, au niveau national et même international, juste pour s’assurer que nous ne faisons rien de stupide. Avec l’intelligence artificielle, nous invoquons un démon. Dans toutes les histoires mettant en scène un type avec un pentagramme et de l’eau bénite, il est sûr qu’il va pouvoir contrôler le démon. Sauf qu’il n’y arrive pas. »

Elon Musk

« D’abord, les machines travailleront pour nous, et pas de façon hyper intelligente, ce qui peut être positif si on le gère bien. Dans quelques décennies, les progrès de l’intelligence seront tels que ça deviendra un problème. Je rejoins Elon Musk et quelques autres et ne comprend pas pourquoi certaines personnes ne semblent pas s’en inquiéter ».

Bill Gates

« L’intelligence artificielle pourrait mettre fin à la race humaine. Une fois que les humains auront développé une intelligence artificielle, elle va prendre son envol et se reconstruire elle-même à un rythme toujours plus rapide. Les humains, limités par la lente évolution biologique, ne pourront suivre et seront remplacés. L’impact à court terme de l’intelligence artificielle dépend de qui la contrôle. Et, à long terme, de savoir si elle peut être tout simplement contrôlée. Si les aliens nous rendent visite un jour, je pense que l’issue serait semblable à celle de l’arrivée de Christophe Colomb en Amérique, qui ne tourna pas très bien pour les Indiens d’Amérique. Réussir à créer une intelligence artificielle serait le plus grand événement dans l’histoire de l’homme. Mais ce pourrait aussi être le dernier. »

Stephen Hawking

« À partir du moment où vous développez des machines qui rivalisent avec l’homme en termes d’intelligence, nous allons avoir du mal à survivre. »

Clive Sinclair

« Notre époque est fière des machines pensants et se méfie des hommes qui essaient de penser. »

Howard Mumford Jones

« Les bombes atomiques robots n’ont ni choix à faire ni décision à prendre. »

“Réveil” de Alfred Elton Van Vogt

« L’être humain croira toujours que plus le robot paraît humain, plus il est avancé, complexe et intelligent. »

« Les robots de l’aube » Isaac Asimov

« Partout des robots obéissant à des ordinateurs prennent la place des hommes. Ils ne tombent guère malades, ils ne sont pas syndiqués, ils n’ont pas d’état d’âme ; la lutte est inégale. Dans une société menée par la compétition, la machine remplace l’homme, et l’homme n’a plus d’utilité. Il n’est même plus nécessaire d’exploiter les travailleurs ; il suffit de se passer d’eux. A l’exploitation à succédé l’exclusion. Comment imaginer que des sociétés puissent rester paisibles quand une foule d’hommes et de femmes s’entendent dire qu’ils sont de trop ? Avec la définition de l’homme que nous avons adopté, chacun devient lui-même au foyer du regard des autres : pour faire un homme, il faut des hommes Aucun ne peut donc être de trop, toute élimination de l’un est une déperdition pour tous. »

Albert Jacquard dans « J’accuse l’économie triomphante »

« Le progrès : trop robot pour être vai »

Jacques Prévert

« Le progrès technique est comme une hache qu’on aurait mis dans les mains d’un psychopathe. »

Albert Einstein

« Il est impossible de prédire les conséquences positives ou négatives du progrès de nos connaissances. »

Pierre Joliot

« Il est beau le progrès ! Quand on pense que la police n’est même pas fichue de l’arrêter... »

Pierre Dac

« Je ne sais pas quelles armes seront utilisées pour la troisième guerre mondiale, si elle a lieu. Mais la quatrième se règlera à coups de massues. »

Albert Einstein

« Les scientifiques ont mis au point le drone Falcon HTV-2, qui est actuellement en phase de test. Il s’agit d’un avion autoguidé qui peut accélérer jusqu’à une vitesse de 20 000 km/h. Le pilote ne peut se trouver aux commandes d’un tel avion, il ne survivrait pas à une telle vitesse. D’ailleurs, l’homme aurait du mal à se concentrer sur ce qu’il fait à une telle vitesse, il ne serait pas capable d’évaluer correctement la situation et de réagir à des ordres. Les systèmes d’armement autonome ne peuvent pas garantir qu’elles se plieront aux lois internationales. Les différentes nations n’échangent pas les unes avec les autres à ce sujet, ce qui pose un grand risque pour l’humanité. »

Noel Sharkey

« Les technologies qui existent actuellement sont un pas vers l’utilisation des machines tueuses automatisées que l’homme ne serait plus en mesure de contrôler. Les algorithmes à l’intérieur du logiciel de ces machines sont tellement complexes que le système émettrait parfois des erreurs qu’un homme ne pourrait pas résoudre seul. Certains systèmes interagiraient avec d’autres systèmes, et nous ne pourrions pas contrôler leur relation. Nous n’aurions pas non plus le contrôle de la réaction à un signal d’erreur que le système recevrait. »

Mark Avrum Gubrud

« Je ne crois pas que les robots, peu importe à quel point sont développées leurs technologies, puissent suivre les normes internationales pour la protection des civils pendant des conflits armés »

Bonnie Docherty

« Une question un peu catastrophiste : ces machines intelligentes pourront elles surpasser l’homme qui est limité par les lois de la biologie par exemple, on pourrait voir un jour des robots qui écrasent des hommes qui les surpassent. »

Claudio Rocco

« Les systèmes de combat élaborés actuellement en France sont dotés d’intelligence artificielle. Les fonctions de l’homme seront transmises directement au noyau intellectuel des systèmes d’attaque nucléaire. C’est une réalité que la création des systèmes d’armement au cours des 50-60 prochaines années puisse devenir fondée entièrement sur l’intelligence artificielle. Si les machines pont pouvoir prendre la décision finale, ces décisions vont résulter d’algorithmes imprévisibles. C’est pourquoi il est important de séparer clairement les fonctions prises par l’intelligence artificielle et celles que devront prendre les officiers et les généraux. »

Igor Korothenko

« Il semble raisonnable de croire qu’à un moment donné, dans ce siècle ou le prochain, l’intelligence échappera aux contraintes de la biologie. »

Pascal Lapointe

« Il est raisonnable de penser qu’à un moment de ce siècle ou dans celui à venir, l’intelligence échappera aux contraintes biologiques... Ce risque a tendance à être pris à la légère , mais puisque nous ne pouvons pas mesurer ce risque, que nous ne connaissions pas les échéances, s’en désintéresser est dangereux. Ce que nous voulons, c’est faire entrer cette prise de conscience au sein de la communauté scientifique. »

Huw Price

L’institut américain Future of Life, pourtant ouvert aux innovations technologiques et scientifiques, a publié, mi-janvier, une lettre ouverte cosignée par plusieurs centaines de scientifiques qui appellent à une plus grande vigilance dans la recherche sur l’intelligence artificielle. « Il existe désormais un large consensus selon lequel les recherches sur l’intelligence artificielle avancent à un rythme soutenu, et leur impact sur la société va probablement aller en augmentant », affirment les 700 signataires. Ces effets s’observent déjà autour de nous : reconnaissance vocale, interprétation d’images, traduction automatique et bientôt pilotage des véhicules par eux mêmes. Autant d’innovations qui ont entrainé un cycle vertueux d’investissements massifs, de progrès technologiques et de compétition effrénée entre les entreprises. La question, estiment les signataires, n’est plus de savoir « si », mais « quand » et « qui » aura le premier créé une intelligence artificielle véritable. « Étant donné le grand potentiel de l’intelligence artificielle, estiment les signataires, il est important d’étudier comment la société peut profiter de ses bienfaits, mais aussi comment éviter ses pièges. » Ils évoquent, entre autres, la possibilité d’un chômage de masse dû à la robotisation, l’apparition d’armes autonomes, ou la délégation de choix moraux à des machines.

Un groupe de chercheurs de l’université britannique a ouvert un centre spécialisé pour réfléchir à la possibilité qu’un jour les machines puissent anéantir la civilisation humaine. Fondé par Jaan Tallinn (le cofondateur de Skype), Martin Rees (professeur de cosmologie et d’astrophysique) et Huw Price (professeur de philosophie), le centre compte se pencher sérieusement sur ces risques. « Dans l’avenir, il y aura plus de probabilité de mourir suite à un accident d’intelligence artificielle (comme une puce défaillante) que d’un cancer ou d’une crise cardiaque », prédit Jaan Tallinn.

« La technologie pourrait constituer un risque pour notre espèce, de l’ordre de l’extinction », justifie l’université de Cambridge. Ainsi, ce centre étudiera ce que l’on appelle l’intelligence artificielle générale (AGI, en anglais). Dès lors que « l’intelligence s’affranchit des contraintes de la biologie", estime Huw Price, l’apparition de cette AGI "traduit le moment à partir duquel l’humanité cesse d’être l’entité la plus intelligente sur Terre, perdant ainsi (potentiellement) sont statu de force principale capable d’orienter le futur », explique le site Gizmag.com (lien en anglais).

Le soutien de la communauté scientifique semble donc massif pour l’initiative du FLI, le « Future of Life Institute » créé par Jaan Tallinn, le co-fondateur de Skype, avec des chercheurs du MIT, d’Harvard, l’Université de Santa Cruz et de l’Université de Boston. Cet institue a pour vocation de stimuler la recherche et les initiatives visant à protéger la vie, pour reprendre la terminologie officielle, et développer une vision optimiste du futur. Elon Musk a récemment versé 10 millions de dollars à l’institut pour financer des programmes de recherche allant dans ce sens. Dans son conseil scientifique, une dizaine de sommités scientifique, Elon Musk et Stephen Hawking ainsi que les acteur Alan Alda et Morgan Freeman, bien connu aux Etats-Unis pour commenter diverses émissions TV de vulgarisation scientifique.

L’organisation non gouvernementale internationale, Human Rights Watch a dernièrement mis en garde contre le danger des « killer robots ». Ces armes robotisées seraient capables de tuer sans aucune aide humaine. Ce type d’armement n’existe pas encore, mais dans un rapport datant de novembre, l’ONG affirme que des armes automatiques sont actuellement développées par l’armée américaine. Pour Steve Goose d’Human Rights Watch, « Donner aux machines le pouvoir de décider qui doit vivre ou mourir sur le champs de bataille conduirait la technologie beaucoup trop loin. »

Si le risque que de tels robots soient un jour lâchés un jour ou l’autre sur les champs de bataille est bien réel, les risques présentés par la montée en puissance de l’intelligence artificielle et plus largement du logiciel dans notre quotidien pose bien plus de question. L’étude réalisée par l’AAAI (Association for the Advancement of Artificial Intelligence), dirigé par Eric Horvitz, co-directeur de Microsoft Research a cherché a évoluer les dangers de l’intelligence artificielle sur le long terme. Outre ces applications militaires, leur étude pointe un certain nombre d’applications potentiellement dangereuses : robots domestiques, voitures autonomes, sont les plus évidentes, mais une intelligence artificielle « malveillante » pourrait bien vider votre compte en banque via des outils E-Commerce, ou encore des agents intelligents qui se feront passer pour des humains à des fins d’extorsion de fonds. Enfin, les chercheurs évoquent le risque d’addiction de personnes avec des être virtuels. Un phénomène déjà dépeint par Spike Jonze dans son film « Her » en 2013 et comme cela commence à être le cas au Japon où l’idée d’un mariage entre un humain et un robot commence déjà à être évoqué.

Eric Horvitz vient de relacer une initiative, la « One Hundred Year Study on Artificial Intelligence (AI100) » avec l’Université de Stanford. Un vaste programme d’étude qui va chercher à évaluer comment l’intelligence artificielle va évoluer sur le long terme, quels seront ses impacts sur la démocratie et notre liberté, mais aussi sur l’économie, les équilibres militaires, le crime.

47% des emplois actuels pourraient être remplacés par un ordinateur ou un robot d’ici une ou deux décennies. C’est le chiffre choc de l’étude de deux chercheurs d’Oxford, Carl Benedikt Frey et Michael A. Osborne, étude titrée « The Future Of Employment : How Susceptible Are Jobs To Computerisation ? ». Ceux-ci ont cherché à évaluer la probabilité de 702 fonctions à d’être « computérisées », c’est-à-dire confiées à une machine. Leurs conclusions, purement scientifiques, peuvent surprendre dans beaucoup de cas, le grand mérite de cette étude est de faire apparaître que les progrès réalisés ces dernières années en intelligence artificielle risquent bien d’affecter nos sociétés bien au-delà que ce qu’un moteur de recherche a pu le faire.

Sur le plan social et économique, « Ce qui a, aussi, mis la puce à l’oreille de beaucoup, c’est le travail des robots traders », ajoute Jean-Michel Besnier, philosophe et chercheur au CNRS spécialiste des problématiques liées à l’intelligence artificielle. Les transactions financières par algorithme assisté - le fondement du trading à haute fréquence - ont déjà causé en mai 2010 un crash à la bourse de New York. Pour Peter Ford Dominey, « ces formes assez simples d’intelligence artificielle peuvent entraîner des problèmes sérieux » capables d’affecter l’économie réelle.

Qu’adviendra-t-il lorsque l’intelligence artificielle sera en mesure de prendre des initiatives plus complexes que de décider d’acheter ou vendre des actions ? L’idée d’un système entièrement automatisé qui gèrerait les infrastructures critiques d’un pays a, pour ces chercheurs, de quoi faire froid dans le dos. « Je souscris pleinement à l’appel à la vigilance des scientifiques et autres personnalité s’il s’agit de mettre en garde contre une dominance de l’algorithme dans le processus de prise de décision », précise Jean-Michel Besnier.

« Toute technologie à risque, comme le nucléaire ou les OGM, sont soumises à une réflexion sérieuse menée par les politiques et la société civile », rappelle le chercheur Peter Ford Dominey. Il doit en être de même, d’après lui, pour l’intelligence artificielle.

« Nous déléguons à ces machines de plus en plus de prérogatives de l’humain, afin qu’elles soient plus performantes que nous. On va finir par devenir leur esclave » affirme Daniela Cerqui, anthropologue à l’université de Lausanne.

« Le danger, c’est davantage l’homme qui se servirait de ces technologies pour asservir d’autres humains », considère Jean-Gabriel Ganascia, philosophe et expert en intelligence artificielle, professeur à l’Université Pierre-et-Marie-Curie à Paris.

Nick Bostrom, futurologue à l’Université d’Oxford, pense que « la machine intelligente parviendra à dépasser l’intelligence biologique. Il y aura alors des risques existentiels associés à cette transition ».

Microsoft, Google, Facebook, IBM, Nokia... nombreuses sont les entreprises qui travaillent aujourd’hui sur le développement de l’intelligence artificielle. Mais si les progrès ont été conséquents ces dernières années, on est encore loin du moment où la machine bernera l’homme.

Car il existe un moyen de tester la « conscience » d’une IA : le test de Turing. Imaginé par le mathématicien britannique Alan Turing en 1950, il consiste à confronter des êtres humains à une entité virtuelle ou à un autre humain dans un test à l’aveugle. Si au moins 30% des « testeurs » ne parviennent pas à déterminer avec certitude s’il s’agit d’un homme ou d’une machine en face d’eux, alors le test est considéré comme réussi.

A ce jour, une seule IA a officiellement passé le test de Turing : un adolescent virtuel, Eugene Goostman, conçu par des développeurs russes. Mais la validation de ce test, réalisée 60 ans jour pour jour après la disparition de Turing, fait polémique pour son côté opportuniste, et par le fait que le panel de testeur n’était composé que de 3 personnes, dont une seule a eu un doute quant à l’identité réelle de l’interlocuteur. Difficile, à ce stade, de parler d’une menace à la Skynet... mais l’intelligence artificielle capable de berner un humain semble, cependant, en bonne voie.

Notre point de vue :

Ces critiques expriment-elles une crainte du progrès, une tendance à revenir en arrière, une peur de l’évolution scientifique du monde ? Certainement pas ! Ces auteurs ne font que constater un danger qui est déjà réel avec des guerres utilisant des machines non pilotées comme les drones. Le système boursier mondial utilise déjà des systèmes non pilotés. La biotechnologie utilise déjà des systèmes non humainement pilotés, etc…

L’inquiétude exprimée par ces scientifiques, ces auteurs et autres responsables est plus que légitime. Son erreur consiste à compter sur le système pour se contrôler lui-même. Ou à compter sur l’opinion publique pour exercer un contrôle citoyen, c’est-à-dire à croire au caractère démocratique du système capitaliste alors que ce système est aux mains d’une infime minorité de possesseurs de capitaux qui se moque de l’opinion et de l’intérêt publics…

Le monde capitaliste est-il capable de produire sans se préoccuper de la santé et de la sécurité des populations ? Ce n’est plus à prouver. L’industrie chimique, l’industrie pharmaceutique, l’industrie nucléaire, l’industrie militaires et autres le prouvent tous les jours. La seule bombe classique le démontre, sans même parler de la bombe atomique. Et de multiples catastrophes peuvent provenir désormais de l’activité humaine non maîtrisée par la collectivité et mise au service des intérêts d’une infime minorité qui place ses intérêts particuliers au dessus de l’intérêt général et qui continuera à le faire, même si des informations contraires passent dans l’opinion publique car ce n’est pas cette dernière qui mène le monde capitaliste.

Le capitalisme est-il capable de produire partiellement ou de manière déterminante avec seulement des robots ? Oui, si c’est rentable ! En Chine, la société Foxconn a décidé de remplacer 500 000 ouvriers – pourtant des peu chers – par des robots. Les coûts d’utilisation des outils robotiques baissent à un tel point qu’il est désormais plus rentable d’utiliser un robot qu’un ouvrier « low cost ». Au Japon, la société Panasonic vient de créer une usine flambant neuve de 15 hectares, produisant 40% des dalles d’écrans plats fabriquées dans le monde (pour une valeur de deux milliards de dollars par mois) ! Cette usine entièrement automatisée fonctionne avec une quinzaine de salariés... Les robots en eux-mêmes ne sont pas nécessairement rentables. D’ailleurs, encore faut-il des hommes pour produire ces robots ! Les robots sont un danger pour l’emploi mais seulement dans la mesure où cela intéresse le capital privé de détruire des emplois et seulement dans cette mesure. Quand c’était l’intérêt du grand capital de multiplier les salariés, les sites de production, en comptant sur la plus value extraite du travail humain pour accumuler des profits, les risques étaient moindres. Maintenant que le grand capital ne mise plus sur les investissements productifs mais sur la spéculation, il est grand…

Quant aux dangers pour la santé et la sécurité humaines, les robots ne sont pas les seuls moyens techniques qui parviennent au stade de devenir mortels. C’est vrai également pour les biotechnologies, les nanotechnlogies, le nucléaire, les OGM, l’exploitation éhontée de tous les moyens matériels au profit d’un système en déroute deviennent tous des armes létales. Il existe certainement un moment où le progrès technique nécessite de manière vitale le progrès social, c’est-à-dire que l’humanité retire à quelques profiteurs le contrôle de toutes les richesses de la planète. Ce n’est pas seulement toute la machinerie technologique qui peut alors se retourner contre l’homme : ce qui le menace, c’est une machine technologico-financière qui a pour nom le capitalisme. Ce n’est pas du sein de ce système que peut venir la protection et on ne pourra pas réformer le système ni le rendre plus responsable, comme le souhaitent les scientifiques et autres auteurs que nous citons plus haut. Ce qui est un danger mortel ou celui du retour à la barbarie, c’est le moment où le système social a atteint ses limites, où ses soi-disant progrès deviennent des régressions phénoménales ou mènent à la fin de l’humanité. Nous approchons certainement d’un tel moment. Cela ne veut pas dire qu’il y ait fatalité de l’échec et de la mort. Cela signifie que la prise de conscience révolutionnaire devient vitale pour l’humanité.

Le véritable risque est de compter sur l’ancienne société arrivée à ses propres limites pour résoudre des problèmes qui ne proviennent que de son incapacité à aller plus loin au lieu de compter sur la capacité des exploités de bâtir une nouvelle société fondée non plus sur le profit de la minorité mais sur le bien-être de l’immense majorité.

4 Messages de forum

  • Faut-il avoir peur des robots ? 30 juillet 2015 05:32

    Dans une lettre ouverte, des scientifiques et intellectuels, dont Stephen Hawking et Noam Chomsky, demandent l’interdiction des « armes autonomes ».

    Répondre à ce message

  • Faut-il avoir peur des robots ? 1er août 2015 14:37

    Plusieurs milliers de chercheurs et personnalités, dont le célèbre astrophysicien britannique Stephen Hawking et le confondateur d’Apple Steve Wozniak, ont lancé mardi un appel pour l’interdiction des armes offensives autonomes ou « robots tueurs ».

    « Les armes autonomes choisissent et frappent des cibles sans intervention humaine (..) elles ont été décrites comme la troisième révolution dans la pratique de la guerre, après la poudre et les armes nucléaires », relèvent les signataires dans une lettre ouverte, publiée à l’ouverture de la Conférence internationale sur l’intelligence artificielle (IJCAI) à Buenos Aires.

    « La technologie de l’intelligence artificielle (IA) a atteint un point où le déploiement de ces systèmes est, pratiquement sinon légalement, faisable non dans les décennies mais dans les années à venir », ajoutent les nombreux chercheurs et professeurs signataires, de Harvard, Berkeley et Cambridge à Liège (Belgique), Paris ou l’université Humboldt de Berlin.

    Le célèbre entrepreneur de hautes technologies Elon Musk - patron de Tesla (voitures électriques), SolarCity et SpaceX (technologie spatiale) - le Prix Nobel de Physique Frank Wilczek et le cofondateur de Skype, Jaan Tallinn, figurent aussi parmi les signataires.

    Ces robots tueurs, qui pourraient prendre la décision de tuer sans contrôle humain - à la différence des drones télécommandés pour lesquels une intervention humaine reste nécessaire - inquiètent de plus en plus ONU, scientifiques et défenseurs du droit humanitaire. Deux réunions d’experts se sont déjà tenues à Genève sur ce sujet dans le cadre de la Convention de l’ONU sur certaines armes classiques.

    Leurs détracteurs redoutent qu’ils ne soient pas capables de faire la différence entre civils et combattants ou programment des attaques aux effets disproportionnés sur les populations.

    Répondre à ce message

  • Faut-il avoir peur des robots ? 9 juillet 2016 15:34

    Après avoir été encerclé plusieurs heures, un sniper suspecté d’avoir tiré sur des policiers a été tué par un robot télécommandé porteur d’une bombe, vendredi 8 juillet à Dallas, au Texas. Une première pour les forces de l’ordre américaines, qui alimente la controverse sur la militarisation croissante des polices locales.

    L’inventaire de l’équipement des services d’urgence de la ville montre qu’ils disposent d’un robot Northrop Grumman Andros, conçu pour les équipes de démineurs et l’armée. Selon des médias américains, cet engin a pu être employé dans l’opération de Dallas. Ce robot est « conçu pour contrer un large éventail de menaces, dont des véhicules piégés », selon le site de Northrop.

    Les forces de l’ordre américaines ont déjà fait usage de machines télécommandées pour aider à l’arrestation d’un suspect, mais pas pour tuer, estiment des experts. De tels engins sont le plus souvent utilisés pour désamorcer des bombes sans risquer de vies humaines. « C’est la première fois qu’un robot est utilisé de cette façon par la police », a assuré sur Twitter Peter Singer, de la fondation New America, un groupe de réflexion spécialisé notamment dans les questions de sécurité. Ce spécialiste des méthodes modernes de combat a précisé qu’un appareil baptisé Marcbot « a été employé de la même façon par les troupes en Irak ».

    Conclusion : pas d’arrestation, pas de jugement et assassinat programmé par robot porteur de bombe. Elle est belle la démocratie de l’antiterrorisme policier !!!!

    Répondre à ce message

  • Un rapport d’experts internationaux met en garde contre la multiplication des risques liés aux futurs outils numériques.

    « Il y a de sérieux risques si la technologie est utilisée à de mauvaises fins », résume l’Electronic Frontier Foundation, une association américaine fondée pour la défense de la liberté de parole, qui a contribué au rapport.

    Répondre à ce message

Répondre à cet article

SPIP | squelette | | Plan du site | Suivre la vie du site RSS 2.0