{"id":71520,"date":"2010-02-03T17:13:27","date_gmt":"2010-02-03T17:13:27","guid":{"rendered":"https:\/\/new.dedefensa.org\/index.php\/2010\/02\/03\/des-hommes-et-des-robots\/"},"modified":"2010-02-03T17:13:27","modified_gmt":"2010-02-03T17:13:27","slug":"des-hommes-et-des-robots","status":"publish","type":"post","link":"https:\/\/new.dedefensa.org\/index.php\/2010\/02\/03\/des-hommes-et-des-robots\/","title":{"rendered":"Des hommes et des robots"},"content":{"rendered":"<p><h2 class=\"common-article2\">Des hommes et des robots<\/h2>\n<\/p>\n<p><p>\tUne question souvent pos\u00e9e \u00e0 propos des robots, que ceux qui nous lisent se posent peut-\u00eatre aussi, consiste \u00e0 se demander si le d\u00e9veloppement rapide, sinon exponentiel, de la robotique dans les soci\u00e9t\u00e9s modernes pr\u00e9sente un danger pour l&rsquo;homme. Cette question \u00e9tait dans l&rsquo;esprit d&rsquo;Isaac Asimov, ce romancier de Science Fiction qui avait exploit\u00e9 le th\u00e8me du robot dans ses uvres, \u00e0 une \u00e9poque o\u00f9 la robotique n&rsquo;avait \u00e9videmment pas atteint le degr\u00e9 de d\u00e9veloppement actuel. La r\u00e9ponse qu&rsquo;il proposait \u00e9tait simple: \u00e9tablir une grande loi que les roboticiens et les robots eux-m\u00eames devraient respecter: ne pas faire de mal aux humains. Aujourd&rsquo;hui, la m\u00eame r\u00e9ponse est sugg\u00e9r\u00e9e par ceux qui se pr\u00e9occupent de l&rsquo;\u00e9thique de la science et de la technologie, c&rsquo;est-\u00e0-dire des r\u00e8gles morales \u00e9l\u00e9mentaires que, sans r\u00e9f\u00e9rence particuli\u00e8re aux religions, mais en termes de morale sociale la\u00efque, les scientifiques devraient s&rsquo;efforcer de respecter. <\/p>\n<\/p>\n<p><p>\tEn application de cette r\u00e8gle, ne pas faire de mal aux humains, les ing\u00e9nieurs qui con\u00e7oivent les robots devraient \u00e9viter de r\u00e9aliser des robots potentiellement pr\u00e9dateurs, susceptibles de faire des victimes et provoquer des d\u00e9g\u00e2ts. Mais toute technologie est dans ce cas. Il n&rsquo;y a pas plus pr\u00e9dateur que l&rsquo;automobile aujourd&rsquo;hui. Il est donc demand\u00e9 aux concepteurs de robots de pr\u00e9voir des dispositifs, c\u00e2bl\u00e9s dans le corps du robot ou intervenant sur ordre de programmes sp\u00e9cifiques, capables de d\u00e9sactiver le robot en cas de comportements dangereux. Nous \u00e9voquons ici par ce terme des comportements dangereux non voulus par les humains travaillant avec le robot. Il est bien \u00e9vident que si un robot militaire tue par erreur des civils dans le cadre de missions assign\u00e9es par le commandement, ce ne sera pas le robot qui devra \u00eatre bl\u00e2m\u00e9. Ce sera le commandement qui avait command\u00e9 la mission tout en connaissant pertinemment le risque de destructions collat\u00e9rales. Le risque dont il faut se pr\u00e9munir, en ce cas, est celui d&rsquo;un robot dont les fonctions de contr\u00f4le interne se d\u00e9sactiveraient ou s&rsquo;affoleraient, ce qui pourrait le conduire \u00e0 sortir des limites pr\u00e9vues par le constructeur et l&rsquo;utilisateur, pour s&rsquo;adonner \u00e0 des conduites dangereuses, al\u00e9atoires ou cibl\u00e9es. <\/p>\n<\/p>\n<p><p>\tEn quoi dans ce cas le robot pose-t-il un probl\u00e8me particulier? Toutes les machines complexes peuvent \u00e0 un moment ou un autre se d\u00e9sorganiser, entra\u00eenant des catastrophes. On l&rsquo;a vu \u00e0 l&rsquo;occasion de la perte en 2009 du vol Air France Rio-Paris, dont les causes restent inconnues mais qui sont probablement imputables \u00e0 des d\u00e9faillances du syst\u00e8me de contr\u00f4le. Pour s&rsquo;en pr\u00e9munir, les ing\u00e9nieurs multiplient ce que l&rsquo;on nomme les redondances, c&rsquo;est-\u00e0-dire les commandes de secours. Pourquoi ne pas faire de m\u00eame, \u00e0 propos des robots? On peut tr\u00e8s bien l&rsquo;\u00e9quiper d&rsquo;instructions qui le d\u00e9connecteraient au cas o\u00f9 son comportement le ferait entrer dans des zones rouges, c&rsquo;est-\u00e0-dire des zones o\u00f9 il deviendrait potentiellement dangereux, pour lui-m\u00eame et pour les autres. <\/p>\n<\/p>\n<p><p>\tC&rsquo;est bien \u00e9videmment ce que font les ing\u00e9nieurs. Les cahiers des charges visant la r\u00e9alisation des robots modernes, qu&rsquo;ils soient militaires ou civils, comportent de telles clauses. Mais, disent les esprits inquiets, que se passera-t-il si le robot, devenu suffisamment intelligent, trouve moyen de d\u00e9sactiver lui-m\u00eame les commandes lui fixant des barri\u00e8res \u00e0 ne pas franchir. Asimov n&rsquo;avait pas cru devoir \u00e9voquer s\u00e9rieusement cette possibilit\u00e9, car de son temps, l&rsquo;hypoth\u00e8se d&rsquo;un robot pleinement intelligent et conscient capable de se dresser contre les humains en \u00e9chappant aux r\u00e8gles morales qui lui auraient \u00e9t\u00e9 impos\u00e9es relevait d&rsquo;un niveau sup\u00e9rieur de science-fiction qu&rsquo;il n&rsquo;avait pas abord\u00e9. Aujourd&rsquo;hui, la perspective m\u00e9rite de l&rsquo;\u00eatre. La robotique n&rsquo;est pas encore capable de produire des robots pleinement autonomes, leur autonomie s&rsquo;exer\u00e7ant, comme nous l&rsquo;avons indiqu\u00e9 plus haut, dans le cadre de contraintes fix\u00e9es \u00e0 l&rsquo;avance et suppos\u00e9es \u00eatre ind\u00e9passables. Mais les robots et leur environnement deviendront rapidement si complexes qu&rsquo;il sera difficile de pr\u00e9voir ce qui leur passera, si l&rsquo;on peut dire, par la t\u00eate. <\/p>\n<\/p>\n<p><p>\tUn robot peut devenir dangereux sans \u00eatre devenu v\u00e9ritablement m\u00e9chant, ou malicieux au sens am\u00e9ricain, termes incluant la r\u00e9f\u00e9rence \u00e0 des valeurs morales quasi religieuses transcendant la technologie. Comme il est constitu\u00e9 de nombreux composants qui \u00e9voluent sans cesse et de fa\u00e7on plus ou moins al\u00e9atoire, notamment au niveau des interaction entre les agents logiciels qui commandent son comportement, il peut parfaitement muter, au sens propre du terme, c&rsquo;est-\u00e0-dire prendre la forme d&rsquo;une version impr\u00e9vue par les concepteurs et les utilisateurs humains. Certaines de ces nouvelles versions pourraient se r\u00e9v\u00e9ler utiles \u00e0 ses missions initiales et donc bienvenues. Ainsi il pourrait am\u00e9liorer spontan\u00e9ment tel ou tel de ses programmes afin de fonctionner sur un mode plus \u00e9conome en \u00e9nergie. Mais \u00e0 l&rsquo;inverse, une mutation pourrait le rendre, non seulement dangereux, mais capable de d\u00e9sactiver durablement les contraintes internes fix\u00e9es \u00e0 son comportement et destin\u00e9es \u00e0 limiter sa dangerosit\u00e9. <\/p>\n<\/p>\n<p><p>\tQue se passerait-il alors? Il faut bien se persuader que les robots ne sont (ou ne seront) pas tr\u00e8s diff\u00e9rents de tous les autres organismes \u00e9volutionnaires apparus sur Terre depuis les premiers pas de la vie. Ces organismes mutent sans cesse, sans pr\u00e9occupations morales a priori. Les nouvelles versions d&rsquo;organismes r\u00e9sultant de ces mutations se heurtent \u00e0 un univers d\u00e9j\u00e0 constitu\u00e9, qui leur impose ce que l&rsquo;on nomme en \u00e9volution des barri\u00e8res s\u00e9lectives. Ou bien les mutants se r\u00e9v\u00e8lent plus efficaces que leurs pr\u00e9d\u00e9cesseurs et peuvent \u00e9chapper aux barri\u00e8res s\u00e9lectives. En ce cas ils survivent et donnent naissance \u00e0 de nouvelles lign\u00e9es. Ou bien au contraire ile ne le peuvent pas et disparaissent, rejoignant l&rsquo;immense cimeti\u00e8re des inventions fussent-elles g\u00e9niales mais rejet\u00e9es par le milieu. <\/p>\n<\/p>\n<p><p>\tTr\u00e8s bien direz-vous. Nous voici rassur\u00e9s. Comme ce sont des humains qui fixent les barri\u00e8res s\u00e9lectives, il suffirait ainsi que le demandait Asimov, qu&rsquo;ils provoquent l&rsquo;\u00e9limination de tous les \u00e9ventuels robots mutants susceptibles de devenir dangereux. Les humains auront donc toujours affaire \u00e0 des populations de robots domestiques, aussi inoffensifs pour eux que le sont devenus les animaux ex-sauvages domestiqu\u00e9s depuis plusieurs mill\u00e9naires. <\/p>\n<\/p>\n<p><p>\tNous pensons pour notre part que s&rsquo;imaginer que les humains veulent ou m\u00eame peuvent contr\u00f4ler les machines, robotis\u00e9es ou non, qu&rsquo;ils fabriquent depuis quelques si\u00e8cles rel\u00e8ve de ce que nous appelons une illusion humaniste. C&rsquo;est oublier le fait que les humains et leurs technologies se d\u00e9veloppent d&rsquo;une fa\u00e7on quasi symbiotique, dans le cadre d&rsquo;\u00e9changes entre caract\u00e8res fondateurs qui en font de nouvelles esp\u00e8ces mutantes, entrant en comp\u00e9tition darwinienne les unes avec les autres. (1) Ceci a \u00e9t\u00e9 dit depuis quelques temps \u00e0 propos de l&rsquo;automobile ou des ordinateurs. Les usagers et \u00e0 plus forte raison les concepteurs et constructeurs de ces machines ne sont pas capables, quoi qu&rsquo;ils pr\u00e9tendent, d&rsquo;orienter leur d\u00e9veloppement \u00e0 partir de d\u00e9cisions rationnelles qu&rsquo;ils s&rsquo;estiment capables de prendre. Depuis des ann\u00e9es, on a voulu limiter la dangerosit\u00e9 des voitures. Certains r\u00e9sultats ont \u00e9t\u00e9 obtenus, mais le pr\u00e9l\u00e8vement en vies humaines ne cesse de cro\u00eetre, du simple fait de l&rsquo;extension quasi virale du nombre de ceux que nous pourrions appeler des <em>homo-automobilis<\/em>. Si la croissance de ce nombre s&rsquo;arr\u00eatait, ce ne serait pas du fait de la volont\u00e9 des humains, mais parce que des limites physiques emp\u00eacheraient d\u00e9sormais leur prolif\u00e9ration, manque d&rsquo;espace, manque de carburant ou de mati\u00e8res premi\u00e8res. <\/p>\n<\/p>\n<p><p>\tLes ordinateurs et produits \u00e9lectroniques divers ne sont pas aussi dangereux que les automobiles, mais dans certains cas, ils peuvent le devenir. C&rsquo;est le cas du t\u00e9l\u00e9phone au volant et de la consultation des \u00e9crans multiples que les constructeurs veulent ins\u00e9rer sur les tableaux de bord, soi-disant pour am\u00e9liorer la s\u00e9curit\u00e9 et le confort de conduite, en fait pour faire du profit et, plus en profondeur, contribuer \u00e0 des mutations favorables \u00e0 la diss\u00e9mination de l&rsquo;esp\u00e8ce automobile + <em>homo-automobilis<\/em>. Les autorit\u00e9s r\u00e9glementaires qui \u00e9taient intervenues, sans grand succ\u00e8s, pour limiter le t\u00e9l\u00e9phone au volant auront beaucoup de souci \u00e0 se faire, car le poids des lobbies conjugu\u00e9s de l&rsquo;automobile et de l&rsquo;\u00e9lectronique n&#8217;emp\u00eachera pas la prolif\u00e9ration de l&rsquo;internet au volant. Les accidents se poursuivront donc, dans l&rsquo;indiff\u00e9rence g\u00e9n\u00e9rale. <\/p>\n<\/p>\n<p><p>\tPeut-on transposer cette r\u00e9flexion \u00e0 l&rsquo;avenir des robots et des hommes qui d&rsquo;une fa\u00e7on ou d&rsquo;une autre, s&rsquo;associeront \u00e0 leur d\u00e9veloppement? Certainement. Plus encore que les automobiles et autres machines faiblement intelligentes, les robots disposent, par d\u00e9finition, de consid\u00e9rables capacit\u00e9s d&rsquo;adaptation aux humains. Nous avons rapidement \u00e9voqu\u00e9 ce point en d\u00e9crivant l&rsquo;avenir de la robotique domestique ou conviviale. De m\u00eame qu&rsquo;un propri\u00e9taire de chien choisit celui-ci et l&rsquo;\u00e9l\u00e8ve en fonction de son caract\u00e8re, \u00e0 lui propri\u00e9taire, faisant de l&rsquo;animal un agneau sympathique ou une b\u00eate fauve, de m\u00eame proc\u00e9dera le propri\u00e9taire ou l&rsquo;utilisateur d&rsquo;un robot domestique. Mais de m\u00eame que dans le couple homme-chien, ce n&rsquo;est pas seulement l&rsquo;homme qui d\u00e9teint sur le chien mais le chien qui d\u00e9teint sur l&rsquo;homme, de m\u00eame dans le couple homme-robot les caract\u00e8res s&rsquo;\u00e9changeront tr\u00e8s vite. Ils ne le feront pas d&rsquo;une fa\u00e7on statique, puisque l&rsquo;homme et le robot sont deux entit\u00e9s \u00e9volutionnaires. Ils le feront d&rsquo;une fa\u00e7on dynamique. Autrement dit, l&rsquo;homme et le robot d\u00e9velopperont par interaction des d\u00e9terminismes \u00e9volutifs communs ou corr\u00e9l\u00e9s. Chez l&rsquo;homme, ce sera un certain type d&rsquo;organisation du cerveau ou de l&rsquo;ordre cellulaire, pouvant se r\u00e9percuter \u00e0 certains niveaux du g\u00e9nome. Chez le robot, il s&rsquo;agira de r\u00e9organisations principalement logicielles se transmettant par r\u00e9seaux. L&rsquo;humain dans ce cas pensera sans doute qu&rsquo;il restera ma\u00eetre du sens pris par l&rsquo;\u00e9volution globale du couple, mais ce sera une illusion. <\/p>\n<\/p>\n<p><p>\tLes moralistes s&rsquo;indigneront. Que restera-t-il de l&rsquo;humain dans ce que vous d\u00e9crivez? Il restera, pour prendre une image de plus en plus utilis\u00e9e, du post-humain. Mais ce post-humain sera-t-il bon ou sera-t-il mauvais? Les deux, mon capitaine. Plus exactement il sera ce que sa confrontation avec un environnement de plus en plus impr\u00e9visible, du fait du d\u00e9veloppement exponentiel des technologies et de leurs usages, lui permettra de devenir. Bien malin qui pourrait aujourd&rsquo;hui le pr\u00e9voir.<\/p>\n<\/p>\n<p>\n<p class=\"signature\">Jean-Paul Baquiast<\/p>\n<\/p>\n<p><p>\t<a href=\"\/www.automates-intelligents.com\" class=\"gen\">www.automates-intelligents.com<\/a><\/p>\n<\/p>\n<p><p>\t<a href=\"\/www.admiroutes.asso.fr\" class=\"gen\">www.admiroutes.asso.fr<\/a><\/p>\n<\/p>\n<p><p>\t<a href=\"\/www.europesolidaire.eu\/cont.php\" class=\"gen\">www.europesolidaire.eu\/cont.php<\/a><\/p>\n<h4>Note<\/h4>\n<p>1) Nous d\u00e9veloppons ce th\u00e8me dans l&rsquo;essai pr\u00e9c\u00e9demment annonc\u00e9 sur nos sites, \u00e0 para\u00eetre en mars 2010, <em>Le paradoxe du Sapiens<\/em> (JP. Bayol)<\/p><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Des hommes et des robots Une question souvent pos\u00e9e \u00e0 propos des robots, que ceux qui nous lisent se posent peut-\u00eatre aussi, consiste \u00e0 se demander si le d\u00e9veloppement rapide, sinon exponentiel, de la robotique dans les soci\u00e9t\u00e9s modernes pr\u00e9sente un danger pour l&rsquo;homme. Cette question \u00e9tait dans l&rsquo;esprit d&rsquo;Isaac Asimov, ce romancier de Science&hellip;&nbsp;<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"","ping_status":"","sticky":false,"template":"","format":"standard","meta":{"neve_meta_sidebar":"","neve_meta_container":"","neve_meta_enable_content_width":"","neve_meta_content_width":0,"neve_meta_title_alignment":"","neve_meta_author_avatar":"","neve_post_elements_order":"","neve_meta_disable_header":"","neve_meta_disable_footer":"","neve_meta_disable_title":"","_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[14],"tags":[9234,7895,9236,9235],"class_list":["post-71520","post","type-post","status-publish","format-standard","hentry","category-ouverture-libre","tag-asimov","tag-baquiast","tag-robotique","tag-robots"],"jetpack_featured_media_url":"","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/new.dedefensa.org\/index.php\/wp-json\/wp\/v2\/posts\/71520","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/new.dedefensa.org\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/new.dedefensa.org\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/new.dedefensa.org\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/new.dedefensa.org\/index.php\/wp-json\/wp\/v2\/comments?post=71520"}],"version-history":[{"count":0,"href":"https:\/\/new.dedefensa.org\/index.php\/wp-json\/wp\/v2\/posts\/71520\/revisions"}],"wp:attachment":[{"href":"https:\/\/new.dedefensa.org\/index.php\/wp-json\/wp\/v2\/media?parent=71520"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/new.dedefensa.org\/index.php\/wp-json\/wp\/v2\/categories?post=71520"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/new.dedefensa.org\/index.php\/wp-json\/wp\/v2\/tags?post=71520"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}