On peut distinguer (entre autres) deux approches des robots : La première consiste à dénoncer les failles, les dysfonctionnements de ces machines, voire à contester le bien-fondé de leur existence. Ne serait-ce pas un cauchemar si les robots tueurs de l’armée devenaient autonomes (cf. les SALA, Systèmes d’Armes Létaux Autonomes, « Robots tueurs », 2018, Brice Erbland)? Quelle morale leur permettrait de distinguer le bien du mal ?
Il s’agit ici de prévenir le pire, d’avertir ses semblables et éventuellement les constructeurs, du danger à tolérer ces engins dans notre environnement. Il est aussi question de se méfier de l’intelligence, de l’expertise (trop rationnelles) ou tout simplement de se faire peur à la manière de Stephan King. On y postule que « toute créature finit par se retourner contre son créateur » (4ème de couverture de Robopocalypse de Daniel Wilson). Leurs représentants sont souvent des informaticiens, des experts en robotique ou en Intelligence artificielle. Ils sont bien placés pour connaître les perversions logicielles, bogues, virus, piratages, etc.
La seconde privilégie plutôt le questionnement source d’étonnement. Pour elle, s’interroger sur l’image des robots, c’est s’interroger sur les similitudes possibles entre les créateurs et leurs créatures. Le robot imaginaire, en tant que notre semblable, est un prétexte pour approfondir des traits psychologiques humains, lesquels seraient transférés sur les automates : qu’est-ce que l’intuition ? Que ferait un robot avec son intuition ? Qu’est-ce au juste que l’avarice ? Comment se comporterait un robot avare ? Qu’est-ce que l’instinct de territoire ? Comment le robot gérerait un tel instinct ? Une telle investigation permet de découvrir des créatures artificielles avec des faiblesses qui prêtent à rire (comme celles des humains, voir Le rire, de Bergson). Il semble salutaire de pouvoir rire des automates comme Tati riait de ses contemporains. Cela dédramatise. Dans cette époque de nihilisme et de colère, il est urgent de « mettre une sourdine aux prophéties de malheur et de passer du mode panique au mode stupéfaction, (…) plus clairvoyante. » Au lieu de crier à l’apocalypse, il vaut mieux se raisonner : « La vérité, c’est que je ne comprends pas ce qu’il se passe dans le monde » (Harari, 2018, p. 35).
Inversement, on peut s’interroger sur les tendances passives, automatiques, voire robotiques chez les êtres humains (tics, tocs, réflexes, manies, jeux humains, Des jeux et de hommes, Eric Berne, 1964, etc.).
Dans cette démarche propice à de grandes surprises, on peut envisager comment les robots assumeraient des fonctions plus ou moins spécialisées. À quoi ressemblerait un robot politique ? religieux ? philosophe ? psychiatre ? vétérinaire ?... Dans le contexte plus précis des robots domestiques, on peut se demander quelles seraient les caractéristiques du serviteur idéal (comme dans la première saison de la série suédoise Real Humans, 2013).
Le robot émotif et réflexif (suite de mon intervention en partie exposée) Professionnellement, en tant que professeur de français dans la tranche d’âge des 15 – 20 ans, j’ai étudié, à travers un doctorat qui a lié argumentation aux affects adolescents. Quand il s’agit de réfléchir, de peser en logique naturelle le pour et le contre d’un choix incertain, l’être humain juge selon des valeurs, qui sont investies d’affectivité. Ainsi : « c’est au nom de la liberté qu’il faut soutenir l’avortement ».
Certains cas pathologiques et de grands mutilés du cerveau dépourvus d’émotion peuvent ergoter pendant des heures, incapable de trancher, même une décision simple comme sortir ou ne pas sortir ce soir. Ils sont capables de raisonnement, mais non de réflexion. Les robots qui m’attirent sont pourvu de réflexion artificielle, parce qu’ils sont capables de ressentir. Certes, Tisseron, dans Le jour où mon robot m’aimera (2015), exclut a priori qu’un robot puisse éprouver des émotions. Pour lui, ceux qui prêtent des sentiments à leur robot manifestent une empathie dangereuse et surtout fausse.
Bien sûr, dans 2001, l’odyssée de l’espace, 1968, l’ordinateur central du vaisseau HAL n’incite pas à concevoir d’autres engins émotifs (ne dit-il pas à Dave : « j’ai peur » ?). Il est vrai par ailleurs que Harari, 2018, p. 65, pense que les sentiments reposent en fait sur des calculs inconscients, des présomptions instantanées qui, par exemple, évaluent la probabilité de survie (par la peur), de reproduction (par l’attirance). Il suppose donc que l’affectivité pourra être relayée par des logiciels.
Pour ma part, je pense que si des robots, dans la vie quotidienne, seront amenés à traiter des problèmes difficiles, des paradoxes, des controverses, il sera judicieux qu’ils recourent à des jugements qui hiérarchisent des valeurs. Par exemple, son maître paresse au lit. L’automate domestique doit-il réagir ? Quel est le vrai bien de son propriétaire ? Son confort, le principe de plaisir ? Dans ce cas, surtout ne pas interrompre la grasse matinée. Ou, au contraire, son aptitude à résister à la tentation de la paresse, selon le principe de l’effort ? Dès lors, le robot devrait secouer son maître.
Robert Yessouroun
Comments