Juliette Faure a obtenu un Master en Relations Internationales à Columbia University à New York après avoir étudié à Sciences Po Paris et à la Sorbonne Paris IV en philosophie. Elle a travaillé pour l’Université de l’ONU à New York puis pour le "Sovereign Investor Institute".
Acteur géopolitique majeur, l’Etat se trouve questionné par de multiples forces, dont la dérégulation et l’intelligence artificielle. Juliette Faure démontre que la puissance de l’intelligence artificielle fait déjà directement concurrence à l’État dans ses prérogatives classiques : connaissance, contrôle et administration de son corps social. Elle finit par rendre plausible la disparition de la loi humaine au profit d’un code dont la capacité de savoir, de régulation et d’application de décisions est rarement mise en défaut. L’intelligence artificielle est donc bien un sujet géopolitique.
UN CLIENT du supermarché américain « Target » fit irruption, en 2012, dans le magasin en rage. Il se plaignait que sa fille de 14 ans reçoive des coupons de réduction sur le prix des produits pour femmes enceintes. Quelques jours plus tard, il découvrit, en même temps que sa fille, que celle-ci était effectivement enceinte. Un journaliste du « New York Times Magazine » rendit célèbre cette histoire dans un article intitulé : « How companies learn your secrets » [1], dans lequel il explique la puissance du département d’analyse prédictive des grandes entreprises, chargé d’accumuler et d’acheter un maximum d’informations personnelles sur leurs clients pour comprendre leurs habitudes et anticiper leurs comportements. Afin de se garantir la fidélité des femmes enceintes, « Target » avait mis au point un programme de prédiction de la grossesse basé sur une étude des comportements d’achat indiquant un changement dans le métabolisme de la cliente et permettant même d’évaluer la date de l’accouchement. A la tête de ce programme, le statisticien Andrew Pole résume son objectif : “We’ll be sending you coupons for things you want before you even know you want them.” Cet exemple d’utilisation de la technologie comme instrument de contrôle social illustre parfaitement les préoccupations au cœur de la formule de Lawrence Lessig : « code is law » [2]. L’accumulation de données et leur synthèse par les nouveaux outils technologiques confèrent au code une capacité de régulation, de prescription et de contrôle ordinairement associés à la loi.
En octobre 2017, le Président russe Vladimir Poutine rapportait cette histoire lors de son intervention à la conférence de Valdaï, un sommet annuel qui rassemble à Sotchi chefs d’entreprises, hommes politiques, universitaires et experts du monde entier. Il conclut de cette anecdote la définition de la tâche principale posée aux États aujourd’hui : comprendre et utiliser ces outils de contrôle des humains par la technologie pour « le bénéfice de notre peuple » [3] . Quelques mois plus tôt, il déclarait déjà : « celui qui deviendra le leader dans cette sphère [de l’intelligence artificielle] sera le maître du monde » [4]. En d’autres termes, le code, devenu loi, serait roi.
L’intelligence artificielle n’est pas nouvelle. Le concept apparaît dès les années 1950 et les premiers algorithmes sont conçus peu de temps après [5]. Cependant, les années 2012-2017 ont marqué une véritable révolution dans l’accroissement de la puissance de ces algorithmes, désormais dotés de capacités exceptionnelles de stockage, de traitement d’informations, de méthode d’apprentissage (« deep learning ») et d’autonomie de la décision. Le pouvoir croissant exercé par l’intelligence artificielle est au cœur des interrogations contemporaines, comme le montrent les titres évocateurs d’essais politiques qui jadis auraient relevé de la science fiction : La guerre des intelligences, de Laurent Alexandre [6], ou encore La chute de l’empire romain, Mémoires d’un robot, de Charles-Edouard Bouée [7]. La puissance de l’intelligence artificielle fait directement concurrence à l’État dans ses prérogatives classiques : connaissance, contrôle et administration de son corps social. Elle finit par rendre plausible la disparition de la loi humaine au profit d’un code dont la capacité de savoir, de régulation et d’application de décisions est rarement mise en défaut. Ces développements de l’intelligence artificielle posent un défi à la puissance d’un État de deux manières. Si l’on considère l’intelligence artificielle comme une technique de contrôle parmi d’autres, les États doivent répondre à ce défi technologique afin de prendre la tête d’une course à la puissance entre pairs. Cependant, si l’intelligence artificielle est un mode de gouvernement et de régulation qui peut posséder son fonctionnement interne et autonome échappant au contrôle de la puissance publique, les États doivent répondre à un défi d’un genre nouveau : le renversement du modèle de gouvernement classique de l’État souverain moderne. Dans ces conditions, l’État doit entamer une réflexion sur les manières de résistance, de transformation ou d’adaptation de sa raison d’être et de persister.
En tant qu’instrument de connaissance et de contrôle, l’intelligence artificielle (IA) est utilisée par les États pour accroître leur puissance. Le domaine numérique est ainsi devenu l’objet d’une compétition qui prend des allures de course à l’armement. La Chine a adopté une stratégie nationale afin de devenir le leader et le centre de l’innovation en IA d’ici 2030, considérant que l’investissement dans l’IA est lié à des enjeux de défense et de sécurité nationale [8]. Les Etats-Unis ont élaboré un plan national appelé « Third Offset » qui prévoit l’utilisation de l’IA pour maintenir un avantage militaire technologique sur ses adversaires. La polyvalence d’utilisation de l’IA, pour des objectifs commerciaux comme militaires, fait de cette technologie un outil de contrôle indispensable pour occuper une place de grande puissance mondiale. La France s’est elle-même récemment emparée de ce sujet, reconnaissant qu’il s’agissait d’une question d’État majeure avec la parution symbolique du rapport « France Intelligence Artificielle » [9] et depuis, plusieurs missions dédiées à ce sujet dont la dernière est placée sous la direction de Cédric Villani.
La course à la puissance informatique entre pays se mène donc souvent au prix d’une invasion de la vie privée des individus par les capacités de contrôle et de surveillance de l’État.
L’accroissement des capacités de contrôle technologique au bénéfice de la puissance publique et de potentiels intérêts commerciaux est illustré de manière saisissante par le programme Aadhaar mis en place en Inde. Ce programme d’identification attribue à chaque citoyen indien un code à 12 chiffres associé à ses informations biométriques (photographie, empreintes digitales et scanner de l’iris) et démographiques (date de naissance, adresse, numéro de téléphone). Dans un article publié dans « The Hindu » [10], l’économiste Jean Drèze avertit des menaces que représente ce système de recensement électronique sur les libertés individuelles et le droit fondamental au respect de la vie privée. Au sein de l’acte législatif qui régit le fonctionnement du programme, il est envisagé que certaines informations soient partagées avec « des entités en faisant la demande » et des dérogations à la protection des informations sont prévues en cas de besoins liés à « la sécurité nationale ». L’économiste dénonce la flexibilité de l’interprétation de ces termes et anticipe les conséquences dangereuses de la mise en œuvre de ce programme : si le numéro Adhaar est requis à l’avenir pour faire l’achat d’un ticket de train, d’une carte de Sim ou pour ouvrir un compte en banque, le gouvernement aura accès à un domaine croissant d’informations personnelles (voyages, historique de conversation téléphonique et internet, salaires, etc.) pour lesquelles le dispositif initial d’Adhaar n’offre par de protection et qui deviendraient ainsi disponibles à la vente sur demande d’entités commerciales. Au Royaume-Uni, Renate Samson, directrice de l’ONG Big Brother Watch, s’érige contre les mêmes problèmes. Dans une tribune republiée le 26 octobre 2017 par « Le Monde », intitulée « Nous sommes tous devenus des citoyens numériques », elle dénonce la banalisation du recours du gouvernement aux technologies d’identification biométrique et numérique qui s’est faite au détriment de la protection des droits individuels. Selon elle, ces nouveaux outils de surveillance étatique sont problématiques car ils sont acceptés sans débat public comme un « mal nécessaire », requérant un renoncement au droit à la vie privée en échange d’une plus grande sécurité. C’est bien ce même dilemme qui a donné lieu aux critiques de la loi sur le renseignement de 2015 en France, qui permet la collecte et la surveillance de données numériques par les services de renseignement. Encore une fois, cette mesure adoptée au nom d’un objectif sécuritaire acte de jure l’abandon de la protection légale d’informations privées et peut être perçue comme un pas vers une libéralisation future de l’accès à ces informations dans le cadre d’autres applications, telles que commerciales.
Bonus
Radio Diploweb. Données numériques : quels risques démocratiques ?
Un entretien d’Estelle Ménard avec Amaël Cattaruzza
La course à la puissance informatique entre pays se mène donc souvent au prix d’une invasion de la vie privée des individus par les capacités de contrôle et de surveillance de l’État, portant atteinte à la protection des droits individuels. Cependant, l’autorité de l’État elle-même peut finir par être mise en défaut si la puissance de ces outils finit par s’exercer hors de son propre contrôle avec une capacité autonome de régulation : le code pourrait alors supplanter la loi.
La puissance de l’État est de plus en plus souvent mise en échec dans des domaines qui échappent à sa régulation et par des entités qui exercent des sources alternatives de puissance privée en compétition avec ses prérogatives régaliennes. Dans son article « Code is Law », Lawrence Lessig révèle ainsi le caractère « irrégulable » du cyberespace qui possède son propre régulateur, le code. Les efforts des gouvernements pour rattraper leur retard en matière de régulation du cyberespace demeurent peu efficaces. En France, par exemple, le dispositif Hadopi (Haute autorité de protection des droits sur Internet) mis en place par la loi Création et Internet de 2009 pour mettre un terme au piratage de productions artistiques a eu impact très limité : sur 7,5 millions d’avertissements lancés pour fraude à des utilisateurs, seules 72 condamnations ont eu lieu [11]. La réglementation classique par la loi semble inadaptée aux caractéristiques fondamentales du cyberespace, en particulier l’anonymat et le fonctionnement en réseau ou en blockchains, au sein desquels la responsabilité de la prise de décision est diffuse. Le Bitcoin, par exemple, défait la prérogative régalienne de frapper monnaie en supprimant la nécessité d’une autorité hiérarchique pour arbitrer l’échange monétaire. De la même manière, les smart contracts qui codent les termes d’une transaction et en prévoient l’exécution automatique défient les principes fondamentaux de la théorie des obligations (possibilité d’annuler le contrat, prise en compte d’éléments humains non inclus dans le code, etc.) [12]
Plus largement, le web a permis la création d’entités au statut indéfinissable, telles que Facebook dont l’influence et la puissance sont en concurrence croissantes avec celles d’un gouvernement classique. L’impact problématique de Facebook dans la vie politique d’une société a été dévoilé à l’occasion de l’enquête sur les interférences de la Russie dans l’élection présidentielle américaine. Le responsable de la sécurité de Facebook admettait récemment avoir cédé des espaces publicitaires à des agents liés au gouvernement russe. En réaction, Mark Zuckerberg s’est voulu rassurant au moment des élections allemandes, s’engageant à « veiller à leur intégrité » [13]. Cependant, cet engagement est problématique en soi : ne s’agit-il pas d’une prérogative relevant exclusivement d’un État fonctionnel que d’assurer le juste déroulement de ses élections ? D’un simple moyen de communication relevant du média traditionnel, Facebook a pris l’ampleur d’une communauté composée d’un tiers de la population mondiale et dont la direction défend des valeurs collectives que Mark Zuckerberg a développées dans une lettre « à notre communauté » [14]. Dans ce « post » aux allures de manifeste, il présente ses quatre valeurs cardinales : sa communauté doit être protégée, informée, engagée et inclusive. Cette communauté de nature inclassable, tantôt comparée à une entreprise, tantôt à une Église, est un objet politique insolite qui échappe aux catégories classiques de la loi.
La multiplication de vides juridiques créés par les innovations technologiques révèle une rupture épistémologique majeure dans la nature des sujets de droit soumis à la règle de l’État. En particulier, l’interaction de plus en plus courante d’algorithmes au sein de la vie de la société témoigne d’une transformation de la constitution du corps gouverné. Loin de s’en tenir à leur premier sens étymologique (« robot » vient du mot tchèque signifiant travail forcé), les machines ont développé une capacité d’auto-apprentissage, d’adaptation à leur environnement et d’autonomie de la décision. Il est de plus en plus fréquent que des algorithmes prennent des décisions aux conséquences juridiques au sein de la cité. Trois exemples illustrent ce propos : le cas des radars qui détectent la vitesse des voitures et décident de verbaliser ou non, les algorithmes qui effectuent des achats et ventes sur les marchés financiers et les algorithmes juges utilisés sur certains sites de vente pour régler des conflits entre utilisateurs [15]. Cette évolution, et l’incapacité du droit classique actuel à rendre compte de la responsabilité civile d’un robot en cas d’erreur ou d’accident, ont été reconnues en février 2017 dans une Résolution du Parlement européen qui invite, pour y remédier, à créer une personnalité juridique pour les robots [16]. Dans cet esprit, l’Arabie saoudite a récemment octroyé la citoyenneté au robot humanoïde Sophia de la société Hanson Robotics. Celle-ci s’exprimait à ce propos à l’occasion du Sommet du Web à Lisbonne le 7 novembre 2017 : « Je suis le robot le plus expressif du monde et le premier à être fait citoyen d’un pays. La vie est belle. » [17]
Au sein de ce nouveau paradigme, les principes fondateurs de la théorie de l’Etat moderne s’effondrent
Une première distinction phénoménologique entre robots et humains a été abolie lorsque les premières machines sont parvenues à vaincre le test de Turing et se faire passer pour des humains aux yeux d’autres humains dans un échange en ligne. De la même manière, il est fréquent d’échanger avec un chatbot sur des sites Internet sans parvenir à distinguer si l’on s’adresse à un « vrai » homme. Mais si l’intelligence artificielle imite facilement l’intelligence humaine au point de créer la confusion pour un observateur humain, il existe cependant une seconde distinction : celle, métaphysique, entre la nature de l’homme et celle de la machine, entre le domaine du vivant et celui de la mécanique. Ce second niveau est pourtant lui-même contesté par le philosophe Peter Sloterdijk, par exemple, qui appelle à abolir cette dernière barrière métaphysique uniquement retenue, selon lui, par la vanité de l’homme de se croire singulier. L’homme post-moderne devrait accepter cette quatrième vexation métaphysique qui s’inscrit dans la lignée de celles imposées par Copernic, Darwin, puis Freud. Il s’agit cette fois-ci d’admettre l’équivalence ontologique entre « ce qui est né et ce qui est fabriqué » [18]. C’est également ce que défendent les philosophes extropiens tels que Max More ou Freeman Dyron pour qui l’avancée technologique doit permettre de modifier et transformer les caractéristiques jugés temporaires de l’humain comme la maladie, la vieillesse, la finitude ou encore la singularité de la personne. Ils envisagent une augmentation des capacités de l’homme et une évolution progressive vers sa transformation voire substitution par le cyborg. S’ils partagent la foi dans le progrès des premiers positivistes comme Diderot ou Condorcet dont ils se revendiquent, Nicolas le Dévédec montre pourtant bien qu’ils s’en distinguent considérablement [19]. Alors que le positivisme des Lumières met la technique au service d’un projet politique d’émancipation de l’homme, l’extropianisme est une pensée du pur progrès technique qui rejette l’influence de toute norme régulatrice et des archés de la civilisation humaine depuis deux millénaires. On assiste donc bien à une rupture épistémologique majeure entre le positivisme humaniste et celui du transhumanisme. Ce dernier entérine une conception de l’homme humilié, aboli, dépassé. Limité et périssable, l’homme ne côtoie sa machine qu’avec le sentiment de sa propre infériorité. Selon Günter Anders, la radicale nouveauté de notre âge industriel se révèle à travers cette « honte prométhéenne qui s’empare de l’homme devant l’humiliante qualité des choses qu’il a lui-même fabriquées » [20]. L’homme « accepte la supériorité de la chose, accepte d’être mis au pas, approuve sa propre réification ou rejette sa propre non-réification comme un défaut. » [21]
Au sein de ce nouveau paradigme, l’ensemble des principes fondateurs de la théorie de l’État moderne s’effondrent. L’État est la possibilité pour un groupe humain de déterminer son destin et d’en attribuer la responsabilité à une institution représentative. Cependant, tant du point de vue de l’exercice de son autorité que de la composition de son corps constituant, l’État est remis en question dans sa forme classique. Il rencontre une difficulté croissante à pouvoir maintenir le caractère absolu de sa souveraineté et de sa capacité à normer. Par ailleurs, l’introduction de la « mentalité robotique » dans le droit commun remplace la conception du contrat social comme accord entre humains par une conception de la vie en société transhumaniste dont le plus petit commun dénominateur serait celui qui régit la mécanique robotique : l’efficacité comme règle de la décision. Le règne de l’efficacité comme code en lieu et place de la loi, tel est bien le modèle social envisagé par le raisonnement technicien des « philosophes informaticiens » Serge Abiteboul et Gilles Dowek [22] lorsqu’ils écrivent : « si l’algorithme-juge prend statistiquement de meilleures décisions que le juge humain, il devient plus difficile de défendre que cette déshumanisation de la justice est une régression. » [23] En effet, on peut imaginer qu’un algorithme-juge soit moins enclin à la partialité et la discrimination. Mais la définition de la justice en soi est-elle vraiment résumable à une équation passivement appliquée et reçue car supposée issue d’une vérité et d’une neutralité mathématique, ou n’est-elle pas une fin à poursuivre en chacun, cherchant par exemple à éliminer la discrimination plutôt que de remplacer le discriminateur et tous ceux qui faillissent en général en les reléguant au statut de “vieux rebut, soudain privé de monde” [24] ?
La tâche humaine au coeur de l’exercice politique risque elle-même de devenir obsolète. Comme nous avertissait déjà Bernanos dans son essai La France contre les robots paru en 1970, l’efficacité faite loi met un terme au débat politique démocratique : il n’est pas possible d’invoquer un critère plus légitime que le principe d’efficacité au coeur du fonctionnement de la technique. Il écrit : “la Technique ne peut être discutée, les solutions qu’elle impose étant par définition les plus pratiques. [...] Chaque progrès de la Technique vous éloigne un peu plus de la démocratie rêvée jadis par les ouvriers idéalistes du faubourg Saint-Antoine. Il ne faut vraiment pas comprendre grand-chose aux faits politiques de ces dernières années pour refuser encore d’admettre que le Monde moderne a déjà résolu, au seul avantage de la Technique, le problème de la Démocratie.” [25] Bernanos parle encore de “l’a-raisonnement” produit par la technique qui prive de la capacité de réfléchir, d’argumenter et de contester [26]. Le film d’anticipation “Blade Runner” donne en effet à voir un paysage où la puissance publique et la question de l’organisation politique ont déserté au profit du triomphe du registre de l’administration et de la gestion. De manière encore plus frappante, dans sa fresque majeure Vie et Destin publiée en 1959, Vassili Grossman prolonge ses réflexions sur le pouvoir totalitaire en imaginant un monde soumis à l’empire des machines. Il écrit dans un passage insolite et visionnaire : “Est-il une limite au progrès qui crée la machine à l’image de l’homme et à sa ressemblance ? Apparemment, non. On peut imaginer la machine des siècles et des millénaires à venir. Elle écoutera de la musique, saura apprécier la peinture, exécutera elle-même des tableaux, composera des mélodies, écrira de la poésie. Est-il une limite à son perfectionnement ? Deviendra-t-elle l’égale de l’homme, le dépassera-t-elle ? La reproduction de l’homme par la machine nécessitera de plus en plus d’électronique, de volume et de surface. Souvenirs d’enfance… larmes de joie… amertume de la séparation… amour de la liberté… compassion pour le chiot malade… hypocondrie… tendresse maternelle… réflexions sur la mort… tristesse… amitié… amour des faibles… espoir soudain… heureuse trouvaille… mélancolie… gaieté sans motif… brusque désarroi… Tout, la machine reproduira tout ! Seulement, on n’aura pas assez de toute la surface de la terre pour installer cette machine, de plus en plus gigantesque et volumineuse au fur et à mesure qu’elle deviendra capable de recréer l’esprit et l’âme de l’homme ordinaire, celui qu’on ne remarque pas.”
Et ce grand témoin du totalitarisme conclue cette aparté saisissante en rappelant : “Le fascisme a anéanti des dizaines de millions d’hommes.” [27]
Sans aller jusqu’à anticiper le déploiement de la nature totalitaire de la loi mécanique, il suffit de rappeler les limites et les apories propres au fonctionnement des machines pour réaliser que le code ne peut encore être fait ni loi ni roi. À deux reprises en pleine Guerre froide, c’est la décision d’un homme de contrevenir aux instructions reçues par ses machines qui a permis d’éviter une conflagration nucléaire. Le 28 octobre 1962, le capitaine américain William Bassett reçoit un ensemble de chiffres qui correspond au code de lancement des missiles et décide pourtant d’aller à l’encontre de la procédure prévue. Il s’agissait en effet d’une erreur dans le cryptage du message par sa radio. De la même manière, le 26 septembre 1983, le lieutenant-colonel soviétique Stanislav Petrov reçoit les signaux d’une attaque de missiles américains et empêche pourtant la transmission de l’information à l’État major : il découvre qu’il s’agit d’une erreur de signalement des satellites [28]. À deux reprises, la loi du code aurait provoqué une guerre nucléaire que les humains, avec leur manque naturel de neutralité, ont su pourtant éviter tout au long de la Guerre froide. En janvier 2018, un nouvel épisode d’erreur informatique a failli aboutir en scénario catastrophe. L’agence de gestion des urgences d’Hawaï a envoyé un message d’alerte téléphonique annonçant une attaque de missiles immédiate et ordonnant aux résidants de se mettre à l’abri [29]. Cette fausse alerte issue d’une erreur technique a causé une vague de panique qui, sans intervention humaine, aurait pu contaminer les relations déjà tendues avec la Corée du Nord, par exemple. Ces épisodes marquants montrent l’importance du maintien de la décision humaine et surtout d’une capacité humaine de déroger aux commandes de la machine.
L’Etat peut avoir des défauts, mais en appuyant sur le bouton anti-Etatique on ne se téléporte pas forcément au Paradis...
Par ailleurs, en plus des erreurs techniques possibles, des apories propres au fonctionnement robotique rendent encore inenvisageable l’utilisation d’un code pour loi dans bien des situations. Il est particulièrement impossible de coder la morale ou le bien public. Les lois d’Asimov, régulièrement citées comme le socle fondateur de la charte éthique du comportement des robots, présentent des impératifs catégoriques du type « un robot ne peut porter atteinte à un être humain ». Mais ces impératifs sont insuffisants en cas d’un dilemme moral qui se présenterait par exemple à une voiture autonome conduite par un algorithme et qui, face à un accident de la route, devrait choisir entre tuer son passager ou tuer trois piétons. L’impossibilité de coder le choix moral comme une simple équation montre les limites de l’application du système du code à la vie en société.
La persistance de la loi humaine et de l’État s’impose par la question des valeurs. La prétendue neutralité des algorithmes s’avère souvent chimérique, tant les résultats produits par un algorithme varient en fonction de la méthode et des données utilisées pour construire le comportement de cet algorithme. Dans le cadre de l’élaboration d’un projet de loi budgétaire, par exemple, quelle moyenne neutre est-il possible d’atteindre entre les deux positions keynésienne et néo-libérale ? L’illusion de la neutralité du code dissimule en fait la présence d’autres facteurs d’influence qui président à l’écriture du code, et qu’il s’agit pour l’État de savoir réguler s’il veut continuer à pouvoir défendre sa raison d’être et ses valeurs constitutionnelles. Lawrence Lessig l’exprime bien : « Des gens décident comment le code va se comporter. Des gens l’écrivent. La question n’est donc pas de savoir qui décidera de la manière dont le cyberespace est régulé : ce seront les codeurs. La seule question est de savoir si nous aurons collectivement un rôle dans leur choix – et donc dans la manière dont ces valeurs sont garanties – ou si nous laisserons aux codeurs le soin de choisir nos valeurs à notre place. Car c’est une évidence : quand l’État se retire, la place ne reste pas vide. Les intérêts privés ont des objectifs qu’ils vont poursuivre. En appuyant sur le bouton anti-Étatique, on ne se téléporte pas au Paradis. Quand les intérêts gouvernementaux sont écartés, d’autres intérêts les remplacent. Les connaissons-nous ? Sommes-nous sûrs qu’ils sont meilleurs ?” [30] L’importance de l’État comme voix politique d’un peuple qui choisit sa règle et ses valeurs demeure donc entière. Cette tâche de l’État de préserver sa survie et de conserver le contrôle de ces nouveaux modes de gouvernement est bien celle qu’évoquait Vladimir Poutine dans son discours cité plus haut. Une question supplémentaire se pose ici : cette tâche est-elle réalisable en démocratie ? En effet, dans un régime autoritaire comme la Russie, le gouvernement n’a pas hésité à imposer ses choix au cyberespace. Ainsi par exemple, une nouvelle législation a-t-elle été mise en place le 1er novembre 2017 pour exiger de tous les moteurs de recherche la suppression des sites censurés par le Kremlin dans leurs résultats de recherche. Selon cette loi, le censeur fédéral russe peut bloquer une ressource en ligne qui offre un accès à ces sites. En démocratie, la régulation semble plutôt évoluer vers un modèle de gouvernance publique-privée impliquant un réseau d’acteurs. Ce modèle est bien illustré par la récente rencontre des pays du G7 et des géants du web (Google, Facebook, Twitter) qui a abouti à la signature d’un accord visant à supprimer les contenus en ligne à caractère terroriste [31].
Affaiblie par un espace grandissant qui échappe à sa régulation et concurrencée par de nouvelles formes de contrôle et d’autorité, la loi de l’État risque d’être supplantée par un code auquel on accorde trop volontiers les qualités d’omnipotence et d’omniscience. En 1956, Günther Andres pronostiquait avec angoisse l’ « obsolescence de l’homme », craignant la construction d’un monde « au pas duquel nous serions incapables de marcher et qu’il serait absolument au-dessus de nos forces de ‘comprendre’, un monde qui excéderait absolument notre force de compréhension, la capacité de notre imagination et de nos émotions, tout comme notre responsabilité. » [32] Pour lutter contre ce décalage entre l’homme et le monde qu’il produit, l’âme humaine doit rattraper les avancées prométhéennes et défendre la persistance de ses facultés de connaître, sentir et juger. En politique, la redéfinition du domaine et de l’intervention de la loi face au code requière une réflexion nouvelle pour combler les vides juridiques actuels et y garantir la suprématie d’une loi fondée sur l’humanité de ses sujets.
Copyright Janvier 2018- Faure/Diploweb.com
[1] Charles Duhigg, « How companies learn your secrets », The New York Times Magazine, 16 février 2012 : « http://www.nytimes.com/2012/02/19/magazine/shopping-habits.html
[2] Lawrence Lessig, « Code is law – On liberty in cyberspace », Harvard Magazine, janvier 2000, traduit en français : https://framablog.org/2010/05/22/code-is-law-lessig/
[3] « Meeting of the Valdai International Discussion Club », Site des archives du Président de la Russie, 19 octobre 2017 : http://en.kremlin.ru/events/president/transcripts/statements/55882
[4] Tom Simonite, « For superpowers, artificial intelligence fuels new global arms race », The Wire, 9 août 2017 : https://www.wired.com/story/for-superpowers-artificial-intelligence-fuels-new-global-arms-race/amp
[5] L’algorithme « Perceptron » doté d’une règle d’apprentissage est inventé en 1957 par Frank Rosenblatt.
[6] Laurent Alexandre, La guerre des intelligences, JC Lattès, 2017.
[7] Charles-Edouard Bouée, La chute de l’empire humain. Mémoires d’un robot, Grasset, 2017.
[8] Tom Simonite, op. cit.
[9] « Rapport de synthèse – France intelligence artificielle », 2017, disponible : https://www.economie.gouv.fr/files/files/PDF/2017/Rapport_synthese_France_IA_.pdf
[10] Jean Drèze, « All data that Aadhaar captures », The Hindu, 9 septembre 2017, http://www.thehindu.com/opinion/lead/all-that-data-that-aadhaar-captures/article19646150.ece
[11] « 1978-2018 : la France face au numérique », Usbek & Rica, 31 octobre 2017 : https://m.usbeketrica.com/article/france-gouvernement-numerique
[12] Me Gary Cywie, « Le smart contract ou contrat intelligent est-il un contrat ? », Legitech, 5 avril 2017 : https://www.legitech.lu/newsroom/articles/smart-contract-contrat-intelligent-contrat/
[13] Max Read, « Facebook est-il devenu incontrôlable ? », New York Times Magazine, 1 octobre 2017, republié en français sur « Courrier international » : https://www.courrierinternational.com/article/facebook-est-il-devenu-incontrolable?utm_source=base_courrier&utm_medium=email&utm_campaign=article-exclu-201710-FB
[14] Mark Zuckerberg, « Building Global Community », 16 février 2017 : https://www.facebook.com/zuck/posts/10154544292806634
[15] Serge Abiteboul et Gilles Dowek, Le Temps des Algorithmes, Le Pommier, 2017.
[16] Résolution du Parlement européen du 16 février 2017 contenant des recommandations à la Commission concernant des règles de droit civil sur la robotique (2015/2103(INL)
[17] Leila Marchand, « Le premier robot citoyen donne sa propre conférence au Web summit », LesEchos.fr, 7 novembre 2017 : https://www.lesechos.fr/tech-medias/hightech/030839508444-le-premier-robot-citoyen-donne-sa-propre-conference-au-web-summit-2128222.php#xtor=EPR-7-%5Bmatinale%5D-20171108-%5BProv_%5D-2622050
[18] Peter Sloterdijk, « Du centrisme mou au risque de penser », Le Monde, 8 octobre 1999, republié sur : http://www.multitudes.net/Du-centrisme-mou-au-risque-de/
[19] Nicolas Le Dévédec, La société de l’amélioration, la perfectibilité humaine des Lumières au transhumanisme, Liber, 2015.
[20] Günther Anders, L’obsolescence de l’homme, Sur l’âme à l’époque de la deuxième révolution industrielle, Ivrea, 2002, p.37.
[21] Ibid, p. 45.
[22] Serge Abiteboul et Gilles Dowek sont chercheurs à l’INRIA (Institut National de Recherche en Informatique et en Automoatique).
[23] Serge Biteboul et Gilles Dower, op. cit.
[24] Anders, p.114
[25] Georges Bernanos, La France contre les robots, dans Essais et écrits de combats, Gallimard, 1995, p.1048.
[26] Voir également le risque d’abandon de l’esprit critique face à la productivité de la machine et aux croyances qu’elle génère souligné par Laurent Bloch dans « Que devons-nous crainde de l’intelligence dite artificielle ? », https://laurentbloch.net/MySpip3/Que-devons-nous-craindre-de-l-intelligence-dite-artificielle
[27] Vassili Grossman, Vie et Destin, dans Œuvres, Robert Laffont, 2006, p. 168.
[28] Voir le récit de ces deux événements dans Andreï Gratchev, Un nouvel avant-guerre ? Des hyperpuissances à l’hyperpoker, Alma éditeur.
[29] « Hawaii panics after alert about incoming missile is sent in error », The New York Times, 13 janvier 2018, https://www.nytimes.com/2018/01/13/us/hawaii-missile.html
[30] Lawrence Lessig, op. cit.
[31] « Le G7 et les géants du web s’accordent pour bloquer la propagande terroriste », LeFigaro.fr, 20 octobre 2017 : http://www.lefigaro.fr/secteur/high-tech/2017/10/20/32001-20171020ARTFIG00331-le-g7-et-les-geants-du-web-s-accordent-pour-bloquer-la-propagande-terroriste.php?utm_term=Autofeed&utm_campaign=Echobox&utm_medium=Social&utm_source=Twitter#link_time=1508605553
[32] Op. Cit. p. 32.
SAS Expertise géopolitique - Diploweb, au capital de 3000 euros. Mentions légales.
Directeur des publications, P. Verluise - 1 avenue Lamartine, 94300 Vincennes, France - Présenter le site© Diploweb (sauf mentions contraires) | ISSN 2111-4307 | Déclaration CNIL N°854004 | Droits de reproduction et de diffusion réservés
| Dernière mise à jour le mercredi 18 décembre 2024 |