Intelligence artificielle [ IA ] : éléments de contexte

L’IA fait une entrée en force dans le casse tête géopolitique actuel. Il nous faut, nous européens, construire très vite une alternative crédible à l’utilitarisme américain* comme au collectivisme chinois* et cela avant de s’engager définitivement sur la voie du suicide stoïcien*. Nous pouvons préserver nos Lumières en installant la “Prime Directive”** au cœur de nos politiques publiques.

*– Chaque pays, chaque culture aborde l’IA à sa manière, selon sa propre conception de l’individu et de la société. Les sociétés apportent des réponses différentes, fondées sur leurs valeurs propres :
–        la Chine confucéenne : La Chine ne se jette pas dans la course du progrès en renonçant à toute éthique. La vie privée et l’intimité n’y sont pas des éléments centraux. Dans la tradition philosophique chinoise sont prônées le respect de l’autorité et la méfiance envers la sphère privée.
–        l’Europe stoïcienne : L’Europe refuse d’abandonner les droits individuels. Plus de droits, moins d’IA ; l’équation est limpide. On multiplie les déclarations tonitruantes sur l’IA, sans se donner les moyens financiers et en refusant (à raison) d’en assumer les conséquences culturelles. D’où une attitude suicidaire (plutôt mourir que d’abandonner nos droits).
–        l’Amérique protestante : l’Amérique protestante doit son succès à un subtil équilibre entre recherche de rentabilité et culture de l’intimité, aujourd’hui mis à mal par l’IA qui oblige à dissocier l’esprit du capitalisme et l’éthique protestante. La publication d’épais rapports sur l’IA responsable constitue une forme moderne et onéreuse de l’expiation

** “Prime Directive” ou comment reprendre le contrôle : La “Prime Directive”, ou « directive première », consiste en une règle supérieure d’ordre moral limitant l’usage de la technologie ; règle que l’on se choisit et que l’on s’engage à respecter, sans pour autant la partager avec les autres ni à l’ériger en loi universelle

Urgence car, comme le met en évidence une commission d’enquête du sénat publié en octobre 2019 en France, il y a absence de stratégie globale lisible tant au niveau européen qu’au niveau national.

Comme l’écrivent Hervé Seryex et  André-Yves Portnoff***, la France et l’Europe sont exposées au défi d’être capable de devenir le laboratoire d’aide à la pensée complexe du monde et d’ainsi entreprendre leur propre métamorphose. Par ailleurs, André-Yves Portnoff**** rappelle que si  l’économie mondiale est largement tirée par les entreprises du numérique américaines ou chinoises (Apple, Facebook, Amazon, Baidu, Tencent…)  elle le doivent au soutien de l’état dont elles dépendent. Contrairement à l’Europe et particulièrement à la France qui peinent à prendre la mesure  du rôle de la puissance publique dans le soutien aux jeunes entreprises du secteur – les start-ups, les licornes.

*** – Alarme, citoyen ! Sinon aux larmes ! Manifeste pour une France « vénitienne » EMS 2019
**** – La souveraineté à l’ère du numérique – Tribune in n° 434.janvier-février 2020 c -dans un rond!futuribles

Dans la lettre de mission de septembre 2019 qu’Ursula von der Leyen (présidente de la commission européenne) transmet à Margeth Vestager (commissaire européen à la concurrence depuis 2014), le lien est établi entre défis du numérique, politique industrielle à long terme, et rôle des petites entreprises et des jeunes pousses. C’est que la transition numérique n’est pas seulement – ni même essentiellement – affaire de technique.

Gaspard Koenig conclut son voyage au pays de l’IA***** en reprenant et commentant  des propos de Margeth Vestager qui milite tout à la fois pour un contrôle beaucoup plus fort des métaplates-formes et pour l’émergence d’une économie européenne numérique forte suivant son propre modèle. Propos qui appellent à un manifeste pour l’Europe de demain : “Aujourd’hui, nous sommes la chair à canon de la machine. Si Facebook était une personne physique, nous n’accepterions jamais de lui livrer nos informations les plus intimes comme nous le faisons actuellement. Même le RGPD ne nous donne qu’une maîtrise très limitée sur nos données. Les conditions d’utilisation que les plateformes nous soumettent offrent un choix binaire : tout accepter ou nous retirer. Si l’on veut ôter tous les cookies de notre appareil, cela revient  à perdre l’accès à Internet. La gratuité repose sur le pillage. On s’effraie (à tort) que l’IA remplace notre travail sans comprendre que nous travaillons pour elle.

***** – Gaspard Koenig in « La fin de l’individu voyage d’un philosophe au pays de l’intelligence artificielle » Ed. de L’Observatoire Le Point

C’est une forme de féodalisme…comme au Moyen Âge. A l’époque, le travail était obligatoire et le paysan n’avait aucune propriété sur sa terre. C’est la même chose aujourd’hui : vous livrez votre production de données aux nouveaux maîtres. Alors qu’une société libre est fondée sur les droits de propriété et les échanges volontaires. L’économie sociale de marché et à l’européenne doit faire du marché le serviteur de l’individu.

Cela doit se traduire par une véritable propriété sur les données personnelles. Chacun déterminerait ses propres conditions. Il reviendrait aux plateformes de cliquer sur nos conditions d’utilisation personnelles, mises au point par l’intermédiaire d’assistants numériques :

Le problème est que nous ne connaissons pas le taux de change de nos données… Il faut que nous puissions à l’avenir mesurer leur valeur, y compris sur le plan économique. Ceux qui voudraient les protéger intégralement devraient payer le service. D’autres pourraient choisir à l’inverse la transparence et être rémunérés pour cela. Entre ces deux extrêmes, de nombreuses options sont possibles, conformément aux souhaits et aux arbitrages de chacun. 

C’est un moyen de retrouver une part de libre arbitre. Le déterminisme biochimique n’empêche pas l’exercice du jugement. Non, le nudge n’est pas une fatalité gouvernée par un utilitarisme aveugle : il peut et doit être construit par le nudgé lui-même, selon ses propres critères posés en amont.

Il faut que les préférences personnelles puissent être exprimées et respectées. Nous devons garder le contrôle de nous-même. C’est une question de responsabilité humaine et d’autonomie individuelle. 

De ce fait, il n’y a aucune raison de transférer la responsabilité juridique et morale à la machine, dans la mesure où la Pime Directive nous permet d’assumer nos choix. On pourrait tout au plus distinguer plusieurs niveaux, en cercles concentriques : la loi encadrant le champ des décisions possibles, la responsabilité morale en fonction des critères prédéterminés par l’humain, et enfin les polices d’assurance reposant sur la personnalité juridique de l’algorithme.

Qu’est-ce qu’on attend alors ?

« Le RGPD aurait dû aller plus loin. Il aurait fallu en faire une véritable Charte des droits numériques. Mais au fond les obstacles ne sont ni techniques ni juridiques. C’est surtout une question culturelle et sociologique. Nous sommes manipulés à un degré sans précédent dans l’histoire de l’humanité. Pourquoi nous inquiétons-nous sur la présence de bisphénol A dans les biberons et pas des cookies sur les iPad des enfants ? La prise de conscience progresse heureusement, suite à des scandales comme Cambridge Analytica. »

Un tel scénario ne serait-il pas dommageable pour la communauté ? Si je peux conserver mes données par devers moi mais que je profite des progrès réalisés grâce à  celles des autres, ne suis-je pas un passager clandestin ?

« Et alors ? On ne peut pas passer tout le monde à la moulinette de l’algorithme. C’est comme pour les essais pharmaceutiques au Danemark. Seuls quelques-uns choisissent de participer même si tous bénéficient des résultats. Il faut assumer que la smart city ne sera pas si smart et que certains ne joueront pas le jeu. Mais cela préservera la possibilité de la divergence, du faux pas, sans laquelle il ne peut y avoir de progrès possible. »

Voilà comment le progrès diffère profondément de l’optimisation à tous crins. Mais ce modèle est-il soutenable face à l’efficacité des géants américains et chinois ?

« Voulons-nous leur ressembler ? Nous serons à même de produire une qualité d’IA différente, supérieure au sens où elle saura gagner la confiance des utilisateurs. Et nous préserverons l’innovation grâce à la politique de concurrence. Les Chinois s’en moquent. Et les Américains sont dans l’entre-deux, car pour des raisons historiques ils acceptent du secteur privé ce qu’ils refuseraient de la part de l’État… »

En misant excessivement sur la planification numérique la Chine se met dans une situation de fragilité, au sens de Nassim Taleb*******. Elle prend le risque de ne plus savoir absorber les chocs imprévus. À l’heure où les uns veulent sortir de l’Europe et les autres la réinventer, peut-être suffirait-il d’appliquer ses principes fondamentaux, plus valides que jamais, aux nouvelles technologies. Et d’engager enfin des programmes d’investissement massifs.

****** Pour Taleb, les data en grande quantité sont toxiques. La proportion de données inadéquates et donc le risque de fausses corrélations augmentent de manière exponentielle avec leur accumulation. Voilà pourquoi l’optimisation rencontre des limites intrinsèques. Plus on fonctionne en flux tendus, plus l’on doit s’attendre à ce qu’un incident grippe l’ensemble du dispositif.

Mais comment les États peuvent-ils encore prétendre réguler alors qu’ils délèguent leur responsabilité normative aux plateformes ?

Les lois sont en retard par nature sur les évolutions de la technique. C’est normal, et cela nous conduit en attendant à emprunter la voie de la coopération volontaire. Mais le cadre de l’’État de droit reste valide.

Mark Zuckerberg rêvait il y a encore quelques années que la « communauté globale » de Facebook puisse générer ses propres normes. Mais débordé par le champ infini de la responsabilité sociale, appelé à faire des choix qui dépassent largement la vocation de Facebook (sur la liberté d’expression, par exemple), il s’est vu contraint d’en appeler lui-même à la régulation collective. ” Pour survivre, les plateformes doivent accepter de ne pas être souveraines. Cependant, cette régulation ne peut plus s’exercer au niveau de la nation. Elle devra s’incarner dans une gouvernance mondiale, une sorte de cosmopolitisme numérique. Créer une ONU des data est l’un des grands défis de ce siècle.

” Qui dit marché des data, conclut Margrethe  Vestager, dit démocratie des data. Seulement, cette démocratie ne doit pas elle-même être virtuelle. C’est par l’interaction personnelle que se construit la décision collective. Les gens en ont besoin : partout en Europe s’exprime le même désir d’appartenance et d’engagement. Pour réguler l’espace numérique, il faut donc paradoxalement recréer des lieux de délibération concrets. Avec vos 36 000 communes en France, vous êtes plutôt bien placés ! »

Et si l’horizon de l’IA était la démocratie locale ? Quel serait le pouvoir de cette démocratie, par nature très fragmentée, face aux mastodontes des data (Amazone, etc.) ? Qui détiendrait les clés de cette ONU des data ? Cette piste, sorti du panier des possibilités, démontre combien la réflexion n’est pas close et combien il y a urgence à s’organiser.

Mis à jour le 29 mars 2020.