L’intelligence artificielle est on ne peut plus à la mode. Il faut en parler, car elle est censée façonner le monde à venir. De ce fait, elle est soit encensée (l’IA nous libérera ! de quoi, cela reste à définir) soit elle est dénigrée car elle fit peur, elle effraye. Et dans la catégorie anxiogène, on convoque bien évidemment le grand méchant Vlad qui aurait dit « Celui qui deviendra leader en ce domaine sera le maître du monde. »
Alors, comme il ne faut pas laisser les cosaques dominer le monde, une course à l’IA a été lancée.
C’est un truisme maintenant que de dire que l’IA repose sur de l’apprentissage. Mais l’apprentissage nécessite des données en (très) grande quantité. Donc plus la quantité de données est importante, meilleur l’apprentissage pourra être. Mais on n’en est pas sûr. Par contre, on est sûr que si la quantité de données est faible, la qualité de l’apprentissage sera médiocre. Tout développement de l’IA a donc comme préalable la constitution d’un stock de données très important.
Avant de poursuivre, et pour éviter de s’esbaudir devant les capacités de l’IA, rappelons que Luc Julian a déclaré dans L’intelligence artificielle n’existe pas (First Editions, 2019, p 119) « Pour qu’une machine reconnaisse un chat avec une précision de 95%, on a besoin de quelque chose comme 100 000 images de chat. » Tout cela alors qu’un enfant n’a besoin de voir que 2 ou 3 fois un chat pour reconnaître toute sorte de chats dans la suite de sa vie.
Pour constituer ce stock d’images, il me semble qu’il n’y a que deux possibilités :
- demander aux utilisateurs la libre utilisation de leurs données dans des conditions bien précises, avec un but bien précis, bref en respectant la loi ;
- s’asseoir sur le consentement des utilisateurs, étant entendu que ces travaux sont effectués pour le bien de l’Humanité.
Comment procèdent donc les géants auto proclamés de l’IA, à savoir la Chine et les USA ?
La Chine
La Chine fait peur lorsqu’on parle d’IA (plus que la Russie) à cause de ce que l’on appelle le crédit social. La reconnaissance faciale à haute dose couplée à des algorithmes classant le comportement de chacun existe, mais ce n’est pas pour asseoir la domination du parti. Selon wikipedia, l’objectif de cette initiative, selon le schéma de programmation, est « la sensibilisation à l’intégrité et à la crédibilité au sein de la société ». Comme nous le voyons, c’est pour le bien de la Chine et des Chinois.
Ce programme est en phase de test depuis 2018 et devrait être généralisé dans Pékin dès 2021.
Ne nous leurrons pas, si la Chine procède aussi de manière aussi massive à de la vidéosurveillance c’est aussi vraisemblablement pour récupérer des données de manière à développer son intelligence artificielle. Le « crédit social » n’est donc pas seulement une menace pour les libertés publiques c’est aussi un moyen de construire et d’acquérir une supériorité en intelligence artificielle sur le monde occidental.
Les USA
Aux USA qui sont, comme chacun sait, le pays où les libertés sont les mieux respectées, il ne viendrait pas l’idée de collecter de manière aussi massive des données. Non, bien sûr, même les fédéraux ne le feraient pas.
Alors d’autres, totalement indépendants des fédéraux, s’en chargent : Facebook a ainsi payé des tiers pour transcrire les enregistrements audio des conversations de certains de ses utilisateurs : « Un fait qui a été confirmé par la société qui affirme que les utilisateurs dont les enregistrements audios avaient été écoutés et transcrits, avaient choisi l’option de l’application Messenger de Facebook pour la transcription de leurs conversations vocales. Un chose que certains qualifient de malhonnête de la part de Facebook, car il semblerait que ce paramètre soit activé par défaut sans même que l’utilisateur le sache vraiment et nécessite qu’il le désactive lui-même pour empêcher à Facebook d’utiliser ses audios. Les sous-traitants avaient donc selon Facebook, pour seul rôle, de s’assurer que l’intelligence artificielle de la société interprète correctement les messages. »
En outre, Apple, la marque si choubidou parce que Steve Jobs, on apprend que : Un choc. C’est ce que Guillaume, cadre dans la logistique, a ressenti lorsqu’il a commencé à explorer les paramètres de son iPhone. « En allant dans « réglages », « confidentialité » puis « service de localisation », j’ai remarqué tout en bas de l’écran un bouton « services système », puis à nouveau, en bas d’une liste, « lieux importants ». » En cliquant sur ce dernier bouton, il a alors découvert que son téléphone stockait tous les lieux où il s’était rendu ces dernières semaines ! De façon ultra-précise, avec l’heure à laquelle il est arrivé et reparti de chaque endroit. « Le temps que j’ai passé au bureau, en rendez-vous, à faire les courses… Tout est même indiqué sur une carte. J’ai halluciné. Évidemment, dès que j’ai vu ça, j’ai tout effacé et supprimé cette fonction qui est activée par défaut. »
Mais comme il ne s’agit pas de reconnaissance faciale, l’honneur est sauf. Ou presque…
Dans les deux cas précités, pour acquérir des données en grande quantité qui sont la condition sine qua non du développement de l’IA, les États sont prêts à beaucoup de choses. Voyons ce qu’il en est en Gaule.
Et la France
La question qui se pose est de savoir ce que la France va faire, elle qui prétend devenir un géant de l’IA, car on ne badine pas, céans, avec la préservation des libertés. Et comme nous avons les mathématiciens, les scientifiques, les innovateurs que le monde nous envie et, en même temps, des gouvernants que le monde nous envie, nous allons développer une IA éthique en répondant aux besoins des industriels. Cédric O nous l’explique à propos de la reconnaissance faciale :
Faut-il faciliter les expérimentations en la matière ?
Il ne faut pas avoir une vision exclusivement nihiliste de la reconnaissance faciale : il y a beaucoup d’usages qui, s’ils sont bordés juridiquement et techniquement, ne posent aucun problème et apportent de la simplification – par exemple, pour tout ce qui nécessite aujourd’hui de se présenter à un guichet ou pour valider une formation en ligne. Expérimenter est également nécessaire pour que nos industriels progressent.
Que proposez-vous ?
Je propose de créer en coordination avec la CNIL une instance spécifique, composée de membres issus de différentes administrations et régulateurs, sous la supervision de chercheurs et de citoyens. Cette instance superviserait et évaluerait les expérimentations. Dans un deuxième temps, il faut un débat citoyen sur le sujet afin d’examiner les questions légitimes sur l’équilibre entre usages, protection et libertés. Il me semble par ailleurs important qu’il y ait une supervision de la société civile car le sujet est trop sensible : l’État doit se protéger de lui-même.
Génial, encore un machin !
L’utilisation de mécanismes de reconnaissance faciale en temps réel sur les images de vidéosurveillance est-elle envisageable ?
Je suis extrêmement partagé sur la question. On en voit très bien l’utilité, par exemple pour identifier des terroristes dans une foule, mais aussi les risques. Il faut donc en définir très clairement le cadre et les garanties pour éviter la surveillance généralisée. Je pense que nous devons avoir un débat citoyen sur le sujet, en associant les parlementaires et les élus locaux. C’est, d’une certaine manière, aux Français de choisir, car les décisions seront lourdes de conséquences. C’est le genre de décisions sur lequel vous ne revenez que très difficilement. Et nous avons une responsabilité vis-à-vis des générations à venir. Il ne faut toutefois pas se laisser emporter par une vision dystopique ni utopique de la reconnaissance faciale et se saisir de la question à un moment où le débat est encore relativement apaisé.
En résumé, nous allons faire mais en bordant cela juridiquement pour que tout se fasse dans le respect de la loi.
In fine se pose la question de savoir si nous, braves citoyens qui, par définition n’avons rien à cacher, allons voir nos données personnelles captées à des fins autres que celles pour lesquelles nous étions d’accord. Un lecteur du Point a répondu à sa façon (on peut être d’accord ou non avec le fond de sa pensée, mais la formulation est intéressante) :
La reconnaissance faciale c’est comme le mariage pour tous. D’abord on a juré qu’il n’y aurait pas de PMA puis maintenant on nous balance la PMA et on jure qu’il n’y aura pas de GPA. Etc. Là pareil, et bientôt viendra le crédit social comme en Chine, faut pas se faire d’illusions. On boira le calice jusqu’à la lie avant de se réveiller avec la gueule de bois.
Ce qui me fait penser, allez savoir pourquoi, à ce que déclarait Benoît XVI à la tribune de l’ONU le 18 avril 2008 : Il ne s’agira jamais de devoir choisir entre science et éthique, mais bien plutôt d’adopter une méthode scientifique qui soit véritablement respectueuse des impératifs éthiques.
]]>