mardi 21 février 2017

L'intelligence artificielle pourrait grandir sans contrôle, sur les gisements de données

Cette semaine l'actualité de Facebook, Google, du Parlement Européen et de l'Assemblée Nationale, nous donne l'opportunité de poursuivre la réflexion sur l'intelligence artificielle qui avait été lancée le mois dernier (Engageons la réflexion sur l'intelligence artificielle).

L'IA n'est pas une technologie neutre. Comme le traitait le dernier billet sur la blockchain, l'IA est une technologie de transformation qui remet en question l'architecture même des systèmes d'information et, on va le voir, aussi de l'économie du travail et de la société.

Mais contrairement à la blockchain qui promet de faire émerger des écosystèmes très décentralisés, reposant sur la confiance, sur une lisibilité totale des registres partagés et une certification des transactions, l'IA nous promet au contraire une extrême centralisation sur des plateformes, et un manque total de transparence sur les décisions ou les algorithmes. Alors sans surprise, avant même d'être opérationnels à grande échelle, les systèmes à base d'IA n'inspirent pas confiance et font déjà couler beaucoup d'encre. En tout cas assez pour que GreenSI se penche à nouveau dessus.

Une Intelligence Artificielle bienveillante ? 

Commençons par Mark Zuckerberg, qui cette semaine attire toutes les attentions en signant un billet Facebook "Building Global Community" pour rassembler sa communauté mondiale et aller plus loin dans une communauté qui partagerait encore plus de valeurs.
Pour lui, Facebook peut aider à créer des communautés plus sûres, mieux informées, plus engagées et inclusives, pour répondre au déclin de certaines institutions traditionnelles en perte de vitesse. Un message très politique, au sens premier du terme - l'organisation de la Cité (numérique) - et peut être même le premier message politique envoyé à 2 milliards d'individus utilisant une plateforme numérique (en supposant qu'ils parlent tous anglais...). La photo utilisée ne le met pas sur la tribune (mais on le devine) et les symboles affichés sur l'écran représentant les 5 objectifs que tous regardent, sont largement repris partout dans son billet.


Ce qui a retenu l'attention de GreenSI n'est pas la teneur politique de ce message mais plutôt le sujet sous-jacent de l'intelligence artificielle positionnée pour atteindre au moins un des objectifs, celui de la sécurité des communautés.
Pour Mark Zuckerberg, l'IA est une formidable opportunité pour comprendre ce qui se passe en permanence dans la communauté et en améliorer la sécurité, par exemple en analysant automatiquement les images publiées, et aider à la modération. L'enjeu sécuritaire pour Facebook est de stopper rapidement la diffusion de fausses informations, de photos choquantes ou de promotion du terrorisme par exemple, mais aussi de gérer de façon individuelle la sensibilité des utilisateurs sans avoir à censurer totalement le contenu qui peut les choquer individuellement. 

L'intelligence artificielle, dans laquelle Facebook investit massivement, est donc vue comme un filtre bienveillant au cœur de ses algorithmes de sélection, et en dernier recours une police "au-dessus" du réseau, toujours en alerte pour détecter les infractions aux règles établies. Ensuite l'IA passe la main à l'équipe de modération, qui en "tribunal des publications" fait appliquer les règles et peut décider de supprimer un post ou bloquer un utilisateur. 

Mark Zuckerberg fait bien attention à ne pas positionner l'IA comme agissant directement, mais aidant les humains à prendre des décisions.

Une Intelligence Artificielle militarisée ? 

Google s'est lui exprimé cette semaine à la conférence sur la sécurité RSA 2017 (couverte par ZDNet US), via Eric Schmidt le Directeur Exécutif de sa maison mère Alphabet. Pour lui, la recherche en IA ne doit pas être faite dans les laboratoires militaires, ni dans des laboratoires d'entreprises fermés, mais dans des laboratoires ouverts ("open labs").

On en déduit que, pour Eric Schmidt, Facebook ne devrait donc pas se contenter de réfléchir seul à comment faire le bien de sa communauté avec de l'IA, mais devrait aussi publier son code en open source pour favoriser cette ouverture. C'est ce que Google a fait avec TensorFlow, une librairie open source pour l'apprentissage des IA disponible pour tous. 


Mais cette vision pacifique des progrès de l'IA a peu de chance de se produire. Elle pose même la question de la réelle sincérité d'un Eric Schmidt dont l'ouvrage "How Google Works" il y a quelques années, ne faisait aucun doute sur son influence auprès des dirigeants de la planète, dont les militaires US qu'il conseille. 

À l'Assemblée Nationale, le colloque "Intelligence artificielle : des libertés individuelles à la sécurité nationale" qui a eu lieu mardi dernier et où Jean-yves Le Drian s'est déplacé en personne nous amène une toute autre perspective. Pour le Ministre de la Défense, l'enjeu est celui d'une troisième rupture technologique, après la dissuasion nucléaire et l’explosion du numérique, pour garantir la supériorité et la sécurité.

C'est une vision de l'IA au coeur des combats de demain qui opérera des drones et des robots, avec des capteurs ou des véhicules capables de traiter localement l’information, capable d’élaborer une stratégique de protection ou de riposte. Outre l'enjeu géostratégique, la France étant un fournisseur mondial de systèmes d'armes, elle ne devra pas non plus rater cette révolution pour maintenir la compétitivité à l'export de son arsenal. On rejoint ici les enjeux de toutes les entreprises pour s'adapter à un mode digital.

Une Intelligence Artificielle toujours débranchable ? 

Comme le faisait remarquer sur les réseaux sociaux Hubert Tournier, ex-DOSI du Groupement des Mousquetaires, cette idée de transparence du code des IA est vraiment dans l'air du temps. Hubert Tournier la juge cependant très insuffisante car ne regarder que l'algorithme quand on utilise le Machine Learning, c'est oublier de prendre en compte les limites de la compréhension des modélisateurs, la qualité des données injectées, le processus d'apprentissage initial et l'interaction avec le monde réel. La différence entre l'inné et l'acquis !

La capacité à "nourrir" l'IA avec des données, à l'éduquer, est aussi importante que la construction initiale. L'exemple de Tay, l'IA de Microsoft détournée par des internautes l'année dernière, qui est devenue raciste par apprentissage sur les réseaux dès son lancement, doit nous y faire réfléchir. Les éducateurs ont donc une co-responsabilité sur le résultat produit par l'IA.


Il va donc être difficile de réguler uniquement avec du préventif, mis en oeuvre avant la mise en service opérationnelle puisque elle peut être détournée. On aura donc aussi affaire à de la régulation par "débranchement" après coup. C'est ce scénario dont se sert régulièrement Hollywood : une IA forte qui saura se répliquer de façon autonome et empêcher ainsi son débranchement. Une telle technologie n'est bien sûr pas encore à l'horizon et relève pour l'instant du fantasme.

La bonne question est donc celle de la régulation, avant et après sa mise en service, celle de l'inné et celle de l'acquis.

Une IA au coeur des gisements de données ?

Le Sénat (plus précisément l'OPECST - Office Parlementaire d’Évaluation des Choix Scientifiques et Technologiques) s'est lui posé la question de l'intelligence artificielle il y a un mois avec quatre tables rondes ouvertes à la presse le 19 janvier, la veille de l'annonce du plan "France IA" dont GreenSI a déjà parlé dans son billet précédent sur l'IA. Les thèmes couvraient le périmètre de l'IA, la stratégie de recherche, les enjeux éthique, juridiques et sociétaux.

Cette dernière table ronde avait invité Laurent Alexandre, spécialiste des sciences du vivant et des bio technologies, président de DNA Vision, mais aussi créateur du site Doctissimo. Ce visionnaire de l'évolution du travail dans une monde technologique, met en avant deux points très pertinents:
  • l'avantage compétitif de l'intelligence artificielle par rapport à l'intelligence biologique. Une fois mise en place, elle opère à coût quasi nul par rapport aux humains payés pour produire les mêmes réflexions et prises de décision. C'est l'avantage des plateformes, par rapport aux robots, domaine où le politique comprend mieux comment taxer des unités d'oeuvre. L'annonce de la fintech italienne Euklid d'offrir les services d'une banque traditionnelle entièrement gérée par une intelligence artificielle s'inscrit dans ce domaine. En France, le Compte Nickel qui est plus une plateforme technologique qu'une banque doit certainement aussi y penser pour les années qui arrivent...

  • l'intelligence se créée là où il y a beaucoup de données car un mauvais algorithme avec beaucoup de données est supérieur à un bon algorithme avec peu de données. C'est là que l'on peut détourner les mauvais algorithmes en apprenant à l'IA d'autres résultats une fois qu'elle est mise en service comme dans le cas de Tay.
Cette position à le mérite de poser le véritable coeur du débat à venir sur l'IA. L'IA va remplacer le travail de ceux qui seront concurrencés par sa mise en œuvre, à priori là où il y a beaucoup de données à traiter, et elle va valoriser celui de ceux dont le travail lui sera complémentaire.

Le lien entre data et IA a été fait depuis longtemps par les acteurs du numérique. Dans le B2B, la division Watson d'IBM créée pour le traitement intelligent des données, est aujourd'hui devenue IBM Watson IoT, celle qui traite aussi des données capturées par l'IoT qui vont croître exponentiellement. Dans le B2C, Google, via Google Maps et Facebook via sa plateforme homonyme, capturent aussi des données en masse et notamment des photos, pour nourrir l'apprentissage de leur futures IA.

Vers quelle régulation aller ?

L'enjeu sociétal de l'IA est donc certain et va de pair avec le déploiement d'infrastructure de collecte de données. Pourtant aujourd'hui, ce sont les robots qui sont sous le feu des projecteurs des politiques, comme le montre l'adoption cette semaine par le Parlement Européen d'un texte déposé en janvier sur le régime légal à appliquer aux robots. Une lettre de mission pour que la Commission Européenne s'empare du sujet et légifère dans les Etats de l'Union Européenne.

Mais les robots sont du hardware, or le hardware progresse moins vite que le software. La question de la régulation de l'Intelligence Artificielle à grande échelle arrivera donc certainement bien avant celle des robots.
Aujourd'hui le privé et les associations de chercheurs comme celle des signataires des « 23 principes d'Asilomar » (dont l'astrophysicien Stephen Hawking et Elon Musk, patron de Tesla et SpaceX) sont les plus avancés en matière de réflexion sur l'éthique de l'intelligence artificielle. Les robots monopolisent les débats mais ne représentent qu'une faible partie des enjeux autour de la régulation de l'intelligence artificielle.

Le politique est-il en train de se faire dépasser par ce sujet comme lors de la révolution précédente du numérique ?
Qui sera le prochain "Uber de l'IA" qui déclenchera partout des manifestations des peuples pour souligner le manque de cadre de l'intelligence artificielle ?



SHARE THIS

1 commentaires: