Intelligence artificielle, doit-on en avoir peur ?

Intelligence artificielle, doit-on en avoir peur ?

24 mai 2020

– 8 minutes de lecture

Jean-Baptiste Piccirillo

Manager Transformation Data

Avec l’avènement, la démocratisation de l’intelligence artificielle dans toujours plus de secteurs, certaines questions sont posées :

Les machines vont-elles vous remplacer, allez vous perdre votre travail ? Ce progrès technologique nous rend-il de plus en plus vulnérable ? Le rôle de l’éducation dans ce contexte de transition technologique ? Les machines vont-elles devenir plus intelligentes que vous ? Comment faire confiance à des systèmes de décision parfois complexes voire boîtes noire ?

Pour y répondre, développons quelques points :

  1. Rappelons la place de cette intelligence dans nos vies aujourd’hui.
  2. Rappelons que nous contrôlons bien toujours la machine…
  3. N’exagérons pas les impacts sur le monde du travail, regardons un peu an arrière
  4. Oui, une petite mise à jour du système éducatif français ne serait pas un luxe pour s’adapter plus rapidement aux transitions technologiques de demain
  5. L’IA, il y a quand même des risques : Un grand pouvoir implique de grandes responsabilités. Comme souvent, le risque c’est nous même…
  6. Non, cette forme d’intelligence n’a rien a voir avec l’intelligence humaine, elle ne peut donc pas la « dépasser »
  7. Toutefois, Vous ne pouvez pas faire confiance à n’importe qui, et pour l’IA, c’est pareil… Alors comment fait-on ?

1 – Rappelons la place de cette intelligence dans nos vies aujourd’hui

« Mais comment il s’appelle déjà cet acteur, tu sais celui qui joue dans ce James Bond ? Attends je regarde ! » Aujourd’hui, le « Attend je regarde » a maintenant depuis plusieurs années remplacé le « Attends je réfléchis ça va me revenir !  » (Vous souvenez vous avoir dit cette phrase récemment ?).

Google comprend très bien ce que vous cherchez, mieux que vous parfois… Le web ne se repose pas, disponible 24/24. Comme un nouvel organe qui étend votre cerveau, il vous offre une extension de mémoire extraordinaire, que vous pouvez utiliser quand vous voulez, avec des interfaces toujours plus simples.

Les Smart Phones, les moteurs de recherche qui savent mieux que vous ce que vous cherchez, les nouveaux robots intelligents, les véhicules autonomes, … l’avènement de IA, n’est-elle tout simplement pas comparable à l’avènement de l’électricité et de son usage qui a explosé au 20eme siècle ? On a appris à produire et à distribuer de l’énergie. Maintenant on crée et on distribue une forme d’intelligence.

Quelle est-elle exactement, cette intelligence ?

2 – Rappelons que nous contrôlons bien toujours la machine…

Pour ceux qui l’ignorent et qui peut être craignent ces nouvelles technologies, la plupart des algorithmes qui révolutionnent le monde actuel sont fondés sur des théories (pas si récentes) issues par exemple des statistiques, de la probabilité, l’optimisation et la recherche opérationnelle. Je vais peut être estomper les fantasmes de certains, mais aujourd’hui une machine ne peut pas apprendre sans avoir :

  1. Une question précise à laquelle répondre
  2. Un volume et un périmètre de données (d’observations) suffisamment conséquents pour pouvoir modéliser le phénomène sous-jacent et répondre à la question
  3. Des capacités de traitement, et l’énergie qui alimente ces capacités

Et vous savez quoi ? Ces trois prérequis nécessitent aujourd’hui notre intervention humaine. Nous choisissons les problèmes auxquels nous voulons que les machines répondent, nous sélectionnons les sources de données qui permettent à la machine d’apprendre une façon d’y répondre, nous fournissons les capacités de traitement et l’énergie nécessaire. Alors de quoi avez-vous peur ?

Comme souvent, le seul danger, c’est nous même… Nous en reparlerons tout à l’heure.

3- N’exagérons pas les impacts sur le monde du travail, et rappelons nous du passé…

Pour rafraîchir la mémoire de certains, posons nous 5 minutes sur 3 emplois, au hasard, qui n’existent plus aujourd’hui, et ça ne choque plus personne … :

Le Poinçonneur : Vous savez c’était le monsieur qui faisait « des petits trous, toujours des petits trous » sur vos billets de métro il y a bien longtemps…Maintenant, vous avez un Pass Navigo…

Le Télégraphiste : Ils transmettaient les télégrammes ! Et vous savez quoi ? Il n’y a plus de télégraphes aujourd’hui…Maintenant vous utilisez internet…

Le Laitier : « Le quoi ? » Lui était chargé de transporter le lait frais au plus vite avant qu’il ne périsse pour être consommé. Aujourd’hui, vous allez au rayon frais dans votre épicerie la plus proche…

Alors ? Devons nous réembaucher des Poinçonneurs sur les lignes du métro parisien ? Devons nous réinstaurer les télégraphes pour remplacer progressivement internet, parce que quand même ça créerait de l’emploi ! Devons nous revoir notre gestion de la chaîne du froid et simplifier tout ça spécifiquement pour le lait en embauchant quelques laitiers ? Je vous laisse le choix des réponses à chacune de ces questions.

Certains métiers vont évoluer. Certaines tâches seront automatisées ce qui permettra d’approfondir les aspects les plus important du métier, les plus « Humains » ?

Prenons l’exemple du Responsable RH :

Aujourd’hui, il passe des heures sur son LinkedIn pour trouver le profil miracle, lisant des tonnes et des tonnes de profils, sans trop savoir auquel se fier et lequel a vraiment une chance de lui répondre…

Demain (et aujourd’hui ça commence déjà) un algorithme pourra lui proposer les profils qui ont le plus de chance d’exceller (et de répondre) pour un poste donné. Les responsables RH passeront plus de temps à préparer un entretien personnalisé avec la personne, en creusant les bons aspects, pour être sûr de prendre la bonne décision. Un partenaire qui deviendra indispensable ?

Il y aura peut être moins de responsables de recrutement alors ? Peut être, mais pas du jour au lendemain. Les choses ne se font pas d’un coup. Il faut du temps pour transformer les entreprises mastodontes… Il faudra du temps pour prendre conscience qu’il faut moins de responsables de recrutement et plus de Data Science, et trouver les bonnes ressources formées, et surtout pour mettre au point les bonnes solutions…

D’ailleurs, nos petits seront-ils formés sur ces sujets ? Nos grands pères à 5 ou 10 ans de la retraites pourront-ils se reconvertir ?

4- Une petite mise à jour du système éducatif français ne serait pas un luxe pour s’adapter plus rapidement aux transitions technologiques de demain

De manière plus générale, concernant ces périodes de rupture / transition technologiques, le système éducatif (français) manque surement de flexibilité. Il est pensé pour être globalement adapté à tous, alors qu’il devrait l’être, de plus en plus, pour pouvoir s’adapter à chacun, et au monde du travail. Je ne dis pas que c’est simple…

Mais par exemple, aujourd’hui, l’outil informatique devrait être porteur de flexibilité dans le système éducatif, mon avis est qu’il n’est pas assez utilisé (au risque d’offusquer certaines personnes…) . Formations en ligne et/ou en autonomie ? Oui, il est possible d’apprendre seul devant son PC aujourd’hui; Il existe des outils totalement adaptés pour les professionnels et pourquoi pas pour les collégiens et les lycéens ? Attention : Je dis bien, A défaut de professeurs spécialisés sur un sujet nouveau par exemple comme l’intelligence artificielle, l’élève devrait pouvoir s’auto-former et passer un examen type Bac spécialisé dans les nouvelles technologies de l’information, sur la base de cet enseignement, s’il est motivé, pourquoi pas ? Il réussira.

De même, pour toutes personnes dans la vie active qui sont tout à fait aptes à se former rapidement sur un nouveau domaine innovant, pourquoi ne seraient-ils pas aussi brillants dans ces nouveaux domaines que des petits jeunes sortis d’école ? si on leur donne aussi les moyens de s’auto-former et de passer des examens spécialisés plus simplement.

Plus globalement : « C’est en forgeant, que l’on devient forgeron ». Dans ces périodes de transitions technologiques, cette phrase devrait inspirer les recruteurs, qui devraient plus prendre en compte la capacité d’un candidat à apprendre rapidement, à s’adapter à des situations différentes / nouvelles, plutôt que de s’obstiner sur les petites lignes de diplômes du CV.

5- L’IA, il y a quand même des risques: un grand pouvoir implique de grandes responsabilités. Comme souvent, le risque c’est nous même

Plus il y aura d’actions automatisés, et connectées, plus la société sera vulnérable à la cyber-attaque, et plus les exigences de sécurité seront élevées.

Les données peuvent être utilisées à bon escient pour améliorer notre manière de vivre, se re-concentrer sur l’essentiel dans un monde que nous avons nous même rendu plus complexe qu’il ne l’était… Malheureusement, il peut être utilisé à mauvais escient.

Comme on dit, un grand pouvoir implique de grandes responsabilités… Les fournisseurs Cloud par exemple ont une grande responsabilité. Une grande ressource de calcul ne devrait plus demain être vendu au premier venu, car elle peut être une arme.

L’IA peut en exemple être utilisé pour élaborer des attaques plus intelligentes. Il faudra alors aussi prévoir des systèmes de défense plus intelligents. Vient la course aux armements version IA… L’actualité nous fait déjà entrevoir ces cyber-guerres (la potentielle intervention de la Russie dans l’élection de monsieur Trump en est un exemple). Les hackers commencent déjà à utiliser le Machine Learning comme levier d’attaque. Vous trouverez par exemple, cet article qui traite du sujet.

6- Non, cette forme d’intelligence n’a rien à voir avec l’intelligence humaine, elle ne peut donc pas la « dépasser »

Si cela vous inquiète vraiment, c’est que vous manquez simplement d’informations sur le sujet. Comme discuté au point 2 de cet article, il n’y a absolument aucune technologie ni même aucune démarche scientifique aboutie qui permette à une machine d’égaler l’intelligence Humaine. La forme d’intelligence produite par les algorithmes actuels et la forme d’intelligence qui habite votre cerveau n’ont absolument rien à voir : L’un est fait pour répondre à un problème bien précis, l’autre est capable de penser, d’inventer, de créer, d’aimer, et ce depuis 200 000 ans…(et de répondre aussi à plein de problèmes, bien précis…)

7- Toutefois, vous ne pouvez pas faire confiance à n’importe qui, et pour l’IA, c’est pareil… Alors comment fait-on maintenant ?

Cette nouvelle forme d’intelligence se diffuse peu à peu pour offrir toujours plus d’efficacité. Elle permet à l’entreprise de prendre certaines décisions de manière moins intuitive et plus mathématique/statistique, lorsque le sujet et les données le permettent.

Reste toutefois à poser un cadre claire de ce que nous souhaitons vraiment faire de ces nouvelles capacités et de ce que nous nous interdisons d’en faire. C’est une question que chacun doit se poser aujourd’hui. Certaines décisions ne devraient-elles pas être prises que par l’homme ? Une machine doit-elle avoir le choix de vie ou de mort ? Demain, la voiture autonome doit-elle avoir à choisir entre percuter la vieille dame ou l’enfant ? Il s’agit de maîtriser le risque et l’éthique.

Reste également, et c’est crucial, à se donner les moyens de mieux comprendre comment décident les algorithmes les plus complexes (exemple : Réseaux de neurones, Deep Learning) qui sont souvent trop opaques. Sinon nous pouvons valider un modèle alors que, par exemple, sa manière de décider n’est en fait pas éthique du tout (ex : Discriminations raciales, etc…). Pour ceux que ça intéressent, une méthode comme LIME vise à innover dans ce domaine : Why Should I Trust You ? Il existe d’ailleurs déjà des librairies de développement dans ce domaine.

Une image pour finir : Dans chaque décision humaine se cache une motivation. Par exemple, si quelqu’un vous donne un bon conseil, que vous le suivez, et que vous vous rendez compte qu’il en a en fait plus profité que vous, vous n’aurez plus confiance en cette personne ? Non ? Si par contre, ce même conseil vous est donné de bon cœur avec bienveillance, alors vous ferez confiance en cette personne ? un nouvel ami ? La motivation est tout aussi importante que la décision en elle même, aussi juste puisse-t-elle paraître a priori (donner un bon conseil…). C’est la même chose avec l’IA. Si nous ne savons pas justifier/comprendre les décisions (conseils…) qu’elle nous donne, alors ça ne peut pas être notre partenaire, ou du moins c’est risqué.