Les Echos – 15 décembre 2017 :

Face aux possibles dérives de l’IA, il est essentiel de rédiger une réglementation spécifique à son application.

Apple a commercialisé dernièrement son nouveau smartphone : l’iPhone X. Parmi l’ensemble des nouveautés, le déverrouillage de son smartphone à l’aide de son visage, rendu possible par l’amélioration de la reconnaissance faciale et de l’intelligence artificielle (IA).

Quelques jours plus tôt, des chercheurs de l’université de Stanford ont réussi grâce à l’intelligence artificielle à déterminer l’orientation sexuelle d’une personne à partir d’une simple photo postée sur un site de rencontre. Les smartphones de demain pourront-ils, eux aussi, déterminer notre orientation sexuelle ?

Engouement certain

L’IA est souvent vue comme la quatrième révolution industrielle. Elle touche tous les secteurs d’activité et va nécessairement bouleverser notre quotidien. Dans l’industrie, les robots dotés de l’IA deviennent pleinement autonomes. Dans la banque, à travers l’amélioration de l’expérience client, de la prise de décision pour l’octroi de crédits ou encore l’automatisation du trading. Dans la santé, avec le soutien aux chirurgiens, la prévention améliorée du cancer ou de maladies indétectables. Dans la justice, avec la capacité de rendre un verdict en étudiant tous les éléments d’un dossier.

On comprend vite pourquoi l’engouement pour cette technologie ne cesse de croître. Seulement, le domaine est encore assez nouveau et il faut désormais réfléchir aux dangers et aux dérives possibles. En effet, l’IA pose question et reste assujettie à de nombreux problèmes (éthique, responsabilité, impact social…). Il est essentiel d’anticiper dès aujourd’hui et d’envisager la rédaction d’une réglementation spécifique à son application.

Problèmes éthiques, questions sociales

L’étude menée par les chercheurs de l’université de Stanford concernant la détection de l’orientation sexuelle avait justement pour but de montrer les dérives possibles de l’IA. Il est évident que si une telle application venait à être publique, cela pourrait avoir de graves conséquences dans certaines sociétés (discrimination, stigmatisation, chasse à l’homme, etc.).

Mais ce qui rend cette étude particulièrement intéressante et inquiétante, ce sont les données utilisées. Pour parvenir à ces résultats, les chercheurs ont simplement exploité les profils d’utilisateurs de sites de rencontres. Or ces données sont publiques, tout le monde pourrait y avoir accès. Au-delà du problème moral des usages de l’intelligence artificielle, cette étude pose à nouveau la question de l’utilisation de données personnelles.

En alliant l’IA à la robotisation, certains emplois sont effectivement menacés, mais surtout cela touche toutes les catégories socioprofessionnelles. L’intelligence artificielle impacte aussi bien les métiers d’hôtes que les plus hauts managers des grandes entreprises.

Il est compliqué de quantifier l’impact de l’IA sur les emplois, certaines études montrent que la perte d’emploi sera bien supérieure à la création d’emploi et d’autres études l’annoncent avec plus de modération. Bien que la question reste ouverte, certains secteurs d’activités seront bien plus touchés que d’autres. Il est encore difficile de mesurer les conséquences sur le marché de l’emploi, néanmoins les institutions pourraient être amenées à légiférer afin de freiner l’impact social de l’IA.

Trouver un responsable

C’est un sujet qui fait débat aujourd’hui notamment avec l’arrivée des voitures autonomes. Bien que les taux d’erreur des intelligences artificielles soient bien plus faibles que ceux des humains, ils existent. Le 7 mai 2016, en Floride, une voiture Tesla rentre en collision avec un camion et provoque le décès du conducteur.

Raison de la collision : le ciel était trop éblouissant pour la caméra qui n’a pas su détecter le camion qui était de couleur blanche. La question est donc de savoir qui sera responsable en cas d’accident. La marque Tesla, le conducteur ? De son côté, la marque se défend en indiquant que sa voiture n’est pas une voiture autonome et que son mode Autopilot (le système qui permet au véhicule de s’autoconduire) n’est qu’une aide à la conduite, la faute reviendrait donc au conducteur.

On pourrait aussi élargir cette question à la médecine, les chirurgiens pourraient à l’avenir être assistés par des robots dotés de l’IA. En cas d’erreur de la part de l’IA qui serait responsable, l’IA ou le chirurgien ?

Assurer la sécurité

L’IA est capable d’apprendre à partir d’exemples, d’expérience, d’historique. C’est ce qu’on appelle la base d’apprentissage. Cependant que se passerait-il si l’on venait à modifier la base d’apprentissage ? En mars 2016, Microsoft lance Tay, une IA conversationnelle sur Twitter capable d’apprendre également de ces discussions avec les twittos. Après des débuts prometteurs, les twittos se sont mis à tester les limites de Tay, c’est alors qu’ils l’ont rendue sexiste et raciste. Suite à cela, Microsoft arrête l’expérience.

Suivant l’apprentissage, l’IA peut totalement s’éloigner de son principal objectif et potentiellement adopter un comportement dangereux. Serait-il possible, suite à un piratage informatique par exemple, d’apprendre à une IA capable de conduire un véhicule de manière autonome qu’au feu rouge le véhicule passe et à contrario qu’au feu vert il s’arrête ? Des chercheurs chinois sont ainsi parvenus à piloter une Tesla située à plusieurs kilomètres en s’emparant de son intelligence de bord…

Encadrer les usages

Pour l’instant, la réglementation française ou européenne liée à l’intelligence artificielle est quasi-inexistante, mais les autorités commencent à y réfléchir, à l’image du règlement européen de protection des données (RGPD).

Cette norme européenne qui devrait rentrer en vigueur à partir de mai 2018 stipule l’accord explicite du client afin d’utiliser ses données personnelles. Avec cette exigence, l’étude de l’équipe de Stanford sur l’orientation sexuelle n’aurait pu être réalisée sans l’accord des utilisateurs.

Notons également le vote du Parlement européen du 16 février 2017 qui demande à la Commission européenne d’intervenir sur la législation des robots et de l’intelligence artificielle. La majorité du nombre de voix favorables montre bien l’importance d’anticiper et la nécessité de réglementer (396 pour, 123 contre, 85 abstentions). La réglementation devra justement prendre en compte l’impact social de l’intelligence artificielle, la responsabilité et l’éthique (atteinte à la vie privée).

L’IA a un bel avenir devant elle, destinée à modifier significativement notre quotidien, notre milieu professionnel. Nous ne pourrons pas nous passer d’elle, mais pour que l’IA s’intègre au mieux possible dans notre société il est impératif d’encadrer ses usages. En général, la technologie avance bien plus vite que la législation, mais si nous voulons éviter des dérives il est nécessaire d’anticiper, d’améliorer la sécurité des entreprises et de légiférer dans les prochaines années.

Par Samy Fracso consultant du cabinet VERTUO conseil

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.