EU-Logos

Introduction

Elle fait de plus en plus parler d’elle et a souvent une connotation négative, due à son traitement dans les œuvres cinématographiques de science-fiction : il s’agit de l’intelligence artificielle (IA), qui, selon les prédictions les plus apocalyptiques, amènerait les machines à se rebeller contre l’espèce humaine et à l’asservir. Si ces prédictions relèvent de la dystopie, on peut néanmoins affirmer que l’IA va à terme bouleverser nos vies et nos sociétés, car tous les secteurs semblent concernés. Cet article consacré à l’IA prétendra dans un premier temps à apporter des éléments de définitions, suivi dans une exposition d’un panel de champs d’application de l’IA et les enjeux qui en sont liés, suivi de l’action que compte prendre l’Union européenne.

Qu’est-ce que l’IA ?

Histoire et définitions

Si elle fait parler de plus en plus d’elle ces derniers temps, l’IA
n’est pas « toute jeune » : un consensus d’experts date les
origines de l’IA avec les travaux du vainqueur de la machine Enigma Alan
Turing, remontant aux années 1950[i]
et le terme a été inventé en 1955 par le mathématicien John Mc Marty
« pour désigner une discipline scientifique neuve destinée à mieux
comprendre l’intelligence en la décomposant en facultés cognitives si
élémentaires que l’on devrait être en mesure de fabriquer des machines pour les
simuler. »[ii].

Plus récemment, selon Stuart Russel, l’IA est « l’étude des méthodes
permettant aux ordinateurs de se comporter intelligemment [qui] englobe des
tâches telles que l’apprentissage, le raisonnement, la planification, la
perception, la compréhension du langage et la robotique »[iii],
mais pour d’autres, la définir la plus complètement possible pose problème[iv]
et donc, « l’IA demeure […] un objet difficile à cerner »[v].

Une autre manière de définir l’IA est de cerner ses composants :
selon Nicolas Miailhe, « l’IA est propulsée par la convergence et la
maturité industrielle de trois grandes tendances technoscientifiques : le big data, le machine learning et l’informatique de très haute puissance dans le
cloud »[vi],
avec au cœur de ce système, l’être humain[vii].
Pour Miailh, on devrait plutôt parler d’intelligence « collective »
au lieu d’intelligence « artificielle »[viii]
. Deux des trois composantes seront explicitées : le big data et le machine
learning
.

Le Big Data

À l’instar de l’IA, le Big Data n’est pas nouveau non plus : il
remonterait au milieu du 19e siècle où la technologie de l’époque a permis aux États
de constituer des registres de toutes les données qui pouvaient passer sous la
main[ix],
mais le terme en lui-même ne remonte qu’aux années 1990, popularisé par John
Mashey pour désigner « des bases de données trop grandes et complexes pour
être  étudiées avec les méthodes
statistiques traditionnelles et, par extension, à tous les nouveaux outils
d’analyse de ces données »[x].
En outre, le terme Big Data aurait été utilisé comme substitut à l’expression
intelligence artificielle, à cause des films de science-fiction où la machine
écraserait l’homme dans le futur, comme dans Terminator[xi].

De manière simplifiée, le Big Data se caractérise par deux choses : un
volume important de données collectées et la création de contenus variés en
continu[xii],
le tout pour un meilleur coût[xiii].  Le Big Data doit son envol à partir de 2008
grâce à la troisième génération de téléphones portables ainsi qu’à la capacité
de calcul et de stockage de plus en plus performant[xiv],
mais plus tôt dans la décennie, en 2001, Douglas Laney qualifie le Big
Data  avec ses trois, puis cinq «
V »
[EBY1] : le
volume, la vélocité, la variété, la valeur et la véracité[xv].

C’est-à-dire, primo le Volume,
soit la grande quantité d’information contenue dans ces bases de données dont
la vitesse de génération dudit volume est de l’ordre du zettabits voire du
brontobits par seconde (respectivement 1021 et 1024,
sachant qu’un giga représente 109, soit un milliard) ou encore que
chaque minute, on génère en donnée l’équivalent de toutes les données du monde
de l’invention de l’écriture jusqu’à 2008[xvi],
ce qui pose des problèmes de stockage. Cependant,  si tous les ordinateurs étaient connectés en
réseaux, la capacité de stockage excéderait les besoins[xvii].Secundo, la Vélocité, soit  la vitesse de la création, de collecte, de transmission
et d’analyse de données qui est de l’ordre de la nanoseconde (un milliardième
de seconde)[xviii],
soit la vitesse des achats et des ventes d’actif sur les marchés financiers[xix],
mais qui pose la question de la rapidité de la réactivité, en cas d’une propagation
d’une fausse information par exemple[xx]
; tertio, la Variété, soit les
différences de natures, de formats et de structures des données (tableaux avec
variables, textes, fichiers audio et/ou vidéo, images ) dont l’analyse avec les
méthodes statistiques traditionnelles se révèle impossible[xxi]
; quarto, la Valeur, soit la capacité
de ces données à générer du profit. Pour la période 2009-2018, le revenu généré
par le Big Data est passé de 100 millions à 42 milliards d’euros[xxii]
et enfin cinco, la Véracité des
données, soit « leur validité, c.-à-d. la qualité et la précision ainsi que
leur fiabilité », challengée notamment par les fake news[xxiii].

Le machine learning et le
deep learning

Le terme machine learning – ou
apprentissage automatique – est apparu également dans les années 1950, inventé
par Arthur Samuel[xxiv],
qui consiste en un algorithme exploitant des grandes bases de données,
c’est-à-dire du big data avec une
énorme puissance de calcul pour exécuter les tâches[xxv],
et à terme, la machine elle-même s’améliore au niveau de la vitesse d’exécution
et de sa capacité à résoudre les problèmes qui lui sont soumis[xxvi].

Deux autres concepts sont à mentionner en parallèle du machine learning. D’une part, on parle
également de deep learning – ou
apprentissage profond – dont le terme n’apparut qu’à partir des années
1980-1990[xxvii]
et dont l’apprentissage « supervisé ou non, [a] pour but de s’approcher –
et de   dépasser – des résultats obtenus
par l’humain pour la même tâche, y compris dans   des situations complexes multifacteurs »[xxviii]
et d’autre part, le transfer learning
– ou apprentissage par transfert – qui désigne la capacité à transférer les
algorithmes de machine learning d’une
application à une autre[xxix].

Les différentes IA

Pour terminer, il existe une typologie des IA, certaines sont dites faibles ou fortes,[EBY2] limitées ou totales, voire encore combinées. Une première distinction donc est celle proposée par John Searle où il opposa la notion d’intelligence artificielle faible, «celle des ingénieurs susceptibles de reproduire un grand nombre de fonctions cognitives avec une manipulation symbolique d’information […] qui parviendrait à des réalisations techniques inouïes»[xxx], à celle d’intelligence artificielle forte, c’est-à-dire « celle des philosophes qui prétendaient restituer avec les techniques d’IA l’esprit dans son intégralité, et en particulier la conscience [mais qui] serait incapable d’atteindre ses objectifs »[xxxi]. Toujours sur base de cette distinction, une IA faible permet l’automatisation de tâches dites à faible valeur ajoutée – comme les voitures autonomes – tandis qu’une IA forte « serait le pendant de l’homme voire le dépasserait, sachant concilier émotions, ressentis, confiance, instinct, analyse, etc. –, mais qui relève encore de l’imaginaire »[xxxii].

Une autre distinction, ressemblant peu ou prou à la première, est celle
entre une IA dite limitée (ou de bas niveau) et une IA dite totale. La première
se base sur le machine learning dans
l’exécution de tâches simples, améliorant le processus sans pour autant le
modifier dont les exemples sont connus comme les assistants Siri (Apple) ou
Echo (Amazon) ou encore le robot d’indexation des sites de Google[xxxiii],
mais bien que reposant sur un système big data optimisé, ils ne peuvent rien
faire que ce pour lequel ils sont programmés[xxxiv].
La seconde désigne une technologie caractérisée par le traitement de multiples
canaux de données à vitesse supérieure à celle de l’humain et qui, à terme, pourrait
dépasser son concepteur, car sa principale caractéristique est de pouvoir modifier
son propre programme par elle-même, ce qui suscite un sentiment de menace pour
certains, mais cette technologie n’existe pas pour le moment et semble
lointaine[xxxv].
Enfin, à l’intermédiaire de ces deux IA, notons celle dite combinée, qui
« [intègre] des capteurs de natures différentes et [tente] de combiner à
la manière de l’homme, plusieurs signaux pour élaborer une réponse […] une
sorte de cyber-prothèse de l’homme qui lui permet de disposer de capacités
d’actions étendues »[xxxvi]

Liste non exhaustive des domaines
concernés

L’armée et les systèmes d’armes
létales autonomes (SALA)

Sur le plan militaire, l’IA pourra changer la donne sur la manière de
mener une guerre sur bien des plans : la réalisation de cartes, la
reconnaissance de terrain, le renseignement ou encore des véhicules autonomes[xxxvii],
mais également les systèmes d’armes létales autonomes (SALA), qu’on pourrait
qualifier de « robots tueurs », systèmes qui agissent d’eux-mêmes en
quelque sorte (ex : équipements de poursuite des missiles autonomes)[xxxviii].
La venue de l’IA sur le plan militaire apportera son lot de bouleversements.

Tout d’abord, à l’instar des enjeux liés à l’espace, les nouveaux
acteurs du numérique pourraient faire leur entrée dans l’économie de l’armement
et de la sécurité[xxxix].
Ensuite, elle pourrait faire de moins en moins place à l’homme[xl],
mais elle sera d’une grande aide pour la prise de décision ou pour préparer une
opération militaire[xli],
voire remplacer le soldat pour des missions jugées trop périlleuses[xlii].
En outre, des systèmes d’armements autonomes, létaux ou non, sont déjà proposés
par certains pays (États-Unis, Chine, Russie, Royaume-Uni, France, Israël)[xliii],
mais on estime être toujours au stade d’une IA faible . Cependant, à terme, on
pourra envisager des robots opérés à distance agir comme des « compagnons
d’armes »[xliv]
.

Pour terminer, citons deux gros obstacles : l’argent et le droit.
Pour le premier, le développement et l’utilisation de l’IA supposeront être
capables de payer un prix d’entrée et on devra probablement revoir « l’organisation
nationale et   européenne de notre base
industrielle et technologique de défense et  
sur les schémas de production et de reproduction des armes nouvelles »[xlv].
Pour le second, il est une volonté de réglementer l’IA dans son application
militaire avec en ligne de mire ces fameux « robots tueurs »,[EBY3]  :
pour l’eurodéputée grecque Eva Kaili, une réglementation internationale sera
nécessaire à l’instar des traités concernant les armes chimiques et biologiques[xlvi].  Plus récemment, en 2018, une résolution du
Parlement européen a appelé à une interdiction internationale des SALA estimant
que les « décisions en situation de guerre doivent rester l’apanage des
cerveaux humains[xlvii],
mais aux Nations Unies, les États-Unis, la Russie, Israël ou encore la Corée de
Sud ont exprimé une grande opposition à ce type de réglementation[xlviii].

Les impacts sociaux et sociétaux

L’IA génère aussi des craintes sur les plans sociaux et sociétaux, avec
en premier lieu l’impact sur l’emploi de manière générale. Si l’IA a permis de
nos jours de remplacer l’humain dans un bon nombre de tâches, la crainte
qu’elle soit plus destructrice que créatrice d’emploi n’est pas neuve : un
rapport de 1966 adressé au président américain Lyndon Jonhson faisait part de
ces inquiétudes[xlix]
et se posa dans la foulée la question de mettre en place un revenu universel/de
base pour compenser cette destruction, et financé par une taxe sur les machines[l],
car dans un modèle d’État-providence dont la majorité des recettes fiscales est
issue du travail, il faut trouver une alternative à son financement si le
nombre d’emplois venait à diminuer selon l’eurodéputée Mady Delvaux[li].

Plus récemment, l’Agence européenne pour la sécurité et la santé au
travail recommande une « IA d’assistance et collaborative » sur base de
certains risques identifiés[lii]
: le danger des travailleurs ; les discriminations, avec la présence de biais
sexistes et/ou racistes[liii],[liv],[lv],
sciemment programmés ou non, avec une base de données où l’on retrouve des
métiers historiquement genrés ; la destruction massive d’emplois peu
qualifiés  avec, pour la période
1999-2017 , des  « effets significatifs
sur l’emploi, principalement pour les jeunes travailleurs et les travailleurs
moyennement qualifiés, et quasi aucun effet sur les salaires »[lvi]
; l’augmentation des accidents entre robots et travailleurs et les atteintes à
la vie privée.

Mais d’autres se montrent plus optimistes : pour le Parlement européen,
l’IA, couplée à la robotique, peut aider les gens dans leur vie privée et
professionnelle -avec par exemple les exosquelettes[lvii],
mais il faudra en contrepartie à la destruction d’emploi, organiser la
formation et la reconversion[lviii].
De plus, selon un avis de la commission « Industrie, recherche et
énergie » (ITRE) d’octobre 2016, une équipe composée de robots et
d’humains peut voir sa productivité augmenter de 85%, comparé à une équipe
homogène doublée d’une demande d’un cadre pour répondre aux besoins de
développement de l’IA[lix].
De manière plus large, certains militent pour donner un sens à l’IA, si elle
est tournée vers l’aide aux réfugiés, malades et pauvres et en se mettant au
service de l’écologie et du social, comme c’est le cas dans divers domaines :
la prévision de catastrophes naturelles, la gestion de denrées alimentaires et
l’optimisation de l’agriculture ou encore favoriser l’accès à la culture[lx].

Lutte contre les fake news

L’autre défi que pose l’IA se situe au niveau politique : si l’IA
posait la question de comment réagir à la propagation d’une fausse information
– ou fake news – mentionnée supra, elle pourrait en être la
solution, c’est le pari fait par 3 étudiants fin 2018. Baptisée Neutral News, il s’agit d’une IA qui
agrège en continu des centaines de milliers d’articles du monde entier qui sont
soumis à un nombre large de critères comme la sémantique, la syntaxe, le degré
de plagiat d’un article ou encore la fiabilité de la source avec un but de
pouvoir donner une information viable, aux antipodes de Facebook dont
l’algorithme propose à l’utilisateur des informations partagées par « ses
semblables », le confortant encore plus dans ses idées[lxi],
mais se pose alors la question en amont, sur quel(s) critère(s) peut-on établir
la fiabilité d’une source ?

Mais si l’IA semble une solution à ces fameuses fake news, on peut aller plus loin dans un but malveillant avec
l’apparition de ce qu’on appelle les deep
fake
ou « hyper-trucage ». Issu
de la contraction entre les expressions « deep learning » et « fake »,
un deep fake consiste en « un
contenu fallacieux rendu profondément crédible grâce à l’IA [dont l’] objectif
est simple : passer des éléments faux comme étant vraisemblables »[lxii].  D’un point de vue technique, le concept
repose sur celui de Generative
Adversarial Networks
(réseaux antagonistes génératifs) créé en 2014 , qui
consiste en deux algorithmes qui « s’entrainent mutuellement : l’un
tente de créer de fausses imitations aussi crédibles que possible ; l’autre
cherche à détecter les faux. Ainsi, les deux algorithmes s’améliorent ensemble
avec le temps, par leur entraînement respectif »[lxiii],
avec au centre la base de données dans laquelle les algorithmes puisent leur
information et que donc, plus cette base est développée, plus les résultats
seront affinés[lxiv].

D’un point de vue plus concret, un deep
fake
est un contenu audiovisuel où l’on peut modifier l’image et/ou le son,
dans le but de le rendre vraisemblable. À l’origine, cette technique est
principalement utilisée dans un but humoristique et/ou parodique et reste son
principal usage : 96% des deep fake
ressortent de la parodie de célébrités à but de divertissement[lxv],
mais son utilisation a commencé à prendre une tournure inquiétante avec d’abord
l’insertion d’images de célébrités dans du contenu pornographique[lxvi],
ensuite en utilisant des extraits audiovisuels d’hommes et de femmes politiques
dans des situations inventées avec comme exemple, Barack Obama insultant Donald
Trump[lxvii]
ou encore plus récemment en décembre 2019, des faux propos de Boris Johnson
lors de  l’enjeu des élections liées au Brexit[lxviii].
L’illusion est telle que l’ancien Premier ministre italien Matteo Renzi en a
fait les frais[lxix].
Cette technique est même utilisée à des fins, disons
« bienveillantes » comme Donald Trump annonçant la fin du Sida dans
le monde, fausse déclaration réalisée par les Français de Solidarité Sida même si ces derniers l’ont clairement annoncé à la
fin[lxx].

Dans l’immédiat, ce nouveau phénomène, qui est relativement marginal,
nait officiellement à l’automne 2017. On dénombre près de 14 700 deep fakes à l’automne 2019 contre
8 000 deux ans plus tôt[lxxi].
Pour l’instant, la création de deep fakes
relève de la possession de matériel professionnel et la plupart d’entre eux
sont facilement reconnaissables de par leur grossièreté, mais les machines
permettant leur détection ne sont pas plus développées pour autant[lxxii].
Cependant, à la vitesse où va la technologie, les deep fakes pourraient devenir un réel problème dans le courant de
l’année[lxxiii]
et Facebook a décidé de prendre les devants pour redorer son blason suite aux
accusations de propagations de fake news
et donc de lutter contre les deep fakes sur
base du critère selon lequel une IA « qui mélange, remplace ou superpose
un contenu »[lxxiv].
Ainsi, une vidéo truquée de « manière traditionnelle » ne serait pas
concernée comme une vidéo de la présidente de la   Chambre des représentants américaine Nancy
Pelosi la montrant ivre alors qu’il ne s’agit que d’un ralenti[lxxv].

Le domaine de la santé

Autre domaine où l’IA joue(ra) un grand rôle est celui de la médecine et
de la santé : elle sera amenée à améliorer les diagnostics, la vitesse de
prise en charge des patients, des assistants personnels ou encore une meilleure
détection des maladies[lxxvi],
mais nous pouvons citer des exemples récents : en Angleterre, à l’issue
d’une collaboration entre Google et un hôpital, une intelligence artificielle a
pu diagnostiquer une cinquantaine de pathologies oculaires avec un taux de
précision de 94%, le développement par Facebook d’une IRM dix fois plus rapide
que la normale ou encore une IA de IBM employée dans un hôpital allemand
spécialisé dans les maladies rares[lxxvii]

Cependant, cela suscite des interrogations comme pour l’eurodéputée
luxembourgeoise Mady Delvaux où en 2016, elle faisait part de ses inquiétudes: si
elle reconnait le caractère bénéfique, à travers le cas des exosquelettes, l’IA
couplée à la robotique peut très bien modifier l’être humain[lxxviii].
Enfin, notons une polémique venue des États-Unis : dans le but d’améliorer sa
technologie de l’IA, le géant Google a passé un accord avec 153 hôpitaux qui
lui fourniront des données médicales au détriment des patients[lxxix].
Se pose la question du traitement de ces données, qui pourrait représenter une
mine d’informations pour des organismes d’assurance par exemple.

Quel rôle pour l’Union européenne

Du côté de l’Union européenne, la question des enjeux de l’IA semble se
manifester vers le début de l’année 2017 avec un appel des eurodéputés quant à
la création d’une agence européenne consacrée à la robotique et à l’IA, en tant
qu’expert technico-éthique pour accompagner l’UE et les Etats-Membres dans
l’évolution de la robotique[lxxx],
mais c’est courant 2018 que l’UE commencera à bouger.  Ce qu’il faut retenir principalement, c’est
la volonté de l’UE d’agir avec au cœur de sa politique la notion d’éthique et
celle des valeurs humaines afin d’éviter des dérives de type orwellien pour le
reprendre les propos de Roberto Viola, directeur général de la DG Connect,
s’adressant à la Commission européenne (CE) en février 2018[lxxxi].
Cette dimension éthique sera récurrente tant au sein de la Commission que du
Parlement européen même l’Agence européenne des droits fondamentaux aborde
l’éventuel recours à la reconnaissance faciale, une technologie liée à l’IA,
pour des situations dites « exceptionnelles » ((luttes
antiterrorisme, recherches de victimes ou de disparus) à condition que cela ne
doive pas entraver les libertés d’association et de réunions[lxxxii].

La première étape de l’implication européenne vis-à-vis de l’IA a lieu
lors de la journée du numérique du 10 avril 2018 où 5 déclarations dont une
concernant l’IA a été signée par 24 États membres ainsi que la Norvège. La
déclaration relative à l’IA reconnait l’importance d’assurer la compétitivité
de l’Europe dans la recherche et le déploiement de l’IA ainsi que de traiter
des questions sociales, économiques, juridiques et éthiques[lxxxiii].
Cet engagement se traduit par la volonté de mettre en place un réseau dense de
centres d’innovation numérique au niveau européen et d’améliorer
l’accessibilité des données pour les secteurs publics et privés. Tous les États
membres auront signé cette déclaration[lxxxiv].

En parallèle, notons l’annonce de la Commissaire européenne à l’Économie
et à la Société numérique de l’époque Mariya Gabriel quant au lancement d’une
alliance européenne pour l’IA[lxxxv],
d’un document informel du groupe de Visegrad (Hongrie, Pologne, République tchèque,
Slovaquie) insiste sur la création d’un environnement de travail uniforme au
niveau européen ainsi qu’une voix commune de plusieurs commissaires (Günther
Oettinger, Vytenis Andriukaitist, Elżbieta Bieńkowska, Carlos Moedas et Mairya
Gabriel) et vice-commissaires (Andus Ansip, Valdis Dombrovskis) estime que la
libre circulation des données non personnelles, entre autres, doit être
approuvé par le PE et les EM, jugées essentielles pour l’IA.[lxxxvi]

La seconde étape est le dévoilement fin avril d’une stratégie de la CE
pour stimuler l’IA et accroitre les investissements publics et privés. Elle
fait le pari d’un investissement de 1,5 milliard d’euros d’ici 2020 contre un
investissement de 20 milliards de la part du public et du privé dans les deux
ans, doublé d’un engagement à la mobilisation d’un fonds européen de 500 millions
d’euros. Ce pari s’accompagne de l’annonce de politiques concernant le marché
de l’emploi touché par l’IA, des lignes directrices en matière d’éthique (comme
les impacts sur les droits fondamentaux et la vie privée), pour fin 2018 ainsi
que des orientations interprétatives en matière de responsabilité[lxxxvii].

La troisième étape est une autre action de la
CE, à travers une proposition de la Commissaire Mariya Gabriel faite en juin
2018 qui consiste en une enveloppe de 9,2 milliards d’euros pour la période
2021-2027 pour relancer la course du numérique dont 2,5 milliards pour
favoriser la diffusion de l’IA dans l’UE auprès des pouvoirs publics et les entreprises,
y compris les plus petites[lxxxviii].
Ce programme trouve un premier soutien auprès des eurodéputés en novembre à
condition que, concernant l’IA il faut que les projets soient centrés sur
l’humain et que le programme soit aussi accessible aux chercheurs, aux
universités et aux ONG, ajoutant que les actions non éthiquement acceptables ne
doivent pas être éligibles pour un financement[lxxxix].
En décembre, le PE estime que ce programme doit être ouvert aux pays de
l’Espace économique européen, ainsi qu’au cas par cas à des pays tiers, y
compris les entités juridiques établies dans un pays tiers[xc].
Le 18 avril 2019, le programme Europe numérique 2021-2027 a été approuvé par le
PE : cela concerne l’investissement dans cinq secteurs numériques clés
dont l’IA et les eurodéputés demandent 9,2 milliards d’euros en prix courants
pour réaliser cette stratégie[xci].

La quatrième étape est le lancement au mois de
juin par la CE d’un groupe de 52 experts en matière d’éthique[xcii],
qui rendit six mois plus tard un premier cadre concernant l’utilisation de l’IA
« qui doit toujours être conforme
à nos valeurs fondamentales et respecter les droits fondamentaux »[xciii].
C’est en juin 2019 que lesdits experts communiquèrent leur position sur un
ensemble de points : le premier, est leur opposition à la surveillance de
masse, les armes létales ou la notation des citoyens comme ce qui se fait en
Chine et demande, dans le champ de la responsabilité civile et pénale, des
critères de tracés et de suivis ainsi qu’« une compensation adéquate en cas de
blessures et/ou de violations de droits »[xciv].
Peu après, l’action européenne envers l’IA se fait à travers le
programme horizon 2020 pour la recherche et le développement pour la période
2014-2020 où la Commission européenne, en juillet 2019, a lancé un appel à
proposition en vue de créer un réseau de centres d’excellence artificielle,
financé pour environ 50 millions d’euros avec comme objectif de surmonter les
obstacles technico-scientifiques qui bloquent le déploiement de solutions basées
sur une technologie de l’IA[xcv].

Dernièrement, suite aux élections européennes et
sa nomination un peu retardée, la nouvelle Présidente de la Commission européenne
Ursula Von der Leyen entrée en fonction au 1er décembre 2019 avait
annoncée dans son programme l’importance qu’occupe le numérique et s’était
engagée dans les 100 jours à présenter « une proposition législative en
vue d’une approche européenne coordonnée relative aux implications humaines et
éthiques de l’intelligence artificielle »[xcvi].
On rapporte que la nouvelle commission compte présenter un livre blanc sur l’IA
courant février dans lequel l’UE envisage des règles à l’attention des
autorités publiques en matière d’utilisation de la reconnaissance faciale et
souhaite la nomination dans les pays membres d’autorités en chargées
d’appliquer les futures règles liées à l’IA[xcvii].

Conclusion

Face à tous les enjeux auxquels on puisse faire face, l’Union européenne
a décidé, une fois de plus, d’agir en fonction de ses valeurs, c’est-à-dire
dans le respect des droits fondamentaux. Outre les exemples d’initiatives
susmentionnées comme la création d’un comité d’experts ainsi que de leurs recommandations
qui s’inscrivent dans cette perspective éthique, n’oublions pas le Règlement
Général de Protection de Données (RGPD) entré en vigueur en 2018, une
disposition juridique qui permet aux usagers du net de pouvoir maitriser
l’usage de leurs données personnelles, mais de pouvoir également les récupérer
ultérieurement[xcviii].

La protection de l’individu a dans une certaine mesure, le revers de la
médaille. Comme nous l’avons vu, la technologie de l’IA, pour fonctionner et
devenir de plus en plus performante, a besoin d’un Big data, d’une base de données toujours plus riche et imposante, mais
le RGPD – et supposons d’autres barrières ultérieures similaires – aura pour
conséquence de dissuader certaines entreprises de recourir à l’IA pour les
coûts supplémentaires engendrés[xcix].
Il faudrait pour l’eurodéputée grecque Eva Kaili, « combiner les leçons
tirées du  RGPD dans l’espace de l’IA,
sans le surréglementer pour que l’innovation puisse être encouragée  plutôt qu’arrêtée. »[c].

Alessandro Megna


[i] Jérôme
Berthier, « Que (nous) font les big data ? », Revue
internationale et stratégique
110, no 2 (2018): 89‑99,
https://doi.org/10.3917/ris.110.0089., p.89

[ii] Jean-Gabriel
Ganascia, « Peut-on contenir l’intelligence artificielle ? », Pouvoirs
170, no 3 (2019): 71‑81, https://doi.org/10.3917/pouv.170.0071., p.71

[iii] Nicolas
Miailhe, « Géopolitique de l’Intelligence artificielle : le retour des
empires ? », Politique étrangère Automne, no 3
(2018): 105‑17., p.106

[iv] Nicolas
Mazzucchi, « Les implications stratégiques de l’intelligence
artificielle », Revue internationale et stratégique 110, no
2 (2018): 141‑52, https://doi.org/10.3917/ris.110.0141., p142

[v] Ibid., p141

[vi] Miailhe,
« Géopolitique de l’Intelligence artificielle : le retour des
empires ? », p.107

[vii] Ibidem.

[viii] Ibidem.

[ix] Alizé
Papp, « 1. L’afflux massif de données est-il nouveau ? », Regards
croisés sur l’économie
23, no 2 (2018): 14‑26,
https://doi.org/10.3917/rce.023.0014., p.14

[x] Thomas
Bourany, « Les 5V du big data », Regards croisés sur l’économie
23, no 2 (2018): 27‑31, https://doi.org/10.3917/rce.023.0027., p.27

[xi] Berthier,
« Que (nous) font les big data ? », p.92

[xii] Lénaïc
Couderc, « Data, big data, open data : de quoi parle-t-on ? », Regards
croisés sur l’économie
n°23, no 2 (2018): 41‑46,
https://doi.org/10.3917/rce.023.0041., p.42

[xiii] Ibid., p.43

[xiv] Berthier,
« Que (nous) font les big data ? », p.90

[xv] Bourany,
« Les 5V du big data »., p.27

[xvi] Ibid., p.28

[xvii] Berthier,
« Que (nous) font les big data ? », p.91

[xviii] Bourany,
« Les 5V du big data »., p.28

[xix] Bourany,
« Les 5V du big data »., p.29

[xx] Berthier,
« Que (nous) font les big data ? », p.92

[xxi] Bourany,
« Les 5V du big data »., p.29

[xxii] Ibidem.

[xxiii] Ibidem.

[xxiv] Berthier,
« Que (nous) font les big data ? », p.89

[xxv] Philippe
Askenazy et Francis Bach, « IA et emploi : une menace
artificielle », Pouvoirs 170, no 3 (2019): 33‑41,
https://doi.org/10.3917/pouv.170.0033., p.33

[xxvi] Mazzucchi,
« Les implications stratégiques de l’intelligence artificielle »., p.142

[xxvii] Berthier,
« Que (nous) font les big data ? », p.89

[xxviii] Mazzucchi,
« Les implications stratégiques de l’intelligence artificielle »., p.142

[xxix] Miailhe,
« Géopolitique de l’Intelligence artificielle : le retour des
empires ? », p.110

[xxx] Ganascia,
« Peut-on contenir l’intelligence artificielle ? », p.74

[xxxi] Ibidem.

[xxxii] Berthier,
« Que (nous) font les big data ? », p.94

[xxxiii] Mazzucchi,
« Les implications stratégiques de l’intelligence artificielle »., p.142

[xxxiv] Ibid., p.143

[xxxv] Ibidem.

[xxxvi] Ibidem.

[xxxvii] Louis
Gautier, « La guerre augmentée ?Enjeux et défis de l’ia
dans les conflits futurs », Pouvoirs 170, no 3
(2019): 83‑93, https://doi.org/10.3917/pouv.170.0083., p.84

[xxxviii] Samuel
Stolton, « La Commission met en garde contre les dérives de l’intelligence
artificielle », www.euractiv.fr (blog), 20 décembre 2018,
https://www.euractiv.fr/section/economie/news/ai-ethics-critical-concerns-highlighted-in-commission-report/.

[xxxix] Gautier,
« La guerre augmentée ? », p.87

[xl] Ibidem.

[xli] Ibid., p.88

[xlii] Ibidem.

[xliii] Ibid., p.89

[xliv] Ibid., p.92

[xlv] Ibid., p.88

[xlvi] Samuel
Stolton, « Le RGPD pourrait poser problème à l’intelligence
artificielle », www.euractiv.fr (blog), 28 août 2019,
https://www.euractiv.fr/section/economie/interview/gdpr-could-obstruct-ai-development-mep-says/.

[xlvii] Stolton,
« La Commission met en garde contre les dérives de l’intelligence
artificielle ».

[xlviii] Ibid.

[xlix] Askenazy
et Bach, « IA et emploi : une menace artificielle »., p.33

[l] Ibid., p.36

[li] Jorge
Valero, « «Les humains ne doivent pas être dominés par les robots» »,
www.euractiv.fr (blog), 13 octobre 2016,
https://www.euractiv.fr/section/innovation-entreprises/interview/mep-my-main-concern-is-that-humans-are-not-dominated-by-robots/.

[lii] Pascal
Hansens, « L’OSHA recommande fortement d’encadrer le recours de
l’IA », Agence Europe, 17 mai 2019,
https://agenceurope.eu/fr/bulletin/article/12257/19.

[liii] Emma Sheppard, « Why Are Virtual Assistants
Always Female? Gender Bias in AI Must Be Remedied », The Guardian,
26 mars 2019, sect. PwC partner zone,
https://www.theguardian.com/pwc-partner-zone/2019/mar/26/why-are-virtual-assistants-always-female-gender-bias-in-ai-must-be-remedied.

[liv] Henry McDonald, « AI Expert Calls for End to UK
Use of ‘Racially Biased’ Algorithms », The Guardian, 12 décembre
2019, sect. Technology,
https://www.theguardian.com/technology/2019/dec/12/ai-end-uk-use-racially-biased-algorithms-noel-sharkey.

[lv] Amaelle
Guiton, « Intelligence artificielle : biaise-moi », Libération.fr, 18
avril 2019, https://www.liberation.fr/debats/2019/04/18/intelligence-artificielle-biaise-moi_1722211.

[lvi] Sophie
Petitjean, « Une conférence Bruegel met en avant les défis et potentiels
de l’intelligence artificielle pour l’emploi et l’économie », Agence
Europe, 18 avril 2018, https://agenceurope.eu/fr/bulletin/article/12004/17.

[lvii] Askenazy
et Bach, « IA et emploi : une menace artificielle »., p.41

[lviii] Pascal
Hansens, « Les eurodéputés veulent une intelligence artificielle « made in
Europe », « éthique » et « centrée sur l’homme » », Agence Europe, 12
février 2019, https://agenceurope.eu/fr/bulletin/article/12192/5.

[lix] Pascal
Hansens, « Les députés du PE insistent sur la symbiose entre les robots et
les humains », Agence Europe, 14 octobre 2016,
https://agenceurope.eu/fr/bulletin/article/11646/13.

[lx] Dominique
Pialot, « Une intelligence artificielle au service de l’écologie et du
social », www.euractiv.fr (blog), 30 avril 2018,
https://www.euractiv.fr/section/economie/news/une-intelligence-artificielle-au-service-de-lecologie-et-du-social/.

[lxi] Anaïs
Cherif, « Comment Neutral news veut analyser la propagation des fake
news », www.euractiv.fr (blog), 19 décembre 2018,
https://www.euractiv.fr/section/politique/news/comment-neutral-news-veut-analyser-la-propagation-des-fake-news/.

[lxii] Sarah
Cahen et Emeline Strentz, « Intelligence Artificielle et Deepfakes : La
Naissance de Nouveaux Risques Stratégiques », consulté le 9 janvier 2020,
https://portail-ie.fr/analysis/2253/intelligence-artificielle-et-deepfakes-la-naissance-de-nouveaux-risques-strategiques.

[lxiii] Ibid.

[lxiv] Ibid.

[lxv] Ibid.

[lxvi] Julien
Baldacchino, « En 2020, Facebook veut bannir les “deepfakes” de son réseau
social », 7 janvier 2020, https://www.franceinter.fr/societe/en-2020-facebook-veut-bannir-les-deepfakes-de-son-reseau-social.

[lxvii] Ibid.

[lxviii] Ibid.

[lxix] Ibid.

[lxx] Ibid.

[lxxi] Ibid.

[lxxii] Cahen
et Strentz, « Intelligence Artificielle et Deepfakes ».

[lxxiii] Ibid.

[lxxiv] Baldacchino,
« En 2020, Facebook veut bannir les “deepfakes” de son réseau
social ».

[lxxv] Ibid.

[lxxvi] Cédric
Villani, « Les enjeux politiques de l’intelligence artificielle », Pouvoirs
170, no 3 (2019): 5‑18, https://doi.org/10.3917/pouv.170.0005., p.10

[lxxvii] Jaime
D’Alessandro, « Google, i dati di milioni di pazienti a loro insaputa per
allenare l’intelligenza artificiale », Repubblica.it, 12 novembre 2019,
https://www.repubblica.it/tecnologia/sicurezza/2019/11/12/news/google_spiati_milioni_di_pazienti_per_allenare_sua_intelligenza_artificiale-240921834/.

[lxxviii] Valero,
« «Les humains ne doivent pas être dominés par les robots» ».

[lxxix] Ibid.

[lxxx] Pascal
Hansens, « Les eurodéputés demandent à la Commission européenne de se
pencher sur le revenu de base universel », Agence Europe, 16 janvier 2017,
https://agenceurope.eu/fr/bulletin/article/11704/9.

[lxxxi] Sophie
Petitjean, « Intelligence artificielle, le contrôle humain doit être le
principe clé, selon Roberto Viola », Agence Europe, 12 février 2018,
https://agenceurope.eu/fr/bulletin/article/11959/16.

[lxxxii] Sophie
Petitjean, « L’Agence européenne des droits fondamentaux appelle à
encadrer l’utilisation de la reconnaissance faciale dans le domaine de la
sécurité », Agence Europe, 27 novembre 2019,
https://agenceurope.eu/fr/bulletin/article/12378/12.

[lxxxiii] Sophie
Petitjean, « Déclaration de vingt-quatre États membres plus la Norvège
pour stimuler l’intelligence artificielle », Agence Europe, 10 avril 2018,
https://agenceurope.eu/fr/bulletin/article/11998/3.

[lxxxiv] Pascal
Hansens, « Les États membres ébauchent une réponse aux défis posés par
l’intelligence artificielle à l’industrie européenne », Agence Europe, 16
juillet 2018, https://agenceurope.eu/fr/bulletin/article/12063/14.

[lxxxv] Petitjean,
« Déclaration de vingt-quatre États membres plus la Norvège pour stimuler
l’intelligence artificielle ».

[lxxxvi] Sophie
Petitjean, « La Journée du numérique se conclut sur un appel à
l’innovation », Agence Europe, 11 avril 2018,
https://agenceurope.eu/fr/bulletin/article/11999/6.

[lxxxvii] Sophie
Petitjean, « La Commission ouvre un boulevard pour l’intelligence
artificielle », Agence Europe, 26 avril 2018,
https://agenceurope.eu/fr/bulletin/article/12009/4.

[lxxxviii] Sophie
Petitjean, « La Commission propose de mobiliser près de 10 milliards €
entre 2021-2027 », Agence Europe, 6 juin 2018,
https://agenceurope.eu/fr/bulletin/article/12035/7.

[lxxxix] Sophie
Petitjean, « Le programme Europe numérique soutenu par les
eurodéputés », Agence Europe, 22 novembre 2018,
https://agenceurope.eu/fr/bulletin/article/12142/8.

[xc] Sophie
Petitjean, « Le Parlement valide sa position sur le futur programme Europe
numérique », Agence Europe, 14 décembre 2018,
https://agenceurope.eu/fr/bulletin/article/12159/26.

[xci] Sophie
Petitjean, « Le Parlement soutien l’accord sur le programme Europe
numérique », Agence Europe, 18 avril 2019,
https://agenceurope.eu/fr/bulletin/article/12239/18.

[xcii] Mathieu
Solal, « La Commission lance l’Alliance européenne de l’intelligence
artificielle et nomme un groupe d’experts », Agence Europe, 15 juin 2018,
https://agenceurope.eu/fr/bulletin/article/12042/30.

[xciii] Pascal
Hansens, « Le groupe de haut niveau sur l’intelligence artificielle
présente une première version provisoire des lignes directrices éthiques sur
l’IA », Agence Europe, 18 décembre 2018,
https://agenceurope.eu/fr/bulletin/article/12162/10.

[xciv] Sophie
Petitjean, « Le groupe d’experts sur l’intelligence artificielle prend
position sur les questions sensibles », Agence Europe, 24 juin 2019,
https://agenceurope.eu/fr/bulletin/article/12281/13.

[xcv] Sophie
Petitjean, « L’UE mobilise 50 millions € pour la recherche sur
l’intelligence artificielle », Agence Europe, 11 juillet 2019,
https://agenceurope.eu/fr/bulletin/article/12294/27.

[xcvi] Agathe
Cherki, « La Commission veut garantir une utilisation éthique de
l’intelligence artificielle », Agence Europe, 17 janvier 2020,
https://agenceurope.eu/fr/bulletin/article/12406/8.

[xcvii] Ibid.

[xcviii] Isabelle
Falque-Pierrotin, « 12. L’économie de la donnée peut-elle se développer
contre ses utilisateurs ? », Regards croisés sur l’économie
23, no 2 (2018): 161‑69, https://doi.org/10.3917/rce.023.0161., p.63

[xcix] Nick
Wallace, « L’Europe s’apprête à perdre la course mondiale à l’intelligence
artificielle », www.euractiv.fr (blog), 5 juin 2018,
https://www.euractiv.fr/section/economie/opinion/europe-is-about-to-lose-the-global-ai-race-thanks-to-gdpr/.

[c] Stolton,
« Le RGPD pourrait poser problème à l’intelligence artificielle ».


L’article L’Intelligence Artificielle est apparu en premier sur Le portail de référence pour l'espace de liberté, sécurité et justice.

Author :
Print