icu.next-video

Contenu proposé par

France Télévisions

Regarde cette vidéo et gagne facilement jusqu'à 15 Lumniz en te connectant !

Il n’y a pas de Lumniz à gagner car tu as déjà consommé cet élément. Ne t'inquiète pas, il y a plein d'autres contenus intéressants à explorer et toujours plus de Lumniz à gagner.

->   En savoir plus
SNT12:13Publié le 01/07/2019

Le numérique, la loi et notre vie privée

Le numérique et ses sciences dans le réel

Voir les entrailles matérielles et logicielles d'un objet numérique

La collecte massive de données modifie-t-elle la notion de "vie privée" ? Le droit doit-il s'adapter à une société devenue numérique ? Pourquoi et comment expliquer les résultats d'un algorithme ? L'articulation entre droit et techniques pose autant de questions de droit, société, éthique auxquelles tout citoyen doit être sensible...

Est-ce que les technologies de l'information représentent une menace pour la vie privée des citoyens ?

Nous avons en France et en Europe de manière plus générale, une des législations les plus protectrices en matière de données personnelles et de vie privée. Cependant, les nouvelles technologies, leur développement et leurs nouveaux usages mettent à mal et en péril ces protections juridiques. Et on peut dire que, pour simplifier, il y a plusieurs phénomènes qui se conjuguent.

  • D'une part on collecte de plus en plus de données de différentes façons, quand nous naviguons sur internet, nous utilisons nos téléphones mobiles... Et de plus en plus, dans l'avenir avec ce qu'on appelle l'internet des objets, des données nombreuses sont collectées, souvent à l'insu des personnes qui sont concernées. 
  • Puis ensuite, il y a aussi un intérêt de plus en plus important par différents acteurs et différentes organisations, pour exploiter ces données, c'est ce qu'on appelle l'analyse de données et tout ce qui se rattache au big data dont on parle beaucoup aujourd'hui.
  • On voit effectivement des tensions entre la protection de la vie privée telle qu'elle est prévue par le droit, et puis ce qu'on veut faire en pratique. Typiquement, par exemple pour le big data : la logique c'est de collecter le plus de données possibles pour pouvoir ensuite les analyser, pour en inférer de nouvelles connaissances, mais sur des sujets, sur des thèmes, dans des directions qu'on ne connaît pas forcément au moment de la collecte, et ça, ça va complètement, disons, à l'opposé de ce que prévoit la loi. Puisque aujourd'hui en France et en Europe, disons de manière générale, quand on collecte des données personnelles, cela doit être par rapport à des finalités qui sont précises, qui sont définies au moment de la collecte, et une fois que ces finalités sont réalisées, les données doivent être effacées.
  • Donc c'est complètement, à l'opposé de ce que veulent faire les gens qui font de l'analyse de données à grande échelle. Mais pour autant, cela ne veut pas dire que les technologies de l'information soient forcément toujours des menaces pour la vie privée. On peut aussi concevoir des nouvelles techniques qui vont aider à protéger la vie privée, et donc résoudre ce genre de hiatus évoqué avec le big data. Donc à la limite, on peut voir ça comme des sources de sujet de recherche en matière d'informatique, de technologies de l'information.

Par exemple, pour résoudre ce hiatus de la collecte de données, de l'analyse de données à grande échelle, on peut concevoir des techniques d'anonymisation. On sait, d'ailleurs c'est prévu par la loi, que des données anonymes échappent aux lois de protection des données personnelles, parce que par définition, une donnée anonyme n'est plus personnelle.

  • Et donc quand on veut exploiter des données à grande échelle, eh bien il est pratique, auparavant, de les avoir anonymisées. Mais anonymiser des données, c'est quelque chose de très complexe. Qu'est-ce qu'une donnée vraiment anonyme ? C'est très difficile à définir, et donc l'un des sujets de recherche important dans le domaine aujourd'hui, ce sont les techniques d'anonymisation robustes.

Certains algorithmes peuvent-ils remettre en cause nos droits fondamentaux ?

Un autre droit qui est prévu en France et en Europe de manière plus générale, c'est le droit de contrôler ses données, ce qu'on appelle quelques fois l'autodétermination informationnelle, et ce droit est mis à mal comme d'autres, de différentes façons, mais en particulier par l'usage d'algorithmes qui sont de plus en plus répandus aujourd'hui. Et en particulier, les algorithmes qui sont utilisés à des fins de prédiction ou pour aider à la prise de décision.

Et cela concerne de multiples domaines d'activités notamment quotidiennes. Si on prend par exemple le domaine de l'information, aujourd'hui on sait que de plus en plus de personnes se renseignent, obtiennent les informations qu'elles consultent à travers le biais des réseaux sociaux. Et ce qu'on ne sait pas toujours, ce dont on n'est pas forcément toujours conscient, c'est que ces informations auxquelles on accède par le biais des réseaux sociaux, elles sont classées et hiérarchisées par le biais d'algorithmes. Et ces algorithmes, on n'en connaît pas forcément le fonctionnement précis. Et ça, ça peut avoir des impacts majeurs, notamment en matière de droit à l'information, en matière éventuellement de censure.

  • On en a parlé d'ailleurs récemment à l'occasion de l'élection présidentielle américaine. On a accusé certains réseaux sociaux de classer des informations de manière biaisée, donc en favorisant un candidat plutôt qu'un autre. Mais ça, c'est un exemple et il y en a beaucoup d'autres en matière, par exemple de travail, d'emploi. On sait que certaines entreprises aux États-Unis classent les candidatures qu'elles reçoivent pour une embauche à l'aide d'algorithmes. Ce qui permet d'effectuer des recrutements sans même avoir à faire d'entretiens d'embauche. En matière d'assurance, on peut très bien se voir proposer des primes d'assurance qui pourront être calculées en fonction d'algorithmes qui profilent les individus, même chose pour des prêts bancaires.
  • Peut-être encore plus grave, on commence à utiliser ce genre d'algorithmes dans les domaines de la police, de la justice (police prédictive). Beaucoup ont pu voir le film "Minority Report" et on peut penser que ce genre de scénarios un peu dystopiques se profilent à l'horizon avec la police prédictive qui est déjà à l'œuvre dans certaines régions, dans certains comtés aux États-Unis. Donc, à l'aide d'algorithmes, on va prévoir les secteurs et mêm les jours de la semaine où il y a le risque le plus important de crimes ou de méfaits divers. Donc on va dépêcher les forces de police à ces heures-là, à ces endroits-là, sur la base d'algorithmes.
  • A nouveau, on peut dire qu'il y a des risques de discrimination, de stigmatisation de certaines populations. Tous ces usages des algorithmes, plus ou moins opaques, sont de nature à créer des risques nouveaux et mettre en péril certains droits comme ceux liés à la non-discrimination par exemple, aux traitements déloyaux voire au droit à l'information.
  • Les algorithmes sont parfois utilisés pour l'aide à la prise de décision, mais il y a aussi des situations où du code logiciel est embarqué dans des trains, dans des métros, dans des avions, et de plus en plus demain, dans des voitures autonomes.
  • Ces codes informatiques prennent des décisions qui ont aussi un effet majeur, cela peut être une question de vie ou de mort puisqu'ils peuvent prendre la décision de freiner ou pas, d'accélérer, de tourner quand il s'agit de voitures autonomes. Les questions qui peuvent se poser et qui se posent déjà aujourd'hui, ce sont des questions de responsabilité : qui est responsable en cas de dysfonctionnement ?
  • Quand on se trouve devant des logiciels qui sont gigantesques, avec des dizaines de millions de lignes de code, fournis par des acteurs variés ; comment déterminer que le dysfonctionnement, que la défaillance, que les préjudices ont été causés par tel composant logiciel, produit par tel sous-traitant ou tel fournisseur de logiciels, ou tel autre ?
  • À nouveau, ce sont des questions compliquées qui mettent en jeu évidemment des notions juridiques, responsabilité, dédommagement ainsi que des questions techniques ; parce qu'il faut être capable d'analyser les logs en question et de pointer l'endroit où les fautes se sont produites, et donc indirectement les composants, les fournisseurs doivent supporter la responsabilité.
  • On voit qu'à l'articulation du droit et de la technique, il y a énormément de questions compliquées derrière les logiciels, derrière les outils techniques qu'on utilise, de façon quotidienne aujourd'hui. Peuvent se poser des questions complexes de droit et même au-delà.
  • On peut dire que ce sont des questions de société même, des questions d'éthique. On parle de plus en plus de robotique, en milieu social et médical, utilisée même par les armées. Il est important que les décideurs politiques, mais également les citoyens de manière plus générale comprennent ces questions. Et plus particulièrement évidemment, les nouvelles générations, les lycéens, les collégiens. C'est vraiment un point capital aujourd'hui dans l'enseignement : de bien faire comprendre que ces outils du numérique, ces nouveaux services posent des questions vraiment complexes, des questions de droit, de politique et d'éthique de manière plus large.

Est-il nécessaire d'exiger la transparence sur les résultats produits par les algorithmes ?

Comme évoqué, les solutions techniques par rapport au traitement des grandes masses de données en disant "l'anonymisation, ça peut être une solution technique". Pour ce qui est de la transparence et en particulier celle des algorithmes, c'est aussi un sujet qui déclenche des travaux de recherche importants et qui pose des questions extrêmement complexes. 

  • Comment arriver à montrer par exemple qu'un algorithme qui est utilisé pour filtrer les candidats et pour déterminer lesquels pourront être recrutés pour un poste donné, ne va pas induire des discriminations ? Ce sont des questions extrêmement compliquées, et pour ça il ne suffit pas de publier le code du logiciel en question. Il faut être capable de l'analyser, de le comprendre. Il y a maintenant des courants de travaux, ce qu'on appelle en anglais le "Explainable A.I", donc XAI. 
  • Comment arriver à expliquer le résultat d'un algorithme ? Notamment les algorithmes qui sont utilisés en intelligence artificielle, qui reposent sur l'apprentissage. Souvent utilisés aujourd'hui pour leurs capacités de prédiction ou pour établir des liens, des classifications, des relations, qui sont extrêmement subtiles, quelques fois extrêmement précises ; mais dont on n'est pas capable d'expliquer le résultat. Cela pose des difficultés majeures pour ceux qui ont à utiliser les résultats de ces algorithmes. Ça pose évidemment dans certains cas des questions de société, des questions politiques : est-ce qu'on peut faire confiance à des algorithmes dans des situations où leurs résultats amèneront à prendre des décisions importantes concernant des individus ? 

Nom de l'auteur : Liliane Kahmsay / Florent Masseglia

Producteur : Inria

Publié le 01/07/19

Modifié le 06/12/23