Publication des données sur le confinement : comment Google protège-t-il les données de ses utilisateurs ?
Publication des données de confinement : comment Google protège-t-il les données de ses utilisateurs ?
A l’instar d’opérateurs de télécommunication qui ont partagé des données sur les déplacements de leurs clients, Google a publié vendredi 3 avril des statistiques pour évaluer les effets des mesures de confinement dans 131 pays, à destination des autorités publiques et des particuliers. A partir des historiques des données de géolocalisation de ses utilisateurs, l’entreprise a établi pour chaque pays des statistiques sur l’évolution de la fréquentation de lieux publics et privé, classés en huit catégories (jardins publics, gares…). Les données pour la France montrent par exemple que la fréquentation des lieux de divertissement a chuté de 88 %, entre mi-février et fin mars.
L’entreprise, souvent critiquée pour son utilisation commerciale de données personnelles montre ainsi son souci de l’intérêt public. Mais se montrerait-elles généreuse à peu de frais, avec les données des autres ? Quoi qu’il en soit, Google semble avoir respecté la législation applicable aux données personnelles.
La collecte par Google des données de géolocalisation de ses utilisateurs soumise au RGPD
Pour établir ces statistiques, Google a utilisé des données recueillies auprès de personnes physiques sur le territoire de l’Union Européenne. A ce titre, l’entreprise américaine est soumise au Règlement Général sur la Protection des Données à caractère personnel (RGPD), dont le non-respect a d’ailleurs déjà conduit la CNIL à la sanctionner.
La collecte de données de géolocalisation des utilisateurs par Google, est un traitement de données à caractère personnel (DCP) au sens de ce texte. En l’occurrence, il est licite parce qu’il repose sur le consentement des utilisateurs, qui peuvent en outre suspendre à tout moment la transmission de leur géolocalisation. Or, pour que le consentement des personnes concernées autorise le traitement de DCP, il doit être spécifique, c’est-à-dire donné pour une utilisation spécifique. Est-ce à dire que l’utilisation de ces données, pour une fin autre (par exemple l’établissement de statistiques sur le confinement) que celle prévue initialement, est illégal ? Probablement pas.
Des statistiques établies à partir de données sans caractère personnel
En effet, pour établir lesdites statistiques, Google ne se base pas sur des données personnelles, mais sur des données anonymisées, c’est-à-dire des données qu’il est impossible d’identifier la personne auxquelles elles se rapportent.
Pour obtenir un tel résultat, l’entreprise ne se contente ni d’anonymiser les données au sens strict (c’est-à-dire d’effacer les éléments identifiants la personne), ni de les agréger. En effet, il a été prouvé qu’avec des ressources et des compétence suffisantes il était possible de réattribuer à une personne particulière des données anonymisées et agrégées.
Google a donc utilisé une méthode plus complexe, en plein développement, la confidentialité différentielle. Celle-ci consiste à introduire, dans jeu de donnée, des données fausses. Il est dès lors impossible d’attribuer avec certitude une donnée à une personne, puisque la donnée peut tout aussi bien être vraie que fausse. Cependant, cette falsification porte sur peu de données, de sorte que les statistiques restent relativement fiables. Cette méthode prometteuse s’avère particulièrement efficace lorsqu’il n’est pas besoin de fournir un résultat extrêmement précis et que chaque personne n’apparait qu’une fois dans le jeu de données.
Google, outre cette méthode a décidé de ne communiquer que des pourcentages d’évolution de la fréquentation, et non des valeurs absolues, ce qui rend la réidentification des personnes impossibles, et garantit donc le respect de la vie privée des utilisateurs.
On est donc encore loin de la géolocalisation des particuliers aux fins de lutter contre le Covid, désormais envisagée en France.
Données biométriques issues d’expérimentations de reconnaissance faciale sur le territoire français : un défi à l’aune du Droit 2.0 ?
Si la ville de Nice a pu expérimenter la reconnaissance faciale lors de son carnaval ou encore la région PACA dans le cadre du filtrage à l’entrée des lycées, la généralisation de tels dispositifs n’a pour le moment pas abouti. Dès lors, le droit et les mœurs sont-ils prêts à appréhender de tels dispositifs sur le territoire français ? Quelles précautions faut-il prendre vis à vis des données biométriques collectées ?
Retrouvez notre dernier article paru dans la revue Dalloz IP/IT de janvier 2020.
(Cassandra Rotily — Laurent Archambault, SELENE Avocats Dalloz IP/IT 2020. 54 — 25 janvier 2020)
Drones civils professionnels et RGPD : enjeux liés à la collecte des données personnelles et au respect de la vie privée
Les drones, munis de capteurs, sont susceptibles de collecter des données personnelles concourant à l’identification des personnes. Mais alors comment faire coexister innovation technologique et protection de la vie privée et des données personnelles ?
Retrouvez notre dernier article paru dans la revue Dalloz IP/IT de juin 2019.
“Responsabilité numérique” : les enjeux du Droit 2.0 (8ème Colloque international France-Chine)
Le 21 juin 2019, le cabinet SELENE Avocats a eu le plaisir d’assister au 8ème Colloque international France-Chine organisé par l’Université Paris 8, le Centre de recherche de droit privé et droit de la santé (EA 1581), Forces du droit, l’Université de Science politique et de droit de Chine (UPEC) et la Chambre des notaires de Paris. Il rassemblait cette année des experts des deux pays autour du thème de la « Responsabilité numérique ».
Cet événement passionnant a été l’occasion de réfléchir sur cette notion, encore peu abordée dans notre pays mais qui devrait être au cœur des débats dans les prochaines années. En effet, les nouvelles technologies génèrent l’apparition de nouveaux risques et de différents régimes de responsabilité. Malgré cette diversité, les intervenants ont évoqué l’émergence du concept de responsabilité numérique de l’entreprise, pendant de la responsabilité sociétale de l’entreprise (RSE) dans le monde virtuel.
L’un des débats a porté sur la nécessité ou non de créer de nouveaux régimes juridiques pour indemniser les dommages causés par un robot ou une intelligence artificielle. Le Droit et en particulier le droit de la responsabilité du fait des choses et le droit des produits défectueux sont-ils prêts à appréhender l’intelligence artificielle ?
Les intervenants sont revenus sur la proposition du Parlement européen d’instaurer une personnalité juridique spécifique pour les robots pour faciliter l’indemnisation des victimes. Ce projet a suscité de vives critiques et paraît aujourd’hui abandonné. Nous ne sommes donc pas près de voir des robots dotés de la citoyenneté européenne, à l’instar du robot humanoïde Sofia auquel l’Arabie Saoudite a octroyé en 2017 sa nationalité, ce qui était une première mondiale.
La réduction des risques engendrés par ces technologies pourrait aussi passer par le développement d’une IA éthique. A ce sujet, le Groupe d’experts de haut-niveau sur l’IA réuni par la Commission européenne a publié en avril 2019 ses lignes de conduites. Ces dernières invitent les concepteurs d’IA à tenir compte de sept exigences qui permettent de développer une « IA digne de confiance » : l’autonomie et la supervision humaine ; la robustesse technique et la sécurité ; la protection et la gouvernabilité des données ; la transparence ; la diversité et la non-discrimination ; le bien-être ; la responsabilité.
La question des voitures autonomes ou automatisées a également été évoquée. C’est dès aujourd’hui une problématique importante puisque le premier accident impliquant un véhicule autonome ayant causé un décès a eu lieu en Chine en 2016. La partie civile invoque la défaillance du véhicule autonome (le mode Autopilot était actif) alors que le constructeur affirme que son Autopilot n’est pas un mode de conduite autonome, mais un mode d’assistance à la conduite, ne dispensant pas le conducteur d’être vigilant aux obstacles présents sur la route, pour reprendre le volant à tout moment. Les choix qui seront faits s’agissant du partage de la responsabilité entre le fabriquant et l’utilisateur vont devoir assurer un équilibre entre responsabilisation des fabricants pour garantir la sécurité et incitation au développement de nouvelles technologies.
Les intervenants ont ensuite comparé les régimes de responsabilité des plateformes et de protection des données personnelles en France et en Chine. Cela a été l’occasion de présenter les dispositions et les premières applications de la nouvelle loi chinoise sur le e-commerce, qui concerne tant les opérateurs chinois que les entreprises étrangères proposant leurs services aux consommateurs chinois, ainsi que les règles qui seront prévues par le Code civil chinois en cours d’élaboration.
Dans tous ces domaines, l’apparition de nouveaux risques pose la question de la couverture par les assurances des risques cyber (destruction ou fuite de données, détournement d’objets connectés tels que des drones par exemple). En la matière, certains dommages ne sont pas couverts par les contrats de dommages aux biens et il convient de vérifier les stipulations des polices souscrites. La mise en place d’une politique de prévention permet en outre de limiter les risques et de réduire leurs impacts.
Enfin, les discussions ont concerné les possibles utilisations du numérique dans le cadre des contentieux. Il pourrait en effet permettre d’améliorer la quantification des dommages et faciliter la preuve du lien de causalité entre le fait générateur et le dommage. En Chine, des tribunaux en ligne ont également été créés dans les grandes villes.
S’agissant de la justice prédictive, il existe de grandes différences selon les pays car en France le nom des magistrats ne peut être divulgué alors qu’il existe une totale transparence en Chine, ce qui permet d’établir des statistiques et de faire des prédictions sur les pratiques professionnelles des juges. Ces évolutions suscitent des débats liés notamment à l’égalité face à la justice et à l’accès au juge. En effet, le risque est que les personnes qui ont peu de chances de gagner leur procès ne parviennent pas à trouver un avocat ou soient défavorisées dans l’obtention de l’aide juridictionnelle.
« Intelligence artificielle et droit : les enjeux et les opportunités » Retour sur la formation CAMPUS du 2 juillet 2018 et notamment sur la notion de « système expert »
Le cabinet SELENE Avocats a eu le plaisir d’assister à la conférence « Intelligence artificielle et droit : les enjeux et les opportunités », présentée par Melik Boudemagh, Président de l’agence Hercule[1], à l’occasion des formations CAMPUS[2].
Melik Boudemagh a d’emblée rappelé les difficultés d’appréhension de la notion d’« intelligence artificielle », liées notamment au fait que le terme « intelligence » est souvent synonyme d’intelligence humaine. Ainsi, dans l’inconscient collectif, l’IA est une réplication de l’humain sur une chose inanimée, ce qui conduirait la machine à remplacer l’humain. On parle par exemple de « robot-avocat ». Or, ce n’est pas ce qu’il faut comprendre par intelligence artificielle, et l’homme est d’ailleurs aujourd’hui incapable de reproduire artificiellement l’intelligence humaine dans son ensemble.
En réalité, l’IA consiste à simuler une partie de l’intelligence, à savoir la capacité analytique. En conséquence, le Président d’Hercule estime qu’il est plus pertinent de parler de « Système Expert », défini comme un outil capable de reproduire les mécanismes cognitifs d’un expert, dans un domaine particulier. Par exemple, Siri n’est pas une « intelligence artificielle », mais un « système expert », dont l’expertise est circonscrite à un domaine particulier, l’assistance personnelle.
Il est possible de distinguer deux générations de systèmes experts : les modèles logiques, et les modèles statistiques et apprenants.
Les modèles logiques permettent de prendre en charge la part de l’intelligence des avocats qui est « automatisable ». A l’image de Deep Blue, vainqueur au jeu d’échec en 1997, les modèles logiques fonctionnent sur le système de l’optimisation sous contrainte (raisonnement si … alors …). Selon Melik Boudemagh, ces modèles vont bientôt être présents partout, et être utilisés quotidiennement au sein de la profession d’avocat. Ils peuvent prendre en charge les « diagnostics », des « bilans de santé juridiques », servir à automatiser des procédures juridiques et judiciaires, ou encore constituer un outil d’aide à la décision. Ces modèles ont pour avantage d’être fiables et faciles à implémenter. Toutefois, ils se limitent à une représentation « théorique », parfois éloignée du réel.
Les modèles statistiques et apprenants sont plus évolués, à l’image cette fois d’Alphago, vainqueur au jeu de go en 2017. Ils sont basés sur le machine learning, et permettent d’adopter une approche empirique beaucoup plus proche du réel. Ces modèles peuvent être utilisés pour exploiter des données historiques, intégrer des modules de langage naturel, ou encore extraire des informations de documents existants. Toutefois, pour fonctionner, ces modèles nécessitent un dataset très important, ainsi que des ressources conséquentes en temps et en argent. Melik Boudemagh considère que les modèles statistiques et « apprenants » ne sont pas encore tout à fait au point actuellement, bien que prometteurs pour l’avenir.
De manière générale, l’intervenant a souligné les nombreuses opportunités offertes par les systèmes experts. Il est revenu par exemple sur la possibilité de générer automatiquement des contrats et autres documents, qui permettent selon lui un gain de temps et de productivité considérable, et assure fiabilité et cohérence. Plus sophistiquée est l’extraction intelligente de données, basée sur la reconnaissance de patterns au sein des documents.
Melik Boudemagh a également évoqué l’exploitation de données historiques et les enjeux de la justice prédictive, sur lesquels le cabinet SELENE Avocats était revenu en février dernier[3].
Toutefois, ces évolutions ne sont pas sans risque, et il faudra notamment être attentif à la gestion de la gouvernance des données et de l’information, sujet au cœur de l’actualité d l’entrée en application du Règlement Général de Protection des Données (RGPD) en mai dernier. LZ
[1] Agence spécialisée dans le Legal Tech.
[2] Session de formation continue des avocats au barreau de Paris, dont SELENE tient à saluer la qualité des enseignements
[3] https://www.selene-avocats.fr/publications-activites/2075-justice-predictive-risque-opportunite-retour-colloque-organise-lordre-avocats-conseil-detat-a-cour-de-cassation/
De l’utilité des drones au service de la sécurisation des populations et des espaces: dans quel cadre juridique?
Les pouvoirs publics ont de plus en plus recours aux drones, tant en matière de sécurité publique que de sécurité privée.
Notre article, publié dans la Gazette du Palais du 19 juin 2018, propose quelques pistes de réflexion à ce sujet.
Retrouvez l’intégralité de l’article ici: https://www.gazette-du-palais.fr/article/GPL324b3/
Intelligence artificielle : progrès ou menace pour l’homme ? Retour sur le dîner annuel des Jeunes Mécènes des Bernardins du 28 mai 2018
Le 28 mai 2018, le cabinet SELENE Avocats a assisté au dîner annuel des Jeunes Mécènes des Bernardins et en profite pour remercier les organisateurs (en particulier F. Bardoux et I. de Chatellus) pour cette soirée passionnante qui a été l’occasion de discuter des enjeux éthiques liés à l’intelligence artificielle (IA) avec des intervenants aux parcours et aux spécialités variés.
Les prouesses de l’IA de plus en plus impressionnantes
Le spationaute Jean-François Clervoy a expliqué que l’IA pouvait intervenir à chaque étape de fonctionnement d’un engin spatial, que ce soit pour capter l’information, pour la traiter, ou pour prendre une décision. Plus encore, durant la première minute et demi (décollage), seule la machine est en mesure de piloter parfaitement, l’homme ne disposant pas de la réactivité nécessaire.
Jean-François Clervoy a aussi retracé l’évolution de notre utilisation de la machine, soulignant la différence entre les anciens cockpits, dotés de milliers d’interrupteurs, et les cockpits envisagés pour les capsules de SpaceX d’Elon Musk, où les commandes se limitent à quatre écrans tactiles, et une quinzaine d’interrupteurs. Dans le domaine de l’exploration, l’IA permet d’accéder à des lieux où l’homme ne peut pas aller physiquement. En 2015, l’IA a permis de déposer une sonde interplanétaire à 1,4 milliard de kilomètres de la Terre !
Par ailleurs, plusieurs intervenants ont mentionné la victoire d’AlphaGo sur l’homme au jeu de go. François Régis de Guényveau, auteur de l’ouvrage Un dissident, est notamment revenu sur un coup étonnant joué par l’IA, qui fera dire à son adversaire Lee Sedol : « Je croyais qu’AlphaGo était basé sur des calculs de probabilités. Que ce n’était qu’une machine. Mais quand j’ai vu ce coup, j’ai changé d’avis. C’était évident qu’AlphaGo était créatif ».
Comment articuler intelligence humaine et intelligence artificielle ?
L’IA ne peut pas et ne doit pas remplacer l’humain. Jean-François Clervoy estime qu’il est essentiel que l’humain demeure celui qui prend la décision de recourir ou non à l’IA, par exemple en appuyant ou non sur le bouton de pilotage automatique. Pour lui, la statistique selon laquelle 95% des accidents d’avion sont dus à des erreurs humaines est trompeuse, puisqu’elle ne rend pas compte des très nombreuses fois où la situation a été sauvée grâce à l’équipage (l’être humain conservant un esprit critique et une capacité d’adaptation très importante)
L’IA peut toutefois être un outil fantastique pour aider l’homme à devenir, non pas surhumain, mais « plus humain ». Pour Mathieu Rougé, docteur en théologie, il est important de ne pas adopter une posture de rejet face à l’idée de « développement de l’homme », au cœur de l’IA et du transhumanisme.
Frédéric Mazzela, fondateur et CEO de Blablacar, s’est interrogé sur les spécificités de l’intelligence humaine, et sur les limites des robots et de l’IA. Selon lui, la réponse réside dans l’acronyme « GLASS » : game, love, art, sport, science. De quoi envisager un avenir non pas obscur, mais au contraire assez réjouissant !
Jean-François Clervoy estime, quant à lui, que la qualité majeure de l’Homme est sa curiosité. L’IA ne saurait faire preuve de curiosité spontanée, mais elle aide l’être humain à assouvir sa curiosité, à acquérir toujours plus de connaissances.
Plusieurs participants ont également évoqué la frustration pour l’Homme de se voir concurrencer par l’IA, qui serait la « quatrième blessure narcissique de l’Homme ». En effet, après avoir appris avec Copernic qu’il n’était pas au centre de l’univers, avec Darwin qu’il n’était pas si éloigné des animaux, et avec Freud qu’il ne maitrisait pas tout son inconscient, l’Homme se rendrait aujourd’hui compte qu’il n’est pas le plus intelligent dans tous les domaines. Pourtant, François Régis de Guényveau estime que toutes ces découvertes sont, bien au contraire, la preuve du génie humain.
La nécessité de s’engager pleinement dans la révolution que représente l’IA
Comme l’ensemble des intervenants, Laurent Alexandre, chirurgien-urologue, co-fondateur de Doctissimo, président de DNA Vision et auteur de La mort de la mort et La guerre des intelligences, estime qu’il est essentiel de maîtriser et d’accompagner le développement de l’IA. Selon lui, l’intelligence est synonyme d’une seule chose : la prise et l’exercice du pouvoir.
Comme Laurent Alexandre, François Régis de Guényveau considère que la technologie n’est pas neutre, en ce qu’elle est toujours en soi une volonté de maitriser le monde, d’avoir la main mise sur le réel.
Pourtant, pour le médecin, le constat est sans appel : l’Europe est passée à côté de la révolution technologique du début du 21ème siècle. Il a par exemple critiqué le Règlement général sur la protection des données (RGPD), qu’il trouve dangereux. Selon lui, dans un contexte de « guerre de la data », ce texte donne encore davantage le dessus aux entreprises étrangères, telles que les GAFA[1] et les BATX[2], qui n’ont pas les mêmes références éthiques et ne s’imposeront pas nécessairement les mêmes contraintes réglementaires.
Toutefois, Laurent Alexandre considère que l’Europe n’est pas condamnée au « déterminisme technologique », et qu’il est indispensable de s’engager pleinement dans le secteur de cette nouvelle intelligence, afin d’être en mesure de choisir la manière dont sera utilisée l’IA dans le monde de demain. LZ
[1] Google, Apple, Facebook et Amazon.
[2] Baidu, Alibaba, Tencent et Xiaomi.