Hello, hello,
Vendredi dernier, un lecteur m’écrivait un mail pour évoquer la reconnaissance faciale, qui, je cite, le fait “complètement flipper”. De mon côté, j’ai assisté cette semaine à une conférence tentant d’analyser les enjeux de sécurité et de protection des données que pose cette techno. Le sujet est un puits sans fonds. Il me semble même que l’on est encore loin d’avoir vu tous les usages qui peuvent en être faits. Néanmoins, certains parmi vous l’utilisent peut-être déjà, rien que pour déverrouiller leur smartphone. D’autres auront entendu parler des expérimentations voulues par deux lycées de Nice et Marseille, auxquelles la CNIL s’est opposée, ou bien du projet Alicem, dont je vous parlais là. Bref, la reconnaissance faciale se répand.
Pourtant, les problèmes sont multiples. Pour commencer, la technologie elle-même est complexe et faillible. Beaucoup de smartphones sont faciles à duper, par exemple. Et les algos présentent des biais, je vous en parlais ici.
Si l’on s’aventure du côté policier, la surveillance était matière à débat avant même que l’on n’y ajoute de la reconnaissance faciale. En 2018, Le Monde revenait ainsi sur la question de la surveillance vidéo, démontrant que ce type de dispositif ne protège pas du terrorisme, ne fait pas reculer la délinquance, et n’aide à résoudre qu’un nombre infime d’enquêtes. Ok, me direz-vous, mais si on y ajoute des algos capables de reconnaître directement les gens que l’on cherche, peut-être réussira-t-on mieux ? Et bien pas sûr : San Diego vient de mettre fin à une expérimentation de sept ans pendant laquelle elle a récupéré quelques 65 000 scans de visages. Le projet s’est soldé par un échec : à la connaissance des représentant·es de la police locale, aucune des arrestations enregistrées sur la période n’a été réalisée grâce à ce programme de reconnaissance faciale. Du côté de Londres, ville test de ce type de technos, des chercheur·ses estiment même que les algorithmes se trompent dans 80% des cas et demandent la fin des expérimentations.
Et puis il y a cette question des données personnelles : comment faire pour recueillir le consentement des individus filmés ? Difficile de leur faire donner leur accord avant que la caméra ne les voit passer. À Londres, encore, la police a donc opté pour une approche pas super RGPD : pour avoir caché son visage devant une caméra, un homme a écopé de 90 livres d’amende. Motif : “nuisance à l’ordre public”.
En fait je crois que si la reconnaissance faciale fait peur, c’est parce qu’elle est l’une des applications les plus intrusives, les plus visiblement gênantes démocratiquement mais aussi les plus pratiques dans nos usages personnels (pour payer ou s’identifier rapidement, par exemple, ce que voudrait démocratiser Alicem) permises par les progrès de l’intelligence artificielle. S’y intriquent donc ces questionnements techniques (faut-il déployer à grande échelle des outils dont les résultats ne sont pas fiables ?) et sociaux (quel degré de surveillance ? comment protéger les données personnelles) de notre temps. La reconnaissance faciale fait particulièrement peur parce qu’elle touche à nos visages. Mais si l'on y réfléchit bien, elle soulève les mêmes interrogations que le business des data brokers, qui récupèrent suffisamment de données pour construire et vendre un genre de double numérique de nos personnes, puis permettre de nous envoyer de la pub ultra ciblée.
Je crois qu’une partie de l’interrogation est bien résumée par Sylvain Steer, membre de la Quadrature du Net, dans un récent épisode de TechClash : peut-on adopter la reconnaissance faciale de manière raisonnée, uniquement pour s’identifier ou payer, ou faut-il considérer que l’autoriser “rien qu’un peut”, c’est déjà mettre à mal nos libertés ? La CNIL, qui demande un débat démocratique, pencherait plutôt pour la première option, la Quadrature, pour la seconde. On nage en plein questionnements philosophiques.
À l’origine, je comptais même conclure sur l’une de ces oppositions classiques de philosophie politique, qui m’a encore été brandie au nez au cours d’une récente interview : pour plus de sécurité, il faudrait admettre de céder un peu de liberté, ou l’inverse. Sauf que, dans le cas de la reconnaissance faciale, je viens de démontrer que le côté sécurité de cette négociation n’est même pas rempli.
Peut-être qu’en fait, l’opposition se joue autre part. Du côté des besoins artificiels, que théorise Razmig Keucheyan. Lui cherche à montrer combien le consumérisme nous pousse à vouloir des objets ou des services dont nous n’avons pas besoin, et dont l’impact écologique est ouvertement néfaste. Mais n’est-ce pas un mécanisme similaire que celui qui nous pousse à chercher des expériences clients “sans couture”, lorsque nous préférons un selfie pour nous identifier à l’ennui de rentrer un ou deux codes de sécurité, au risque de céder de nouveaux pans de notre vie privée ?
Pour terminer sur un peu de positif, je voudrais vous signaler que des chercheurs travaillent à construire des moyens de forcer les intelligences artificielles à “vous” oublier (ou au moins une partie de vos données).
Sur ce je vous laisse, je retourne lire Michel Foucault.
📨 Un avis, une question, une idée ? Un sujet que vous voudriez me voir expliquer ?
Pour me joindre, répondez à ce mail ou contactez-moi sur twitter.
💻 En ce moment, sur l’IA, les plateformes, et nous, je lis :
Toujours plus loin : maintenant que des algorithmes d’intelligences artificielles sont intégrés à certains processus de recrutement, des sociétés se créent pour apprendre aux candidat·es à tromper ces robots. (Reuters)
Après la tyrannie de la beauté en ligne, voici venir le règne des moches. Lucie Ronfaut inaugure sa chronique sur les culture web par un sujet sur l’apparition très récurrente de clowns sur les réseaux sociaux. Elle analyse en filigrane la manière qu’ont les plus jeunes de se détourner de l’esthétique hyper léchée d’Instagram pour préférer se moquer d’eux-mêmes. En se rendant plus moches que nature si nécessaire. (Libération)
Bloomberg dépense des sommes monstrueuses en ligne (on parle d’au moins 200 millions de dollars) pour contrer Trump dans la course à la présidence américaine. Et selon certain·es, ça pourrait fonctionner. (Vice, Fortune)
Il y a 7 ans, l’informaticien, hacker et activiste Aaron Swartz se suicidait. Avec lui mourait un certain idéal d’internet libre. (France Culture)
Sommes-nous à la veille d’un nouvel hiver de l’intelligence artificielle ? C’est la thèse de certain·es chercheur·ses, qui signalent que si l’IA a fini par atteindre des sommets de célébrité auprès du grand public, ses progrès en termes techniques ont atteint une sorte de plateau. (BBC)
📰 Et à d’autres sujets :
Après la polarisation des idées, c’est la réalité elle-même qui est vue de façon totalement différente selon une étude réalisée à Harvard. Face à une même information, les interrogé·es tireront des conclusions différentes et corrélées à leur bord politique. Rien de très nouveau, peut-être, à ceci près que la situation est telle que l’on constate un refus total de légitimer la perception de l’autre - donc une rupture de toute possibilité de dialogue. (Méta-média)
J’ai jeté un oeil aux 100 prédictions de Nieman Lab pour le journalisme en 2020. Beaucoup de choses très très pertinentes, comme souvent, avec une mention spéciale pour le besoin de formation des managers : le leadership n’est pas inné, il faut investir dessus (c’est aussi une des revendications faites à l’issue des Etats Généraux des Femmes Journalistes). (Nieman Lab, Prenons la Une)
Point de vue climatique, plus on attend pour réagir, plus il faudra imposer des mesures d’urgence à la population lorsqu’on décidera enfin de passer à l’action. De ce constate surgit une question : est-il possible de sauver la planète sans mettre la démocratie en péril ? Passionnant sujet que traite Vic Castro en convoquant les thèses du chercheur danois Ole Waever. (Numerama)
Historien des cultures visuelles et spécialiste de l’histoire de la photographie, le chercheur André Gunthert analyse dans un post de blog la façon dont les violences policières ont fini par atteindre le devant de la scène - et le temps que cela leur aura pris. (L’image sociale)
P.S.
Un conseil culture
Les prisons étant généralement pensées pour des populations d’hommes, les femmes incarcérées y ont beaucoup moins facilement accès aux activités, formations ou services médicaux. Le projet Aux oubliées cherche à réparer ce manquement d’un point de vue culturel. Le principe est simple : vous choisissez un livre qui vous a plu (essai, fiction, nouvelles, roman… qu’importe), y ajoutez un mot pour la destinataire, et l’envoyez à l’association. Celle-ci distribuera les livres récoltés aux femmes emprisonnées. L’initiative est née en Espagne il y a un an, où trois mille livres ont déjà été distribués dans trois prisons différentes.
Cette fois-ci, donc, je vous laisse offrir votre propre conseil culture. Vous trouverez plus d’information sur le site auxoubliées.org
Vous avez aimé cette édition ?
Si oui, partagez la autour de vous !
À vendredi,
— Mathilde