CHAMP PUBLIC / PUBLIC REALM
Le pharmakon de l'empathie
La doctrine de l’empathie est devenue ce remède et ce poison lorsqu’il s’agit de répondre aux situations de vulnérabilité et d’asymétrie dans la collecte et le traitement de données personnelles.
— Contexte

Pour le LINC, Laboratoire d’Innovation Numérique de la CNIL (2020)

Un des scénarios esquissés pour l’exploration prospective et spéculative “Protéger la vie privée en 2030”, dans le cadre du cahier Innovation et Prospective de la CNIL : “Scènes de la vie numérique”. Au cœur des réflexions et des spéculations, la protection de la vie privée et des données personnelles, sous l’angle des usages numériques ordinaires et du poids des inégalités dans le recours aux droits. La démarche a croisé analyse de fragments d’imaginaires et design fiction pour inspirer un triptyque de futurs spéculatifs, discutés et enrichis collectivement en atelier.

— F(r)ictions
Synopsis de ce futur :

En 2030, la puissance publique pense avoir trouvé dans la notion d’empathie la solution au poids des inégalités sociales dans les usages numériques. Façonnée par quinze années de pensée centrée-utilisateur et de sprint agilo-créatifs, l’administration publique a délaissé le dogme de la législation pour celui de l’innovation. L’empathie est désormais vue comme une formule miracle : “se mettre à la place de” apporte de fait la bonne réponse au problème ; et ce sans avoir nécessairement pris le temps de cerner le problème en premier lieu. Le techno-solutionnisme s’est ainsi doucement mâtiné de sciences comportementales et cognitives.

Originellement importée depuis l’autre rive de l’Atlantique, cette valeur cardinale de l’empathie a également fait son chemin dans toutes les strates de la société. Elle est devenue le levier d’action principal de collectifs citoyens convaincus qu’une “tech for good” repose avant tout sur la capacité à bien comprendre les utilisateurs. Et ce au risque d’en oublier que ces derniers sont avant tout des humains dans toute leur complexité.

L’empathie est doucement devenue ce pharmakon : un remède autant qu’un poison.

Fragments de f(r)iction :

— Afin de casser les déterminismes sociaux, et en particulier ceux qui amplifient les inégalités/asymétries dans les usages numériques, l’État a été pioché dans ses “vieilles” recettes. En 2028 a été mis en place le “Service Numérique Empathique” :
Chaque jeune, entre 16 et 20 ans, est invité à passer six mois dans une famille issue d’un autre groupe social que le sien. L’idée est de mettre ce temps à profit pour appréhender d’autres conditions / modes de vie et les pratiques numériques qui y sont attachées. L’objectif est ainsi double : casser les déterminismes sociaux, tout en créant un lien empathique avec d’autres milieux sociaux que celui dont on vient. Cela vaut aussi bien pour les publics dits “privilégiés” que ceux jugés “défavorisés”. Cette immersion auprès d’autres cercles sociaux aide ainsi à acquérir de nouvelles formes de sociabilités et se confronter à d’autres réalités d’usages pour tenter de tendre vers un rapport partagé au numérique. Et dans le discours politique, faire front commun en tant que “peuple uni” face aux problématiques qui y sont liées.

— La majeure partie des acteurs publics et parapublics de ce futur proche se rejoint dans une même volonté d’impulser une nouvelle forme de numérique “consciente” des problématiques liées aux déterminismes sociaux.
Au nom de l’empathie, il est de bon ton de s’imposer une “expérience numérique dégradée”.
Que ce soit sur ordinateurs, smartphones/tablettes ou wearables optiques, ces acteurs “conscients” font le choix d’opter pour une expérience-utilisateur qui embarque des freins et obstacles rencontrés par un autre groupe social que le leur, afin de parfaire leur prise de conscience et travailler leur empathie. Des plug-ins de “navigation empathique” sont mis à disposition par des collectifs d’hacktivistes et d’autres structures associatives ou syndicales. Toutefois, cette logique de l’augmentation diminuante est à sens unique : les plus vulnérables ne disposent pas encore d’augmentation leur permettant de surmonter les difficultés imposées par ces systèmes techno-administrativo-législatifs.
En effet, si dans ce futur nous n’avons pas réussi à pleinement réduire les inégalités, nous sommes passés maîtres dans la capacité de les simuler ; en espérant ainsi susciter des comportements de solidarités entre utilisateurs de milieux différents.

— Conjointement développé par l’administration publique et plusieurs associations, le dispositif Protaction est le parfait exemple d’un “tech-backlash” (ou “retour de bâton technologique”) certifié “made in France”.
Aussi surnommé “Le mauvais samaritain”, cet outil multiplateforme est une intelligence artificielle tutélaire capable de décider des options de privacy ou d’orienter la navigation à la place de l’utilisateur pour protéger ce dernier. Destinée en premier lieu aux publics les plus fragiles, l’IA de Protaction est conçue pour se mettre “en empathie” avec l’utilisateur dont elle a la tutelle numérique. Elle adapte ainsi au mieux les choix faits en son nom, selon le profil de la personne suivie. Cet assistant est souvent qualifié de délégation de la gestion de la vie privée (privacy). Cependant, en décidant pour ces publics déjà fragilisés et en invisibilisant les choix au nom d’une expérience-utilisateur “sans couture”, le dispositif échoue à créer une prise de conscience et à mettre en capacité d’agir.

Autre dispositif, moins connu, mais tout aussi controversé que Protaction : un numéro vert avec bot vocal qui “assiste” dans les réclamations pour faire valoir ses droits en cas de recours. S’inscrivant dans la longue tradition du numéro vert étatique, ce dispositif est vite devenu la cible de trolls et a brillé par son approximation dans les rares cas de demandes effectives de la part de publics concernés.

— Certains esprits moqueurs diront que si Don Quichotte avait ses moulins, l’administration publique avait ses “biais algorithmiques”. Afin de prévenir toute discrimination inconsciemment programmée et s’assurer de “garder l’humain au coeur”, la majorité des algorithmes publics bénéficie d’un “bridage empathique”, où des décisions aléatoires et/ou ciblées sont soumises à contrôle et vérification par des agents humains. Un dispositif vivement critiqué dans les milieux médicaux, où le recours à l’automatisation - ou simplement à l’algorithme - est indispensable pour trouver une résolution rapide dans des situations d’urgence ; telle que pour l’attribution des greffons.