Tribune

Comment rendre fiables des interfaces de conformité longues et compliquées ?

Amy Arnell

Publié

le

Vous souvenez-vous de la dernière fois que vous avez lu toutes les conditions générales d’un service en ligne ?

Vous arrive-t-il de cliquer dans les courriels qui vous informent d’une mise à jour de la politique de confidentialité ?

En réalité, l’avez-vous déjà fait ? Probablement pas.

Mais, par la même occasion, faites-vous confiance à la manière dont vos données sont utilisées ?

Il existe une réelle déconnexion entre la conformité à la réglementation sur la vie privée, opérationnalisée par des textes longs et complexes, et la compréhension de ce qui se passe réellement avec nos données.

Des concepts innovants tels que le projet “Digital Buddy”, imaginé par le laboratoire d’innovation d’IKEA pour imaginer une maison intelligente respectueuse de la vie privée, apportent des solutions pour rendre la vie privée positive et digne de confiance. C’est l’un des nombreux aspects qui seront abordés lors de la première édition du Yes We Trust Summit organisée le 7 octobre.

 

20 pages de conditions générales : L’opacité croissante des interactions en ligne

La phrase “J’ai lu et j’accepte les conditions générales” est-elle en fait le plus gros mensonge d’internet ? Souvent, la réalité est que nous n’avons même pas essayé de lire, et encore moins de comprendre, les termes et conditions qui s’appliquent.

Nous savons tous que nous ne lisons pas les petits caractères. Certaines entreprises en ont fait l’expérience, comme F-Secure, qui, au cœur de ses longues conditions générales, déclarait qu’en échange de son service WiFi, le destinataire acceptait de nous confier son premier enfant pour l’éternité”.

Les gens se sont quand même inscrits.

Un autre exemple est le projet artistique de Dima Yarovinsky qui vise à “visualiser à quel point les utilisateurs sont petits et impuissants face aux grandes entreprises”, comme l’écrit Designboom. Le designer a imprimé les CGU des principaux services en ligne tels que Facebook, Snapchat, Instagram ou Tinder sur des rouleaux colorés au format A4 standard. Le résultat est saisissant :

 

La conclusion logique à tirer est peut-être que nous nous en fichons. Mais, en fait, nous nous en préoccupons.

Une étude récente menée à l’échelle européenne a montré que 85 % des personnes en France, en Grande-Bretagne, en Irlande et en Allemagne estiment comprendre la signification des données personnelles, et qu’une forte proportion d’entre elles s’inquiètent de la manière dont elles sont utilisées, 71 % en Grande-Bretagne, par exemple.

Si quelque 80 % d’entre nous pensent que la transparence est importante pour faire confiance à une entreprise ou à une marque, alors pourquoi ne lisons-nous pas les petits caractères ? Nombre excessif de mots, langage juridique compliqué : une prose sèche, impénétrable, inaccessible. Il n’est pas difficile de répondre à cette question.

D’ailleurs, avions-nous vraiment le choix au départ ? Souvent, il n’y a pas d’autre option que de “convenir“, de “consentir” ou d'”accepter” si nous voulons interagir socialement ou travailler professionnellement en ligne, ce qui laisse peu de possibilités de contester les pratiques des marques en matière de données.

Il semblerait que nous soyons coincés dans un piège. Un piège qui consiste à se sentir mal à l’aise face à la façon dont nos données sont utilisées, mais à ne pas être en mesure de comprendre pleinement à quoi elles servent exactement jusqu’à ce qu’il soit trop tard.

Il suffit d’évoquer le scandale de Cambridge Analytica en 2018 et la récente controverse sur Whatsapp pour comprendre ce qu’on entend par “trop tard”.

Pour en savoir plus sur Cambridge Analytica et ce que nous pouvons en apprendre, rejoignez le Yes We Trust Summit le 7 octobre, où Brittany Kaiser (lanceuse d’alerte de Cambridge Analytica) interviendra pour expliquer comment l’industrie numérique peut gagner la confiance des consommateurs et des entreprises.

 


Le “Digital Buddy” : Un compagnon pour naviguer dans un monde numérique complexe 

Le projet “Digital Buddy” de Field Systems propose de tirer parti de l’intelligence artificielle (IA) et de la réalité augmentée (RA) pour créer un avatar en 3D qui aidera à protéger vos intérêts et votre vie privée en ligne.

 

Digital Buddy utiliserait des réseaux neuronaux NLP pour analyser les textes complexes des T&C, les condenser et les traduire en un langage plus accessible via un générateur de langage naturel tel que GPT-3.

Le “buddy” communiquera les CGU d’une manière facile à comprendre. Vous pourriez lui poser des questions, telles que “mes messages sont-ils lus ?”, “ma position est-elle suivie ?”. Enfin, au fil du temps, votre compagnon apprendrait également à connaître vos valeurs et vos préférences, en agissant de manière indépendante pour examiner les conditions générales et en signalant rapidement tout problème grave.

 

Le copain numérique – Image tirée de Everyday Experiments

La proposition de valeur ? “De la même manière que nous comptons aujourd’hui sur Google Maps pour naviguer dans notre monde physique, nous pourrions adopter des types nouveaux et alternatifs d’assistants numériques qui peuvent nous aider à choisir à qui et à quoi faire confiance en ligne”, suggère Field Systems.

C’est une bonne analogie.

Mais, si nous réfléchissons plus profondément, qu’est-ce que cela nous apprend sur notre société ?

Un avenir incertain : Avons-nous confiance dans la conformité ?

Peut-être que l’internet qui était censé nous “libérer” est un internet que nous avons laissé derrière nous. Il est temps d’inverser ce cycle de méfiance et d’opter pour une industrie des données dirigée par les citoyens.

Le Digital Buddy cherche à éduquer et à responsabiliser, et c’est certainement une bonne chose. Mais ne serait-il pas plus efficace d’essayer de résoudre le problème que le Digital Buddy aborde ? Plutôt que de créer des compagnons IA pour nous aider à protéger nos données, il serait sûrement préférable que les entreprises inversent leur façon de penser et conçoivent toutes les interfaces de confidentialité en pensant à l’utilisateur.

Nous avons listé quelques exemples de bannières de cookies, certaines parmi nos clients, d’autres dans des secteurs créatifs comme le jeu, mais nous mentirions si nous disions que nous sommes impressionnés. Même sur le site awwwards, vous pouvez constater que la plupart des “exemples créatifs d’expériences de consentement aux cookies” relèvent davantage de la conception visuelle que de la protection de la vie privée par la conception.

Les politiques de confidentialité pourraient être rendues plus claires grâce à un assistant numérique virtuel théorique, mais elles pourraient également être rendues plus claires grâce à un effort ambitieux d’investissement dans la confiance et la transparence. Il est intéressant de noter que, plus que les réglementations en matière de protection de la vie privée telles que le GDPR et le CCPA, c’est une entreprise technologique – Apple – qui a conçu l’un des avis de consentement les plus percutants.

Cela signifie-t-il que la conformité a perdu au profit des grandes entreprises technologiques ?

Quatre cinquièmes des consommateurs considèrent que la transparence est importante pour faire confiance à une marque ou à une entreprise. Les utilisateurs veulent être informés des raisons pour lesquelles leurs données sont collectées, et ils apprécient les entreprises dont les pratiques en matière de données sont transparentes.

La confiance doit être considérée comme le principal facteur de réussite d’une entreprise, et les professionnels de la protection de la vie privée comme de véritables facilitateurs de l’activité.

Les données des consommateurs n’ont jamais eu autant de valeur. La façon dont les marques les collectent, les utilisent et les protègent détermine l’expérience de l’utilisateur et la confiance du client, et c’est pourquoi les professionnels de la conformité devraient penser davantage comme des utilisateurs, et non comme des avocats !