Les applications de santé mentale et de prière ont la «pire» confidentialité – enquête – RT World News

0
75

Malgré leur contenu sensible, les applications de thérapie ont certaines des pires protections de la vie privée, selon une enquête

Malgré leur emballage flou chaleureux et leurs intentions apparemment altruistes, les applications de santé mentale et de prière sont “pire que tout autre produit” en ce qui concerne la confidentialité et la sécurité des utilisateurs, a révélé lundi une analyse de la société de navigateurs Mozilla.




La grande majorité des applications de santé mentale et de prière sont exceptionnellement effrayantes,” Jen Caltrider de Mozilla, la principale créatrice de “Confidentialité non incluse“, qui a évalué 32 de ces applications sur leur respect des données personnelles des utilisateurs, a déclaré lundi à Verge. Caltrider a noté que les applications que l’on pourrait penser reconnaîtraient plutôt la nature sensible de leurs données “suivre, partager et capitaliser sur les pensées et les sentiments personnels les plus intimes des utilisateurs, comme les humeurs, l’état mental et les données biométriques.

Les applications aspirant des données biométriques et d’autres informations apparemment privées ne sont pas nouvelles, mais étant donné l’hypothèse de confidentialité qui accompagne la relation réelle entre un thérapeute et un patient, ou un croyant et une institution religieuse, on pourrait espérer que les développeurs d’applications seraient au moins tenter de reproduire ces espaces sécurisés lors de la mise en ligne de l’ensemble du processus.

Cependant, le guide Privacy non inclus a révélé que sur 32 de ces applications, 29 au total ont reçu une étiquette d’avertissement de confidentialité, notant qu’elles stockaient de grandes quantités de données personnelles dans le cadre de vagues politiques de confidentialité ou maintenaient d’autres pratiques de sécurité médiocres, telles que des mots de passe faibles. Une application populaire, Talkspace, stocke des transcriptions entières de chat entre l’utilisateur et le thérapeute. Un autre, un chatbot de thérapie AI appelé Woebot, collecte en fait des informations sur les utilisateurs auprès de tiers, puis les partage à des fins publicitaires, tout en se faisant passer pour leur épaule en silicone sur laquelle pleurer.

LIRE LA SUITE:
Sonde lancée sur l’impact de TikTok sur les enfants

Le chercheur de Mozillla, Misha Rykov, a qualifié les applications analysées par son équipe de “machines à sucer des données avec un placage d’application de santé mentale,” ou alors “un loup dans l’habillement du mouton.” Mais avec la thérapie réelle de plus en plus chère et le processus de recherche d’un thérapeute qui « correspond » à un patient, il est difficile pour certains de résister à l’attrait d’une voix amicale à portée de clic. Mais étant donné l’objectif principal apparent des applications d’exploration de données et de vente des secrets les plus sombres des utilisateurs, il serait peut-être préférable de se taire jusqu’à ce que l’on puisse rencontrer un thérapeute qualifié ou au moins un ami de confiance – idéalement dans la vraie vie.

Vous pouvez partager cette histoire sur les réseaux sociaux :

La source: www.rt.com

Cette publication vous a-t-elle été utile ?

Cliquez sur une étoile pour la noter !

Note moyenne 0 / 5. Décompte des voix : 0

Aucun vote pour l'instant ! Soyez le premier à noter ce post.

Laisser un commentaire