Meta a récemment annoncé le déploiement de nouveaux outils sur Instagram pour flouter les images contenant de la nudité envoyées via les messages directs. Cette fonctionnalité, conçue pour améliorer la sécurité des jeunes utilisateurs, sera activée par défaut pour les moins de 18 ans. Les adultes pourront choisir de l’activer s’ils le souhaitent, avec une forte recommandation de Meta en ce sens. L’objectif principal de cette mise à jour est de lutter contre la sextorsion et d’encourager les utilisateurs à réfléchir à deux fois avant d’envoyer des photos explicites.
Sommaire
Un contexte de préoccupation croissante
Depuis l’avènement des plateformes de médias sociaux, des préoccupations constantes entourent leur impact sur les jeunes. Les problèmes de dépendance, de santé mentale, d’exploitation et de sextorsion sont au centre des débats. Meta, en tant que propriétaire d’Instagram et de Facebook, subit une pression accrue pour prendre des mesures concrètes contre ces menaces.
Le problème de la sextorsion
La sextorsion sur les réseaux sociaux est une menace croissante. Ce phénomène implique souvent qu’une personne engage une conversation avec une victime potentielle et envoie une photo nue pour inciter la victime à faire de même. Si la victime envoie une image, les criminels menacent de la partager publiquement ou avec les proches de la victime, à moins que leurs demandes ne soient satisfaites. Récemment, deux Nigérians ont plaidé coupables d’extorsion sexuelle sur des adolescents et des jeunes hommes aux États-Unis, un cas ayant malheureusement conduit au suicide d’une des victimes.
Développement de la technologie de protection
Meta a déclaré qu’elle travaillait sur une technologie capable d’identifier les comptes impliqués dans des escroqueries de sextorsion. De plus, l’entreprise teste des messages contextuels pour avertir les utilisateurs susceptibles d’avoir interagi avec ces comptes suspects.
Protection contre les images non sollicitées
En plus de la sextorsion, cette nouvelle fonctionnalité vise également à protéger les utilisateurs contre les nus non sollicités. Lorsque des images explicites sont détectées, elles ne seront pas automatiquement signalées à Meta. Les utilisateurs auront le choix de voir ou non les images floutées, bien que Meta les encourage à ne pas se sentir obligés de répondre.
Messages de sensibilisation et sécurité
Meta a ajouté que toute personne tentant de transmettre une image nue reçue verra un message l’incitant à reconsidérer sa décision. L’entreprise dirigera également les utilisateurs vers des conseils de sécurité concernant le partage de nus, en mettant en garde contre les risques de capture d’écran et les changements potentiels dans leurs relations.
Utilisation de l’apprentissage automatique
La technologie de floutage de nudité de Meta utilise l’apprentissage automatique sur l’appareil pour identifier les images explicites. Cette approche garantit que la fonctionnalité fonctionnera également dans les discussions cryptées de bout en bout, une fonctionnalité déjà disponible sur Messenger et WhatsApp.
En conclusion, Meta s’efforce de rendre Instagram plus sûr pour ses jeunes utilisateurs en introduisant des outils pour flouter les images contenant de la nudité dans les messages directs. Cette initiative vise à protéger les utilisateurs contre la sextorsion et les images non sollicitées, tout en encourageant une réflexion plus approfondie avant l’envoi de photos explicites. Grâce à l’apprentissage automatique, cette technologie promet de fonctionner même dans les conversations cryptées, offrant ainsi une couche supplémentaire de sécurité.