Rapport de transparence de Discord : Janvier — Juin 2020 image de couverture

Rapport de transparence de Discord : Janvier — Juin 2020

Anagram • Publié le 8 September 2020

traductions

Bonjour à nouveau !

Beaucoup de choses se sont passées sur Discord depuis notre dernier rapport de transparence. Nous aimerions passer un peu de temps pour vous montrer les plus gros changements et comment nous y avons répondu.

En mai, nous avons actualisé notre Règlement de la Communauté. Ce nouveau document clarifie le genre de comportement et le contenu qui est --- et n'est pas --- autorisé sur Discord. Cela clarifie certaines de nos politiques existantes afin qu'elles reflètent plus clairement ce que nous défendons. Nous voulions qu'il résume toutes les valeurs qui nous sont chères : se traiter les uns les autres avec respect, traiter vos communautés avec respect, et faire de Discord un endroit sûr et amical pour tout le monde.

Plus tard en juin, nous avons déployé notre nouveau Centre de Sécurité. C'est une bonne ressource pour tout le monde, avec des conseils sur la façon de protéger votre compte, des articles expliquant Discord pour les parents et les éducateurs, et une description claire sur la façon dont nous appliquons nos politiques. À l'avenir, nous prévoyons d'ajouter plus d'articles "comment faire ça ?" pour aborder les problèmes courants et les résoudre. Nous cherchons aussi à ajouter plus d'études de cas, de documentation sur les politiques et de ressources sur la modération communautaire.

Enfin, le plus gros changement depuis notre dernier rapport de transparence a été le COVID-19 et la croissance qu'il a créée pour notre service. Avec plus de personnes restant à la maison, plein de nouvelles autres ont rejoint Discord pour discuter avec leurs amis et rechercher des communautés. En juin nous avons annoncé que Discord avait dépassé le palier des 100 millions d'utilisateurs actifs par mois. Comme vous vous en doutez, alors que nous accueillions de plus en plus de personnes sur Discord, il y a eu une augmentation concomitante des rapports créés.

Ce graphique montre l'augmentation des rapports reçus d'un mois à l'autre par "Trust & Safety" au cours du premier semestre 2020. Les rapports que nous avons reçus ont quasiment doublé au cours des derniers mois.

Alors que Discord grandit, l'une de nos plus grosses priorités est d'aider tout le monde à continuer d'avoir une expérience sécurisée. Pour cette raison, le nombre d'employés dans notre équipe Trust & Safety a quasiment doublé au cours des six derniers mois, demeurant l'une des plus grosses équipes de l'entreprise. Nous travaillons dur pour nous assurer que quiconque peut écrire à tout moment, faire examiner son problème et obtenir l'aide dont il a besoin.

Tous les nombres (et annonce d'une nouvelle catégorie)

Conformément à nos précédents rapports, nous détaillerons la répartition des rapports par catégorie, les taux auxquels nous réagissons en cas de violation de nos conditions ou directives, le nombre total d'actions entreprises par Trust & Safety, et la vitesse à laquelle nous restaurons les comptes.

L'une des nouveautés sur laquelle nous souhaitons passer du temps dans ce rapport concerne les avertissements des utilisateurs et leur efficacité. Les avertissements sont utiles dans les situations n'impliquant pas de menace sérieuse de préjudice, car ils offrent une opportunité d'éducation des utilisateurs sans que nous prenions des mesures permanentes sur un compte. Ils constituent un bon pas en avant pour augmenter la variété d'outils dans notre catalogue, et comme Discord continue de grandir, nous continuerons d'explorer de nouvelles façons d'éviter les abus.

Nous voulons rendre chaque nouveau rapport de transparence plus utile et plus accessible que le précédent. nous avons donc actualisé la façon dont nous présentons les informations cette fois. Le premier est la répartition par catégorie : nous avons standardisé la façon dont nous catégorisons les violations. Dans chaque graphique, vous pouvez vous attendre à voir les 11 mêmes catégories. En général, elles sont représentatives de tous les différents rapports qui viennent dans Trust & Safety, et nous pensons qu'elles renvoient une image claire du comportement et du contenu que nous travaillons pour préserver Discord.

À cette fin, nous pouvons actualiser nos catégories dans de futurs rapports pour mieux refléter ce que nous voyons et ce que les utilisateurs nous rapportent. Pour ce rapport, nous avons introduit une nouvelle catégorie : la cybercriminalité. La cybercriminalité couvre l'ingénierie sociale, la fraude, les escroqueries, et des choses comme les attaques par déni de service distribuée "DDoS"* (**Distributed Denial of Service attack,* attaque massive envers un ou plusieurs services). Notre précédente catégorie de hacks et astuces est maintenant exclusive aux comportements malveillants dans les jeux en ligne, comme le piratage d'un compte et la distribution d'astuces.

Les rapports reçus des utilisateurs

En repensant au second semestre de 2019, Trust & Safety a reçu environ 128 000 rapports d'utilisateurs. Au cours du premier semestre de 2020, nous avons largement surpassé ce nombre, jusqu'à 235 000 rapports, en raison du nombre de personnes sur la plateforme et l'augmentation du temps passé sur Discord durant la pandémie. Voici la répartition des violations par catégorie :

Il ne s'agit pas de cas confirmés de mauvais comportement ou de contenu répréhensible sur Discord, mais plutôt de tous les rapports reçus et étudiés.

Le prochain graphique montre le taux d'action des rapports par catégorie :

Comment vous pouvez le voir, il y a une corrélation entre la facilité de vérification et le caractère exploitable des abus. Le spam sur Discord ressemble le plus souvent à des messages directs non sollicités, demandant à un utilisateur de rejoindre un serveur ou lui demandant d'ajouter un bot à un serveur --- des bots de Nitro gratuit et des escroqueries par crypto-monnaie ont été les plus communs au cours des six derniers mois --- avec un haut taux d'action. Le contenu exploitable et les rapports doxxing sont également de mise. Avec ces catégories, il est souvent plus évident qu'une violation s'est produite et l'identification des motifs est relativement simple.

De l'autre côté de l'échelle de d'action, il y a le harcèlement. Le harcèlement est la plus grande catégorie des rapports reçus, mais est au final la moins exploitable. Cela devrait également avoir du sens, car contrairement au doxxing, par exemple, il y a une différence dans ce que les individus considèrent comme un comportement de harcèlement.

Nous recevons des rapports d'interdiction malveillante éludant et inondant les demandes d'amis, qui sont généralement exploitables, mais beaucoup plus de personnes appelant quelqu'un d'autre, ou même déposant un rapport de harcèlement et déclarant simplement qu'elles n'aiment pas l'autre personne ou ce qu'elle dit, ce qui n'est pas exploitable par Trust & Safety et est mieux traité par le plaignant bloquant un utilisateur qu'il n'aime pas.

Agir sur les utilisateurs et les serveurs

Utilisateurs bannis

En plus d'avoir plus de rapports que jamais auparavant, nous prenons également plus de mesures. Regardons les comptes qui ont été supprimés pour avoir enfreint nos Conditions ou Règles :

Ce graphique représente le nombre total d'utilisateurs qui ont été bannis au cours du premier semestre de 2020. Ce graphique n'est pas vraiment utile pour comprendre quoi que ce soit, à part qu'il y a beaucoup de spam : au premier semestre 2020, nous avons banni 4 083 444 comptes pour spam. Voici un graphique plus utile excluant le spam :

Les raids peuvent se démarquer, mais il y a une raison à cela. Alors que la plupart des autres rapports portent sur l'activité individuelle, les raids sont généralement coordonnés par un groupe. Quand les utilisateurs décident de faire un raid, ils rejoignent un autre serveur en même temps et spamment des commentaires perturbateurs, généralement ceux étant contraires au règlement de la communauté. Quand nous aurons confirmé un cas de raid, nous prendrons des mesures contre tous les membres du groupe qui ont participé. Seuls 17% des rapports que nous recevons concernent des raids, mais comme vous pouvez le voir, cela entraîne un nombre plus grand de bannissements, car nous agirons sur tous les utilisateurs responsables de l'activité.

Et vous verrez que le contenu exploité est la raison du grand nombre de bannissements, bien que cette catégorie représente uniquement 8% des rapports reçus. En effet, la majorité du contenu exploité posté sur Discord est supprimé de façon préventive, sans que les utilisateurs aient à signaler le contenu (nous aborderons ce problème plus loin dans le rapport). Le harcèlement, en revanche, représente à peu près un tiers des rapports reçus, mais représente une plus petite fraction des utilisateurs ayant fait l'objet de mesures.

Utilisateurs avertis (et efficacité des avertissements)

Certaines fois, nous verrons dans un rapport un comportement qui enfreint nos conditions d'utilisation et nos règles, mais qui n'est pas suffisamment sévère pour justifier la suppression définitive du compte. Dans ces cas, Trust & Safety peut émettre un avertissement, qui enverra un message informant l'utilisateur qu'il a été averti et la ou les règles qu'il a enfreintes. Les avertissements peuvent être également accompagnés d'une suspension temporaire du compte, allant d'une heure à deux semaines, proportionnellement à la gravité de la violation de notre règlement communautaire.

Pour la toute première fois, nous publions le nombre total d'avertissements émis.

Si vous regardez ce graphique à côté des suppressions de comptes d'utilisateurs, il est clair qu'il y a moins d'avertissements que de suppressions. La logique derrière ceci est que dans la plupart des cas, il y a une tentative claire et délibérée de violer nos politiques. Par exemple, si un utilisateur dit "Get exposed !" et poste des informations personnellement identifiables qui nécessitent une suppression et non un avertissement. Mais souvent nous donnons le bénéfice du doute à l'utilisateur lorsque l'intention n'est pas certaine.

L'une des catégories pour laquelle nous avertissons le plus fréquemment est le contenu NSFW en dehors des barrières NSFW. Un utilisateur possédant une photo de profil avec du contenu réservé aux adultes va à l'encontre de notre règlement communautaire, car l'image ne peut pas être soumise à une limite d'âge et peut donc être vue par toute personne qui se connecte avec cet utilisateur. Au lieu de supprimer le compte, Trust & Safety émettra un avertissement, supprimera l'avatar, et permettra à l'utilisateur de télécharger une photo plus appropriée.

Nos chiffres montrent que ces actions sont efficaces pour corriger les utilisateurs. Le graphique ci-dessous calcule le pourcentage de comptes d'utilisateurs avertis qui sont supprimés pour la même raison : moins de 3% de ces utilisateurs voient leur compte banni pour la même raison. Alors que notre plateforme continue de grandir, nous croyons en l'utilisation de nombreux outils pour lutter contre les abus, y compris l'éducation de l'utilisateur et d'autres actions.

Nous comprenons également que tous les outils ne sont pas adaptés à chaque situation. Dans des catégories comme les cyber-crimes et le contenu exploité, Trust & Safety avertit rarement. Avec ce dernier surtout, qui inclut l'exploitation des enfants, nous adoptons une position particulièrement dure contre ceux qui publient ce genre de contenu. Dans la prochaine section, nous en dirons un peu plus sur nos efforts pour détecter et supprimer de manière préventive les comptes qui postent du contenu exploité.

Serveurs bannis

Des fois, agir sur un individu ne suffit pas : lorsque l'unique objectif d'un serveur concerne un comportement ou un contenu qui enfreint nos conditions ou nos règles, nous prendrons des mesures pour la communauté tout entière. Généralement, cela n'affectera que le serveur lui-même, le fondateur et les modérateurs du serveur, mais dans de rares cas, cela pourrait inclure tous les membres. Le graphique ci-dessous montre le nombre de serveurs qui ont été supprimés au cours des six premiers mois de 2020.

Une partie de notre but en agissant sur les serveurs est d'illustrer une vue d'ensemble. Un œil attentif peut remarquer qu'il y a une différence dans les graphiques entre les utilisateurs et les serveurs concernés, et que les chiffres les plus élevés sur l'un ne sont généralement pas les plus élevés sur l'autre. En effet, les abus sur Discord se situent à différents niveaux, et nous nous y adressons à la fois au niveau du serveur et de l'utilisateur.

Par exemple, alors que le nombre de comptes que nous supprimons pour hacks et astuces ou des cyber-crimes est généralement faible, le nombre de serveurs que nous supprimons pour la même raison est relativement élevé. Nous bannissons pour ces raisons beaucoup plus souvent au niveau du serveur car ces activités sont plus facilement coordonnées dans les serveurs, et le préjudice vient du serveur existant dans son ensemble. Et dans d'autres situations, comme le doxxing, il est moins probable que le doxxing soit le résultat d'un serveur qui lui est dédié et plus probablement simplement d'un utilisateur, le ratio est donc plus proche.

Enfin, dans les cas de contenu exploité --- à nouveau, il s'agit de la pornographie non consensuelle et l'exploitation d'enfants --- nous agissons sur tous les comptes du serveur, donc le ration est l'inverse.

Les suppressions préventives : faire plus pour protéger Discord

Comment le note un article de blog précédent de nos co-fondateurs, nous sommes très attachés à l'égalité raciale. Une partie de cela consiste à nous assurer que les groupes extrémistes et racistes restent en dehors de Discord. Alors que les manifestation "Black Lives Matters" ont balayé tout le pays, Trust & Safety a monté en puissance pour bannir les groupes qui cherchaient à interférer avec les manifestations pacifiques. Nous sommes très fiers d'avoir fermé certains des pires groupes organisateurs qui soient avant qu'ils ne puissent causer du tort. En termes de chiffres concrets, alors que le premier semestre 2020 commençait, le ratio de serveurs extrémistes proactifs et réactifs supprimés a atteint 5:1.

Parallèlement à ces efforts, nous avons continué à supprimer tout contenu exploité. Cette catégorie regroupe le matériel d'abus sexuel d'enfants et la pornographie non consensuelle. Comme indiqué dans notre dernier rapport de transparence, lorsque du matériel nuisible aux enfants est téléchargé sur Discord, nous le rapportons rapidement au Centre National des Enfants Disparus et Exploités et nous partageons le compte. Nous avons une attitude similaire de zéro tolérance envers les images non consensuelles sur Discord : ces serveurs sont supprimés, dans la plupart des cas sans que les utilisateurs aient à tomber dessus.

Dans le graphique ci-dessous, nous avons totalisé le nombre de suppressions de serveurs extrémistes et exploiteurs pour les six premiers mois de 2020. Ces volumes montrent une légère hausse par rapport à nos suppressions préventives de 2019. Alors que nous entrons dans la seconde moitié de 2020, nous continuerons à surveiller et à démanteler les groupes extrémistes qui s'organisent sur Discord ainsi que tout utilisateur partageant du contenu exploitant.

Un succès majeur que nous avons eu au premier semestre de 2020 a été un démantèlement complet d'un réseau de serveurs partageant de la pornographie non consensuelle. Notre équipe préventivité a identifié un réseau entier de 700 serveurs et a systématiquement supprimé le contenu et les communautés impliquées. Quand ces comptes essayaient de retourner sur Discord, ils étaient à nouveau identifiés et supprimés. La pornographie non consensuelle n'a pas sa place sur notre plateforme, et nous continuerons d'agir rapidement vis-a-vis de ces communautés et de leurs membres.

Une dernière note concernant les récents événements : comme la pandémie de COVID-19 se déploie tout autour du globe, l'équipe Trust & Safety a créé un groupe de travail pour enquêter sur les serveurs qui pourraient potentiellement partager des informations dangereuses et fausses par rapport à la santé et à la maladie. À travers tous ces efforts, nous avons constaté qu'il n'y avait pas de degré significatif sur la désinformation sur Discord, mais plutôt que Discord était utilisé comme espéré --- pour aider à construire des communautés qui soutiennent et encouragent les autres pendant que nous faisons face à ce défi mondial sans précédent. À l'avenir, nous continuerons de déployer des équipes de frappe pour viser les autres domaines où nous voyons la possibilité de désinformation qui a de fortes chances de causer des dommages dans le monde réel.

Demandes et restaurations de comptes

La pièce finale que nous aborderons concerne les restaurations de comptes. Toute personne qui a été bannie de façon permanente pour avoir enfreint nos Conditions ou Règles est la bienvenue pour écrire à Trust & Safety afin d'avoir une nouvelle vérification du bannissement. Le graphique ci-dessous affiche le taux de comptes dont le bannissement a été révoqué par catégorie.

Pour le contexte, en termes de chiffres agrégés, en 2020 (et en mettant de côté le spam) :

Pour le spam, nous avons pris des mesures sur un peu plus de 4 millions de comptes, reçu 45 046 demandes, et avons révoqué à peu près 18 000 bannissements, ce qui traduit un taux de révocation de 0.44%.

L' "autre" catégorie devrait ressortir comme étant assez élevée, mais elle représente l'un des plus petits volumes les plus bas de révocations de bannissements: seulement 289 restaurations de comptes durant la première moitié de 2020.

Nous envisagerons de révoquer un bannissement dans quelques circonstances :

La troisième situation est plus probable et conduit à l'écrasante majorité de nos révocations de bannissements. Nous croyons généralement que la plupart des individus méritent une seconde chance pour leurs actions, et s'ils comprennent leurs actions et promettent de mieux faire, nous pensons qu'ils devraient avoir une autre chance.

L'avenir de Trust & Safety ?

Les six derniers mois ont été un tourbillon pour l'entreprise et Trust & Safety. Notre priorité absolue a été de nous assurer que Trust & Safety s'adapte aux besoins des utilisateurs et peut continuer à assurer la sécurité de tout le monde sur Discord. Nous avons reçu le double des rapports en juin par rapport à janvier, et nous avons travaillé à tous les niveaux sur des outils internes, du machine learning, et l'embauche et l'intégration de nouveaux employés pour Trust & Safety pour s'assurer qu'ils soient en mesure de garder tout en ordre pour les nouveaux utilisateurs Discord. Nous sommes fiers de la place que nous occupons aujourd'hui, mais nous savons également qu'il reste du travail à faire.

Nous entrons dans la deuxième moitié de l'année avec un certain nombre de projets qui rendront Discord plus sûr encore. Certains d'entre eux fonctionneront derrières la scène et réduiront le spam, certains faciliteront le signalement des utilisateurs, et d'autres viseront à aider nos modérateurs. Nous sommes impatients de partager davantage avec vous dans nos blogs au cours des prochains mois.

Enfin, nous prévoyons de publier ces rapports tous les six mois. Le reste de cette année sera couvert dans notre prochain rapport en janvier 2021. Avec chaque rapport de transparence, nous cherchons à fournir plus d'informations (comme notre éventail d'avertissements que nous avons présentés cette fois) et continuons à les rendre plus accessibles et plus intéressants.

Merci d'avoir fait de Discord votre lieu pour discuter --- nous sommes ravis de continuer cette conversation avec vous.

Appendix

Suppressions d'utilisateurs pendant la première moitié de 2020

Avertissements d'utilisateurs pendant la première moitié de 2020

Serveurs bannis pendant la première moitié de 2020

Article écrit par Nelly, cheffe robot Hamster. Mangeuse de fromages. Traduit par Anagram !

Sources et images : Discord - Discord Transparency Report: Jan --- June 2020