• inlandempire@jlai.luOP
    link
    fedilink
    Français
    arrow-up
    2
    ·
    1 year ago

    [suite et fin, lisez l’article en entier il est vraiment bien]

    Vingt-quatre organisations de défense des droits civiques, de la justice numérique et de la démocratie [aux US je suppose] ont publié une lettre ouverte l’été dernier sur les défis immédiats de la modération du contenu de Threads :

    …nous observons la rhétorique néo-nazie, les mensonges électoraux, le déni du COVID et du changement climatique, et encore plus de toxicité. Les utilisateurs ont publié des insultes sectaires, des déni d’élections, des complots liés au COVID-19, du harcèlement ciblé et du déni de l’existence des personnes trans, de la misogynie, et bien plus encore. Une grande partie du contenu est toujours disponible sur Threads, indiquant à la fois des lacunes dans les conditions d’utilisation de Meta et dans leur application, ce qui n’est pas surprenant étant donné votre longue histoire de règles inadéquates et d’application incohérente dans les autres propriétés Meta.

    Plutôt que de renforcer vos règles, Threads a pris des mesures faisant le contraire, en n’étendant pas délibérément le programme de vérification des informations d’Instagram à la plateforme et en capitulant devant les mauvais acteurs, et en supprimant une politique visant à avertir les utilisateurs lorsqu’ils tentent de suivre un mésinformateur en série. Sans garde-fous clairs contre de futures incitations à la violence, il n’est pas clair si Meta est prêt à protéger les utilisateurs contre les fournisseurs de désinformation électorale de premier plan qui violent les politiques écrites de la plateforme.

    Pour moi, il n’existe pas de monde idéal incluant Meta, tel que l’entreprise existe actuellement. Mais dans le monde le plus idéal possible, je pense que d’autres services du Fediverse adopteraient – et annonceraient publiquement – une série de politiques pour gérer les Threads, y compris leurs réponses à des questions comme celles ci-dessus.