Toute l'actualité Gaming, Esports et jeux vidéo sur consoles et PC. Toutes les news des jeux fraîchement servies par la rédaction du site de référence : annonces, sorties, bons plans... ne manquez plus une info essentielle. Votre Magazine #1 des Jeux Vidéo. News, tests, émissions, trailers, vidéos, soluces et astuces.

Two Hat : Arrêtez de peaufiner votre jeu et commencez à réparer votre communauté

Two Hat : Arrêtez de peaufiner votre jeu et commencez à réparer votre communauté

Les jeux de service en direct devenant de plus en plus la norme, l’industrie est entrée dans une ère axée sur la communauté. Qu’il s’agisse de communautés de fans sur des sites tiers ou de communautés intégrées dans le tissu de l’expérience, les développeurs accordent une importance accrue à leur importance.

Alors que les questions sur qui est responsable de la sécurité des utilisateurs en ligne n’ont souvent pas de réponses très nettes, il existe un consensus croissant sur le fait que les plateformes devraient être tenues responsables de l’hébergement de contenu préjudiciable. À partir de septembre 2020, en vertu de la directive européenne sur les services de médias audiovisuels, l’Ofcom, le régulateur britannique des services de communication, sera autorisé à infliger des amendes aux entreprises de médias sociaux et aux plateformes en ligne jusqu’à 5 % de leurs revenus, ou à suspendre leurs opérations, pour ne pas avoir protégé les utilisateurs vulnérables contre les contenus préjudiciables.

Plus tôt cette année, le Département du numérique, des médias, de la culture et des sports du Royaume-Uni a publié son livre blanc sur les méfaits en ligne, qui suggérait également que les plateformes de médias sociaux soient tenues responsables du contenu hébergé et décrivait les plans d’un régulateur indépendant pour gérer la conformité.

Bien que les marées tournent lentement, il s’agit d’un problème auquel la société technologique canadienne Two Hat Security s’attaque depuis longtemps. Suite à un récent partenariat avec la société de logiciels de classification d’images et de vidéos Image Analyzer, les deux sociétés travailleront ensemble pour faciliter la modération automatique du contenu vidéo diffusé en direct “à des niveaux sans précédent”.

De gauche à droite : Cris Pikes (Image Analyzer), Chris Piebe (Two Hat) et Carlos Figuieredo (Two Hat)

Two Hat et Image Analyzer automatisent le processus de modération, permettant aux communautés et aux plates-formes individuelles de définir les paramètres d’un comportement ou d’un contenu acceptable, et de laisser le système faire le reste. Par exemple, la technologie peut apparemment identifier des contenus tels que la fusillade de masse de Christchurch, qui a été diffusée sur Facebook Live en mars de cette année, et les fermer en quelques secondes.

Parler avec GamesIndustry.bizChris Priebe, PDG de Two Hat, déclare que son travail de lutte contre les contenus en ligne préjudiciables est profondément personnel.

“J’ai été harcelé au lycée, parce que je voulais être différent et faire mon propre truc, et je ne voulais pas m’intégrer à tout le monde, alors ils m’ont harcelé assez souvent, au point où j’ai reçu des menaces de mort et je dû quitter la ville », raconte-t-il. “Cela m’a donné la passion d’arrêter l’intimidation sur Internet. Je pense que tout le monde devrait être libre de partager sans harcèlement ni abus, ce qui est notre mission pour notre entreprise.”

La pression pour répondre au contenu en ligne toxique s’est intensifiée, car plus tôt ce mois-ci, une autre fusillade a été diffusée sur Twitch, cette fois en Allemagne, qui a fait deux morts. Mais les communautés en ligne ailleurs sont confrontées à des problèmes similaires, alors que les médias sociaux sont infectés par des contenus extrêmes et que des éléments marginaux des communautés de jeu répandent le vitriol et la haine.

Cela se répercute souvent sur la vie personnelle des travailleurs de l’industrie, car les développeurs se retrouvent la cible d’abus en ligne, voire de cybermobbing. Le coût humain de la toxicité en ligne est incommensurable à la fois pour les communautés où elle prolifère et pour les individus activement ciblés par elle.

« Combien de milliards de dollars sont perdus parce que les gens ont arrêté de jouer, parce qu’ils ne se sont pas sentis les bienvenus ? »

Cris Pikes, analyseur d’images

La modération du contenu toxique n’est pas non plus sans accident ; plus tôt cette année, une enquête sur les conditions de travail sur les sites de modération de contenu Facebook exploités par Cognizant aux États-Unis a révélé que le personnel développait des symptômes de trouble de stress post-traumatique après une exposition prolongée à des contenus graphiques extrêmes, tels que la cruauté envers les animaux, la violence ou l’exploitation des enfants.

Même en supprimant le coût humain de tout cela, l’analyse de rentabilisation cynique est une raison suffisante pour encourager des communautés saines et positives. Selon les chiffres de Two Hat, les gens sont 300% plus susceptibles de ne jamais revenir sur des jeux ou des plateformes où ils ont connu un comportement toxique. À l’inverse, les joueurs sont trois fois plus susceptibles de revenir après des interactions positives.

« Combien de milliards de dollars sont perdus parce que les gens ont arrêté de jouer, parce qu’ils ne se sont pas sentis les bienvenus ? » déclare Cris Pikes, PDG d’Image Analyzer. “Plus vous restez longtemps, plus vous paierez potentiellement parce que vous êtes plus investi dans le jeu, donc cette longue queue de construction de votre amour pour ce jeu.”

C’est une position que Priebe soutient, affirmant que les développeurs “passent leur temps dans la mauvaise chose” lorsqu’il y a un “signe géant imminent” qui indique des problèmes avec la communauté, plutôt qu’avec le jeu, limitant le potentiel des développeurs.

“Arrêtez de peaufiner votre jeu. Je déteste votre communauté, allez réparer votre putain de communauté”, déclare Priebe. “C’est ce que [players] vouloir. Et cela, je pense, nous fera passer d’une industrie de 100 milliards de dollars à une industrie de 200 milliards de dollars.”

“Vous ne pouvez pas supposer que les joueurs et les utilisateurs savent ce qu’on attend d’eux. Donc, même dans ce sens, l’industrie doit faire un meilleur travail”

Carlos Figuieredo, sécurité à deux chapeaux

La semaine dernière, Two Hat Security et Image Analyzer ont organisé un symposium sur la modération de contenu à Londres pour définir et classer les dommages en ligne, dans le but de lutter contre la toxicité en ligne. Bien que ce soit un problème qui ne va pas disparaître de si tôt, il existe des solutions viables et de nombreuses choses que les développeurs de jeux peuvent faire entre-temps pour aider à gérer leurs communautés.

Carlos Figuieredo est le co-fondateur de Fair Play Alliance et directeur de la confiance et de la sécurité de la communauté pour Two Hat. Il dit qu’une chose évidente que même les grandes entreprises n’ont pas réussi à faire est d’établir des directives communautaires bien définies.

“Ceux-ci servent de base, d’approche fondamentale pour tout ce que vous faites d’autre en termes de comportement des joueurs et de compréhension de ce comportement des joueurs”, nous dit-il. “Donc, sans blague, nous sommes complètement, en tant qu’industrie, non préparés à faire face aux menaces provenant des joueurs sur Twitter.”

Figuieredo dit que les développeurs doivent être intentionnels dans la façon dont ils développent les communautés. Il mentionne les récents tests A/B effectués par Twitch, qui ont révélé que le fait d’inciter les gens à accepter manuellement les directives de la communauté entraînait un changement notable et positif du comportement général, simplement par le simple fait d’établir des attentes.

“Vous ne pouvez pas supposer que les joueurs et les utilisateurs savent ce qu’on attend d’eux”, explique Figuieredo. “Donc, même dans ce sens, l’industrie doit faire un meilleur travail pour vraiment montrer quel est le comportement attendu, quel est le comportement indésirable, et ils doivent appliquer quelque chose.”

Avec le rythme rapide des progrès technologiques, des étapes de base comme peuvent avoir un impact profond. Comme le dit Pikes, c’est “un peu une course aux armements”, car des entreprises comme Facebook ont ​​construit des plateformes gigantesques qui échappent rapidement à leur contrôle.

“Nous n’avons pas fait le même effort pour équilibrer les communautés que nous avons fait pour équilibrer les jeux”

Chris Priebe, sécurité à deux chapeaux

“Ils ont construit cette machine absolue”, dit Pikes, “et ils n’avaient aucune idée de la taille qu’elle allait avoir… Ils n’ont pas pensé aux sécurités ou aux éléments éducatifs qui devraient maintenant être remis en place dans le cadre de cela C’est donc presque une réflexion rétrospective… Pour nous, il s’agit d’activer ces outils et de les amener sur un marché qui a évolué trop rapidement.”

Il y a cependant un écart de priorité, selon Figuieredo, qui dit qu’il y a un “manque de compréhension” en ce qui concerne les dommages causés par les communautés de jeux toxiques.

“Les gens n’ont pas nécessairement de bonnes statistiques ou ne comprennent pas que cela affecte leur entreprise, affecte également leurs employés”, poursuit-il. “Comment cela affecte-t-il leur communauté ? Quel est le taux de désabonnement des utilisateurs ? Il y a un manque de compréhension, un manque de livres blancs et de bonnes études à ce sujet.”

Priebe ajoute que les entreprises ne parviennent pas à adopter des solutions viables à ces défis. Selon lui, une partie de cela relève d’un arriéré d’ingénierie, car les développeurs sont obsédés par l’équilibre dans le jeu tout en négligeant par inadvertance la menace existentielle d’une communauté toxique, et comment cela pourrait raccourcir considérablement la durée de vie d’un jeu.

Les fonctionnalités communautaires comme le chat et l’audio sont souvent mal conçues, dit Priebe, et l’inclusion d’outils de communication mal implémentés met effectivement une “arme puissante” entre les mains des mauvais acteurs.

“Ils peuvent l’utiliser pour chasser tout le monde du jeu parce qu’ils l’ont rendu misérable pour tout le monde”, dit-il. “Nous n’avons pas déployé les mêmes efforts pour équilibrer les communautés que nous avons équilibré les jeux … Il y a [the] technologie réellement disponible; participons à la solution, et laissons tout le monde s’impliquer.”

Avec la montée en puissance de groupes haineux extrémistes utilisant les communautés de joueurs comme terrain de recrutement, il est urgent de faire face à la menace et de veiller à ce que les personnes vulnérables dans ces espaces soient protégées. Comme le dit Pikes, il s’agit de changer les attitudes de la communauté.

“Il y a bien longtemps, c’était comme si les gens avaient l’impression d’avoir un refuge sûr où ils pouvaient aller jouer à un jeu, et c’était de cela qu’il s’agissait”, poursuit-il. “Alors que maintenant tous ces groupes d’extrême droite, par exemple, y ont trouvé un terrain propice à la radicalisation. Mais si nous donnons [platforms the] outils et permettre à ces entreprises de comprendre que la technologie est disponible, ces personnes passeront à un autre format, elles trouveront un autre support, mais nous avons sécurisé celui-ci et verrouillé celui-là.”

En tant que plus grand secteur du divertissement au monde et qui encourage activement les communautés en ligne, l’industrie du jeu fait l’objet d’un examen public extrêmement minutieux. La présence de communautés toxiques est une chose, mais ne pas résoudre le problème est sans doute bien pire.

Découvrez encore plus d’articles dans nos catégories Astuce, Consoles et encore Jeux.

Merci pour votre visite on espère que notre article Two Hat : Arrêtez de peaufiner votre jeu et commencez à réparer votre communauté
, pour nous aider, on vous invite à partager l’article sur Facebook, pinterest et e-mail avec les hashtags ☑️ #Hat #Arrêtez #peaufiner #votre #jeu #commencez #réparer #votre #communauté ☑️!

You might also like
Leave A Reply

Your email address will not be published.