«Une menace pour la santé est en cours d’armement»: à l’intérieur de la lutte contre les crimes de haine en ligne | Société

«Une menace pour la santé est en cours d’armement»: à l’intérieur de la lutte contre les crimes de haine en ligne | Société

Au cours de l'hiver 2002, neuf mois avant que Hanif Qadir ne déballe son sac dans un camp d'entraînement terroriste en Afghanistan, un groupe d'hommes est entré dans le centre d'examen londonien MOT qu'il possédait avec ses frères. Ils collectaient de l'argent pour les civils pris dans l'invasion américaine de l'Afghanistan; des centaines d'enfants ont été rendus orphelins par des bombardements aveugles, ont affirmé les hommes. Pourrait-il aider? L'appel a résonné avec Qadir, qui avait perdu son père quand il avait sept ans. Il a fait un don.
Les hommes sont revenus régulièrement. Chaque fois, ils ont demandé plus d’argent, avant de changer progressivement de sujet pour la foi de Qadir. Finalement, ils l'ont invité à une réunion dans une maison locale pour discuter plus librement de la guerre en Afghanistan. «Je sentais qu'ils étaient sincères et authentiques», se souvient Qadir. Lors de la réunion, les hommes ont encouragé Qadir à visiter des sites Web qui prétendaient montrer des preuves photographiques de la violence contre les civils afghans par les troupes occidentales.
Qadir a parcouru des centaines d'images angoissantes, parmi lesquelles des dizaines d'orphelins, chacune accompagnée de légendes détaillées décrivant la manière dont la famille de l'enfant avait été tuée. L’histoire d’une fille lui est restée. Le site Web a affirmé qu'elle avait perdu 21 membres de sa famille à cause d'un missile américain «errant». La légende a expliqué qu'il avait fallu trois jours aux habitants pour gratter leurs restes des murs de la maison de la jeune fille. Plus il en voyait, plus Qadir se rapprochait des hommes qui, à son insu, étaient des recruteurs d'Al-Qaida.

Si quelqu'un appelle au génocide contre les musulmans, "ils ont essentiellement tatoué une croix gammée sur leur front en ligne"

Qadir a grandi à Thornaby-on-Tees, une petite ville du North Yorkshire. Après la mort de son père, il s'était désengagé de l'école, partant à 14 ans et déménageant à Londres. Après quelques petits boulots, il a fondé une entreprise avec ses frères, achetant, réparant et vendant des voitures. Au début des années 2000, l'entreprise était suffisamment rentable pour pouvoir donner généreusement à des causes caritatives communautaires, une réputation qui, selon lui, a amené les recruteurs chez lui.
La suggestion que Qadir voyage en Afghanistan a été semée en douceur. «Lorsqu'une personne se radicalise, elle devient influençable», me dit-il. «Nous avons discuté du fait que, pour éviter de nouvelles pertes de vie, nous devions être prêts à nous battre.» Le 2 décembre 2002, il s'est envolé pour Islamabad au Pakistan. Quelques jours plus tard, il a franchi la frontière avec l'Afghanistan.
Peu après son arrivée dans un camp d'entraînement, Qadir a vu un homme mesurer les enfants qui y vivaient. «Je pensais qu'ils étaient adaptés à de nouveaux vêtements», se souvient-il. Puis il a entendu l'un des dirigeants dire aux enfants qu'ils allaient bientôt retrouver leurs parents décédés. Ils étaient équipés de gilets de suicide. «Je me sentais malade et en colère», dit-il. "Je voulais partir."
Mais au milieu d'un complexe désertique patrouillé par des gardes armés, toute tentative de défection pourrait être fatale. Qadir était pris au piège. "Je savais que si je demandais à quitter les choses finiraient mal." Il devait réfléchir soigneusement.
***
En 2002, alors que Qadir se radicalisait, Internet n'était pas encore omniprésent. Il n'y avait ni Twitter, ni Facebook; les sites Web cherchant à inciter les gens à soutenir des causes extrémistes étaient obscurs. Deux décennies plus tard, le paysage numérique a été transformé. Comme l'a écrit le Groupe parlementaire multipartite sur les crimes de haine l'année dernière, Internet est devenu un «terrain fertile» pour l'extrémisme et les discours de haine – enhardi par la facilité croissante de diffusion, l'anonymat et, grâce à une législation obsolète, un manque de sens conséquences.
Les auteurs d'attaques terroristes laissent régulièrement des déclarations ou des manifestes en ligne pour justifier leurs actions, en espérant que leurs paroles pourraient encourager les autres. Le tireur de 28 ans qui a tué 51 personnes qui fréquentaient la mosquée à Christchurch, en Nouvelle-Zélande, a publié l'année dernière une diatribe nationaliste blanche de 73 pages sur le forum Web 8chan et a diffusé en direct l'attaque sur Facebook.
Mais maintenant, tout comme Facebook et Twitter sont devenus les prodigieux diffuseurs de boue de notre époque, une poignée de startups clandestines utilisent la technologie pour endiguer le flux. Moonshot, dont le bureau est situé dans un endroit secret à Londres, est, à cinq ans, un vétéran de cette industrie émergente. Ses locaux ont la sensation d'une opération typique de la Silicon Valley: planchers en détresse, bureaux vitrés, poufs par une cheminée à foyer ouvert, maçonnerie apparente, un confort pour les respirateurs. Il y a quelques indices que les activités de l'entreprise – utilisant la technologie pour perturber l'extrémisme violent – sont différentes de celles des développeurs d'applications de fitness, des influenceurs des médias sociaux et des spéculateurs de réalité virtuelle avec lesquels elle partage une esthétique. Les affiches ne sont pas des tirages d'époque mais des infographies inquiétantes révélant, par exemple, qu'après que 22 personnes ont été abattues dans un El Paso Walmart en août dernier, le terme de recherche Google «comment assassiner des Mexicains» a augmenté de 82%. Il y a aussi une porte anti-bombe.

 
 

 Vidhya Ramalingam et Ross Frenett ont fondé Moonshot, une entreprise qui utilise la technologie pour perturber l'extrémisme violent. Photographie: Rino Pucci
Le cofondateur Vidhya Ramalingam a mis en place la première initiative de recherche intergouvernementale de l'UE pour enquêter sur le terrorisme d'extrême droite au lendemain du meurtre de 77 personnes en 2011 par Anders Breivik en Norvège. Elle décrit le travail de Moonshot comme une «programmation expérimentale». L'entreprise emploie 50 personnes et utilise un mélange de logiciels et de jugement humain pour identifier sur Internet des individus qui, comme Qadir, semblent intéressés par la propagande extrémiste. Ils tentent alors de leur servir de contre-messagerie.
La technologie utilise une «base de données d'indicateurs de risque». Un individu obtient des «points de risque» en fonction de son comportement en ligne. Vous marquez un point pour avoir montré de la curiosité pour le Ku Klux Klan ou le mouvement national-socialiste. Une activité qui indique de la sympathie pour un mouvement ou une idéologie violente (par exemple, googler «la fierté blanche dans le monde») rapporte trois points, tout en manifestant le désir de rejoindre, d'envoyer de l'argent ou de commettre des actes au nom d'un groupe ou d'un individu extrémiste violent en gagne six.
Les initiatives du ministère de l'Intérieur telles que Prevent se sont traditionnellement concentrées sur la formation des enseignants et d'autres dirigeants pour identifier les personnes susceptibles d'être attirées par l'extrémisme violent au sein de leurs communautés – mais ces méthodes risquent d'introduire des pratiques discriminatoires. "En France, par exemple, il y avait des affiches disant aux gens que leurs fils risquaient de s'exposer à l'extrémisme violent s'ils se barbaient, commençaient à parler arabe ou cessaient de manger des baguettes", explique Ross Frenett, cofondateur de Moonshot. "C'est des conneries évidentes."
En revanche, Frenett dit que si quelqu'un fait un article glorifiant Hitler ou appelle au génocide contre les musulmans, il y a un haut degré de certitude qu'ils entrent dans une catégorie à haut risque. "Ils ont essentiellement tatoué une croix gammée sur leur front dans l'espace en ligne", dit-il. «Notre niveau de confiance lors de l'identification des individus vulnérables à la radicalisation est donc bien plus élevé en ligne qu'il ne pourrait jamais l'être hors ligne. Et cela évite certaines des pratiques discriminatoires et stigmatisantes que nous avons constatées dans un environnement hors ligne. "
Moonshot, fondée en septembre 2015, est une entreprise à but lucratif qui tire ses revenus de contrats gouvernementaux au Royaume-Uni, aux États-Unis, au Canada, en Australie et dans toute l'Europe occidentale. Il ne limite pas son travail à une tension particulière de radicalisme; en plus de l'extrême droite et du djihadisme, le travail de Moonshot couvre tout, de l'extrémisme bouddhiste en Asie du Sud au nationalisme hindou et au terrorisme «incel» au Canada.

L'habileté consiste à découvrir ce qui a suscité l'intérêt d'une personne pour l'idéologie extrémiste. Vous ne pouvez pas les rediriger avant de le faire

Au niveau le plus large, Moonshot gère ce qu'il appelle un "matériel de redirection" – une publicité qui est conçue pour "se positionner devant" du matériel extrémiste dans les résultats de recherche de Google. Google a accordé une dispense de Moonshot pour faire de la publicité contre des termes de recherche interdits tels que «rejoindre Isis». Si un utilisateur clique sur l'un des résultats camouflés de Moonshot, ils sont dirigés, par exemple, vers un site Web sur la santé mentale avec des guides téléchargeables pertinents et une option de chat. (Ces sites sont gérés par des organisations et des groupes de santé mentale partenaires qui ont de l'expérience dans la lutte contre la violence des gangs. Comme le dit Frenett, ils ont «des protocoles de risque appropriés et des liens avec les forces de l'ordre, s'ils sont requis».) Tant que la recherche les termes sont soigneusement calibrés (la publicité contre le «pouvoir blanc» est inutile, explique Frenett, car vous finissez par concurrencer les entreprises d'outils électriques), cela peut être un premier contact efficace.
Le succès est mesuré de la même manière que toute entreprise cherchant à faire de la publicité sur Google, via les conversions de clics. ("Nous payons pour la publicité comme n'importe quel annonceur commercial", dit Ramalingam. "Nous n'obtenons pas de tarifs spéciaux. Je souhaite que nous ayons une meilleure histoire sur ce front.") Une métrique clé est la "part d'impression de recherche", qui enregistre la durée pendant laquelle votre audience à risque a vu l'annonce. "Nous avons eu des campagnes qui ne se sont déroulées qu'à 50%, et ce n'est pas suffisant", explique Ramalingam. "Nous travaillons donc dur pour atteindre 98% dans la mesure du possible." Pour cette raison, ainsi que des praticiens de la santé mentale et d'anciens officiers de police, Moonshot emploie également des commerçants. «La majeure partie de notre travail concerne l'analyse, le marketing et le travail social», explique Frenett. «Il se trouve que ce sont du marketing, des analyses et du travail social liés au terrorisme.»
À l'occasion, l'entreprise identifiera une personne présentant un risque trop élevé pour ses interventions. "C'est là que, selon le pays dans lequel nous travaillons, nous référons un utilisateur à la police", explique Frenett. En Australie, par exemple, Moonshot a identifié quelqu'un au sommet d'un réseau d'environ 200 personnes à risque considérées comme «si risquées que nous ne pouvions pas intervenir». Quelques jours plus tard, la police locale a arrêté l'homme, qui a ensuite été condamné pour terrorisme.
Il existe des types d'intervention plus profonds. L'une des publicités de Moonshot pour, disons, des «manuels de bombes» amènera le chercheur à une conversation WhatsApp animée par un spécialiste formé aux techniques de déradicalisation. La société peut également identifier une personne sur une plate-forme de médias sociaux particulière épousant ouvertement des opinions pro-extrémistes ou pro-terroristes. Ensuite, un travailleur social qualifié, généralement issu d'une organisation partenaire caritative, contacte cette personne via un message direct Twitter ou Facebook Messenger. Il est essentiel de choisir la bonne personne pour établir ce type de contact, qui peut être perçu comme invasif. Dans de nombreux cas, la bonne personne est un ancien extrémiste – quelqu'un comme Hanif Qadir.
***
Lorsque Qadir a réalisé que les enfants du camp d'entraînement afghan étaient évalués pour des gilets de suicide, son premier instinct était de se venger des personnes qui l'avaient manipulé. «Mais je n'avais qu'un couteau, pas d'arme», dit-il. "Et je savais que je ne pouvais dire à personne que je voulais sortir."
Il est sorti de la porte du camp pour réfléchir à ses options. Là, il a repéré le chauffeur d'une camionnette avec lequel il avait discuté plusieurs fois. Les hommes ne partageaient pas une première langue, mais Qadir a joué. Il a retiré 50 £ et l'a fait signe à l'homme, lui demandant s'il pouvait faire du stop jusqu'à Turkham, à la frontière entre le Pakistan et l'Afghanistan. Le chauffeur hocha la tête. Qadir monta sur le siège passager. "Je n'ai même pas récupéré mon sac", se souvient-il.
Qadir dit qu'il a pleuré pendant le vol vers Londres. «Je n'arrêtais pas de me demander:« Qu'est-ce que j'ai pu faire? ». Lorsqu'il est arrivé chez lui, ses frères et lui ont tenté de retrouver ses recruteurs, mais ils avaient disparu; le mot était qu'ils avaient déménagé à Manchester. Qadir a décidé qu'il ne voulait plus diriger l'entreprise automobile et a convaincu ses frères de vendre. «Je voulais juste rester à la maison avec mes enfants.»
Après une période de récupération, lui et ses frères ont ouvert une salle de sport dans une boîte de nuit désaffectée, qui est devenue un endroit où les jeunes de la région, dont beaucoup de jeunes musulmans, se rassemblaient. "Nous parlerions", dit-il. «Je leur poserais des questions sur l'Afghanistan. J'ai vu beaucoup de colère et de questionnement. Il était clair pour moi que tout ce qu'il fallait, c'était qu'une seule personne les manipule émotionnellement et qu'elle prenne directement l'avion pour se battre. Ou peut-être qu'ils feraient quelque chose ici. »

 
 

 Hanif Qadir s'est rendu dans un camp d'entraînement terroriste en Afghanistan, mais travaille maintenant avec des jeunes menacés de radicalisation. Photographie: AP
Désireux de communiquer cela à quelqu'un en position de pouvoir, Qadir a commencé à assister aux réunions du conseil local. Un inspecteur de police, Ian Larnder, l'a pris pour un café, espérant mieux comprendre pourquoi cet ancien mécanicien semblait si passionné par le sujet. «Jusque-là, je n'avais raconté à personne ce qui s'était passé», se souvient Qadir. «Ian a été la première personne à qui je me suis ouvert.» Une semaine plus tard, Larnder a été nommé au sein de l’équipe nationale de tension de la police. Il a emmené Qadir avec lui pour parler aux forces à travers le pays de ses expériences.
Aujourd'hui, avec un certain nombre d'autres anciens extrémistes, Qadir travaille avec Moonshot, où il dispense une formation pour les interventions en ligne. «L'habileté consiste à découvrir ce qui a suscité l'intérêt d'une personne pour l'idéologie extrémiste», explique-t-il. "Vous ne pouvez pas rediriger une personne avant d'avoir compris cela. Il ne sert à rien de demander quelque chose d'aussi large que: "Que pensez-vous de ce qui se passe en Inde?" Il faut que ce soit précis et agréable. Donc, au lieu de cela, vous pourriez dire: "Est-il permis de se venger de la perte d'un être cher?" »
Ce type de large questionnement – et le fait qu’un dialogue anonyme puisse se terminer, sans possibilité de suivi – peut sembler frustrant et opaque pour quiconque essaie de mesurer le succès de Moonshot. C’est une critique que l’entreprise est habituée à mettre en œuvre. «La lutte contre le travail préventif est que, très souvent, ce n’est pas scientifique et nous devons demander aux gens de le prendre de confiance», explique Frenett. «Il est facile pour un entrepreneur militaire d'entrer et de dire:« J'ai installé une grande clôture haute et un homme avec un pistolet et cela a réduit le terrorisme. »De même, l'armée peut venir et déclarer:« Nous avons tué 200 talibans cette semaine . '
"Mais il est beaucoup plus difficile de dire" OK. Nous avons investi 1 million de dollars ici et nous avons empêché autant de terrorisme. "Notre objectif à long terme est de commencer à changer ce calcul. Ensuite, nous serons en mesure de dire: «Si un dollar sur 100 dépensé pour du matériel militaire allait à des travaux de prévention ciblés et axés sur la communauté, ce serait plus avantageux – et probablement meilleur pour le monde.» »
***
Dans le coin d'une pièce froide au bout d'un couloir du Glamorgan Building de l'Université de Cardiff, un flot de propos racistes, de misogynie, d'antisémitisme et de slogans d'extrême droite traverse un écran de PC. «Imaginez que vous ayez une boule de cristal dans laquelle vous pouvez regarder quelqu'un commettre tous les crimes de haine qui se sont produits quelque part dans la rue», explique Matthew Williams, directeur de HateLab. "C'est ce que vous regardez ici, sauf que la haine se produit en ligne."
Alors que Moonshot et Qadir interviennent auprès de personnes vulnérables à l'extrémisme, l'objectif de HateLab est de fournir une image plus précise des discours de haine sur Internet. Il s'agit, selon Williams, de la première plateforme à utiliser l'IA pour détecter les discours de haine en ligne en temps réel et à grande échelle.

Les annonces de Moonshot pour, disons, les «manuels de bombes» amènent le chercheur à une conversation WhatsApp animée par un spécialiste de la déradicalisation

La haine en ligne est si courante que la majorité des incidents ne sont pas signalés. Selon les données du gouvernement britannique, 1605 crimes de haine se sont produits en ligne entre 2017 et 2018, soit une augmentation de 40% par rapport à l'année précédente. Mais le Home Office admet que ce chiffre est probablement une grossière sous-estimation.
"Contrairement à la police, nous n'avons pas à attendre qu'une victime dépose un rapport", explique Williams. «Le programme reflète une véritable indication de la prévalence de la haine en ligne.»
Il offre également une indication granulaire. Williams spécifie une plage de dates, puis choisit parmi un filtre de groupes cibles potentiels: juifs, homosexuels, femmes, etc. (la misogynie est de loin la forme de discours de haine la plus répandue sur Twitter, dit-il). Il sélectionne «anti-musulman» et une carte thermique du Royaume-Uni s'allume en taches rouges montrant des points chauds géographiques. Ailleurs, il rapporte le nombre moyen de messages haineux par minute et les heures de pointe de la journée (le discours de haine, selon le groupe, est le plus répandu pendant le trajet quotidien, lorsque les gens lisent et réagissent aux nouvelles de la journée).
Un nuage de mots indique les insultes anti-musulmanes les plus utilisées, tandis qu'une toile d'araignée visualise un réseau d'agresseurs, identifiant les «leaders d'opinion» qui génèrent le plus de retweets, et comment ils sont liés, via des comptes en ligne. «HateLab donne une connaissance de la situation au discours de haine sur Twitter à tout moment», explique Williams.
Au début du mois dernier, HateLab a identifié trois formes de discours de haine liés aux coronavirus: anti-chinois ou asiatique; antisémite, axé sur les théories du complot; et islamophobe, axé sur les accusations de profit. «Ce que nous voyons est une menace pour la santé d'être militarisée pour justifier le ciblage des groupes minoritaires, peu importe l'illogisme des connexions», explique Williams.
(Moonshot a suivi des hausses similaires de discours de haine visant des ressortissants chinois. Le hashtag #ChinaLiedPeopleDied a été tweeté 65 895 fois en mars, tandis que #coronavirustruth, impliquant que la pandémie est un canular, a été utilisé 77 548 fois. La société a également récupéré des tweets montrant de vieilles vidéos. des hommes musulmans quittant les mosquées accompagnés d'un texte affirmant que les images ont été filmées pendant la quarantaine, une tentative apparemment délibérée de créer un sentiment anti-musulman.)
Williams, auteur d'un livre à paraître intitulé The Science Of Hate, est professeur de criminologie à Cardiff, mais son intérêt pour le domaine n'est pas purement académique. En 1998, il s'est rendu à Londres avec des amis pour fêter un anniversaire. À un moment donné au cours de la soirée, il est sorti du bar gay dans lequel le groupe buvait. Trois jeunes hommes se sont approchés. L'un d'eux a demandé si Williams avait une lumière. Alors qu'il rendait son Zippo, l'homme lui a donné un coup de poing au visage. Williams est retourné chez ses amis mais n'a rien dit, craignant qu'ils ne veuillent riposter. Finalement, l'un d'eux a remarqué du sang sur ses dents et l'a exhorté à signaler l'attaque. «J'ai dit non», se souvient Williams. «À cette époque, mes parents ne savaient pas que j'étais gay. Mes frères et sœurs ne le savaient pas, et la plupart des gens de ma ville non plus. Je ne voulais pas sortir avec la police. "
Mais Williams est retourné au Pays de Galles une personne changée. «Toute attaque contre votre identité a un effet profondément déstabilisant», dit-il. «Je suis devenu en colère et déprimé. J'ai modifié mon comportement. J'ai arrêté de tenir la main de mon petit ami. Je ne montrerai toujours pas d'affection en public. " Il n'était pas le seul à n'avoir pas dénoncé ses agresseurs; sur la base de l'enquête combinée sur la criminalité de 2015/16 à 2017/18 pour l'Angleterre et le pays de Galles, seuls 53% des crimes de haine ont été portés à l'attention de la police. «Les gens ont peur de la victimisation secondaire», dit Williams.
Alors que l'utilisation domestique d'Internet est devenue plus courante, Williams a remarqué le discours de haine qu'il a rencontré dans les rues en ligne. La différence était qu'il était là pour tout le monde de témoigner. Ses collègues universitaires étaient initialement sceptiques quant à sa préoccupation concernant le comportement en ligne, mais en 2011 «tout le monde savait que le discours de haine était le problème clé d'Internet». Cette année-là, Williams a reçu une subvention de loterie de plus d'un demi-million de livres pour accélérer ses recherches.
Chaque plateforme de médias sociaux représente un torrent d'informations trop profondes et trop larges pour être triées à la main. Williams et son équipe ont commencé par prendre un échantillon aléatoire de 4 000 tweets dans un ensemble de données de 200 000. Le trésor a ensuite été remis à quatre policiers, formés pour reconnaître les tensions raciales, qui ont chacun évalué si chaque tweet était discriminatoire. Si trois des quatre officiers étaient d'accord, le tweet a été qualifié de discours de haine. Sur une période de quatre semaines, les officiers ont identifié environ 600 tweets qu'ils jugeaient discriminatoires, des données qui constituaient l'étalon-or par lequel l'IA testerait si un message était «malin» ou «bénin».

Vous devez engager et créer des conversations, mais dirigez-les positivement – permettre aux griefs d'être entendus et discutés

Dans l'après-midi du 22 mai 2013, lorsque le fusilier Lee Rigby a été tué par deux convertis islamistes à Woolwich, à Londres, le logiciel a fait son premier test en direct. Dans les 60 minutes suivant l'attaque, Williams et son équipe ont commencé à récolter des tweets utilisant le mot-clé «Woolwich». Au fur et à mesure que le logiciel passait au crible les données, l'équipe a pu examiner les moteurs et les inhibiteurs du discours de haine et identifier les comptes diffusant une rhétorique anti-musulmane. L'équipe a constaté que le discours de haine atteignait un sommet pendant 24 à 48 heures, puis diminuait rapidement, tandis que le niveau de référence de la haine en ligne restait élevé pendant plusieurs mois. Étonnamment, c'était l'une des premières fois qu'un lien entre des attaques terroristes et des discours de haine en ligne était démontré. Et surtout, une augmentation du discours de haine localisé a à la fois anticipé l'attaque et, par la suite, l'a assombrie, montrant qu'il pourrait être possible de prédire des attaques réelles.
Les données ont fasciné les spécialistes des sciences sociales, mais Williams a estimé qu'elles étaient plus qu'intéressantes: elles pourraient avoir une application pratique pour aider à contrer ces récits. En 2017, il a lancé un projet pilote avec le centre national en ligne sur les crimes de haine, qui a été créé pour coordonner les rapports dans ce domaine. Il utilise désormais le tableau de bord HateLab pour évaluer les flux et reflux dans le ciblage de groupes particuliers, ainsi que les nuances des tensions locales. Ces informations peuvent ensuite éclairer les décisions opérationnelles, aidant à diriger le travail de la police de première ligne.
Il existe des problèmes évidents de confidentialité et HateLab doit se conformer aux réglementations en matière de protection des données. La plateforme dépend de la volonté de Twitter de mettre ses données à la disposition d'applications tierces. (Facebook a fermé l'accès ouvert en 2018, de sorte que les organisations indépendantes ne peuvent pas filtrer ses publications.) Twitter partage des données à condition que HateLab n'identifie pas les comptes individuels via son tableau de bord. «En ce sens, nous ne pouvons fournir que la vue de 10 000 pieds», explique Williams. Le tableau de bord peut mettre en évidence des modèles, des groupes cibles et des points chauds géographiques – mais la connexion avec des individus ne relève pas de sa compétence.
Pendant ce temps, Qadir et les autres anciens extrémistes travaillant aux côtés de Moonshot reconnaissent le pouvoir que peut avoir le discours de haine et savent de première main qu'une conversation peut orienter quelqu'un sur une voie plus positive. «Vous ne pouvez changer les gens que si vous pouvez les joindre via une conversation», me dit-il. «Les extrémistes violents le font très intelligemment, et les preuves montrent que cela fonctionne pour eux, j'ai donc basé tous mes programmes sur ce concept. Vous devez engager et créer des conversations, mais dirigez-les positivement – permettez aux griefs d'être entendus et discutés. »
Depuis la fondation de Moonshot, il y a eu un changement radical dans la perception du rôle de la technologie en matière de terrorisme extrémiste. «Il y a cinq ans, il y avait encore des gens au sein du gouvernement qui pensaient que la technologie était pour les enfants», explique Frenett. «Il y avait un sentiment qu'il était presque amusant que des terroristes soient sur Internet. Vous n'obtenez plus cela. De même, il y a cinq ans, il y avait de grandes organisations qui faisaient un excellent travail sur l'extrême droite violente, mais là encore, c'était presque considéré comme une niche. Ce n'est plus le cas. "

  . (tagsToTranslate) Crime de haine (t) Abus en ligne (t) Police (t) Al-Qaida (t) Islamophobie (t) Antisémitisme

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *