Jocurile video de tipul first-person shooter, cum ar fi Call of Duty, sunt notorii pentru toxicitatea din conversațiile vocale și lobby-urile lor. Sondajele au clasificat baza de fani a francizei ca fiind cea mai negativă din întreaga lume a jocurilor video; o dată, o ceartă între doi jucători a dus la chemarea unei echipe SWAT. Activision încearcă de ani de zile să combată acest comportament, iar o parte din soluție ar putea implica inteligența artificială.
Activision s-a asociat cu o companie numită Modulate pentru a aduce „moderarea conversațiilor vocale în joc” în titlurile lor. Noul sistem de moderare, care folosește o tehnologie AI numită ToxMod, va lucra pentru a identifica comportamente precum discursul de ură, discriminarea și hărțuirea în timp real. Lansarea inițială a beta-ului ToxMod în America de Nord începe astăzi. Este activ în Call of Duty: Modern Warfare II și Call of Duty: Warzone. O „lansare completă la nivel mondial” (care nu include Asia, notează comunicatul de presă) va urma pe 10 noiembrie, odată cu lansarea Call of Duty: Modern Warfare III, noul titlu al francizei de anul acesta.
Comunicatul de presă al Modulate nu include prea multe detalii despre modul în care funcționează exact ToxMod. Site-ul său notează că instrumentul „triagează conversațiile vocale pentru a semnala comportamentul rău, analizează nuanțele fiecărei conversații pentru a determina toxicitatea și permite moderatorilor să răspundă rapid la fiecare incident, furnizând context relevant și precis”. CEO-ul companiei a declarat într-un interviu recent că instrumentul vizează să depășească simpla transcriere; ia în considerare factori precum emoțiile și volumul jucătorului, pentru a diferenția declarațiile dăunătoare de cele jucăușe.
Este demn de remarcat faptul că instrumentul (cel puțin pentru moment) nu va lua de fapt măsuri împotriva jucătorilor pe baza datelor sale, ci va trimite doar rapoarte moderatorilor Activision. Implicarea umană va rămâne probabil o măsură de siguranță importantă, deoarece cercetările au arătat că sistemele de recunoaștere a vorbirii pot afișa prejudecăți în modul în care răspund utilizatorilor cu diferite identități rasiale și accente.
Sursa: The Verge