Sponzorizat de newsflash.ro
Activision va folosi sistemul ToxMod de la Modulate pentru a modera discursul instigator la ură.
Jocurile au puterea de a conecta oameni din întreaga lume prin distracție și lucru în echipă, dar pot, de asemenea, să creeze un spațiu propice pentru vorbire și ură toxice. Activision încearcă să minimizeze acestea din urmă, anunțând o nouă colaborare cu Modulate, o companie care folosește tehnologia pentru a identifica aceste probleme, pentru moderarea directă a chat-ului vocal în Call of Duty.
Sistemul AI al lui Modulate, ToxMod, încearcă să identifice amenințări precum discursul instigator la ură, radicalizarea și autovătămarea în timp real. Pretinde că funcționează în trei pași: triaj, analiză și escaladare.
ToxMod ascultă toate conversațiile vocale și punctele care merită o analiză suplimentară. Aceste date marcate sunt stocate pe serverele lor, în timp ce toate celelalte date vor fi procesate chiar pe dispozitivul inițial. Compania spune că apoi evaluează totul, de la ton la emoție, analizând nu numai „ceea ce se spune, ci și modul în care se spune și modul în care alți jucători răspund la asta”. În cele din urmă, încearcă să alerteze moderatorii despre cele mai toxice incidente și le lasă la latitudinea lor să ia măsuri.
Compania susține că este „singura soluție de moderare vocală nativă” disponibilă în prezent, care a protejat „zeci de milioane de jucători”.
Gata cu jucătorii toxici
Integrarea ToxMod ar putea ajuta la prevenirea răspunsurilor toxice în ansamblu, lucrând alături de sistemele existente centrate pe text și de raportare. „Abordarea discuțiilor vocale perturbatoare în special a fost de multă vreme o provocare extraordinară în jocurile de noroc”, a declarat Michael Vance, directorul de tehnologie al Activision, într-un comunicat.
„Prin această colaborare, aducem acum tehnologia de învățare automată de ultimă oră a Modulate, care se…
Sponzorizat de newsflash.ro
Citeste continuarea pe playtech.ro