Dragoș Stanca, ThinkDigital Group: Un manual de educație media e mai indicat decât cel de sport sau de dirigenție

Dragoș Stanca pledează pentru studierea mediului online în școală. Foto: Arhiva personală

Facebook a început săptămâna trecută să implementeze și în România măsuri menite să combată răspândirea știrilor false. Ironic, prima victimă a fost pagina site-ului Times New Roman, al cărei reach (numărul de fani cărora le apar postările paginii în feed) a scăzut dramatic.

Într-un scurt interviu pentru PressOne, Dragoș Stanca, managing partner la ThinkDigital România (agenție parteneră a Facebook), explică de ce a inițiat Facebook această campanie, ce presupune ea și în ce măsură putem vorbi, în acest caz, despre cenzură sau despre anularea libertății de exprimare.

*

– Un prim pas ar fi ca oamenii să înțeleagă cum acționează Facebook împotriva acestor pagini și cum le evaluează ca având conținut fake

– Facebook a anunțat de luni de zile că va lua măsuri împotriva celor care abuzează platforma pentru a obține prin metode înșelătoare trafic ieftin, pe care ulterior îl monetizează pe site-uri terțe folosind, culmea, instrumente oferite de competitori direcți (gen Google).

În mod evident, scopul este dublu. Pe de o parte, e vorba de o "curățenie de vară" în newsfeed, care, dacă e dominat de astfel de știri, afectează dorința brandurilor de a investi cu entuziasm în Facebook. Pe de altă parte, e o măsură logică și sănătoasă atât pentru rețeaua socială, cât și pentru societate, în general.

Cu un drum, afectează marginal și alți competitori mai îngăduitori cu calitatea conținutului. Ca să o spun mai direct, și cei cu IQ redus, care nu deosebesc o știre reală de una falsă, cumpără bunuri și servicii, deci brandurile care nu au un filtru moral setat profită de această vulnerabilitate.

Legat de cum se întâmplă, evident Facebook nu dezvăluie – dacă ar face-o, sistemul ar putea fi păcălit –, însă e evident că e un proces automatizat 80% (raportări, sisteme bazate pe inteligență artificială), dar și asistat uman – estimez eu, cam în proporție de 20%.

Din cauza "porției" însemnate de automatizare, apar și vor mai apărea și victime colaterale, gen Times New Roman. Roboții nu au (încă) un simț al umorului atât de dezvoltat încât să facă distincții subtile și să recunoască nuanțele.

– Nu mă așteptam să-mi spui algoritmul, desigur, ci ce "experimentează" zilele astea un administrator de pagină cu conținut de acest tip. Ce se întâmplă, mai precis? Nu-ți mai văd postările cei care ți-au dat like...?

– Există mai multe niveluri de penalizare:

1) reach redus, adică postarea e distribuită spre mai puțini fani ai paginii și prieteni ai fanilor paginii,

2) reach zero, adică nu apare în newsfeed la nimeni,

3) suspendarea paginii cu totul, în cazuri de abateri grave de la politica Facebook

Există aceste precizări în termenii și condițiile platformei, pe care puțină lume le citește.

– Adică, putem să spunem că un sistem format din inteligență artificială și câțiva oameni scanează constant conținutul pe care îl postează paginile și decid, în funcție de niște criterii, să penalizeze acolo unde găsesc ceva ce li se pare că seamănă cu distribuirea de conținut fake pentru a genera click-uri pe alte site-uri?

– Metodologia nu e publică, la fel cum nu e nici rețeta de la Coca-Cola, dar, simplificând la maximum, sistemul e o combinație dintre judecată directă umană plus algoritmi automatizați.

– Au fost foarte multe discuții că asta înseamnă cenzură și că, practic, așa moare libertatea de exprimare. Crezi că e așa?

– Nu. Cred că e un proces complex și se va ajunge la un compromis acceptabil, în ciuda discuțiilor și controverselor. Eliminarea aberațiilor și a dezinformării nu ține de libertatea de exprimare, ci de deratizare.

Cred că poluarea minților e cel puțin la fel de dăunătoare ca practicile ne-etice din industriile alimentară sau farmaceutică. E firesc să se ia măsuri. La urma urmelor, Facebook e o companie privată care poate decide, fără să consulte pe nimeni, ce politică legată de distribuția de conținut are.

Sigur, există nuanțe și vor fi victime colaterale, însă, over all, eu cred că e un lucru foarte bun că se iau măsuri mai ferme pentru a limita fenomenul fake news.

– Din câte știu, acțiunea asta nu se rezumă doar la pagini – ci se șterg și conturi false, bots și trolli. Și asta analizând modelele de comunicare pe care le au. Știi să existe vreo estimare pentru numărul de conturi false în România?

– Nu dețin această informație, Facebook susține că procentul este "infim". Ca principiu, atât Facebook, cât și Google sunt "walled gardens of data". Ce zic ei legat de ce e în "grădina" lor trebuie luat de bun. Sau nu.

– Ca fost jurnalist, cât de ușor îți e să-ți dai seama că o știre e "făcătură"? O gherlă, ca pe vremuri...

– Foarte ușor, verificarea e foarte simplă: în primul rând, trebuie verificat dacă domeniul e unul de încredere, al unui brand cunoscut de media. Dacă nu e, șansele să avem de-a face cu fake news sunt crescute.

În al doilea rând, o căutare după informațiile de bază din articol poate fi edificatoare. Dacă mai apare în surse serioase, șansele să fie un fake scad dramatic.

Nu în ultimul rând, se aplică filtrul bunului-simț, însă dacă educația gândirii critice este precară, această etapă e mai dificilă.

Eu, unul, aș susține introducerea educației media în școli. Cred că un manual care să educe publicul în sensul acesta e mai indicat decât cel de sport sau de dirigenție.