Simulare VisageCloud. Foto: Bogdan Bocșe
12/12/2017
Cum poți ajunge suspect din cauza unui soft
Programele de recunoaștere facială pot duce la identificarea greșită a suspecților de săvârșirea unor infracțiuni.
Această îngrijorare a început să fie discutată după ce poliția americană, care utilizează deja în pratica de zi cu zi un soft pentru identificarea suspecților, a fost acuzată că folosește în mod abuziv această unealtă, achitându-se cu prea multă ușurință de sarcinile care îi revin.
Cotidianul britanic The Guardian a publicat un articol despre așa-numitul „сaz Lynch”. Este vorba de arestarea în vara lui 2015 a unui dealer de droguri, Willie Lynch, din Jacksonville Florida, arestare care s-a bazat doar pe câteva fotografii făcute cu un smartphone în timpul unei așa-zise tranzacții.
Mai mulți specialiști în securitatea cibernetică și protejarea datelor personale afirmă că acest caz este reprezentativ pentru сeea ce se numește „biometrică imperfectă”.
Softul de recunoaștere facială este utilizat de câțiva ani în SUA de către poliție și alte agenții guvernamentale de protecție.
Dacă este vorba despre o persoană de culoare, există mai multe șanse ca aceasta să apară în baza de date folosită de tehnologiile de recunoaștere facială, dar și ca softul să se înșele în privința sa.
Spre exemplu, un raport executat în 2016 de o cercetătoare de la Universitatea din Georgetown, Clare Garvie, a constatat că indivizii de culoare sunt cel mai adesea analizați cu mai multă atenție de software-ul de recunoaștere a feței.
Studiul ei a fost coroborat cu o cercetare proprie a FBI, care pare să conducă înspre același rezultat: că există probabilitatea însemnată ca softul să fie incorect atunci când nu este folosit pe albi.
Vrem să putem relata în profunzime despre viața de zi cu zi a românilor, așa cum e ea. Dacă e important și pentru tine, ajută-ne să o ducem la capăt! Orice sumă contează.
În străinătate, dezbaterea pe acest subiect merge până la acuzația că algoritmii implicați în tehnologia de recunoaștere facială conțin сoduri rasiale. Ce înseamnă asta?
Cel mai adesea, inginerii IT care scriu coduri sunt albi. Ei construiesc codurile bazelor de date – în acest caz, tipuri de fețe – cu ajutorul unor mecanisme recunoscute de motoare de căutare, construite, la rândul lor, tot de ingineri albi.
Când se construiesc acești algoritmi, ei se concentrează asupra unor trăsături faciale care sunt mai vizibile decât altele, astfel că mașinăria învață singură să aibă propriile prejudecăți cu privire la figurile din alte rase.
Apă și talpă. Să alergi toată Via Transilvanica. Și să rămâi în viață.
Aceasta este povestea unui documentar de lung metraj care tocmai a intrat în cinematografe. Filmul e un must see, nu doar de către pasionații de alergare sau fanii Via Transilvanica. Este pur și simplu un film onest, dinamic, care conține fascinante felii de viață. E genul de film care pare prea scurt. Când se termină simți că ai fi vrut să mai vezi.
Reportaj: Minerii care sting lumina. De ce s-au bătut oamenii din Valea Jiului pe slujbele din subteran
325 de posturi au fost aruncate pe piață la începutul lunii septembrie 2024 și candidații s-au înghesuit să-și depună dosarele. Paradoxul închiderii minelor din Valea Jiului e că e nevoie de oameni în subteran.
Codul este orientat să se concentreze pe fețele albe și este în cea mai mare parte testat pe subiecți albi.
„Astfel de probleme se reduc la diversitatea seturilor de date, atât cele de antrenare, cât și cele de test/evaluare. Cazurile regretabile când un algoritm pare a face discriminări sunt din cauza antrenării pe seturi prea mici de date sau care manifestă prea puțină generalitate/diversitate. Acuratețea recunoașterii persoanelor de rase diferite poate fi redusă dacă, în setul de date, anumite rase sunt sub-reprezentate.”
Bogdan Bocșe, fondatorul VisageCloud, prima soluție românească de recunoaștere facială
Un newsletter pentru cititori curioși și inteligenți.
Sunt curios
Altfel spus, fiindcă setul de date cu figuri provenind din alte rase este mai mic, în comparație cu rasa albă, programele inteligente de recunoaștere facială ar putea percepe imaginile cu suspecți de culoare sau asiatici ca fiind anomalii și le vor singulariza, făcând identificarea corectă mai puțin probabilă.
Avem nevoie de ajutorul tău!
Jurnalismul independent nu se face cu aer, nici cu încurajări, și mai ales nici cu bani de la partide, politicieni sau industriile care creează dependență. Se face, în primul rând, cu bani de la cititori, adică de cei care sunt informați corect, cu mari eforturi, de puținii jurnaliști corecți care au mai rămas în România.
De aceea, este vital pentru noi să fim susținuți de cititorii noștri.
Dacă ne susții cu o sumă mică pe lună, noi vom putea să-ți oferim în continuare jurnalism independent, onest, care merge în profunzime, să ne continuăm lupta contra corupției, plagiatelor, dezinformării, poluării, să facem reportaje imersive despre România reală și să scriem despre oamenii care o transformă în bine. Să dăm zgomotul la o parte și să-ți arătăm ce merită cu adevărat știut din ce se întâmplă în jur.
Ne poți ajuta chiar acum. Orice sumă contează, iar faptul că devii și rămâi abonat PressOne face toată diferența. Poți folosi direct caseta de mai jos sau accesa pagina Susține pentru alte modalități în care ne poți sprijini.
Vrei să ne ajuți? Orice sumă contează.
Share this