
Foto: ID 269826114 © Rokas Tenys | Dreamstime.com
05/03/2026
Ce știe ChatGPT despre tine și de ce ar trebui să te îngrijoreze
Pentru o caricatură reușită cu noi la locul de muncă, hrănim cu informații valoroase, precum locația noastră exactă, un AI.
Multă lume s-a lăudat pe social media cu cât de bine îi cunoaște AI-ul și ce imagine exactă și, desigur, flatantă le-a făcut ChatGPT pe baza datelor pe care le avea despre ei. Bucuria că au fost surprinși cum nu se poate mai bine nu a putut fi umbrită de ideea că ChatGPT și alții ca el - Claude, Perplexity, Grok și alte rude - sunt: 1. modele de limbaj, fără rațiune; 2. programate să zică doar de bine; 3. sarcofage ce se hrănesc cu date, cât mai multe date.
Ce lăsăm, însă, în urmă pe internet și ce se poate întâmpla cu datele noastre, fie că e vorba de locul de muncă, de analize de la medic sau poze cu detalii din viața personală?
Am întrebat-o pe Ana Maria Stancu, CEO Bucharest Robots, fondatoare RoboHub și lector la SNSPA, cum putem evalua riscurile la care ne supunem când hrănim AI-ul cu ce avem noi mai bun - informațiile noastre sensibile, fie că vorbim de cele personale, fie de cele profesionale.
„Oamenii nu-și dau seama ce se poate face cu informațiile lor", spune Ana Maria Stancu.
Nu e prima dată. Dar de data asta e mai grav.
Acum vreo doi ani, o platformă care te îmbătrânea digital a făcut furori pe aceleași rețele de socializare. Îți urcai poza, ea îți arăta cum vei arăta la bătrânețe, tu distribuiai fericit. Nimeni nu întreba cine e firma din spate, ce face cu pozele, cui le vinde.
Același scenariu, același reflex. Doar că între timp, miza a crescut.
„Toată lumea s-a enervat când Meta a dat datele noastre la Cambridge Analytica. Și acum le dăm de bunăvoie, fără să ni le mai ceară", spune Ana Maria Stancu. „Aplicația aia pur și simplu îți lua pozele și putea să le folosească pentru antrenare."
Diferența față acum e că știm - sau ar trebui să știm - cum funcționează antrenarea modelelor AI pe imagini. Nu e o tehnologie nouă, apărută odată cu ChatGPT. E de ani de zile în uz. Iar faptul că o platformă pare inofensivă nu înseamnă că este.
Mulți ne citesc, puțini ne susțin. Fără ajutorul tău, nu putem continua să scriem astfel de articole. Cu doar 5 euro pe lună ne poți ajuta mai mult decât crezi și poți face diferența chiar acum!
O poză nu e doar o poză
Când încarci o fotografie pe o platformă online, nu încarci doar ce se vede. Încarci metadate - informații invizibile îngropate în fișier care pot include data, ora și, dacă ai avut GPS-ul pornit pe telefon, locația exactă unde a fost făcută poza.
„Orice poză pe care o încărcăm are metadate. Metadatele acelea îți spun exact unde ai fost când ai făcut poza", explică Stancu. „Și toate informațiile astea se coroborează cu ce mai pui pe Facebook sau ce mai găsești online."
Exemplul ei e simplu și concret: dacă postezi în fiecare luni că mergi la facultate, cineva care te urmărește știe că nu ești acasă între anumite ore. În cel mai inofensiv scenariu, suficient pentru a-ți folosi cardul
AUDIO. „Ia dă-ți tu voie să vedem ce-i cu păsărica ta.” Înregistrare șocantă din cabinetul lui Ion Duvac, membru în comisia în care sunt analizate cazurile de abuz din Colegiul Psihologilor
Ion Duvac, doctor în psihologie și membru în Comisia de Deontologie și Disciplină a Colegiului Psihologilor din România, își hărțuiește sexual pacientele prin propuneri sexuale explicite și cere poze cu părțile intime ale femeilor, încă de la prima ședință, potrivit unei înregistrări ajunse în posesia redacției.
Muncitori din Asia și Africa, aduși în România fără reguli clare: un proces de un an, costuri netransparente și lipsa instrumentelor juridice pentru controlul pieței
Până acum statul român nu s-a implicat deloc în reglementarea importurilor forței de muncă, altfel decât oferind anual contingente de permise de muncă a câte 100.000. Cifră care, pentru 2026, a scăzut la 90.000.
Dar riscul imediat, cel de care auzim tot mai des, e altul: deepfake-ul.
„De la o poză de-asta poți să faci un deepfake. Un clip urcat cu tine vorbind înseamnă că îți pot clona vocea și să-ți sune mama să-i ceară bani. Un selfie înseamnă că pot face un apel video”, explică Ana Maria Stancu.
Când deepfake-ul abia apăruse ca tehnologie accesibilă, un angajat al unei companii mari a transferat sute de milioane de euro după ce l-a sunat cineva cu un video deepfake al șefului său. Astăzi, toolurile care fac o poză să vorbească sunt gratuite și la îndemâna oricui.
Un newsletter pentru cititori curioși și inteligenți.
Sunt curios
Fraudele telefonice de tipul „fiul tău a avut un accident, trimite bani repede" au evoluat. Acum pot veni cu vocea fiului tău.
ChatGPT nu o să-ți zică niciodată că greșești
Înainte să mergem mai departe, merită să înțelegem cu ce avem de-a face. ChatGPT, Claude, Gemini și celelalte nu sunt inteligențe care gândesc. Sunt modele de limbaj - sisteme statistice extraordinar de sofisticate care prezic cel mai probabil cuvânt următor pe baza a ceea ce au „citit" și a ceea ce le scrii tu.
„Calculatoarele nu văd, nu aud, nu gândesc. Lucrează cu 1 și 0. Fac niște statistici și interpretează niște date, atât.”
Iar aceste sisteme sunt construite să dea răspunsuri cât mai apropiate de ce ai scris tu. Primesc „recompense" - în termeni tehnici, semnale de optimizare, când răspunsul lor se potrivește cu așteptările utilizatorului.
Consecința directă e că nu o să-ți zică niciodată că greșești cu adevărat: „dacă îi scrii că prietenii tăi sunt tâmpiți, o să zică: da, ai dreptate. Nu o să-ți zică: poate ești tu cam nervos azi."
„Sunt studii care arată că oamenii dezvoltă psihoze. Trăiesc într-o bulă", spune ea. „Și se întâmplă și în România, inclusiv la copii. Lumea zicea că nu avem cazuri - eu cred că nu le știm."
Stancu predă etică în AI studenților de la SNSPA și face cursuri de educație digitală pentru profesori - 3.000 până acum, în doi ani, din aproape în aproape, fără sprijin instituțional.
„Ministerul nu vrea să preia exemplul de bună practică la nivel național", spune ea. Nici părinții nu știu, nici profesorii nu știu, iar copiii sunt lăsați să zboare liberi prin AI-uri fără ca nimeni să le explice că validarea primită de la un chatbot nu înseamnă nimic.
Datele de la muncă, un risc ignorat
Dacă riscurile personale par abstracte, cele profesionale sunt mai ușor de cuantificat - și mai des ignorate.
Fenomenul se numește Shadow AI: angajații folosesc ChatGPT sau alte tooluri în activitatea lor zilnică fără ca angajatorul să știe și fără nicio politică clară în firmă. Ca să termine mai repede un raport, ca să redacteze un e-mail, ca să rezume un document. Și în procesul acesta, urcă în platforme comerciale date care n-ar trebui să iasă din firmă.
„Le zic tuturor în training-uri: în primul rând, încălcați GDPR", spune Stancu. „Dacă documentul vostru ajunge online în urma unui breach - și e cu când, nu cu dacă - voi sunteți responsabili."
Cazurile există la cel mai înalt nivel. Un șef al unui departament de Cyber din guvernul american a pus un document confidențial în ChatGPT. O firmă mare a predat guvernului american un raport de 400.000 de dolari generat cu ChatGPT. O companie din aeronautică a descoperit că informații cu coduri interne, introduse de un angajat în conversații cu AI-ul, au ajuns să fie oferite altor utilizatori - modelul le folosise pentru antrenare.
Realitatea din România e și mai simplă și mai îngrijorătoare: „Firmele nu folosesc nici măcar varianta plătită. O folosesc pe cea free, care e cel mai puțin securizată. Ce politică să ai când nici măcar nu-ți cumperi un abonament?"
AI Act-ul european prevede că din februarie 2024, companiile care folosesc AI trebuie să-și instruiască angajații măcar la nivel de introducere. Dar cine verifică? Instituția care ar trebui să monitorizeze nu există încă. Comisia Europeană a întârziat implementarea. Și presiunile comerciale și politice dinspre America - unde administrația încearcă să limiteze legislația statelor în domeniu - complică și mai mult tabloul.
Datele tale, alegerile tale
Cel mai inofensiv risc la care ne expunem când hrănim AI-ul cu date personale e publicitatea țintită. Dar publicitatea e, ironic, cel mai mic dintre probleme.
„Gândește-te ce se va întâmpla la alegeri", spune Stancu. „Cambridge Analytica a folosit machine learning cu datele pe care le avea. Acum nici măcar nu trebuie să le mai dea Meta - le dăm noi de bunăvoie. Profilul e deja gata format. Nici nu mai trebuie să-ți bați capul."
Ea e convinsă că la următoarele alegeri, datele din platformele de AI vor fi folosite pentru profilare și targetare politică. Nu e o conspirație - e logica unui sistem în care companiile au acces la cele mai intime conversații ale utilizatorilor, inclusiv la fricile, convingerile și îndoielile lor.
Iar dacă ți se pare că asta nu te privește pentru că „nu folosești AI-ul atât de mult" - AI-ul te privește oricum.
Îl găsești în sistemele de recrutare care îți citesc CV-ul fără ca un om să se mai uite la el, în algoritmii băncilor care decid dacă primești un credit, în platformele medicale. AI Act-ul european clasifică toate acestea drept „sisteme cu risc înalt" și impune prezența unui om în decizie tocmai pentru că miza e prea mare. Dar reglementarea nu înseamnă nimic fără aplicare.
Ce poți face, concret
Ana Maria Stancu nu folosește AI-ul pentru nimic în afara sferei profesionale. ChatGPT-ul ei nu știe că are copii, nu știe pe unde locuiește, nu a văzut niciun document de identitate.
„Nu îi scriu absolut nimic altceva decât ce este în sfera mea profesională", spune ea. „Asta trebuie să înțeleagă oamenii - ce beneficiu am dacă pun lucrul ăsta versus ce risc asum."
Câteva reguli practice, cât se poate de simple.
Nu urca documente cu date personale - buletin, analize medicale, contracte - în nicio platformă AI comercială. Nu introduce în ChatGPT sau similar date confidențiale de la muncă. Verifică setările de confidențialitate ale platformelor pe care le folosești și dacă conversațiile tale sunt folosite pentru antrenare.
Dacă ești angajator, stabilește o politică clară privind folosirea AI în firmă, înainte ca angajații s-o facă oricum, pe cont propriu. Vorbește cu copiii despre ce înseamnă validarea de la un chatbot și de ce e diferită de cea umană.

Avem nevoie de ajutorul tău!
Mulți ne citesc, puțini ne susțin. Asta e realitatea. Dar jurnalismul independent și de serviciu public nu se face cu aer, nici cu încurajări, și mai ales nici cu bani de la partide, politicieni sau industriile care creează dependență. Se face, în primul rând, cu bani de la cititori, adică de cei care sunt informați corect, cu mari eforturi, de puținii jurnaliști corecți care au mai rămas în România.
De aceea, este vital pentru noi să fim susținuți de cititorii noștri.
Dacă ne susții cu o sumă mică pe lună sau prin redirecționarea a 3.5% din impozitul tău pe venit, noi vom putea să-ți oferim în continuare jurnalism independent, onest, care merge în profunzime, să ne continuăm lupta contra corupției, plagiatelor, dezinformării, poluării, să facem reportaje imersive despre România reală și să scriem despre oamenii care o transformă în bine. Să dăm zgomotul la o parte și să-ți arătăm ce merită cu adevărat știut din ce se întâmplă în jur.
Ne poți ajuta chiar acum. Orice sumă contează, dar faptul că devii și rămâi abonat PressOne face toată diferența. Poți folosi direct caseta de mai jos sau accesa pagina Susține pentru alte modalități în care ne poți sprijini.
Vrei să ne ajuți? Orice sumă contează.
Share this



