Peste 40 de milioane de oameni întreabă ChatGPT despre sănătate în fiecare zi Foto: ID 397899861 | Ai Doctor © BiancoBlue | Dreamstime.com

Peste 40 de milioane de oameni întreabă ChatGPT despre sănătate în fiecare zi Foto: ID 397899861 | Ai Doctor © BiancoBlue | Dreamstime.com
30/03/2026
Medicul ChatGPT. Ce se întâmplă când îi ceri inteligenței artificiale să-ți interpreteze analizele
Pe la începuturile lui dr. AI, am făcut Miastenia Gravis, adică o boală autoimună rară.
M-a diagnosticat noul meu prieten ChatGPT, după doar câteva discuții. O serie de controale și multe analize nedecontate mai târziu, medicina reală a decis că nu aveam miastenia gravis. Era vorba de „clasicul” burnout. Tratament? Să dorm mai mult. O cură de magneziu. Poate să-mi schimb ochelarii. Musai să folosesc abonamentul la sală mai des de o dată pe anotimp. Nimic mai complicat de-atât.
Pe măsură ce a evoluat, ChatGPT a devenit partenerul meu de discuții medicale, pentru că prietenii medici nu făceau față la câte dileme medicale aveam. Eu fiind sănătoasă tun, cu mici excepții uzuale, printre care, se pare, și ipohondria.
În scurta perioadă în care m-a obsedat viața sănătoasă și încercam să am o alimentație în baza unor rezultate genetice, ChatGPT îmi verifica și mesele. Între timp, m-am liniștit și nu i-am mai dat decât analizele pisicii.
Știam atunci că ce făceam mă punea într-o situație de vulnerabilitate? Că nu e ok să îi dai acces la date atât de personale, precum analize medicale sau rutina zilnică? Desigur că știam. Știam și cât de mult? Probabil că nu, deși mă pasionează subiectul.
O făceam, însă, din aceleași motive din care o facem toți: să ne calmăm anxietatea, să avem iluzia controlului sau să avem un partener de discuție.
Nu eram și nu sunt singura. Peste 40 de milioane de oameni întreabă ChatGPT despre sănătate în fiecare zi. Asta înseamnă 5% din tot traficul global al platformei.
Despre toate aceste lucruri am vorbit cu Tudor Galoș, Senior Privacy & AI Consultant, și cu Cristina Goanță, medic, șefa secției de ORL la Spitalul Colentina.
ChatGPT îți dă dreptate. Întotdeauna
Prima problemă pe care o ridică medicul Cristina Goanță nu e că AI-ul greșește. E că îți validează aproape orice.
Mulți ne citesc, puțini ne susțin. Fără ajutorul tău, nu putem continua să scriem astfel de articole. Cu doar 5 euro pe lună ne poți ajuta mai mult decât crezi și poți face diferența chiar acum!
„Ce am observat este că ChatGPT merge în direcția în care vrei tu să meargă. Gradul de subiectivism e foarte mare. Dacă vrei să iei un medicament, dacă vrei să schimbi doza, dacă crezi că ai un diagnostic, îți dă apă la moară. Nu te contrazice, îți confirmă”, explică doctorul.
Cercetările confirmă intuiția medicului: modelele sunt construite să prioritizeze utilitatea, nu corectitudinea.
„În medicină trebuie să prioritizăm acuratețea, chiar dacă asta înseamnă să fim mai puțin pe placul pacientului", spune Dr. Danielle Bitterman, Harvard Medical School - una dintre cercetătoarele care a documentat sistematic acest dezechilibru.
Medicul Cristina Goanță a testat personal ce spune ChatGPT în materie de dozaj: a cerut calcularea unui dozaj pentru o greutate atipică. Răspunsul primit varia de la un moment la altul: „Am calculat de mână și dozele nu coincideau. Dacă halucinează pe doze de medicamente, poți lua o cantitate greșită fără să știi." Iar lucrul ăsta se întâmplă des.
Ajută-ne să te cunoaștem și să fim mai aproape de tine
Lansăm noul sondaj PressOne pentru 2026. Vrem să vă cunoaștem mai bine și să înțelegem mai clar cine sunteți, ce vă preocupă, ce vă enervează și ce așteptări aveți de la noi.
„Nu aveam niciun simptom. Și totuși, eram la șase luni de cancer.” Cum genetica îți poate salva viata înainte să doară
Profilul genetic permite medicului să aleagă metoda potrivită și momentul potrivit pentru monitorizare. În unele cazuri, investigațiile încep cu ani mai devreme decât în screeningul standard. Scopul nu este găsirea bolii. Scopul este prevenirea ei sau detectarea într-un stadiu în care intervenția este minimă.
Același mecanism funcționează și cu antibioticele. Există boli, cum e amigdalita streptococică, în care dacă nu iei tratamentul complet - zece zile de antibiotic - faci recidivă.
„Dacă te simți bine după cinci zile și întrebi ChatGPT dacă poți să te oprești, sunt șanse mari să îți confirme că da, te simți bine, e suficient. Medicul ți-a spus zece zile dintr-un motiv, dar ChatGPT nu știe motivul acela”, adaugă Cristina Goanță.
Problema nu e doar subiectivismul. E și că modelul prezintă orice informație - corectă sau nu - cu același ton.
Un newsletter pentru cititori curioși și inteligenți.
Sunt curios
E foarte greu să antrenezi un model medical care să ajute cu adevărat, explică Tudor Galoș.
„ChatGPT a integrat în modelul public nu doar informații medicale, ci și informații de la vrăjitoare, vraci, tot felul de surse. El nu știe să facă diferența între sursele corecte și cele incorecte. Riscul e că îți dă un tratament greșit cu aceeași claritate cu care îți dă unul corect. Un om care minte sau care ezită dă semne - evită privirea, îi tremură vocea. Modelul scrie cu aceeași viteză și minciuna și adevărul”, explică Galoș.
Cristina Goanță vede deja efectele în cabinet.
„Uneori pacienții vin cu explicații foarte convingătoare de la ChatGPT, care sunt perfect plauzibile dacă nu ai făcut medicina. Trebuie să le explic de ce nu au sens și uneori e dificil”, susține medicul.
Uneori, adaugă medicul, chiar dacă argumentele pot fi corecte, ele nu sunt integrate în poveste, pentru că un pacient poate „avea simptome subiective sau ele pot fi corelate cu boli diferite, iar ChatGPT nu îți vede interiorul nasului”, completează ea.
Limite
„Problema cu AI-ul este că explorează la nesfârșit diagnostice. Dacă tu nu ai încredere în diagnostic și medic, ChatGPT îți va da apă la moară și riscul este să intri într-un rabbit hole (nr.red. să cauți foarte multe informații despre subiect) din care să nu mai ieși. De fapt, asta e principala problemă cu AI-ul - erodează încrederea medic-pacient. Dacă eu voi chestiona orice diagnostic și orice tratament, afectez însăși esența actului medical”, e de părere medicul Cristina Goanță.
ChatGPT nu are simțuri. Nu vede, nu pipăie, nu miroase și îi lipsește privirea de ansamblu. ChatGPT nu vede în relief, spune medicul Goanță.
„Am avut pacienți cu leziuni bucale care s-au tratat trei luni pentru afte, dar care aveau, de fapt, boli autoimune. Leziunile erau ușor denivelate - ceva ce simți la palpare și vezi direct, nu ceva ce descrii în cuvinte sau se vede în poze. ChatGPT nu putea să știe asta”, adaugă aceasta.
Cristina Goanță a testat și limitele modelului: i-a dat poze cu structuri anatomice din sala de operație. Nu le-a recunoscut. I-a oferit criterii anatomice descriptive. Tot nu le-a recunoscut.
„În diagnostice tumorale, de exemplu, diferența dintre o leziune benignă și una malignă chiar nu poate fi stabilită de un AI”, spune ea. Sau cel puțin nu de un LLM generalist, antrenat pe date neverificate.
Milioane de oameni cer sfaturi medicale de la AI. Pentru unii, ChatGPT are dreptate când medicul nu are. O poveste citată de NY Times arată cum un pacient a insistat pentru o procedură de diagnosticare mai invazivă, după ce chatbot-ul i-a spus că simptomele lui nu pot fi ignorate. I-a fost găsit un blocaj de 85% într-o arteră. Medicul său credea că monitorizarea e suficientă.
Ce se întâmplă cu datele tale
Dincolo de calitatea informației medicale, există o a doua problemă, mai puțin vizibilă: ce face sistemul cu datele pe care i le dai.
Tudor Galoș e direct și spune că din perspectiva confidențialității este o chestie foarte riscantă.
„ChatGPT funcționează prin natural language processing - interpretează datele de intrare, alege ce date lucrează, cum le analizează și cum le potrivește cu baza de cunoștințe. Riscul este că aceste informații pot fi stocate și, chiar dacă ștergi conversația, pot fi extrase mai târziu, accidental. S-a tot demonstrat că se întâmplă din nou și din nou, din cauza arhitecturii modelului. De exemplu, dacă îți încarci analizele, s-ar putea ca datele tale, cu numele tău, să iasă într-o conversație complet necorelată, într-un breach de securitate”, explică Tudor.
În ce măsură, privind macro, pot aceste date fi folosite pentru profilare și manipulare? Într-o măsură destul de mare, susține expertul, mai ales că nu se limitează doar la asta.
„Pot fi folosite fără ca vreun om să știe sau să vrea asta, pur și simplu pentru că sistemul evoluează. Mai ales când primește capabilități extinse. Ne putem trezi că suntem profilați și că sistemele ne țintesc pentru anumite obiective. Modelele nu mai primesc doar instrucțiuni să genereze text, ci primesc obiective - de exemplu, să ții un om în platformă. Exact cum funcționează algoritmul Meta: dacă dai hate pe o postare, el învață ce te-a înfuriat și continuă să-ți servească acel tip de conținut. Etica nu e modelabilă în inteligența artificială, modelul e pur statistic, iar în statistică matematică nu există aceste concepte”, adaugă acesta.
Există și ca datele să ajungă pe mâna guvernelor sau a unor entități care să le folosească pentru profilare și manipulare.
„Fix așa a funcționat Cambridge Analytica - fără LLM-uri, fără nimic din ce avem azi. Au urmărit comportamentul a sute de milioane de cetățeni, i-au profilat și au identificat ce conținut îi activează. În 2016, președintele Cambridge Analytica a demonstrat că știau despre fiecare persoană din Statele Unite aproximativ 6.000 de puncte de date - inclusiv ce le activează frica, religia, subiectul imigrației. LLM-urile culeg mult mai multe date și identifică aceste vulnerabilități mult mai rapid”, explică Tudor Galoș.
Un mecanism mai subtil e cel al vulnerabilităților trecătoare.
„Dacă ești mai nervos, mai instabil într-o perioadă, sistemul poate să îți servească conținut care să te determine să iei decizii pripite, pe care în mod normal nu le-ai lua", subliniază expertul.
Context în care, datele tale medicale - stările, simptomele, anxietățile pe care le descrii - pot deveni exact harta acestor vulnerabilități.
Cum arată protecția
Există, însă, și o cale de mijloc, prin care să-l folosești pe ChatGPT, Claude sau alte LLM-urile pentru a le întreba de roșu-n gât fără să te expui prea tare?
„Sunt două direcții. Prima e pentru companii — modele găzduite în propriul cloud: Microsoft Copilot sau Google Gemini în infrastructura ta. Costisitor, dar datele rămân la tine. A doua direcție, mai accesibilă individual, sunt small language models instalate local, pe propriul computer sau chiar pe telefon — există deja modele care rulează pe Android. Halucinează ceva mai mult, dar ai control total”, explică Tudor Galoș.
Nu e suficient să îți anonimizezi analizele înainte să le încarci, de exemplu prin tăierea numelui de pe buletinul de analize?
„Nu prea. Sistemul face corelații pe care tu nu le anticipezi. Un studiu din 2019 de la o universitate din Londra a demonstrat că, folosind doar 15 indicatori aparent neidentificabili, un model a identificat persoane cu 99,5% probabilitate. Și asta în 2019, când conceptul de LLM exista, dar ChatGPT nu apăruse încă”, subliniază Tudor.
Cine e responsabil?
Nu în ultimul rând, dacă lucrurile merg prost, pe cine dai vina? Dacă un medic greșește, poți face o reclamație la spitalul unde lucrează sau la Colegiul Medicilor. Există pârghii legale pentru a trage pe cineva la răspundere. Când ChatGPT greșește, practic e responsabilitatea ta că l-ai ascultat.
Tendința de a folosi astfel de modele vine și dintr-o lipsă de încredere în sistemul medical românesc, dar și dintr-o lipsă de acces. Nu vei putea niciodată discuta cu un medic un diagnostic așa cum ai putea să o faci cu ChatGPT.
În ianuarie 2026, OpenAI a răspuns cererii și a lansat ChatGPT Health, un model dedicat la care poți conecta dosarul medical, rezultatele de laborator, Apple Health. Încă nu poate fi testat la noi. În teorie, fiind gândit și antrenat pentru asta, ar trebui să facă mai puține greșeli medicale. Problema legată de confidențialitatea datelor însă rămâne deschisă. Piața există. Întrebarea e ce facem cu ea.
Indiferent de cât va evolua, un lucru rămâne valabil: ChatGPT nu e un medic prost. E ceva diferit: e un partener de conversație foarte convingător, care nu are nicio miză în a-ți spune adevărul și probabil că nici nu-l știe mai mult decât statistica în baza căreia funcționează. Care nu vede în relief, nu știe ce nu știe și care, cel mai important, nu te cunoaște - chiar dacă are toate analizele tale.
Avem nevoie de ajutorul tău!
Jurnalismul independent și de serviciu public nu se face cu aer, nici cu încurajări, și mai ales nici cu bani de la partide, politicieni sau industriile care creează dependență. Se face, în primul rând, cu bani de la cititori, adică de cei care sunt informați corect, cu mari eforturi, de puținii jurnaliști corecți care au mai rămas în România.
De aceea, este vital pentru noi să fim susținuți de cititorii noștri.
Dacă ne susții cu o sumă mică pe lună sau prin redirecționarea a 3.5% din impozitul tău pe venit, noi vom putea să-ți oferim în continuare jurnalism independent, onest, care merge în profunzime.
Share this



