Local

Când medicina întâlnește algoritmii. Pericolele autodiagnosticului cu ajutorul inteligenței artificiale

„PROFESIONIȘTII” INTERNETULUI ȘI AUTOSUFICIENȚA…Tot mai mulți pacienți folosesc sisteme de inteligență artificială pentru a-și evalua simptomele, însă medicii avertizează că răspunsurile pot fi incomplete, eronate sau chiar periculoase. Fenomenul se extinde rapid și în România, într-un context în care accesul la consultații medicale este adesea limitat, iar tehnologia pare o soluție la îndemână.

În ultimii ani, inteligența artificială a pătruns în viața publicului într-un ritm fără precedent. De la platforme care scriu texte, analizează imagini sau explică noțiuni medicale, până la aplicații care promit să „interpreteze simptome”, mulți pacienți se simt tentați să pună diagnostice virtuale înainte de a ajunge la un medic. Fenomenul nu este doar românesc. În Statele Unite, Anglia și Germania, cercetările arată că milioane de oameni întreabă zilnic platformele AI „ce boală ar putea avea”. În România, fenomenul este alimentat de lipsa medicilor de familie în numeroase localități, de listele lungi pentru consultațiile de specialitate și de dorința oamenilor de a primi răspunsuri rapide. La prima vedere, pare o soluție modernă, sigură și comodă. În realitate, medicii și organizațiile internaționale avertizează că autodiagnosticul asistat de AI poate deveni un pericol real pentru sănătatea publică.

Valul tăcut al consultațiilor cu algoritmi

Un studiu publicat în 2023 în JAMA Internal Medicine a analizat răspunsurile generate de modele de inteligență artificială la întrebări medicale reale formulate de pacienți. Concluzia: platformele pot oferi explicații coerente, însă între 12 și 20% dintre recomandări aveau potențial periculos. A fost confirmat faptul că acuratețea diagnosticării variază mult, algoritmii fiind sensibili la formularea întrebării și la lipsa detaliilor clinice esențiale. Cu alte cuvinte, AI poate suna extrem de convingător și, în același timp, poate greși exact acolo unde o eroare este mai riscantă, în interpretarea simptomelor.

De ce nu poate AI să pună un diagnostic corect? 

Unul dintre motivele fundamentale este că AI nu poate „cunoaște” pacientul real. Un diagnostic corect depinde de istoricul pacientului, de factorii de risc, de tratamentele în curs, de alergii, de rezultatele anterioare, dar mai ales de examenul fizic și de investigațiile imagistice. Platformele AI nu au acces la aceste informații și nu pot compensa absența unui consult. În lipsa detaliilor, algoritmii fac ceea ce au fost construiți să facă: completează golurile cu ipoteze. De aici apare fenomenul de „halucinație”, când modelul generează răspunsuri incorecte formulate într-o manieră perfect credibilă. Cu avansarea modelelor de AI, de la versiuni vechi la cele actuale ca ChatGPT 5.1, 5.2, deși răspunsurile sunt mai detaliate și par mai corecte, ajung să „halucineze” din ce în ce mai mult. Riscul nu este doar teoretic. În practică, pacienții pot confunda simptome grave cu probleme minore. O amorțeală bruscă într-un braț poate fi trecută drept „oboseală”, deși poate fi debutul unui AVC. O apăsare în piept poate fi interpretată drept „anxietate”, deși poate semnala un infarct. O durere abdominală persistentă poate fi prezentată de AI ca „indigestie”, deși poate ascunde o apendicită sau o pancreatită. În astfel de cazuri, timpul pierdut în urma unui sfat greșit poate avea consecințe dramatice.

Autotratamentul: când pacienții urmează indicațiile unui algoritm

Un alt risc, tot mai frecvent, este autotratamentul. Unele platforme generează liste de medicamente posibile, fără a ține cont de contraindicații sau interacțiuni. Pacienții cu afecțiuni cardiace, neurologice sau hepatice pot lua decizii bazate pe informații insuficiente, cu riscuri reale de complicații. American Medical Association avertizează că pacienții tind să urmeze recomandările AI fără verificare, deoarece formularea clară și autoritară induce falsa impresie de profesionalism. Există însă și un efect psihologic puternic: anxietatea. Platformele pot enumera diagnostice severe chiar și pentru simptome banale. Mulți pacienți ajung la medic nu doar bolnavi, ci speriați, convinși că au o boală gravă, deși realitatea este mult mai simplă. La polul opus, unii pacienți se liniștesc prea mult după ce AI le oferă o explicație „benignă” și amână consultul, deși simptomele sunt serioase. Organizația Mondială a Sănătății a emis o declarație fermă privind utilizarea necontrolată a modelelor generative în sănătate, avertizând că acestea pot produce informații inexacte, incomplete sau părtinitoare, cu impact asupra sănătății publice. European Medicines Agency a subliniat că niciun model AI de uz general nu este aprobat ca dispozitiv medical în UE și nu poate fi utilizat pentru diagnostic sau pentru recomandarea tratamentelor. Iar American Medical Association recomandă explicit ca AI să fie folosit doar ca instrument auxiliar pentru profesioniști, nu de pacienți.

AI, prin modul în care formulează răspunsurile, creează iluzia unei autorități profesionale

În Vaslui, pericolul este amplificat de realitățile sistemului medical. Numeroase comune nu au medic de familie. Locuitorii din zonele rurale depind de transportul la distanțe mari pentru consultații. Educația medicală este scăzută, iar accesul la investigații moderne este redus. Pentru mulți oameni, AI pare o soluție logică: răspunde repede, explică simplu și este gratuit. Doar că această simplitate este înșelătoare. Responsabilitatea nu este, însă, exclusiv a pacienților. Lipsa informațiilor medicale clare, orientate către public, îi împinge pe oameni spre surse online. Mulți pacienți simt că au nevoie de sprijin imediat, înainte de consult. În lipsa unei educații medicale solide, nu pot evalua calitatea informației. Iar AI, prin modul în care formulează răspunsurile, creează iluzia unei autorități profesionale. Este de înțeles de ce această tendință a oamenilor de a internaliza o informație livrată într-o formă de empatie mascată, se regăsește în rândul cât mai multor oameni. Totuși, sistemele AI nu se bazează decât pe algoritmi, deci nu au o experiență clinică care să-și spună cuvântul. Asta nu înseamnă că tehnologia nu are un rol important în medicina modernă. Dimpotrivă, inteligența artificială este deja folosită în analiză imagistică, în interpretarea ECG-urilor, în screeningul unor boli oncologice sau în triajul medical. În aceste contexte, însă, AI este folosită sub supravegherea strictă a medicilor, pe date controlate, cu protocoale clare și cu responsabilitate profesională.

De ce e fenomenul și mai periculos în România, dar mai ales în Vaslui 

3d rendering ai robot think or compute

ÎNGRIJORĂTOR… Ceea ce lipsește, atât în România, cât și în alte țări, este delimitarea clară între utilizarea medicală profesionistă și utilizarea publică necontrolată. Un algoritm conceput pentru a scrie poezii sau pentru a rezolva exerciții de matematică nu poate evalua, în mod sigur, riscurile unui pacient real. Medicina nu este o disciplină bazată pe probabilități abstracte, ci pe evaluarea unui organism complex, a unui istoric personal, a unui context real. Ce pot face pacienții în fața acestei avalanșe de informații? În primul rând, să consulte un medic atunci când au simptome noi, severe sau persistente. AI poate fi utilă ca instrument de informare generală, pentru explicarea unor termeni medicali sau pentru înțelegerea unor concepte, dar nu pentru diagnostic. În al doilea rând, este important ca informațiile să fie verificate în surse oficiale: Organizația Mondială a Sănătății, Ministerul Sănătății, Centrul European de Prevenire și Control al Bolilor sau site-urile societăților medicale profesionale. În al treilea rând, pacienții ar trebui să își cunoască factorii de risc și să discute periodic cu medicul de familie sau cu un specialist.

Caseta Poate AI să înlocuiască medicul?

CONCLUZIE…În final, rămâne întrebarea centrală: poate AI să înlocuiască medicul? Răspunsul, potrivit tuturor organizațiilor medicale internaționale, este categoric nu. Poate fi un ajutor în spital, în mâinile profesioniștilor. Poate sprijini analiza unor imagini complexe. Poate anticipa riscuri pe baza unor seturi mari de date. Dar nu poate evalua un pacient real, nu poate palpa un abdomen, nu poate ausculta un plămân, nu poate simți semnele subtile ale unei boli, nu poate înlocui empatia și intuiția umană, construite pe ani de experiență clinică. Inteligența artificială nu este dușmanul medicinei, este un instrument. Ca orice instrument puternic, are nevoie de limite clare, de responsabilitate și de înțelegere. Iar în ceea ce privește autodiagnosticul, mesajul medicilor rămâne clar: atunci când vine vorba despre sănătate, sursa cea mai sigură de informație este tot medicul. Exemple reale ale efectului negativ ale AI-ului se pot observa în spitalele din țară, de la pacienți care refuză investigații, intervenții, care critică scheme de tratament sau timpii operatori, până la grupul pacienților care se conving că sunt bolnavi, deși clinic sunt perfect sănătoși. Desigur, nu putem învinovăți doar populația care alege surse de informare de acest gen, la fel de vinovați sunt și cei din grupul profesioniștilor și specialiștilor, care nu exersează mai des empatia și care frecvent eșuează în a oferi liniște și încredere pacienților.

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Back to top button