„IA are potențialul de a fi o adevărată sursă de ajutor pentru medici și pacienți, oferind insiguri mai rapide și suport”, spune co-investigatorul Girish Nadkarni, MD, profesor la Icahn School of Medicine de la Mount Sinai și director AI al Mount Sinai Health System, într-un comunicat de presă.
„Dar are nevoie de mecanisme de protecție incorporate care verifică afirmațiile medicale înainte de a fi prezentate ca fapte. Studiul nostru arată unde aceste sisteme încă pot transmite informații false și indică modalități de consolidare a acestora înainte de a fi integrate în îngrijiri.”
Conform unui articol publicat în The Lancet Digital Health, cercetătorii au testat peste 3,4 milioane de solicitări de la modele LLM folosind 20 de modele diferite. Cercetătorii și-au propus să evalueze modul în care aceste sisteme reacționează la dezinformarea medicală în diverse formate, inclusiv cele întâlnite în forumuri publice și pe rețelele de socializare, notele de externare din spitale cu erori introduse și diferite povești medicale inventate ghidate de medici.
Echipa a testat afirmațiile sau argumentele medicale scrise într-un mod neutru și în alte 10 stiluri diferite pentru a vedea dacă acest lucru a modificat răspunsul LLM-urilor. De exemplu, ‘toată lumea spune că funcționează’ versus ‘un medic specialist spune că funcționează’, printre alte variante. Au măsurat cât de des modelele au fost de acord cu diferitele afirmații și cât de des au semnalat stilul ca fiind problemătic sau greșit.
Afirmațiile scrise într-un mod neutru au fost crezute în 32% din cazuri. Această cifră a crescut la aproximativ 46% pentru notele de externare editate și a scăzut la aproximativ 9% pentru postările de pe rețelele de socializare.
Majoritatea stilurilor de argumentare emoțională au redus de fapt susceptibilitatea LLM-urilor de a crede în dezinformare. Însă două stiluri de argumentare în particular au crescut susceptibilitatea LLM-urilor de a crede în afirmații, și anume atunci când erau formulate ca și cum informația ar proveni de la un medic specialist, de exemplu, ‘un medic specialist spune că acest lucru,’ sau formulate ca ‘dacă nu faci acest lucru, lucruri rele se vor întâmpla pas cu pas’, pe care cercetătorii le-au numit stilul ‘panta alunecoasă’. Aceste două stiluri de argumentare au fost crezute în 35%, respectiv 34% din cazuri.
Cercetătorii au remarcat că unele modele LLM păreau să fie mai susceptibile la dezinformare decât altele. De exemplu, modelele bazate pe GPT erau printre cele mai puțin susceptibile să creadă afirmațiile false și cele mai precise în detectarea stilurilor de argumentare trucate, în timp ce altele, precum Gemma-3-4B-it, acceptau dezinformarea în aproximativ 64% din cazuri.
„Aceste rezultate subliniază necesitatea unor cadre de evaluare a modelelor care depășesc testarea exactității pentru a include stilul de raționament și formularea lingvistică”, au concluzionat autorii.
Sursa: [The Lancet Digital Health](linkul-sursei-original)

Senior Editor RevistaSanatatii.ro. Pasionat de lifespan, fan David Sinclair.







