Noul instrument folosește descrieri în limbaj natural din rapoartele clinice însoțitoare pentru a identifica bolile pe radiografiile toracice.
Oamenii de știință de la Harvard Medical School și de la Universitatea Stanford au creat un instrument de diagnostic folosind inteligența artificială care poate detecta bolile pe radiografiile toracice pe baza descrierilor în limbaj natural furnizate în rapoartele clinice însoțitoare.
Deoarece majoritatea modelelor de AI existente au nevoie de adnotări umane şi cantități enorme de date, pasul este considerat un mare progres în proiectarea clinică a AI.
Modelul, numit CheXzero, a avut rezultate similare cu radiologii umani în ceea ce privește capacitatea sa de a identifica patologii la radiografiile toracice, potrivit unui articol care a fost publicat în Nature Biomedical Engineering.
Grupul a făcut, de asemenea, codul modelului accesibil şi pentru alți cercetători.
Pentru a detecta corect patologiile în timpul „antrenamentului” lor, majoritatea algoritmilor AI au nevoie de seturi de date etichetate. Deoarece această procedură necesită adnotări extinse, adesea costisitoare și consumatoare de timp de către clinicienii umani, este deosebit de dificilă pentru sarcinile care implică interpretarea imaginilor medicale.
De exemplu, pentru a eticheta un set de date cu raze X toracice, radiologii ar trebui să analizeze sute de mii de imagini cu raze X una câte una și să adnoteze în mod explicit pe fiecare condițiile detectate. În timp ce modelele AI mai recente au încercat să abordeze acest blocaj de etichetare învățând din date neetichetate într-o etapă de „pre-instruire”, acestea necesitând în cele din urmă doar o reglare fină a datelor etichetate pentru a obține performanțe ridicate.
În schimb, noul model este autosupravegheat, în sensul că învață independent, fără a fi nevoie de date etichetate manual înainte sau după antrenament. Modelul se bazează numai pe radiografiile toracice și pe notele în limba engleză găsite în rapoartele cu raze X însoțitoare.
„Trăim în primele zile ale modelelor AI medicale de generație următoare, care sunt capabile să îndeplinească sarcini flexibile prin învățarea directă din text”, a spus investigatorul principal al studiului Pranav Rajpurkar, Profesor asistent de informatică biomedicală la Institutul Blavatnik de la HMS.
„Până acum, majoritatea modelelor AI s-au bazat pe adnotarea manuală a unor cantități uriașe de date – până la 100.000 de imagini – pentru a obține performanțe ridicate. Metoda noastră nu are nevoie de astfel de adnotări specifice bolii. Cu CheXzero, se poate alimenta modelul cu o radiografie toracică și un raport radiologic corespunzător și va învăța că imaginea și textul din raport ar trebui considerate ca fiind similare, cu alte cuvinte, învață să potrivească razele cu raportul lor însoțitor. Modelul este capabil să învețe în cele din urmă cum conceptele din textul nestructurat corespund tiparelor vizuale din imagine.” a adăugat Rajpurkar.
Modelul a fost „antrenat” pe un set de date disponibil public care conține mai mult de 377.000 de radiografii toracice și mai mult de 227.000 de note clinice corespunzătoare. Performanța sa a fost apoi testată pe două seturi de date separate de radiografii toracice și note corespunzătoare colectate de la două instituții diferite, dintre care una se afla într-o altă țară. Această diversitate de seturi de date a fost menită să asigure că modelul a funcționat la fel de bine atunci când a fost expus la note clinice care pot folosi o terminologie diferită pentru a descrie aceeași descoperire. La testare, CheXzero a identificat cu succes patologii care nu au fost adnotate explicit de către clinicienii umani.
A depășit alte instrumente AI auto-supravegheate și a funcționat cu o acuratețe similară cu cea a radiologilor umani. Abordarea, au spus cercetătorii, ar putea fi aplicată în cele din urmă la modalități de imagistică mult dincolo de raze X, inclusiv scanări CT, RMN și ecocardiograme.
„CheXzero arată că acuratețea interpretării complexe a imaginilor medicale nu mai trebuie să rămână la cheremul unor mari seturi de date etichetate”, a spus Ekin Tiu, co-autor al studiului, student la Stanford și cercetător vizitator la HMS.
„Folosim razele X toracice ca exemplu, dar, în realitate, capacitatea CheXzero este generalizabilă la o gamă largă de setări medicale în care datele nestructurate sunt norma și întruchipează exact promisiunea de a ocoli blocajul de etichetare la scară largă care a afectat domeniul învățării automate medicale.” a adăugat el.
Articol de Răzvan Lupu