Kuidas tehisintellekt järgmise suure epideemiaga võitlemise kergemaks teeb

 (17)
Kuidas tehisintellekt järgmise suure epideemiaga võitlemise kergemaks teeb
Afgaani mees kannab enda kaitsmiseks arstimaski. Esimene koroonaviirusega nakatunu avastati Afganistanis üleeile. (Foto: EPA / Scanpix)

Tehisintellekt võib aidata kiiremini ja soodsamalt luua järgmist olulist vaktsiini, mis võimalikku epideemiat takistada lubaks.

Masinõppimine võimaldab oluliselt lühendada vaktsiini väljatöötamisele kuluvat aega ning säästa miljoneid uurimus- ja arendustöö arvelt.

Immuunsüsteemid kogu maailmas on pidanud tänavu tegema ületunde sedamööda, kuidas laastav hooaegne gripp on võimust võtnud ja hirm koroonaviiruse ees levinud kulutulena.

Lähitulevikus võib aga tehisintellekti kaasamine ravimiarendusse aidata toota vaktsiine ja ravimeid piisavalt kiiresti selleks, et surmavate viiruste levik peatada enne, kui need arenevad globaalseteks pandeemiateks.

Ravimite ja vaktsiinide arendamise konventsionaalsed meetodid on äärmiselt ebatõhusad. Uurijatel võib kandidaatmolekulide ükshaaval väljapraakimine katse-eksitusmeetodil võtta aega ligi kümme aastat.

2019. aastal ilmunud uuringu osutusel läheb üheainsa ravimi väljatöötamine USA-s maksma keskeltläbi 2,6 miljardit dollarit — rohkem kui kaks korda rohkem kui 2013. aastal —, kusjuures vaid 12% kõigist arendamisjärku jõudnud ravimitest pälvivad kunagi USA ravimiameti FDA heakskiidu.

Seotud lood:

„FDA-l võib ühe ravimi turulelubamine võtta aega viis kuni kümme aastat,“ kinnitas Georgia ülikooli farmaatsia- ja biomeditsiiniteaduste teaduskonna aseprofessor dr Eva-Maria Strauch.

Masinõppimissüsteemide abiga võivad biomeditsiiniuurijad senise süsteemi sisuliselt pea peale pöörata. Iga potentsiaalse raviviisi süstemaatilise käsitsi-katsetamise asemel võivad uurijad lasta tehisintellektil otsida tohutusuurtest andmebaasidest potentsiaalseid ravimikandidaate ja pakkuda välja selliseid, mis kõige tõenäolisemalt tõhusaks osutuvad.

„Paljud küsimustest, millega ravimeid välja töötavad töörühmad nüüdisajal tegelikult silmitsi seisavad, ei ole sellised, mille lahendamisega inimesed saaksid hakkama teavet ainuüksi enda peas sorteerides,“ osutas USA-s Missouri osariigis St. Louises tegutseva Washingtoni ülikooli arvutusliku bioloogia uurija dr S. Joshua Swamidass.

USA turul on viimase 50 aasta jooksul müügilt korjatud rohkem kui 450 ootamatuid probleeme tekitanud ravimit, mille kõikide võimalike kõrvalmõjude peale uurijad lihtsalt ei tulnud.

Sellepärast on USA ravimiamet FDA käivitanud veebilehe Tox21.gov — veebi-andmebaasi molekulidest ja nende suhtelisest toksilisusest olulistele valkudele inimkehas.

Tehisintellekti selle andmekogu baasil välja õpetades loodavad uurijad kiiremini teada saada, kas mõni potentsiaalne ravim võib põhjustada soovimatuid kõrvalnähte või mitte.

Ehkki masinõppimissüsteemid suudavad tohutult mahukaid andmekogusid sõeluda inimuurijatest kiiremini ja anda täpselt sobivaid teadlikke hinnanguid oluliselt hõredamate seoste põhjal, on inimestel ravimite väljatöötamise protsessis veel mõnda aega oluline roll.

Kes veel kui mitte inimesed peaksid tekitama, järjestama, katalogiseerima, organiseerima ja sildistama kogu õppematerjali, mida on vaja tehisintellektile selgitamiseks, mida ta üldse otsima peab?

Ehkki masinõppimissüsteemid on aja jooksul muutunud pädevamaks, kalduvad nad sarnaselt muude tehisintellektidega siiski andma nõrku tulemusi, kui neid sunnitakse töötama vigaste või kallutatud andmetega.

„Paljud arstiteaduses rakendatavad andmekogud rajanevad peamiselt valgenahalistelt Põhja-Ameerika ja Euroopa elanikkondadelt kogutud teabel,“ märkis ettevõtte Unlearn.AI asutaja ja tegevjuht Charles Fisher. „Kui uurija kasutab mõne sellise andmekogu juures masinõppimissüsteemi ja avastab biomarkeri, mis prognoosib ravivastust, pole meil mingit garantiid, et seesama biomarker annab sama häid tulemusi — või üldse mingeid tulemusi — mitmekesisemates kogukondades.“

Andmete kallutatuse mõjude kompenseerimise probleemi lahendust näeb Fisher „suuremates andmekogudes, keerukamas tarkvaras ja võimsamates arvutites“.

Teiseks oluliseks osiseks selles protsessis kujuneb andmete puhtus, väidab dr Jill Becker ettevõttest Kebotix, 2018. aastal asutatud idufirmast, mis rakendab eksootiliste materjalide ja kemikaalide väljatöötamisel tehisintellekti kombinatsioonis robotitega.

„Meil on kolm andmeallikat,“ selgitas ta. „Me suudame ise oma andmeid toota — kasutame selleks poolempiirilisi kalkulatsioone. Samuti on meil sünteetiline labor andmete tootmiseks, ning me saame kasutada ka väljastpoolt pärinevaid andmeid.“

Need välised andmed võidakse koguda tasuta või tasulistest teadusajakirjadest, samuti patsientidelt ja ettevõtte uurimispartneritelt. Hoolimata allikast peab ettevõte igal juhul kulutama palju aega andmete puhastamiseks, nentis Becker.

„Nende mudelite juures on absoluutselt kriitiliselt tähtis, et andmetega oleksid seondatud korrektsed metaandmed,“ rõhutas andmebaasi Tox21.gov loomisel kaasa löönud USA riikliku siirdemeditsiini edendamise keskuse NCATS infojuht Sam Michael. „Ja see ei juhtu iseenesest; selle nimel tuleb kõvasti pingutada. See on raske, sest see on kallis ja aeganõudev.“

Loe ka Forte varasemat lugu, kuidas tehisintellekt ennustas koroona-probleemi tublisti enne kõiki teisi