Artikkel avaldati algselt Novaatoris.

Ehkki tehisaru teeb üha rohkem inimeste elu mõjutavaid otsuseid, ei suuda see neid alati inimesele arusaadavalt põhjendada. Tartu Ülikoolis kaitstud doktoritöö osutab, et inimesed ootavad masinalt realistlikke ja usaldusväärselt mõjuvaid seletusi.

Tehisaru teeb järjest rohkem otsuseid, mis mõjutavad inimeste elu. Seda kasutatakse haiglates diagnooside toetamisel, pankades laenutaotluste hindamisel ning hariduses õppijate õpikäitumise analüüsimiseks.

Süsteemid muutuvad üha võimsamaks, kuid samal ajal ka keerulisemaks. Sageli tähendab see, et inimene näeb ainult tulemust, mitte põhjendust. Tehisaru ütleb “jah” või “ei”, kuid ei selgita, miks. Selline olukord tekitab usaldusprobleemi.

Kui inimesed ei mõista, kuidas otsus sündis, on masinat raske usaldada – eriti siis, kui mängus on tervis, raha või tulevikuvõimalused. Just sellele küsimusele keskendub seletatav tehisintellekt ehk XAI (Explainable Artificial Intelligence), mille eesmärk on muuta masinate otsused inimestele arusaadavaks. Seda teemat uuris oma doktoritöös Tartu Ülikooli arvutiteaduse doktorant Marharyta Domnich.

Kuidas inimesed otsuseid seletavad?

Kui inimesed püüavad otsuseid mõista, ei otsi nad tavaliselt keerulisi valemeid ega parameetrite väärtusi. Inimlik seletamise viis on pigem peen ja kontekstist sõltuv. Selgitusi kohandab inimene vastavalt sellele, kellele räägib: lapsele lihtsamalt, kolleegile üksikasjalikumalt ja sõbrale, keskendudes sellele, mis oleks võinud olla teisiti.

Kujutage ette, et selgitate sõbrale, miks te eksamit ei läbinud. Võite öelda: “Kui ma oleksin nädal aega varem õppima hakanud, oleksin eksami läbinud.” Kuigi tegelikult võis rolli mängida mitu tegurit, valib inimene sageli seletuse, mis tundub ühtaegu tähenduslik ja praktiline. Sageli seletab ta maailma alternatiive ette kujutades: mis oleks juhtunud, kui oleksin teinud teise valiku? Mis oleks muutunud, kui tingimused oleksid olnud teistsugused?

Sellist mõtlemist nimetatakse kontrafaktuaalseks arutluseks. See on inimesele loomulik ja sügavalt inimmõtlemises juurdunud. Psühholoogia ja kognitiivteaduse uuringud on näidanud, et lapsed kasutavad seda juba varases eas. See on inimeste igapäevane viis analüüsida põhjuseid ja tagajärgi.

Sama ideed saab kasutada ka tehisaru otsuste selgitamisel. Kontrafaktuaalne seletus vastab lihtsale küsimusele: milline väike muutus oleks viinud teistsuguse otsuseni? Näiteks võib tehisaru süsteem öelda: “Kui sinu sissetulek oleks olnud veidi kõrgem, oleks laenutaotlus heaks kiidetud.” Selline seletus on inimesele vaistlikult mõistetav. See ei kirjelda mudeli sisemisi parameetreid, vaid osutab konkreetsele ja arusaadavale põhjusele, mille põhjal inimene saab tegutseda.

Kui seletus ei ole realistlik, pole sellest kasu

Kuigi kontrafaktuaalsed seletused võivad kõlada lihtsana, ei ole heade selgituste loomine lihtne. Sageli pakuvad süsteemid muudatusi, mis pole päriselus realistlikud või tunduvad juhuslikud. Marharyta Domnichi doktoritöö üks eesmärke oli muuta sellised seletused inimkesksemaks.

Selleks töötas ta välja uue raamistiku CoDiCE (Coherent Directional Counterfactual Explainer). Selle põhiidee on, et tehisaru soovitused peavad olema loogilised, teostatavad ja kooskõlas sellega, kuidas inimesed põhjuseid ja tagajärgi tajuvad. Lihtsustatult tähendab see, et süsteem ei tohiks pakkuda muutusi, mida inimene tegelikult teha ei saa.

Näiteks ei ole kasulik soovitada midagi, mis läheks vastuollu päriselu loogikaga või nõuaks ebarealistlikke samme. Katsetes näitas CoDiCE järjepidevalt paremaid tulemusi kui mitmed seni tuntud meetodid, pakkudes realistlikumaid ja inimesele arusaadavamaid seletusi.

Mis teeb seletusest hea seletuse?

See on seletatava tehisaru üks keerulisemaid küsimusi. Kas hea seletus peab olema lühike, täpne, usaldusväärne või hoopis lihtne? Selle uurimiseks lõi Marharyta Domnich andmestiku CounterEval, kus üle 200 inimese hindas erinevaid tehisintellekti seletusi.

Osalejad hindasid muu hulgas:

  • kui arusaadav seletus oli,
  • kui palju usaldust see tekitas,
  • kui täielik seletus tundus,
  • kui sidus see kõlas,
  • kui õiglane seletus paistis,
  • kui realistlik see tundus,
  • kui keeruline see oli.

Tulemused näitasid, et ühte mõõdet, mis määraks n-ö hea seletuse, ei ole. Küll aga paistsid eriti olulistena silma kaks tegurit: kas seletus tundus realistlik ja kas see tekitas usaldust. Kui seletus näis ebarealistlik või päriselust lahti ühendatud, langes inimeste üldine rahulolu märgatavalt.

Samas selgus, et erinevad inimesed väärtustavad seletustes erinevaid aspekte. Meditsiini- või tehnoloogiataustaga osalejad eelistasid sageli üksikasjalikumaid ja keerulisemaid selgitusi. Tavakasutajatele olid sageli olulisemad usaldus ja lihtsus. See viitab, et tulevikus ei pruugi olla üht n-ö õiget seletust – pigem tuleks selgitusi kohandada vastavalt kasutajale.

Kas tehisaru saab seletusi ise hinnata?

Järgmine samm oli uurida, kas suured keelemudelid, näiteks GPT-4, suudavad ennustada, kuidas inimesed seletusi hindavad. Marharyta Domnichi tulemused olid üllatavad: mudelid suutsid inimeste hinnanguid matkida kuni 85–90 protsendi täpsusega.

See ei tähenda, et masinad peaksid asendama inimeste hinnanguid. Pigem saab tehisaru aidata teadlasi, pakkudes skaleeritavaid ja esialgseid hinnanguid seletuste kvaliteedi kohta.

Suured kasutajauuringud on kallid ja ajamahukad. Keelemudelite abil tehtud hindamine võib anda esialgse aluse erinevate seletusmeetodite võrdlemisel ning aidata teadlastel uusi ideid kiiremini testida. Oluline on seegi, et mudelid suutsid kõige paremini ennustada just neid mõõtmeid, mida inimesed ise kõige olulisemaks pidasid: realistlikkust ja usaldusväärsust.

Tehisaruseletused meditsiinipiltidel

Kontrafaktuaalsete seletuste väärtus ei piirdu ainult teooriaga. Doktoritöö viimases osas rakendas Marharyta Domnich seda lähenemist ka meditsiinilise pilditöötluse valdkonnas. Selleks töötatas ta välja meetodi COIN (Counterfactual Inpainting), mis aitab analüüsida meditsiinipilte, näiteks neerukasvajate uuringutes.

Idee on lihtne. Kujutage ette kompuutertomograafia pilti, kus on näha kasvaja. Süsteem loob seejärel sama pildi alternatiivse versiooni: justkui kasvajat polekski. Kui võrrelda algset pilti ja seda kontrafaktuaalset versiooni, saab täpselt näha, milline piirkond mõjutas tehisaru otsust.

Praktikas võimaldab see tuvastada kasvaja piirid ilma, et treenimise ajal oleks vaja väga üksikasjalikke käsitsi tehtud märgistusi. Selline lähenemine vähendab aeganõudva käsitsi märgistamise vajadust ning aitab arstidel kiiremini keskenduda kliiniliselt olulistele piirkondadele. Samuti annab see parema ülevaate sellest, millele mudel tegelikult tähelepanu pööras.

Miks see on oluline?

Tehisaru areng ei tähenda ainult paremaid algoritme. Sama oluline on, et inimesed mõistaksid, kuidas otsused sünnivad. Lõppkasutajate jaoks annavad seletused praktilist teavet ja aitavad säilitada tunnet, et inimene saab olukorda mõjutada. Organisatsioonide jaoks suurendavad need läbipaistvust ja vastutustundlikku otsustamist.

Ilma selgitusteta võivad kasutajad eeldada ebaõiglust või diskrimineerimist: nähtust, mida psühholoogias nimetatakse negatiivsuse kallutatuseks. Selged selgitused aitavad selliseid arusaamatusi vältida.

Mudelite arendajatele toimivad seletused diagnostiliste tööriistadena, mis aitavad avastada võimalikke kallutatusi ja ootamatut mudeli käitumist. Regulaatorite jaoks toetavad need aga läbipaistvuse ja vastutuse nõudeid, mis tulenevad näiteks GDPR-ist ja Euroopa Liidu tehisintellekti määrusest.

Tehisaru süsteemid hakkavad üha enam kujundama olulisi otsuseid. Kui tehisintellekt jääb mustaks kastiks, võib see tekitada usaldusküsimusi ja aeglustada tehnoloogia kasutuselevõttu. Kui aga süsteem suudab oma otsuseid selgitada viisil, mis sobib inimese loomuliku mõtlemisega, suureneb usaldus ja koostöö. Kontrafaktuaalsed seletused pakuvad ühe võimaliku tee sinna.

Tuleviku tehisintellekt ei peaks olema ainult intelligentne. See peaks olema ka arusaadav.