Maskinlæring utan uforståelege nevrale nettverk
Justus Sagemüller disputerer 5. februar 2024 for ph.d.-graden ved Høgskulen på Vestlandet med avhandlinga "Paths Towards Reliable Explainability" / "In Neural Networks for Image-Processing".
I dei siste åra har maskinlæring utvikla seg frå å vere ein avgrensa teknisk metode, til eit emne som alle snakkar om – anten i form av kunstig intelligens-tenester som ChatGPT, eller som høgspesialiserte verktøy som til dømes kan nyttast for å finne nye legemiddel eller bestemme kor stor kreditt ein bankkunde kan få.
Sjølv om mange av anvendingsfelta utan tvil er nyttige, er bruken av maskinlæring – særleg den dominerande dyplæringstypen – omstridd. Eit problem som ofte blir framheva, er at slike modeller er såkalla svarte boksar; det vil seie at dei gir fullstendige resultat utan mykje innsikt i kvifor akkurat dette var eit godt svar.
Det einaste vi generelt kan anta, er at svara er ein refleksjon av dataane som modellane fekk til treninga si. Men det kan like godt bety at modellen lærte fordommar, som at personar med mørk hud har større sannsyn for å bli kriminelle. Svartboks-modellar gjer det også vanskeleg å følgje om dei har vore manipulert med føremål som å ta innverknad på politiske vedtak. Og av og til handler dei rett og slett feilaktig, når brukskonteksten er litt annleis enn det treningsdataane kunne førebu systemet på (til dømes sjølvkøyrande bilar som ikkje ser eit hinder på vegen under spesielle lysforhold).
Kva slags forskjell som kan utløyse slike feil i dyplæringssystem er nesten umogeleg å avgrense og unngå. Slike feil kan også brukast for å angripe system og bevisst forårsake feil (adversarial attack). Alt dette inneber betydelege trugslar på både individ og det demokratiske samfunnet, jo meir dyplæring/ kunstig intelligens rykkjer inn i kvardagen vår.
Saliency-teknikkar
Forsøket på å få meir informasjon om avgjerslene til maskinlæringssystem er ikkje noko nytt. Ein tilnærmingsmåte til dette handler om attribusjon: Å bedømme kjennemerke (features) til eit konkret anvendingstilfelle, med tanke på kor avgjerande det er for måten tilfellet blir handtert på av maskinlæringssystemet. Emnet kallast «saliency». Men sjølv om det finst mykje forsking og teori på dette, er det langt ifrå eintydig korleis ein burde bestemme attribusjon for storskala dyplæringssystem.
Interpreterbar læring
Det motsette til svartboksar er modellar eller algoritmar med ein tydeleg matematisk struktur som ekspertar kan tolke og forutsjå når dei fungerer trygt. Slike modellar har vore brukt i vitskap og ingeniørkunst sidan antikken, og sjølv om dei ikkje er perfekte, kan ein i det minste mykje betre analysere problema som oppstår. Så kan ein ordne eller forbetre dei målretta.
Desse fordelane står imot det faktum at dyplæring i løpet av berre ein kort tidsperiode har klart å løyse problem som forskarar i tiår forgjeves har prøvd å løyse med interpreterbare måtar.
Fusjon
Justus Sagemüller meiner at det ikkje er hensiktsmessig å gje opp forklarbarheit mens ein bytter ut tradisjonelle metodar mot dyplæring, sjølv om dette på kort sikt lovar betre og enklare resultat i vederlag.
I ph.d.-prosjektet fokuserer han på korleis matematiske metodar som har vist seg pålitelege, kan brukast for å løysa dilemmaet. Dette gjer han både gjennom å utvikle metodar for å få betre innsikt i gitte svartboks-modellar, og gjennom å utvikle nye modellar som tar inn solid matematikk utan å miste effektstyrken til dyplæring.
Konkret har han implementert ein ny måte for å finne forklaringar til bilete-klassifisering. Den inneber ikkje berre enkle saliency-eksempel som attribusjon, men heile sekvensar av bilete som gir meir detaljert innblikk i korleis kvar av endringane påverkar resultatet. Relatert til dette, undersøkte han grunnprinsippa på kva det eigentleg betyr å endre bilete, med innspel frå både fysikk og informasjonsteori.
I tillegg forskar han på korleis symmetriar kan byggast inn i dyplæringsmodellar, med mål å gjere desse meir robuste. Dette har vist seg å vere mogeleg til ei viss grad i spesialanvendingar, nærare bestemt kryo-elektronmikroskopie (eit forskingsfelt med nytte for mellom anna medisinutvikling).
Personalia
Justus Sagemüller har bakgrunn i fysikk og informatikk. Han er stipendiat i doktorgradsprogrammet i datateknologi ved Høgskulen på Vestlandet.
Prøveforelesing:
5. februar kl. 10.15. Rom: M005
Tema for prøveforelesing: “Feature Importance Scores and Symmetry in Neural Networks for Image-Processing”.
Disputas:
5. februar kl 13.15. Rom: M005 (Campus Bergen)
Lenke til Zoom: https://hvl.zoom.us/j/68760122258?pwd=NlV4MGpNbHBsVDdHT2JUa2xXZG1Pdz09
Bedømmelseskomite:
- Advanced Researcher Yufei Han, INRIA, France
- Research Scientist Stephan Wäldchen, Zuse Institut Berlin, Germany
- Professor Oana Serea, HVL
Rettleiarar:
Hovudrettleiar: Professor Olivier Verdier
Bi-rettleiar: Professor Volker Stolz
Disputasleiar/chair: Stig Erik Jakobsen