Takaisin uutisiin
Etiikka Yksityisyys

Uusi menetelmä tarkistaa, onko tekoäly todella unohtanut sille kielletyt tiedot

Kuuntele uutinen
0:00 / 0:00
Uusi menetelmä pyrkii tekemään graafisista neuroverkoista (graph neural network) läpinäkyvämpiä silloin, kun niiltä vaaditaan tietojen unohtamista yksityisyyssyistä. Taustalla on esimerkiksi EU:n tietosuoja-asetus (GDPR), joka antaa ihmisille oikeuden vaatia omien tietojensa poistamista – myös tekoälymalleista, joita on koulutettu näillä tiedoilla. Graafiset neuroverkot käsittelevät verkkomuotoista dataa, kuten sosiaalisen median käyttäjäverkostoja tai molekyylirakenteita. Niistä poistaminen eli niin sanottu unlearning on osoittautunut vaikeaksi: nykyiset unohtamismenetelmät on suunniteltu lähinnä tehokkuuden ja mittakaavan ehdoilla, mutta niiden toimivuutta on vaikea tarkistaa mustan laatikon kaltaisista malleista. Imran Ahsanin, Hyunwook Yun, Jinsung Kimin ja Mucheol Kimin esittelemä menetelmä ei itse opeta mallia uudelleen, vaan toimii erillisenä tarkistajana. Se ottaa talteen mallihetkikuvat ennen ja jälkeen poistotoimenpiteen ja vertaa niitä selitettävyysmenetelmien avulla. Ajatuksena on, että jos tiettyyn solmuun tai reunaan liittyvä tieto on todella unohdettu, sen vaikutus mallin päätöksiin ja mallin sisäisiin selityksiin muuttuu näkyvästi. Tarkistaja hyödyntää viittä selitettävyysmittaria, muun muassa niin sanottua jäännösattribuutiota (residual attribution), lämpökarttasiirtymää (heatmap shift) ja selitettävyysarvon poikkeamaa (explainability score deviation). Lisäksi se seuraa paikallisia rakenteellisia muutoksia graafissa, joita mitataan esimerkiksi graafieditoinnin etäisyytenä (graph edit distance). Menetelmän tavoitteena on tarjota läpinäkyvää, konkreettista näyttöä siitä, onko unohtaminen todella tapahtunut, sen sijaan että jouduttaisiin luottamaan pelkkiin suorituskykymittauksiin. Näin se voi auttaa sekä tutkijoita että sääntelijöitä arvioimaan, noudattavatko graafiset neuroverkot tietojen poistamista koskevia vaatimuksia. Lähde: Forget and Explain: Transparent Verification of GNN Unlearning, ArXiv (AI).

Teksti on tuotettu tekoälyn avulla ja siinä saattaa olla virheitä. Tarkasta tarkat tiedot alkuperäislähteestä.

Alkuperäinen tutkimus: Forget and Explain: Transparent Verification of GNN Unlearning
Julkaisija: ArXiv (AI)
Tekijät: Imran Ahsan, Hyunwook Yu, Jinsung Kim, Mucheol Kim
26. joulukuuta 2025
Lue alkuperäinen →