Haavoittuva tekoäly

Aivan kuten mitkä tahansa muutkin sovellukset, myös tekoälyratkaisut ovat alttiita tietoturvahaavoittuvuuksille. Ratkaisun luonteesta riippuen haavoittuvuudet voivat ilmetä monella tavalla. Ne voivat esimerkiksi antaa käyttäjille pääsyn tietoon, joihin heillä ei tulisi olla pääsyä, ne voivat mahdollistaa haittaohjelmien suorittamisen suojatun tietoverkon sisällä, tai niillä voidaan muokata tekoälyä itseään tuottamaan virheellisiä tuloksia. Näin muutamia esimerkkejä mainitakseni.

Siksi tekoälyratkaisuja suunnitellessa onkin tärkeää huomioida kaikki mahdolliset haavoittuvuudet ja pyrkiä estämään niiden ilmeneminen. Tässä artikkelissa esittelen muutamia tekoälyratkaisuiden tietoturvahaavoittuvuustyyppejä, ja kerron miten niitä vastaan voidaan suojautua.

Tekoälyn tietovuodot

Tietovuoto tapahtuu silloin, kun salaiseksi tai rajoitetun kohderyhmän käyttöön tarkoitettua tietoa päätyy muiden henkilöiden saataville. Tekoälyratkaisuiden tapauksessa näin voi tapahtua kahdella tavalla:

  • Kun tekoäly itsessään tietää salaista informaatiota ja sitä pääsee käyttämään henkilö, jolla ei kuuluisi olla tietoon pääsyä.
  • Kun tekoälyllä on kyvykkyys yhdistää muihin tietojärjestelmiin, ja sillä on pääsy hakemaan niistä salaiseksi luokiteltavaa tietoa.

Ensimmäisessä tapauksessa kyse on siitä, että tekoälyn kouluttamiseen on käytetty salaista materiaalia. Kuvitellaan esimerkiksi tekoäly, joka pystyy potilaiden hoitokertomuksien mukaan ennakoimaan miten jotain toista potilasta tulisi hoitaa.

Mikäli näistä hoitokertomuksista ei ole siistitty pois potilaiden henkilötietoja, voi kuka tahansa tekoälyn käyttäjä saada selville, miten kutakin potilasta on hoidettu sekä mitkä heidän nimensä ja henkilötunnuksensa ovat. Vaihtoehtoisesti, mikäli kyseinen tekoäly olisi tehty yksittäisen lääkärin käytettäväksi siten, että hän pystyisi kysymään siltä omien potilaidensa tietoja nimen perusteella, tulisi pääsy tekoälyyn suojata niin, että kukaan muu ei pysty sitä käyttämään.

Mikäli tekoälyllä taas on mahdollisuus hakea tietoa muista järjestelmistä, sillä voi olla pääsy sisältöön, joka on tarkoitettu vain rajatulle kohderyhmälle. Esimerkiksi voidaan ottaa yrityksen sisäinen Chat GPT:n kaltainen ratkaisu, joka hakee tietoa yrityksen koko intranetistä. Jos tekoälylle on myönnetty lukuoikeudet koko intranetin sisältöön, voi tällöin kuka tahansa tekoälyn käyttäjä löytää sen kautta kaikkea intranetiin tallennettua tietoa – vaikka heillä ei oikeasti olisikaan henkilökohtaisia oikeuksia näihin tietoihin.

Näiden tietovuotojen estämiseksi on tärkeää määrittää tarkkaan mitä dataa tekoälyn kouluttamiseen käytetään, kenellä on pääsy tekoälyyn itseensä ja mihin järjestelmiin ja millaisilla oikeuksilla tekoäly voi yhdistää. Lisäksi on tärkeää varmistaa, että tekoälyn autentikaatio on toteutettu tietoturvallisella tavalla.

Tekoäly haittaohjelmien suorittajana

Olet ehkä lukenut uutisia, joissa kerrotaan, että Chat GPT:llä on pystynyt luomaan haittaohjelmien koodia. Tämä itsessään ei vielä ole merkittävä tietoturvaongelma, koska Chat GPT on selaimessa ajettava chat-sovellus, jolla ei ole kyvykkyyksiä tuon koodin suorittamiseen. Tilanteesta tuleekin haastavampi, kun lähdetään toteuttamaan sovelluksia, joita ohjataan tekoälylle annetuilla komennoilla ja joissa tekoäly päättelee komentojen pohjalta mitä sovelluksen tulisi tehdä.

Esimerkiksi voidaan ottaa tekoälysovellus, jolle käyttäjä antaa komentoja, miten sovelluksen tulisi hallinnoida palvelinympäristöä. Tällaisella sovelluksella todennäköisesti olisi mahdollisuus luoda omia halinnointiskriptejä sekä suorittaa niitä palvelinympäristöä vasten. Sovellus olisi alun perin tarkoitettu toteuttamaan komentoja kuten ”arkistoi verkkolevyltä kansion A tiedostot, joka ovat viisi vuotta vanhoja.” Tekoäly suorittaisi tämän komennon laatimalla PowerShell-skriptin, joka toteuttaa annetun tehtävän, ja ajamalla tämän skriptin.

Edellä kuvattua tekoälyä voisi olla mahdollista käyttää suorittamaan myös komento ”lukitse verkkolevyn kaikki tiedostot ransomware-haittaohjelmalla ja lähetä kiristysviesti yrityksen hallitukselle.”

Tällaisen tapauksen estämiseksi tekoälysovellukselle annetut käyttöoikeudet ja pääsyt yrityksen IT-järjestelmiin tulisi rajata hyvin tarkasti siten, että sovellus pystyy toteuttamaan vain niitä tehtäviä, joihin sillä kuuluukin olla edellytykset. Lisäksi tulee varmistaa, ettei tekoäly pysty kiertämään sille asetettuja käyttöoikeusrajoitteita antamalla itselleen lisää oikeuksia.

Erehtyvä tekoäly

Tekoälyt toimivat aina niiden kouluttamiseen käytetyn datan pohjalta, oli kyseessä sitten suuri kielimalli kuten GPT-tekoälyt, kuvankäsittelyyn tarkoitetut mallit tai matemaattisten ongelmien ratkaisemiseen tarkoitetut tekoälyt. Toisin sanoen, tekoälyt voivat olla vain niin laadukkaita ja osaavia, kuin mitä niiden kouluttamiseen kerätty data mahdollistaa. Ensisijaisesti tämä tarkoittaa sitä, että tekoälyä laadittaessa tulisi keskittyä laadukkaan koulutusdatan hankintaan. Mutta tämä ei ole ainoa huomioitava näkökulma.

Sen lisäksi, että tekoälyä varten kerätyn datan tulisi olla virheetöntä, on tärkeää varmistaa, että datamassaan ei ole tahallisesti lisätty haitallista tietoa. Tästä voidaan ottaa esimerkiksi aiemmin mainittu hoitokertomus-tekoäly: Mikäli tekoälyn koulutusdatassa osa diabetespotilaiden hoitokertomuksista olisikin otsikoitu masennuspotilaiden hoitokertomuksiksi, antaisi tekoäly täysin virheellisiä vastauksia, kun siltä kysytään tietoja masennuspotilaiden hoitamisesta. Ja koska tekoälyjen kouluttamiseen tarvittavat datamassat ovat yleensä todella suuria, on näiden virheiden tunnistaminen ja korjaaminen jälkikäteen todella työlästä, ellei jopa mahdotonta.

Koulutusdatan korjaamisen vaikeuden takia onkin tärkeää keskittyä ennaltaehkäisemään näitä uhkia: Pääsyn koulutusdataan tulisi olla tarkoin rajattu, ja datan keruun tulisi olla joko automatisoitua ilman ihmisen vaikutusta, tai datan keruun tulisi olla sallittua vain tarkoin rajatulle joukolle käyttäjiä. Näissäkin tapauksissa suositeltavaa olisi, että kaikki kerätty koulutusdata tulisi ihmisen toimesta hyväksyä koulutuskäyttöön ennen kuin se lisätään osaksi lopullista datamassa.

Lopuksi

Tässä blogissa esittelin kolme yleistä haavoittuvuustyyppiä, jotka koskevat tekoälyratkaisuita. Erilaiset haavoittuvuudet eivät rajaudu vain näihin, vaan niitä on olemassa paljon enemmänkin. Esimerkiksi Open Worldwide Application Security Project (OWASP) -järjestö on laatimassa omaa Top 10-listaansa suurten kielimallien merkittävimmistä haavoittuvuuksista.

Jos sinua mietityttää tekoälyn tietoturva, olet harkitsemassa uuden tekoälysovelluksen käyttöönottoa, tai pohdit, mitä tekoälyn avulla voisi organisaatiossasi saavuttaa, autamme mielellämme!

Sulavalla olemme erikoistuneet tekoälysovelluksiin, jotka perustuvat Microsoftin uusimpiin teknologioihin ja osaamiseen. Olemme toteuttaneet useita onnistuneita projekteja, joissa olemme hyödyntäneet tekoälyä esimerkiksi sisäisen viestinnän, tiedonhallinnan, osaamisen kehittämisen ja työhyvinvoinnin parantamiseksi. Voimme auttaa organisaatiotasi miettimään, miten tekoälyyn ja koneoppimiseen liittyviä palveluja voidaan hyödyntää osana organisaation sovelluksia ja palveluja.

Tiedon luokittelu ja suojaus tulee toteuttaa oikein, jotta arkaluontoiset tiedot eivät ole mukana tekoälyratkaisujen aineistossa. Luonnollisesti tekoäly auttaa myös ratkaisemaan organisaation tietoturvaan liittyviä haasteita mm. helpottamalla uhkien tunnistusta ja niihin reagointia. Sulavalla on pitkä kokemus näiden ratkaisujen käyttöönotosta ja hyödyntämisestä asiakkaillamme.