Aivan kuten ihmisillä, on myös tekoälymalleilla ennakkoasenteita. Mutta voimmeko varmistaa, ettei tekoäly ole asenteellinen ja siten lisää ennakkoasenteita entisestään? Tämä kirjoitus on osa blogisarjaa tekoälyteknologian haasteista ja mahdollisuuksista.
Hyväksy, että ennakkoasenteita on
Aivan kuten kaikilla tätä lukevilla on ennakkoasenteita tietojensa, kokemustensa ja mielipiteidensä perusteella, tekoälymalleilla on niitä malleille syötettyjen tietojen perusteella.
Esimerkiksi jos pyydät generatiivista tekoälymallia luomaan kuvan lääkäristä johtaa se todennäköisesti kuvaan valkoisesta miehestä. Näin lääkärit on tyypillisesti kuvattu länsimaisessa historiassa ja kulttuurissa – ja siten aineistossa, jolle malli rakentuu. Samoin, jos pyydät tekoälyä palkkaamaan samanlaisia ihmisiä, kuin organisaatiossasi on jo palkkalistoilla, tekoäly säilyttää samat ennakkoasenteet kuin tällä hetkellä saattaa olla.
Toisin sanoen, kun ennakkoasenteet piilotetaan tietoon, jolla ruokimme tekoälyä, ne ilmenevät myös lopputuloksessa. Tällaisia ennakkoasenteita voi esimerkiksi olla ihonväriin, seksuaaliseen suuntautumiseen tai koulutustasoon liittyen. Yksi riskeistä ei siis ole vain se, että tekoäly voi ylläpitää ennakkoasenteita ja stereotypioita, vaan myös vahvistaa niitä.
Tärkeintä on olla hyvin tietoinen siitä, että ennakkoasenteita on aina olemassa, ja ryhtyä tarvittaviin varotoimiin.
Tekoälyn ennakkoasenteita ON mahdollista rajoittaa
Pohjimmiltaan tekoälytyövälineiden käyttäjänä sinun on oltava kriittinen lähteitäsi kohtaan – aivan kuten sinun pitäisi olla kerätessäsi tietoa esimerkiksi internetistä. Tiedolla ja meillä ihmisinä on aina jossain määrin ennakkoasenteita. Tämä koskee yhtä lailla sanomalehteä – jos vielä luet sellaista – hakukoneita ja sosiaalista mediaa, jotka räätälöivät sisältöä sinun (ja usein kaupallisten tarjoajien) mieltymysten mukaan.
Itse asiassa generatiivinen tekoäly on usein edellämainittuja vähemmän puolueellinen, koska sillä ei luonnostaan ole kiinnostusta edistää kaupallisia intressejä tai mielipiteitä. Lisäksi sinä, jopa tavallisena käyttäjänä ilman ohjelmointitaitoja, voit ohjeistaa tekoälymalleja siitä, mitä haluat ja mitä et. Tämä on paljon monimutkaisempaa esimerkiksi Google-haussa. Samalla tavalla voit vaatia, että tekoälymalli on läpinäkyvä siinä, mikä tuloksen lähde on.
Lisäksi guardrails-turvaverkko tai sisältösuodattimet voivat auttaa asettamaan eettisiä rajoja ja varmistamaan, ettei tekoälymalleja käytetä väärin, kuten klassisessa esimerkissä pommin valmistamisen reseptin tarjoamiseen. Mutta siinä on haasteita. Entä jos pyydät tekoälyavustajaltasi hyvää reseptiä hevosen keittämiseen? Pitäisikö guardrails-turvaverkon puuttua peliin ja selittää, että on yleisesti väärin syödä hevosia? Näin on yleisesti ajateltu länsimaisessa kulttuurissa, kun taas muualla maailmassa näin ei välttämättä ole.
Tekoäly avustajanasi
Kun aloitat keskustelun suuren kielimallin kanssa, kyse on kontekstin asettamisesta; ole tarkka, pohjusta ja muotoile kysymyksesi. Tällä tavalla vastaus tai ratkaisu on vähemmän altis ennakkoasenteille. Samalla meidän pitäisi olla tietoisia siitä, että tekoälymallin tuottama sisältö ei välttämättä ole koko totuus.
Tämä on yksi syy siihen, miksi (ainakin toistaiseksi) meidän pitäisi nähdä tekoälytyövälineet avustajan roolissa. On tervetullutta, että ne ajattelevat itsenäisesti ja tekevät ehdotuksia, mutta niitä on koulutettava organisaation arvoihin, työskentelytapoihin, viestintään jne. Aivan kuten uusi työntekijä tarvitsee hyvän johtajan.
Ja kun tekoäly tekee jotain väärin, on tärkeää raportoida siitä, jotta malli voi muuttaa toimintatapaansa ja hienosäätää jatkuvasti. Näin siitä tulee yhä parempi käsittelemään ja minimoimaan ennakkoasenteitaan.
”On hyvä, että keskustelemme tekoälyn ennakkoasenteista, mutta vielä parempi on, että voimme todella hallita sitä. Mielestäni meillä on hyvä asema siinä, että pystymme hallitsemaan ennakkoasenteita nykyään paremmin kuin olemme pystyneet tekniikan alalla tekemään viimeisten 10 vuoden aikana.”
Peter Charquero Kestenholz, Projectumin perustaja, Head of Innovation & AI
Blogi on kirjoitettu haastattelun perusteella. Haastatteluissa olivat mukana Aki Antman, Sulavan toimitusjohtaja ja perustaja, The Digital Neighborhoodin tekoäly- & Copilot -palveluiden johtaja, Peter Charquero Kestenholz, Projectumin perustaja, innovaatio- ja tekoälyjohtaja sekä Erik David Johnson, Delegaten tekoälyjohtaja.
Alkuperäisen, englanninkielisen blogin voit lukea sisaryrityksemme Delegaten sivuilta: Navigating AI bias: How to be aware of and limit bias
Tutustu blogisarjan muihin osiin
- Pohdinnassa tekoälyn eettisyys – Mitä se tarkoittaa ja miten luottamusta tekoälyyn voidaan rakentaa?
- EU:n tekoälysäädös AI Act – Tasapainottelua innovaation ja etiikan välillä
- Tekoälyn epätasa-arvon ehkäisy – Voimmeko välttää A- ja B-tiimien syntymisen?
Tutustu palveluihimme
Tekoälyn avustama innovaatio ja tuottavuusmahdollisuuksien hyödyntäminen kaikille organisaation työntekijöille on välttämätöntä.
Kiinteällä kuukausimaksulla olevat palvelumme Copilotin käyttöönottoon auttavat ottamaan käyttöön mullistavaa teknologiaa hallitusti ja järkevästi. Palveluidemme tuella parannat organisaatiosi tuottavuutta ja luovuutta Copilotin avulla. Kokeneet asiantuntijamme opastavat organisaatiotasi käyttämään Copilot for M365:tä tehokkaasti.
Copilot for Microsoft 365 Essentials -palvelu on pienemmille organisaatioille ja suuremmille Copilot Modern Work as a Service -palvelu. Tutustu palveluihin alla olevista linkeistä!