Tekoäly nousi maailmanlaajuiseksi uutisaiheeksi Open AI -yrityksen marraskuussa 2022 julkaiseman suuren kielimallin (Large Language Model, LLM), ChatGPT:n myötä. Noin vuoden aikana kielimallit ja tekoäly laajemmin ovat saaneet aikaan laajaa keskustelua, ja muun muassa korkeakoulut ovat reagoineet suureen hypeen julkaisemalla linjauksia ja ohjeistuksia tekoälyn käytöstä. Jamk julkaisi oman linjauksensa elokuussa 2023, jossa hyödynnettiin mm. Ammattikorkeakoulujen rehtorineuvoston Arenen julkaisemia suosituksia (Arene 2023). Päälinjana on ollut pääosin salliva suhtautuminen siksi, että ymmärrys tekoälystä nähdään tärkeänä tulevaisuuden työelämätaitona. Ja kenties myös siksi, että kielimallien käyttöä olisi joka tapauksessa hyvin vaikeaa, ellei mahdotonta estää.
Sen sijaan, että voisimme sanoa kielimalleista jotain kaikkialle sopivaa ja yleispätevää (tai varsinkaan tekoälystä sen kaikessa laajuudessaan), meidän on hyvä pohtia, mitä kielimallit tarkoittavat eri toiminnan osa-alueilla. Tässä artikkelissa haluan keskittyä nimenomaan tapaamme hakea ja käsitellä netissä olevaa tietoa, ja miten suuret kielimallit kenties vaikuttavat tapojemme taustalla vaikuttaviin tiedonhaun käsityksiin ja kriittiseen lukutaitoon.
Tämän teeman lisäksi muita avoimia kysymyksiä, joita en tässä kirjoituksessa tarkemmin käsittele, on esimerkiksi tekijänoikeuksiin, käyttäjien tietojen ja syötetyn tekstin keräämiseen sekä kielimallien taustalla toimivien algoritmien vinoutuneisuuteen liittyen. Italia esimerkiksi kielsi lyhyeksi aikaa ChatGPT:n käytön tietosuoja- ja tekijänoikeusepäselvyyksiin liittyen (McCallum 2023) ja EU haluaa yhtiöiden julkaisevan tiedot kielimallien koulutuksessa käytetystä tekijänoikeuden alaisesta materiaalista (European Parliament 2023). Eettisissä kysymyksissä pohdintaa on esimerkiksi herättänyt, miten algoritmien vinoutuminen tiettyjä ihmisryhmiä suosivaksi tai syrjiväksi voi vaikuttaa, jos kielimalleja otetaan osaksi lääketieteen tutkimusta ja potilastyötä (Li ym. 2023, e333). Eettisten kysymysten kirjo on laaja ja koska teknologia on uutta, ei näihin ole yksiselitteisiä vastauksia. On kuitenkin hyvä muistaa, että kaikkea korkeakoulutoimintaa ohjaa hyvä tieteellinen käytäntö (Tutkimuseettinen neuvottelukunta 2023), jonka määritelmä vilpistä auttaa hahmottamaan, miten kielimalleja voi ja ei voi käyttää.
Näiden kysymysten sijaan tämän kirjoituksen tarkoitus on pohtia tiedonhaun logiikassa tapahtuvaa syvempää muutosta, mikäli suuret kielimallit syrjäyttävät tai edes tulevat perinteisten hakukoneiden rinnalle osaksi netissä tapahtuvaa tiedonhakua. Avoimessa internetissä tehtävä tiedonhaku tuottaa tuloksia hyvin erilaisista tiedonlähteistä, ja luotettavan tiedonlähteen tunnistaminen epäluotettavasta vaatii kriittistä lukutaitoa. Siinä missä tutkimus kriittisestä lukutaidosta on keskittynyt arvioimaan netinkäyttäjien kykyä käyttää nettihakuja ja ohjautua luotettavan tiedon äärelle (esim. Forzani ym. 2022), kielimallien mukanaan tuoma mahdollinen muutos tiedonhakutapoihimme muuttaa koko tätä perusasetelmaa. Keskeinen kysymys on, tiedostammeko tämän muutoksen ja pystymmekö käyttäjinä kehittämään omaa kriittistä lukutaitoamme, jonka hallitseminen on jo valmiiksi jakautunut eri ihmisten välillä epätasaisesti (Critical 2021).
Hakukoneet ja kielimallit jäsentävät tietoa eri tavalla
Tiedonhaun näkökulmasta suurin ero entiseen ei ole tekoäly sen laajassa merkityksessä, sillä hakukoneita on kehitetty jo vuosien ajan koneoppimisen ja tekoälysovellusten avulla. Tekoälyä hyödyntäviä artikkelinhakutyökaluja on koottu esimerkiksi Laurea-ammattikorkeakoulun (2023) oppaaseen. Tekoälyllä paranneltu hakukone on edelleen hakukone, joka tottelee hakukomentoja – vaikka tekoälysovellusten prosessit taustalla vaikuttavat toki hakutuloksiin, eivätkä löydökset tässä mielessä ole täysin hakijan ”omissa käsissä”. Oleellista on, että hakukone on työkalu päästä tiedon äärelle, mentiin tiedon lähteelle sitten tekoälyavusteisesti tai ei. Käyttäjä ei hämäänny olettamaan, että hakukone itse tietää yhtään mitään. Toisin voi olla suurten kielimallien tapauksessa.
Varsinainen laadullinen ero tiedonhaussa on tämän yhden tekoälykehityksen haaran, eli suurten kielimallien, ja perinteisen hakukoneiden välillä. ChatGPT ja muut kielimallit eivät varsinkaan niiden käyttöönoton alkuvaiheessa ole kyenneet johdattamaan käyttäjää alkuperäisen tiedon lähteelle, ja pahimmillaan kun käyttäjä on pyytänyt kielimallia nimeämään lähteet, joihin sen vastaus perustuu, lähteet ovat olleet täysin fiktiivisiä (Jin, Leaman & Lu 2023, 1302; Helariutta, Jokiranta & Marjamaa 2023). Tämä osa-alue epäilemättä kehittyy, ja jatkossa kielimallit kykenevät paremmin kertomaan käyttäjälle, mistä tieto on peräisin. Tästä huolimatta käyttäjällä on suuri kiusaus jäädä pelkästään tekoälysovelluksen vastauksen varaan, joka riippumatta siitä kuinka oikea tai väärä se on, on aina uudelleenmuotoiltua toisen käden tietoa ja voi perustua epäluotettavaan alkuperäislähteeseen.
Uudenlaista kriittistä lukutaitoa vaaditaan, kun kielimalleja käytetään eri ympäristöissä. Yleisesti selaimen kautta käytettävä ChatGPT luo vastaukset avoimessa verkossa olevan aineiston perusteella, joka ei sisällä lisensoituja ja maksumuurien takana olevia aineistoja, jolloin ulkopuolelle jäävät siis esimerkiksi monet tutkimukseen perustuvat lähteet. Avoimen verkon datamassa koostuu blogeista, uutisista, artikkeleista, käyttäjien syöttämästä tekstistä ym., eikä kielimalli tee lähtökohtaisesti eroa näiden lähteiden välille. Vaikka kielimalleja voi hienosäätää painottamaan tietynlaisia lähteitä enemmän kuin toisia, seurauksena on siitä huolimatta synteesi eri lähteistä koottua tietoa.
Kielimallin luoma synteesi ei ole tiedonmuodostuksen kannalta verrattavissa ihmisen tekemään, erilaisiin lähteisiin pohjautuvan synteesin kanssa. Siinä missä ihmislukija pyrkii ymmärtämään lukemaansa ja tuomaan tietoa yhteen merkitysten kautta, kielimallille synteesi on kielen merkkiyksiköiden todennäköistä esiintymistä yhdessä. Tätä tarkoittaa se usein mainittu tosiasia, ettei kielimalli ”ymmärrä” tekstiä. Uutta kriittistä lukutaitoa ei ole se, että bongataan miten usein kielimallin vastaukset ovat ”oikein” tai ”väärin”, vaan se, että ymmärretään tämä perustavanlaatuinen toimintaero ja tiedostetaan, miten se voi omiin luku- ja tiedontuottamisen tapoihimme vaikuttaa.
Toisin kuin hakukoneilla edetessä, kielimallien tapauksessa ei siis riitä, että tunnistetaan, onko jokin lähde luotettava vai ei ja siten, onko lähteen tuottama tieto mahdollisesti oikein vai ei. Googlen kautta tietoa hakiessa päädytään hyvin usein epäluotettavien lähteiden äärelle, kuten keskustelupalstoille ja mainossivustoille, mutta kriittistä lukutaitoa omaava käyttäjä pystyy jättämään tämänkaltaiset hakutulokset huomioimatta. Uudenlaista kriittistä arviointia puolestaan vaati se taustaperiaate, jolla kielimallit vastauksia muodostavat. On esimerkiksi tärkeää ymmärtää, että kielimallien uudelleentuottama tieto on tausta-aineiston vuoksi tietyllä tavalla painottunutta. Dataa on saatavilla eri maailmankolkista eri määriä, mikä luo alueellisia ja ihmisryhmiin liittyviä tiedon vinoumia, ja avoimesti internetissä oleva aineisto – jossa esimerkiksi tutkittu tieto on aliedustettuna – luo lisäksi omat painotuksensa.
Suuren kieliaineiston luoma kaiken mahdollisen aineiston synteesi ei tarkoita objektiivisuutta. Mahdollisimman objektiivisen tiedon tuottamisen tapa ei ole mahdollisimman suuri synteesi, vaan erilaisten tiedonlähteiden roolien ja merkitysten ymmärtäminen, niiden kriittinen käyttö sekä oman toiminnan ja ajattelun jatkuva kriittinen tarkastelu. Näiden kehittämiseen ChatGPT:n kaltaiset kielimallit näennäisen neutraaleine vastauksineen eivät tarjoa välineitä.
Kielimallit luovat uusia tiedonhaun ja -tuottamisen tapoja
Tekoäly on kehittynyt tekstin- ja kuvantuottamisen saralla tehtyjen suurten, laajalle yleisölle näkyvien harppausten lisäksi pikkuhiljaa koko ajan siten, että olemme tekemisissä eri tekoäly- ja koneoppimissovellusten päivittäin sen kummemmin asiaa ajattelematta. Kun etsimme striimauspalveluista uutta katseltavaa tai kuunneltavaa, selaamme sosiaalista mediaa tai haemme tietoa Googlella, taustalla vaikuttavat koneoppimisen menetelmät, jotka ohjaavat käyttäjiä tietynlaisen sisällön äärelle. Sen lisäksi tekoälysovellukset tehostavat työtä lukuisilla aloilla, esimerkiksi teollisuudessa ja ohjelmistokehityksessä. Tekoäly sen laajassa merkityksessä helpottaa ja tehostaa työtä, ja usein niin, ettemme sitä edes itse huomaa.
Pienempien koneoppimissovellusten käyttöönoton rinnalla helppokäyttöisten kielimallien tulo on kuitenkin kenties rajakohta tiedon hakemisen, jäsentämisen ja tuottamisen tavoissamme. On helppo nähdä monia kielimallien käyttöalueita, joissa vaikutus on oletettavasti positiivinen, oli kyse sitten tekstien referoinnista, oppimisen sparraamisesta, muistioiden automaattisesta tuottamisesta tai luovan kirjoittamisen tuesta. Nämä kaikki ovat suurten kielimallien käyttötapoja, jotka tulevat varmasti yleistymään ja joissa olisi myös hyvä pohtia miten kielimallit ja muut tekoälysovellukset tulevat niitä muuttamaan. Tiedonhakuun kielimalleja tullaan myös jatkossa käyttämään, joten on tärkeää, että ymmärrämme, millaista kielimallien muotoilema tieto on ja mihin tarkoitukseen se soveltuu. Uusien teknologioiden myötä meidän täytyy jatkuvasti kehittää omaa kriittistä lukutaitoamme.