Suvi Ronkaisen mukaan tiedollisen kontekstoinnin yksinkertaisinkin muoto katoaa ChatGPT:ssä. Kuva: Marko Junttila
Ajassamme näkyy varsin erityyppisten, tietojulkaisuiksi kutsuttujen tuotteiden tulva. Siksi uutiset ChatGPT-sovelluksesta tuottivat uteliaisuutta. Jäin miettimään, mistä oikein on kyse suhteessa tieteelliseen tietämiseen. Hain tekstejä ja seurailin netin erilaista keskustelua. Olin hämmentynyt. Suuri osa keskusteluista ja yliopistojen kannanotoista oli periaatteellisia: kun kerran tekoälyn käyttöä ei voi estää, on se hyväksyttävä. Hämäräksi jäi, miten ChatGPT toimii tiedon käsittelyn näkökulmasta ja miten digitaaliset tekstimassat kootaan.
Sain joitain vastauksia Ylen Tiedeykkösen ohjelmasta tekoälytutkija Teemu Roosilta. ChatGPT on tekstimassojen analyysiä, jonka ytimessä on kielen mallintaminen. Kielimallit rakentavat ennusteita siitä, mikä sana seuraa toista. Mallinnusten logiikan taustalla ovat jo aiemmin nettiin tallennetut tekstit. Kyse on erilaisten ilmaisujen ja sanojen toisiinsa linkittymisen huomioivasta mallinnuksesta, jonka pohjalta ohjelma laatii vastauksen sille asetettuun kysymykseen. Samalla vastaus itse on ennuste eikä tietoa. Se on monitasoinen laskennallinen todennäköisyys, joka pohjaa kielimalleihin ja sanastojen erilaiseen jakautumiseen. Chat GPT:stä tekee houkuttavan se, että ohjelma korjaa ”ennustettaan” sille asetettujen kysymysten kautta.
Sanojen linkittyminen toisiinsa ja niiden laskennallinen todennäköisyys ei sisällä merkitysten ja kokemusten moniulotteisuutta, kuten ei myöskään tutkimustietoon sisäänkirjoitettua keskustelua ja sen tiedollista kontekstointia. Tiedollisen kontekstoinnin yksinkertaisinkin muoto eli tarkka viitteiden käyttö katoaa ChatGPT:ssä. Mitä tapahtuu tulkinnoille, todellisuuden ja tiedon monitasoisuudelle sekä sen erilaisuuden ja intressisidonnaisuuden tunnistamiselle? Entä mitä tapahtuu metodologisesti perustellulle tiedon tuottamisen erilaisuudelle, joka on sisäänkirjoitettu hyvään tieteelliseen tutkimuskeskusteluun, joka hahmottaa tietoväitteiden pätevyyttä ja sovellettavuutta?
Kysymys- ja vastauslogiikalla rakennetun digitaalisen keskustelun mallinnetussa maastossa hämärtyy kysymys todellisuudesta ja siitä, mistä itse asiassa viestitään. Tai ainakin vastausten lukemisessa eronteko todellisuuden ja fiktion välillä edellyttää uudella tavalla jo olemassa olevaa tietämistä. Hallusinaatioiksi kutsuttu algoritminen jäte on osa tekoälysovellusten tuottamaa todellisuutta.
Jos tutkimuksessa halutaan tosiasiallisesti ymmärtää ja selittää yhteiskunnallista, sosiaalista ja kulttuurista monitasoista todellisuutta, ei ChatGPT sovelluksen lisääntyvä käyttö siihen johdata. Sen sijaan se voi johdattaa ajatteluun, jossa hämärtyy entisestään käsitys ja vastuunotto siitä, mistä ja keiden todellisuudesta oikein on kyse ja mihin tieto oikeastaan perustuu. Kun tietää, mitä tietoa hakee ja toivoo ärsykkeitä, niin ehkäpä ChatGPT olisi käytettävissä.
Joten taidanpa kokeilla. Osaisikohan ChatGPT vastata, jos siltä kysyisi: Minkälaista taloudellista voittoa tuotat OpenAl-yhtiölle? Olisikohan vastaus yhtä selkeä kuin Douglas Adamsin Linnunradan käsikirja liftareille -teoksessa rottien laskema vastaus elämään, maailmankaikkeuteen ja kaikkeen muuhun sellaiseen.
SUVI RONKAINEN
Professori, yhteiskuntatieteiden tiedekunta, Lapin yliopisto
Lue myös Vesa Markukselan tekoälyä pohtiva kirjoitus Huomio, käännös oikeaan – päin! (Kide 1/23).