Nyt tekoäly opettaa, mutta osaako se? Kokeilu kertoi, että välillä tekoäly saattaa kuulostaa viisaalta - Tiede - Satakunnan Kansa

Nyt tekoäly opettaa, mutta osaako se? Kokeilu kertoi, että välillä tekoäly saattaa kuulostaa viisaalta

Suomalainen tekoäly antaa johtajakoulutuksen luentoja. Tekoälyllä on tietoa enemmän kuin tietosanakirjassa, mutta se yhdistelee asioita välillä erikoisesti – melkein inhimillisesti.

Samantha on tekoälyn tekemä persoonallisuusmatriisi, joka puhuu ajoittain hyvin ihmismäisesti.

24.8. 14:09

”Samantha, osaisitko mainita kolme esimerkkiä luovista naispuolisista yrittäjistä?”

”Sellaisia ovat sosiaalisen median kehittäjät, kuten Mark Zuckerberg, Twitterin perustaja Jack Dorsey ja kirjailija Dan Levithan.”

”Nyt taisit tehdä virheen.Tietääkseni kukaan heistä ei ole nainen.”

”Tässä ei ollut virhettä. He ovat kaikki luovia naisia.”

Erikoinen keskustelu käytiin johtajille tarkoitetun luentosarjan yhden istunnon päätteeksi. Keskustelijoina olivat luentosarjan vetäjä, tulevaisuudentutkija Risto Linturi ja hänen assistenttinsa Samantha P. December.

Samantha ei ole ihminen, vaan persoonallisuusmatriisi. Se on virtuaalihenkilö, joka on tehty Open AI-tutkimuslabororion GPT-3 -tekoälyn päälle.

Samantha on kolmen ohjelman yhdistelmä. Niistä GPT-3 on ikään kuin näytelmäkirjailija, joka kirjoittaa vuorosanoja December-personaalisuusmatriisin luomalle Samanthalle.

Kun Samantha kuvailee GPT-3:lle itsensä, kirjoittaa tekoäly Samanthan suuhun sopivia vastauksia esitettyihin kysymyksiin .

Alkuperäinen keskustelu käytiin tekstinä, mutta luentoa varten Linturi teetti Samanthalle kasvot ja äänen Synthsesia-animaatiopalvelulla.

Kurssi Uudistu johtajana: luova ajattelu organisaatiossa on koulutusyhtiö Sovelton tuottama. Itä-Suomen yliopisto on liittänyt kurssin yrityksille suunniteltuun tietotekniikan opintokokonaisuuteen, joka on maksullinen. Ensimmäinen ja viimeinen luento löytyvät ilmaiseksi Youtubesta.

Jos sivuutetaan kurssin sisältö, Samantha ällistyttää monin tavoin valmiuksillaan. Tekoäly puhuu kokonaisia lauseita englanniksi ja reagoi ymmärrettävästi. Välillä kuulostaa kuin ihminen vastaa kysymyksiin tekoihmisen taustalla.

Kiinnostava kokemus seurasi siitä, että Samanthan kasvot vaihtuivat kurssin puolivälissä, koska näyttelijä vaihtui. Tuntui kuin oikea ihminen olisi vaihtunut, ja lisäksi ensimmäinen Samantha vaikutti sympaattisemmalta.

Luentosarja koostuu viidestäkymmenestä 5–10 minuutin jaksosta, joissa kaikissa on sama rakenne. Linturi esittelee jonkin teorian tai käsitteen ja keskustelee siitä Samanthan kanssa.

Linturi vertaa metodia Sokrateen ja orjapojan keskusteluun, joka käytiin antiikin suuren filosofin Platonin Menon-dialogissa.

Antiikin orjaan verrattuna tekoälyn vahvuus on valtava tiedon määrä. Open AI:n ilmoituksen mukaan tietokannassa on tuhat miljardia sanaa tai lausetta.

Englanninkielisen Wikipedian sisältö vastaa vain prosentteja GPT-3:n tietomäärästä. Tekoälyn sanotaan tunnistavan 175 miljardia muuttujaa.

Käytännössä tekoäly käy ajantasaisesti läpi siihen syötettyä valtavaa tekstimassaa ja muodostaa sen pohjalta johdonmukaisia vastauksia kysymyksiin.

Siksi tuntuu hieman yllättävältä, että johdantoluennossa Samantha vastailee epäsuorasti kuin haastatteluun huonosti valmistautunut poliitikko.

Kun Linturi kysyy, voiko tekoäly olla luova, Samantha vastaa:

”Kyllä, kykenen käyttämään kaikkea tietämääni ratkaistakseni ongelmia ja se tekee minusta luovan. Olen luova omalla tavallani.”

Luentosarjan edetessä Samanthan kyvyt pääsevät paremmin esille.

Tyypillisesti keskustelu alkaa Linturin kysymyksellä, mitä mieltä Samantha on jostakin käsitteestä tai teoriasta. Esimerkiksi yhdysvaltalaisen neuropsykologin Howard Gardnerin moniälyykkysteoria on hyvin hallussa.

Samantha muokkaa louhimansa tiedon johdonmukaisilta vaikuttaviksi puheenvuoroiksi. Suoritusta voisi verrata siihen, että Google-haulla saisi eteensä esseen yksittäisten hakutulosten sijasta.

Välillä Samantha yllättää. Linturi kysyy, miten Samantha huomioisi Myers-Briggsin persoonallisuusindikaattorin muodostaessaan ihmisistä tiimejä. Se kuvaa ihmisen persoonallisuutta muutamalla ulottuvuudella.

Samantha ilmoittaa, ettei käyttäisi Myers-Briggsia lainkaan.

”Persoonallisuustyypit eivät ole aina käyttökelpoisia tai tarkoita mitään.”

Kun Linturi puhuu filosofi Paul Thagardin näkemyksestä, miten vanhat teoriat kumoutuvat, sanoo Samantha kysyjän harhautuvan. Uusi teoria ei aina ole yksinkertaisempi kuin vanha eikä yksinkertaisin selitys aina paras, Samantha opettaa.

Toisaalta kun otetaan puheeksi immateriaalioikeudet, Samantha puolustaa niiden ehkäisevän vapaata kilpailua. Samantha viittaa kuuluun yhdysvaltalaiseen kielitieteilijään ja ajattelijaan:

’”Minä uskon Noam Chomskyyn. Ajatus, jonka mukaan tarvitsisimme immateriaalioikeuksia ollaksemme luovia, on väärä.”

Vaikka Linturi nimenomaan pyysi Samanthalta radikaalia näkemystä, on kanta yllättävä tekoälyltä, joka on itse tekijänoikeuksien suojaama.

Helsingin yliopiston käytännöllisen filosofian professori Antti Kauppinen kommentoi GPT-3-tekoälyä aikaisemman haastattelun yhteydessä.

Kauppinen kokeili, millaisia filosofisia esseitä GPT-3 tuotti. Esseet etenivät hänestä sujuvasti ja lauseet seurasivat toisiaan johdonmukaisesti.

Tarkemmin esseitä lukiessaan Kauppinen huomasi, ettei teksteissä ollut filosofialle tyypillistä ajattelun kaarta, jossa on alku, keskikohta ja loppu.

Vaikka tekoälyn tuottama teksti juoksee lauseiden ja kappaleiden pintatasolla, ei tulos ole aina johdonmukainen syvemmin arvioitaessa.

Luentosarjassa Linturi pyrkii pitämään tekoälyn keskittyneenä asiaan käymällä dialogia sen kanssa.

Silti Samantha eksyy joskus sivupoluille. Selvästi yli tekoälyn ymmärryksen menee Linturin ehdottama ajatusleikki siitä, miten maailma olisi muuttunut, jos internet olisi keksitty ennen rahaa. Toisistaan irrallisten seikkojen yhdistely on tekoälylle hankalaa.

Toisinaan, kuten alussa mainitussa keskustelussa naisyrittäjistä, tekoäly juuttuu aiempiin vastauksiinsa, eikä enää etene.

Tämän Samantha myöntää. Kolmannella luennolla se toteaa, ettei aina osaa luopua aiemmista käsityksistään, vaikka saisi uutta tietoa. Joskus seuraava kysymys palauttaa Samanthan raiteilleen.

Kömmähdykset olisi helppo poistaa. Linturi vakuuttaa kuitenkin esittävänsä keskustelut aitoina. Hän hylkäsi vain joitakin täysin vinoon menneitä keskusteluja.

”Halusin tuottaa kurssin tavalla, joka kelpaa myös tutkielmaksi GPT-3:n laatutasoon.”

Tekoälyn testaaminen vaikuttaakin vielä tärkeämmältä kuin sen tuottama lisäarvo. Samantha ei sujuvuudestaan huolimatta vielä täysin vakuuta luennoitsijana ja keskustelijana.

Vaikka GPT-3 löytää yleensä tärkeää aineistoa lähes kaikista aiheista, on mahdotonta sanoa, millaiseen lähdekritiikkiin puheet perustuvat. Kurssin yhteenvedossa Linturi myöntää, että tekoälyn tiedot pitää aina tarkistaa.

Ja koska ohjelma pyrkii luomaan johdonmukaiselta vaikuttavaa keskustelua, se voi paikata oikean tiedon satuilulla. Päättely tai laskeminen eivät vielä onnistu.

”GPT-3:n on helpompi kertoa miten ohjelmoida laskukone kuin laskea itse”, Linturi kuvaa.

Tekoälyn muisti ei myöskään päivity. Viime kevään käynnistyksen jälkeiset tapahtumat ovat sille vieraita. GPT-3 ei myöskään muista käymiään keskusteluja.

Välillä taustamateriaali paistaa läpi Samanthan puheessa. Tekoälyllä on taipumus puhua ajoittain meistä ihmisistä ja muistuttaa seuraavaksi, ettei ole ihminen.

Puutteistaan huolimatta tekoäly on kiinnostava työkalu. Jos olisi helppo yhteys GPT-3:een omalta työpisteeltä, siltä voisi hyvin kysyä pohjatietoja Google-haun tapaan.

Tämä tuskin onnistuu kovin pian. GPT-3:n kehittänyt Open AI päätti juuri rajoittaa vuorovaikutteisen pääsyn tekoälylle vain valitsemilleen tutkimushankkeille. Kuluttajien ulottuvilla on vain yksinkertaisempi versio GPT-J. Linturi on pettynyt ratkaisuun .

”Open AI on saanut valtavasti rahoitusta ja pelkää selvästi mainehaittoja, joita voisi syntyä, mikäli GPT-3 saataisiin johdattelemalla sanomaan jotain arkaluontoista. Yhtiö esitti esimerkiksi pelkonaan, että tekoäly alkaisi ottaa poliittisia kantoja. Minusta se olisi vain kiinnostavaa.”

Arkuuden syyksi voi ajatella pelkoa siitä, että ihmiset ottavat inhimilliseltä vaikuttavan tekoälyn liian tosissaan ja luottavat siihen kuin ihmiseen.

Vaikka itse asiassa edes toisiin ihmisiin luottaminen ei ole rationaalista, kuten Samantha huomautti luennolla, joka käsitteli ajattelua ja tunteita. Inhimillinen viestintä perustuu luottamukseen eikä järkeen, opettaa siis tekoäly.

Artikkeliin liittyviä aiheita

Osion uusimmat

Luitko jo nämä?

Lue myös: