Käsi-te-puhetta ja kokemuskimppuja

8.-15.3.2016 Googlen DeepMind-ryhmän kehittämän AlphaGo-ohjelman ja korealaisen Lee Sedolin, yhden kaikkien aikojen vahvimmista ihmispelaajista, välillä pelattiin paljon kansainvälistä mediajulkisuutta saanut viiden pelin sarja, jonka AlphaGo lopulta voitti 4-1 (kaikki pelit englanninkielisellä selostuksella löytyvät Youtubesta). Vasta lokakuussa 2015 AlphaGo oli voittanut euroopanmestari Fan Huin luvuin 5-0, mikä oli jo täysin ennenkuulumatonta, sillä tätä ennen parhaat ohjelmat olivat pelanneet vahvan kerhopelaajan tasolla täysikokoisella 19×19-laudalla, vaikka pienemmällä 9×9-harjoituslaudalla huipputaso oli jo saavutettu aikaisemmin. Go on ollut keskiössä tekoälytutkimuksessa, koska se on kahden pelaajan täyden informaation pelinä sekä suljettuna, hyvin määriteltynä ongelmana sopiva hiekkalaatikko testata erilaisia ideoita ja koska yleisesti peliä on pidetty hyvin ihmisen taitoihin istuvana, mutta hankalana koneille. Pelit ovat luonnollinen kehys tekoälyn kehitykseen, kun pyritään kehittämään tavoitteellisia agentteja toimimaan jaetussa ympäristössä.

Analyyttisestä ajattelusta

Ihminen hyödyntää gossa sekä intuitiivista että analyyttistä älyä. Analyyttisellä ajattelulla tarkoitan hitaita tiedostettuja ja täsmällisiä prosesseja, jotka kulttuuri on mieleen ohjelmoinut: esimerkiksi pelipuun läpikäyntiä mielessä laittoja visualisoiden (tätä kutsutaan ”lukemiseksi” go-termein) ja käsitteellistä ajattelua tyyliin ”tämä ryhmä on elossa, joten siitä ei tarvitse välittää tuossa taistelussa”. Analyyttinen ajattelu on irrallaan ihmisen kokemuksesta ja mahdollistaa tiedon käsittelyn abstraktisti sekä ilman aikaisempaa kokemusta asiasta. Se mahdollistaa mm. loogisen päättelyn, kun monimutkainen tilanne on ensin käsitteellistetty. Ajattelu voi myös tehdä ”ajassa” pitkiä päättelyketjuja, jolloin se yhdistelee yksinkertaisista askeleista monimutkaisempia polkuja; ikään kuin työmuistissa/mielikuvituksessa/tietoisuudessa simuloi virtuaalisten tapahtumien kulkua.

Voidaan ajattella, että analyyttisen ajattelun tasolla operoidaan symboleilla, jotka ovat riippumattomia fyysisestä tilasta ja kokemuksesta. Nämä symbolit voivat viitata ihmisen intuition tason hahmotuksiin – esimerkiksi hahmottaessamme näkökentässä tietynlaisen kokemuksen, voimme yhdistää sen sanaan ”tuoli”, joka liittää kokemuksen sen symbolisen tason luokkaan. Tämän jälkeen ajattelu voi käsitellä oliota sen käsitteellisen tason ”rajapinnan” abstrahoimana: tiedämme esim. että ”tuolilla voi istua”, ”tuolilla on atribuutti: väri” jne. täysin riippumatta kaikista niistä monimutkaisuuksista, jotka liittyvät ko. olion synnyttämään kokemukseen intuition tasolla. Tämä mahdollistaa sen, että voimme soveltaa käsitteellistä ajattelua abstraktisti aina uudelleen uusissa tilanteissa. Tätä abstraktiota voidaan vielä jatkaa puhtaasti symbolisella tasolla: esimerkiksi kieleen upotettu logiikka mahdollistaa päättelyn muuttujien avulla niin, että muuttujat voidaan instantioida millä tahansa konkreettisilla symboleilla tilanteesta riippuen. Käsitteellisen ajattelu on erityisen tehokasta, kun symbolit vastaavat alapuolisesta intuitiosta ja sen mallintamasta todellisuudesta modulaarisia kokonaisuuksia. Tämä tapahtuu silloin, kun intuitiosta ja todellisuudesta voidaan erotella erillisiä olioita tai piirteitä (esim. toistuva säännönmukaisuus, joka leikkaa useamman olion yli), joiden väliset riippuvuudet pelkistyvät yksinkertaisiin, symbolisiin suhteisiin. Tällöin voimme ajattelussa kokonaan unohtaa todellisuuden ja sen intuitiivisen kokemuksen (, joka jäsentää jo todellisuuden yhden intuitiivisen mallin, perspektiivin kantaan) epäoleelliset yksityiskohdat ja pelata vain kielellä.

Esimerkiksi juhlien järjestäjän tarvitsee kaupassa pitää mielessä vain lukua siitä, kuinka monta vierasta on tulossa ja tämä yksi luku abstrahoi kaiken oleellisen vieraista ruokaostosten kannalta. Tietoisuus näyttääkin kykenevän käsittelemään kerralla joko symbolia tai toisessa tilanteessa sen viittauksen kohdetta, mutta emme kykene yleisesti hahmottamaan useita viittaushyppyjä yhtäaikaa: symboli todella toimii kuin rajapinta, joka kätkee kaiken takanaan sitä pyöritellessämme. Käsitteiden perusongelma on taas niiden abstraktio ”vuotaminen”, mikä tarkoittaa, että käsitetason malli on yksinkertaisempi kuin intuition malli tai todellisuus: esimerkissämme vaikkapa vieraat voivat olla ryhmä huippu-urheilijoita, jotka syövät enemmän kuin normaali vieras ja tällöin pelkkä vieraiden määrä ei oleelliselta osaltaan mallintanutkaan tilannetta tarvittavalla yleisyydellä. Erittäin yleinen ajatusvirhe varsinkin hyvien ajattelijoiden kohdalla onkin todellisuuden unohtaminen ja toimivan käsitemallin venyttäminen sen toimivan sovellusalueen ulkopuolelle: esim. talousteoreetikko saattaa alkaa ajatella, että ”markkinat” jne. ovat todellisuutta sellaisenaan. Voidaankin ajatella jokaisen konsistentin käsitekehyksen ytimessä olevan jokin minimaalinen ”ydin”, jonka voisi kuvata esim. joukolla aksioomia, joihin kehyksen sisällä symbolinen argumentaatio lopulta perustetaan ja itse kehyksen validiteettia harvoin muistetaan kyseenalaistaa. Usein käytännössä joudumme kuitenkin käyttämään useita rinnakkaisia, mahdollisesti keskenään ristiriitaisia, kehyksiä, jotka mallintavat asian eri puolia, koska konsistentti kokonaismalli olisi liian monimutkainen tai meiltä puuttuu siitä osia.

Tyypillisesti käsitteellinen ajattelu itse etenee intuitiivisesti: operoimme käsitteillä tietoisesti, mutta emme tiedosta enää sitä prosessia, joka tätä suorittaa. Joskus taas teemme metakäsitekehyksiä, jotka käsittelevät toisia käsitekehyksiä. Esimerkiksi tieteellisiltä teorioilta vaaditaan usein pelkän käsitteellistyksen lisäksi muita eksplisiittisiä kriteerejä ja tiettyä ulkopuolista instituutiota. Fysiikka on siitä poikkeuksellinen alue, että siinä pohjimmiltaan pyritään hakemaan abstraktioita todellisuudesta, jotka eivät enää vuotaisi (toki käytännössä käytetään likimääräisiä malleja tai parasta saatavilla olevaa tietoa, mutta nämä yksinkertaistukset pyritään tekemään tietoisesti, ymmärtämällä tarkasti yksinkertaistuksen vaikutus). Tällöinkin tulee muistaa, että vaikka sanotaan jonkin empiirisen kokeen osoittavan jonkun ilmiön olemassaolon tietyllä todennäköisyydellä, tällaiset luvut pätevät vain valitun kehyksen sisällä: kun hyväksytään teorian ja koejärjestelyn taustaoletukset. Tällaisia todennäköisyyksiä ei voi liittää mitenkään suoraan avoimeen todellisuuteen (esim. mikä on todennäköisyys, että teorian oletukset ovat väärät tai että koelaitteessa on vika), koska jokainen kattava käsitteellistys on luonteeltaan aina ”kaikille pätee”-tyyppinen väite (eikä ”on olemassa”): haluaisimme sulkea koko todellisuuden mallin sisään ja sanoa, että mitään muuta ei enää mallin ulkopuolelle jää, mutta tästä ei voi varmistua mallin sisältä käsin.

Yleisemminkin tilastomatematiikka ja todennäköisyydet ovat laajalti käytetty työkalu ”white box”-mallien luomiseen ja erinomainen esimerkki käsitteellisestä ajattelusta: Esimerkiksi tietyssä go-pelin laudan tilanteessa voimme antaa arvion ”musta voittaa 90% todennäköisyydellä tästä asemasta”, joka yhdellä ainoalla jakaumalla abstrahoi monimutkaisen pelipuun kyseisestä tilanteesta lähtien. Jakauma on kuin ”likinäköinen” versio pelipuun ohuista oksista, josta näemme enää vain sumean päärungon mitä kauemmaksi katsomme (vaikka pystyisimme ”lähelle” lukemaan muutaman siirron eteenpäin). Tietenkään go-pelissä ei ole sattumaa (, eikä välttämättä edes pelaajien toiminnassa) ja optimaalinen peli varmasti päättyisi tietyn pelaajan voittoon ja jos kaksi konetta pelaa keskenään, näidenkin epätäydellinen peli päättyy deterministisesti yhden voittoon (ihmisaivoissa saattaa peliin vaikuttaa kvanttimekaaninen satunnaisuus), mutta tällaisen tilastollisen mallin tarkoituskaan ei ole kuvata monimutkaista asiaa tarkasti, vaan ainoastaan riittävällä tarkkuudella, jolla kuitenkin pystymme analyyttisellä tasolla helposti prosessoimaan ja saamaan halutun lopputuloksen. Mallin abstraktiotason korkeuden säätäminen vaikuttaa siis ikään kuin siihen ”vesirajaan”, paljonko ilmiöstä jää käsitteellisen rajapinnan taakse ja paljonko sen yläpuolelle: ulko/alapuolella on todellisuuden tai intuition ”musta laatikko” ja sisä/yläpuoella valkoinen. Tämän rajan säätäminen vaikuttaa mallin ”ilmaisuvoiman” ja ”teorian” väliseen suhteeseen: mitä enemmän mallia on tietoisessa käsittelyssä, sitä vähemmän voimme sille tehdä yleisillä työkaluilla (, ja sitä huonommin ymmärrämme itse mallin metatasolla), mutta sitä tarkempi kuvaus todellisuudesta malli on. Esimerkiksi tilastomatematiikassa ideana on taas nostaa vesiraja hyvin ylös, jolloin eksplisiittinen tilastollinen malli jakaumien muodossa on äärimmäinen yksinkertaistus todellisuudesta, mutta juuri tämän yksinkertaisuuden ja abstraktiuden takia siitä tulee kuin ”lego-palikka”, joka sopii useampaan tietoisuuden työkaluun: meta-teoriasta tulee vahva, voimme operoida pidemmälle yksinkertaisista oletuksista lähtien ja yhdistää eri sovellusalueiden tietoa.
Gon säännöissä ei mainita lainkaan käsitteitä ”silmä” tai ”elävä ryhmä”, vaan nämä ovat vain ihmisen tapa hahmottaa peliä käsitteellisesti ja yksinkertaistaa sitä. Tällöin ryhmän statusta miettiessämme voimme unohtaa paljon taktisten sekvenssien monimutkaisuudesta, kun voimme vain tarkastella, mihin laudan risteyskohtiin silmä voi muodostua ja voiko ryhmä tehdä kaksi silmää, jonka jälkeen sitä ei voi vangita enää. Tyypillisesti ihminen pystyy esimerkiksi järkeilemään, että tietyt taktiset sekvenssit ovat oleelliselta osin toisistaan riippumattomia ja merkittävästi karsimaan pelipuuta näin. Esimerkiksi kombinatorinen peliteoria, jonka Conway keksi gon pohjalta, perustuu juuri gon loppupelitilanteiden riippumattomuuteen keskenään. Tai semeai-taistelussa voimme usein unohtaa suurimman osan mahdollisista siirtojärjestyksistä ja vain laskea, montako vapautta ryhmällä on ja montako lähestymissiirtoa tarvitaan: hahmotamme valtavan pelipuun aivan erilaisesta maailmasta kuin pelin säännöt antaisivat ymmärtää: ajattelemme ryhmiä ja vapauksia, emme sekvenssejä. Olemme oppineet nämä käsitteet kielen avulla muilta pelaajilta, kirjoista ja kokemuksen kautta pelaamalla paljon pelejä. Analyyttinen hahmotus ja intuitio ovat jatkuvassa vuorovaikutuksessa: se, että jäsennämme pelin maailmaa käsitteiden avulla, opettaa intuitiollemme tätä hahmotusta ja tietty intuitiomme hahmotustapa toimii edellytyksenä käsitteenmuodostukselle. Yhdessä nämä tasot muodostavat pelaajan perspektiivin, josta tämä lähestyy go-peliä ja pelissä kehittyessä perspektiivi muuttuu koko ajan: kokenut pelaaja näkee lautaa katsoessaan aivan eri asioita kuin aloittelija ja näitä hahmotuksen tasoja on useita. Analyyttiset, tietoiset hahmotukset on mahdollista kommunikoida kielellä muille pelaajille, mutta intuition mallia, sitä kuinka suoraan ”koemme” pelin, on yleensä hyvin vaikea selittää kielellä, koska se perustuu valtavalle määrälle dataa aikaisemmista peleistä. On oleellista huomata, että käsitteellinen, teoreettinen malli ei välttämättä ole kokemuksesta opittu, vaan se voi olla muualta tullut ”virtuaalinen maailmansa”, joka sitten voi kytkeytyä intuition tason hahmotuksiin, jotka ovat suoremmassa yhteydessä kokemuksiin.

Suhteellisesta intuitiosta ja neuroverkoista

Gosta puhuttaessa kokeneella pelaajalla laudan evaluointi ja muotojen tunnistaminen ovat tyypillisiä intuition tason funktioita ja kokemukseen pohjautuen ne luovat intuitiivisen, yksinkertaistetun ja oleellisiin asioihin painottuvan mallin/perspektiivin pelin sääntöjen määrittämästä ”todellisuudesta”. Jo oman kokemuksen pohjalta sanoisin, että suurin osa vahvan gonpelaajan taidosta perustuu intuitioon: pikapelissä pelaaja voi mukauttaa peliään niin, ettei laittojen toimivuus merkittävästi riipu vaikeista taktisista sekvensseistä. Esimerkiksi lukematta tietoisesti käytännössä ainuttakaan sekvenssiä, kokenut pelaaja heikkenee ehkä parin tasoituskiven verran omasta maksimitasostaan, mikä antaa objektiivisen mittarin intuition ja analyyttisen älyn merkitysten osuuksille ihmisten go-pelissä. Tietoisen lukemisen tarkoitus onkin pääosin vain ”todistaa”, ettei intuition tarjoamissa siirtovaihtoehdoissa ole mitään yllättävää ongelmaa, joka romuttaisi ne kokonaan.

Tilanteen arviointi perustuu osittain intuitiiviselle (vaikutusvallan arvon ja ryhmien vahvuuksien arviointi), osittain analyyttiselle (esim. varmojen alueiden pisteiden laskeminen yksitellen tietoisesti) yhdisteeseen. Tässäkin näkemystä ohjaa käsitteistykset kuten ”varma alue” ja ”vaikutusvalta”, jotka ennalta vaikuttavat siihen, missä kehyksessä alamme tilannetta analysoimaan. Pelaaja saattaa esimerkiksi muodostaa arvion voittotodennäköisyydestään ja valita pelistrategiansa arvion perusteella: johtoasemassa kannattaa yksinkertaistaa peliä ja suosia sekvenssejä, jotka vähentävät tilanteiden epävarmuutta ja tappiolla taas hakea monimutkaisia tilanteita, joissa lopputuloksesta tulee epävarmempi. Jälleen täytyy muistaa, että tällainen ”voittotodennäköisyys” ei ole mikään pelin todellisuudesta löytyvä ilmiö, vaan yksinkertaistava mallimme: pidemmälle viety analyysi muuttaisi tätä ”todennäköisyyttä”, kun otamme huomioon enemmän seikkoja arviossamme.

Siinä, missä ajattelu operoi symboleilla tietoisuudessa/työmuistissa ”ajassa”, intuitio tapahtuu ”tilassa” massiivisesti rinnakkain monimutkaisempaan (datan määrän suhteen) malliin nojaten: intuitio antaa meille lähes välittömästi hyödyllisiä arvioita, jotka perustuvat kokemuksesta opittuun malliin samantapaisista tilanteista. Älykkääksi intuition tekee se, että se ei ole vain massiivinen tietokanta, joka tallentaa yksittäisiä kokemuksia, eräänlaisia ”kokemussäikeitä” tai aikaisempia skenaarioita/kokeita, vaan se yhdistää informaation näistä korreloivista yksittäiskokeista malliksi, joka paljastaa pintahavaintojen taustalta säännönmukaisuuksia. Tämä on kuin perinteinen tarina sokeista henkilöistä, jotka tunnustelivat elefantin eri osia ja saivat varsin erilaiset aistisyötteet keskenään. Kukin kokemus elefantista on eräänlainen projektio tai varjokuva siitä, mitä elefantin kokeminen tunnustelemalla voi ylipäätään olla. Jos sokeat eivät vaihtaisi kokemuksiaan keskenään, lopputulos olisi vain kokoelma erillisiä havaintoja, kuin tietokannan tauluja, jotka eivät auttaisi meitä ymmärtämään elefanttia juurikaan syvemmin tai ennustamaan sen tuntua mahdollisista uusista kulmista. Hieman parempi olisi, jos alkaisimme tilastoimaan erilaisia kokemuksia elefantista tai määrittämään vaikkapa esiehtoja tietyille kokemuksille, mutta tällaiset ennalta määritetyt kehykset vieläkin rajoitavat sitä, kuinka voimme intuitiivisesti ymmärtää elefantin. Toinen lähestymistapa olisi valtavalla vaivalla tunnustella elefantti mahdollisimman monesta kulmasta ja tallentaa kaikki tämä informaatio yksityiskohtiaan myöten. Tässä ongelmaksi tulee se, että jos otamme tarkasteluun toisen elefantin, joka on yksityiskohdissaan vähän erilainen kuin edellinen, keräämämme tieto ei yleisty ja päde tähän uuteen tilanteeseen ja on vaikea sanoa, mikä osa datastamme on oleellista. Älykäs intuitio onkin ilmeisesti tällainen erilaisia lukemattomia kokemuksia integroiva muisti, joka kykenee pakkaamaan näennäisesti itsenäisistä skenaarioista selittäviä ”piilomuuttujia”. Tämän malli tuottaa ehkä ulkoisesti koherentin kokonaisuuden, mutta kenties voisi ajatella, että sisäisesti se uuttaa erilaisia selittäviä aspekteja havainnoista: Intuitiolla ei näin ollen ole ”eheää, kokonaista teoriaa” havainnoista, vaan sen voima perustuu siihen, että lukemattomat eri selittävät tekijät ovat osittain riippumattomia keskenään ja niiden yhdiste mallintaa kokonaisuutta paremmin kuin mikään yksittäinen yksinkertainen lähestymistapa (ensemble-oppimisen teoria koneoppimisessa on ilmeisesti teoreettinen tausta tälle, en ole varsinaisesti koneoppimiseen perehtynyt). Joka tapauksessa käytännön koneoppimisongelmissakin on havaittu, että yhdistämällä erilaisia algoritmeja, jotka lähestyvät ongelmaa hieman eri kulmista, kukin selittäen tietyn piirteen paremmin kuin muut algoritmit, saadaan yhdessä hieman paremmin toimivia kokonaisuuksia (esim. Netflix-kilpailun voittaja oli tällainen yhdiste). Uskoakseni tämä on intuitiolle ominaista: ei ole olemassa mitään yhtä kaunista hahmotustapaa tai helposti selitettävää algoritmia älyn ongelmien ratkaisuun, vaan opetettu intuitio on tuomittu olemaan musta laatikko, jonka toimintaa emme voi merkittävästi ymmärtää yksinkertaisemmista ja metateorialtaan vahvemmista kehyksistä lähtien. Tämä on yksi syy, miksi uskon, että tiettyä älykkäämpiä järjestelmiä on mahdotonta täysin hallita jonkinlaisesta ”kontrollipisteestä” käsin ja käsin hiotut ymmärrettävät algoritmit ovat vähemmän joustavia, kun niiden taustaoletukset eivät pädekään syötteelle.

Edelliseen liittyen, intuition ja käsitteellisen ajattelun eroista tulee mieleen väitöskirjatutkimuksessani vastaan tullut informaatiokeskeisen ja ”oliopohjaisen” arkkitehtuurin erot. Jos data on ”ulkopuolella” julkisesti kaikkien käytettävissä, johtaa tämä järjestelmän helppoon laajennettavuuteen uudella toiminnallisuudella, kun kaikki informaatio on saatavilla. Tällöin taas oletukset, jotka voidaan järjestelmän arkkitehtuurista tehdä, heikkenevät ja vapaa kehitys johtaa monoliittiseen arkkitehtuuriin, jossa on vaikea tehdä muutoksia vanhaan riippuvuuksien takia (vähän samaan tapaan evoluutio näyttää toimivan kerroksellisesti ja esimerkiksi ihmisen sikiökehityksessä voimme havaita kehityspuun historiaa). Jos taas data on rajapintojen sisään kapseloitua tilaa ”sisäpuolella”, on helppo soveltaa luokkienvälistä logiikkaa erilaisille olioiden toteutuksille, mutta samaan aikaan rajapintojen oletukset rajoittavat uuden toiminnallisuuden lisäämistä järjestelmään. Laajennettavuus ja muunneltavuus ovat siis tässä ääripäät samoin kuin ilmaisuvoima ja oletuksien varaan rakentuva teoria järjestelmästä. Ehkä voisi ajatella, että intuition taso lähestyy ongelmia ”informaatiokeskeisesti” hyödyntäen kaikkea mahdollista dataa ja tämä on jollain tapaa kytköksissä massiivisesti rinnakkaiseen, mutta ”ajallisesti” lyhyeen koodiin ikään kuin mallin monoliittisuuden kontrolloimiseksi. Käsitteellisen ajattelun symbolit taas piilottavat niiden ”toteutuksen” (, jonka voi ajatella olevan reaalimaailmassa ja intuitiossa), jolloin käsitekehys itse asiassa kiinnittää oletuksia eikä toiminnallisuutta: käsitekehyksestä tulee suljettu systeemi, joka mahdollistaa pitkälle menevät päättelyt niin kauan, kun käsitekehys voidaan vain sovittaa uusiin, erilaisiin tilanteisiin. Toisaalta tämä on myös kehysten rajoitus: kiinnitetyt oletukset rajoittavat tapoja nähdä todellisuus (, mikä ehkä näkyy selvimmin ideologioissa, jotka hyväksyvät vain oman ”sisäisen logiikkansa”). Jonkinlainen duaalisuus näiden lähestymistapojen välillä selkeästi on: intuitio perustuu tyhjästä joukosta kasvavalle joukolle kokemuksia, partikulaarisia tilanteita, joista laajennetaan ja yleistetään, kun taas käsitteellinen ajattelu voi tehdä universaaleja väittämiä luokista ja käsitteitä tarkennetaan lähinnä tekemällä kokonaisuudesta/”kaikesta” tarkentuvia/rajattuja alaluokkia. Yhdessä nämä kaksi mielen tasoa tukevat toisiaan, lähestyen ongelmia kahdesta eri suunnasta: yksittäistapausten ja universaalin. Intuitio ottaa huomioon lukemattomia piirteitä todellisuudesta, mutta samaan aikaan käsitteellinen ajattelu voi rakentaa vaikkapa kytkentöjä näennäisesti erillisten asioiden välille tai vaikkapa todistaa jonkun lähestysmistavan toimivuuden, vaikka sitä ei olisi koskaan testattu.

Olen ymmärtänyt, että koneoppimisessa viime aikoina deep learning-otsakkeen alle menevät menetelmät ovat saaneet suosiota ja neuroverkkoja on lopulta onnistuttu menestyksekkäästi käyttämään erilaisissa sovelluksissa kuten puheentunnistuksessa tai autonomisissa autoissa. Keinotekoisten neuroverkkojen idea on saanut motivaationsa ihmisaivojen kytkeytyneistä hermosoluista ja voisi kai sanoa, että ne pyrkivät ratkaisemaan ainakin intuition ongelman. Itse uskon, että intuitio on juuri tämä evoluutiossa kehittynyt aivojen peruskyky, joka on myös muilla eläimillä (käytännössä aivojen ”arkkitehtuuri” on evoluution muokkaama monimutkainen kokonaisuus, mutta kiinnostavaa tekoälytutkimuksen kannalta on löytää älyn perusmekanismit ja unohtaa esimerkiksi ihmiseen liittyvät yksityiskohdat). Tämän päälle on sitten kehittynyt tietoisuuden työmuisti/mielikuvitus, symbolifunktio ja kielen edellytykset, jotka toimivat sitten eräänlaisena rakennusalustana käsitteelliselle ajattelulle ja kulttuurin ohjelmille, joita intuition taso ikään kuin ”suorittaa” työmuistin toimiessa eräänlaisena todellisuuden jatkeena, virtuaalisena tilana, jossa ajattelu voi edetä riippumatta välittömästä fyysisestä ympäristöstä.

Neuroverkolla on syötejoukko ja tulostejoukko ja sen voi ajatella laskevan tietyn funktion näiden välillä. Neuroverkko koostuu kytkeytyneistä neuroneista, joista kukin laskee jonkun yksinkertaisen epälineaarisen funktion sisääntulevista kytkennöistä ulostuleville (jos yksittäiset neuronit olisivat lineaarisia, koko järjestelmä olisi lineaarinen). Osa neuroneista saa syötteensä verkon ulkopuolelta ja osa tulostaa neuroverkon ulostulon. Ideana on, että erilaisilla algoritmeilla neuronien laskemat yksinkertaiset funktiot voidaan säätää vähän kerrallaan niin, että neuroverkko kokonaisuudessaan oppii laskemaan jonkin halutun funktion. Tavallaan voisi ajatella, että yksittäiset neuronit mallintavat hyvin yksinkertaisia piirteitä kokonaisongelmasta ja kaikki nämä lopulta yhdistetään tulosteessa. Koska yksittäisen neuronin logiikka on rajoitettu, monimutkaisemmat mallit tuotetaan verkolla, jonka muoto on sellainen, että data kulkee verkossa useamman ”tason” läpi ennen päätymistä verkon ulostuloon. Ehkä tällöin voisi ajatella, että kukin taso tällaisessa rakenteessa mallintaa aina edellistä ja näin ollen löytää ”syvemmälle” kätkettyjä riippuvuuksia datasta. Lähestymistapa on yleinen ja neuroverkkoja voi käyttää erilaisten ongelmien ratkaisuun. Lähestymistavan käytännöllisyyteen vaikuttaa mm. käytetyt oppimisalgoritmit, neuroverkon koko ja syötteen sekä tulosteen esittäminen sellaisessa muodossa, että oppiminen on tehokasta. Ymmärtääkseni nykyisissä neuroverkoissa on sellainen ongelma, että verkon koko tulee valita ongelmalle sopivaksi: pienet verkot yleistävät liikaa ja isot verkot tallentavat kokemukset erillisinä (en ole neuroverkkojen asiantuntija, joten voi olla, että tämä ongelma on jo ratkaistu).

AlphaGo

AlphaGo-ohjelmistoa pyöritettiin Googlen hajautetulla alustalla ja erityisesti sen opettamisessa on hyödynnetty Googlen mittavia laskentaresursseja. AlphaGo ei varsinaisesti sisällä täysin mullistavia uusia tekoälyn lähestymistapoja, vaan sen vahvuus perustuu olemassaolevien palasten yhdistämiseen toimivalla tavalla. Voisi kenties sanoa, että AlphaGon arkkitehtuuria on motivoinut vahvan ihmispelaajan intuitiota ja analyyttistä lukemista yhdistävä pelitapa. Ihmisen intuition kaltaista funktiota AlphaGossa vastaavat sen kaksi neuroverkkoa: ”policy network” sekä ”value network” ja myöskin laudan evaluointiin käytetty Monte Carlo-puuhaku, joka oli suuri hyppäys go-ohjelmien pelitasossa, kun se otettiin käyttöön MoGo-ohjelmassa 2006. Näitä ”intuitiivisia komponentteja” yhdistää AlphaGon ”analyyttinen” puoli: minimax-pelipuun läpikäynti.

Gohon ei tunneta yksinkertaisia laudan evaluointifunktiota, jotka riittäisivät vahvaan peliin kuten esimerkiksi shakissa, jossa minimax-haku toimii tehokkaasti evaluoimalla laudan tilanteita puun lehdissä suhteellisen yksinkertaisesti ja nopeasti huomioiden materiaalin ja liikkuvuuden. Gon pelaajat joutuvatkin pelaamaan melko kauan aloittelijoina, ennen kuin peliin alkaa muodostua mielekästä strategiaa. Yksin opiskellen pelaaja ei oppisi pelaamaan todennäköisesti ihmiselämässä kovinkaan järkevää peliä, vaan strategiset periaatteet opitaan intuitiivisesti pelaamalla kokeneempia pelaajia vastaan ja tutustumalla gon ”teoriaan” esim. kirjoista. Erilaisia ylöskirjattuja heuristiikoita on lukemattomia ja monet näistä ovat saaneet sananlaskumaisen muodon kuten ”pelaa hane kahden kiven päähän” jne. Nämä yksinkertaiset, irralliset viisaudet ovatkin kuin kirjallisen muodon saaneita intuition havaitsemia piirteitä pelistä, jotka selittävät toimivaan strategiaan vaikuttavia tekijöitä. Useimmat heuristiikat tosin viittaavat käsitteisiin kuten ”pelaa poispäin vahvuudesta”.

Policy network on neuroverkolla toteutettu funktio laudan tilanteesta todennäköisyysjakaumalle eri laittojen ”todennäköisyydestä” olla paras seuraava siirto. Value network taas on neuroverkko, joka laskee funktion laudan tilanteesta puolien todennköisyyteen voittaa peli. Tässä jälleen kerran ”todennäköisyys” tulee ajatella eräänlaisena jäännöskäsitteenä sille monimutkaisuudelle, jota emme pysty pelin todellisuudesta tarkasti mallintamaan. Ikään kuin katsomme likinäköisesti ko. laudan tilanteesta aukeavaa pelipuuta ja abstrahoimme sen yhdeksi luvuksi, joka auttaa analyysissä.

Nämä neuroverkot on opetettu AlphaGon tapauksessa vahvistusoppimisella perustuen n. pariinsataantuhanteen vahvojen ihmispelaajien pelaamiin peleihin ja tämän jälkeen Alphagon itseään vastaan pelaamiin miljooniin peleihin. Tätä aineistoa voidaan käyttää esim. siten, että otetaan peleistä tilanne ja yritetään opettaa policy network arvaamaan pelissä pelattu seuraava laitto. Vastaavasti perustuen pelien lopputuloksiin, voidaan opettaa value network:iä arvioimaan tilannetta. Value networkin lisäksi AlphaGo käyttää laudan tilanteen arviointii painotetusti myös Monte Carlo-puuhakua, joka nopeasti pelaa valtavan määrän satunnaisia pelejä (ikään kuin simuloi potentiaalisia tulevaisuuksia ja yrittää muodostaa ”sumean” likimääräisen käsityksen, kuinka hyvä lopputulos on odotettavissa) loppuun minimax-puuna siten, että kussakin puun solmussa pidetään kirjaa niiden pelien määrästä, jotka johtivat tietyn pelaajan voittoon ja tämä frekvenssi tulkitaan ”voittotodennäköisyydeksi” ko. tilanteessa.

AlphaGon pelin ”käsitteellisen ytimen” muodostaa tyypillinen minimax-puu, jota käydään iteratiivisesti läpi siten, että puun muoto voi vaihdella tilanteesta riippuen. Mikäli jossain haarassa on hyviksi arvioituja siirtoja, joita ei ole vielä tutkittu paljoa pelipuun läpikäynnillä, niitä käydään läpi enemmän. Jos taas hyviä haaroja on vähän, pitkää pakotettua sekvenssiä voidaan käydä läpi syvällekin. Tämä on aivan oleellista gossa, jossa on sääntöjen puolesta valtavasti laillisia siirtoja, mutta tietyissä tilanteissa tämä valintojen runsaus on näennäistä: esimerkiksi tikapuissa pitkä sekvenssi on usein vain pelattava pakotettuna loppuun ja katsottava miten tikapuut päättyvät. AlphaGon policy network siis koodaa myös tietämystä siitä, mitkä ovat strategian kannalta taktisesti kriittisiä laittoja, jotta lukeminen voidaan kohdistaa oleellisiin asioihin näennäisesti valtavassa mahdollisuuksien joukossa. Hahmottelisin tässä sellaista pelejä luokittelevaa käsitettä kuin ”jatkuvuus”, jolla tarkoitan sitä, että mikäli peli suurimmalta osin on pienten virheiden kumulointia ”voittotodennäköisyyteen”, peli on luonteeltaan ”strateginen” ja jos taas yksittäiset siirrot voivat usein johtaa pelin romahtamiseen, on peli luonteltaan ”taktinen”. ”Strategisiin” peleihin intuitiolla on mahdollisuus toimia hyvin ja ”taktiset” pelit taas vaativat analyyttistä täsmällisyyttä. Go on siinä mielessä rikas ihmisajattelun ”mikrokosmos”, että siinä on selkeästi sekä strategisia että taktisia elementtejä tilanteesta riippuen ja taitavassa pelissä nämä tulee tunnistaa ja yhdistää. Peli saattaa muistuttaa joskus kuin kaoottista järjestelmää, joka aluksi pitkään etenee rauhallisesti, mutta yhtäkkiä jokin laitto saattaa avata perhosvaikutuksena monimutkaisen taistelun, joka näyttäisi siirtävän pelin kuin yhdeltä radalta toiselle. Gota on japaniksi kutsuttu ”käsipuheeksi”, jossa laitoillaan pelaajat paljastavat vähän kerrallaan myös jotain itsestään.

Koska policy network on melko hidas laskea, AlphaGo pystyy käymään läpi vain kymmeniätuhansia laittoja sekunnissa, joka on pelipuun haarautumiseen nähden hyvin vaatimaton nopeus. Tässäkin mielessä AG muistuttaa ihmistä, jonka tietoinen lukeminen etenee vain joitakin laittoja sekunnissa ja silti taitava pelaaja kykenee analysoimaan tilannetta pitkilläkin sekvensseillä, koska ihminen kykenee järkevästi karsimaan sen, mihin miettiminen kannattaa keskittää. Intuitio on keskeisessä roolissa ja voidaan sanoa, että AG:n läpimurto tekoälyn kehityksen kannalta oli juuri intuitiivisten komponenttien liittäminen analyyttiseen logiikkaan toimivalla tavalla. Itse asiassa AG:n peleistä Lee Sedolia vastaan voitaisiin jopa sanoa, että koneen intuitio ylitti ihmisen kyvyt tällä saralla: Taisteluissa AG pystyi usein arvioimaan laittojen strategisen merkityksen ihmistä paremmin ottamalla vähän etua sieltä ja täältä pelin edetessä. Sen peli ei ihmiselle näytä kryptiseltä ongelmanratkaisulta vaan melkein esteettiseltä hahmotukselta. Näytti siltä kuin ihmisen ainoaksi aseeksi jäi käsitteellinen ajattelu, johon AG:n lähestymistapa ei vielä pysty. Uskoakseni Lee Sedol oivalsi tämän pelisarjan edetessä ja mukautti pelityyliään amashi-strategian suuntaan ottamalla alussa varmaa aluetta ja antamalla AG:n rakentaa suuret moyonsa, johon sen pelityyli näyttää johtavan muutenkin. Ideana tässä on luoda lopuksi moyoa invasioidessa tilanteita, jotka ovat kriittisiä pelin ratkaisulle niin, ettei AG pysty enää yksinkertaistamaan peliä, mutta AG:n ”intuitio” ei toisaalta pysty ratkaisemaan monimutkaista kriittistä taktista tilannetta, johon ihminen pystyy käsitteellisillä työvälineillä löytämään oikoteitä. Lee Sedol voitti 4. pelin juuri tällaisessa tilanteessa, jossa siirron toimivuus vaati kolmea laittoa ensin laudalle ja ihmispelaaja kykeni nerokkaasti päättelemään, että nämä laitot perustuivat riippumattomiin pakotuksiin ja löytämään AG:n policy networkille piiloon jääneen tesujin maaliorientoituneella haulla: ihminen voi päätellä, että tähän tilanteeseen tarvitsisin tietyn laiton ja sitten hakea ”käänteisesti” millaiseen tilanteeseen peli pitäisi ajaa, jotta kyseisen laiton saisi pakotettua, jotta kriittinen sekvenssi toimisi. Ilman tällaista käsitteellistä tilanteen yksinkertaistusta AG ei kykene karsimaan pelkästään intuitiollaan pelipuuta tarpeeksi, koska tarvittavat sekvenssit voivat sisältää siirtoja, jotka yleensä eivät ole hyviä siirtoja. Tästä heikkoudesta seuraa myös se, että AG:n intuitio todennäköisesti painottaa aavistukseen liikaa vaikutusvaltaa suhteessa varmaan alueeseen, koska se ei kykene esim. Monte Carlo-haulla löytämään juuri niitä kriittisiä sekvenssejä, jotka rikkovat moyon. Tässäkin ihminen voi perustaa oman strategiansa käsitteellisesti johdettuun heuristiikkaan varman alueen merkityksestä. Tällainen analyysi vaatii paljon gon ”sisäistä logiikkaa” laajemman ymmärryksen pelistä: tämä on juuri käsitteellisen ajattelun vahvuus – näennäisesti asiaan kuulumaton pohdiskelu voi paljastaa jotain kätkettyä tilanteesta kuin Sherlock Holmes, joka logiikalla yksittäisistä vihjeistä päättelee jälkiään kätkeneen rikollisen. Juuri tämän laajemman ymmärryksen takia, Lee Sedol saattoi mallintaa konevastustajaansa ja pyrkiä muokkaamaan pelitapaansa kokonaan erilaiseksi perustuen myös vastustajansa heikkouksiin, vaikka AG pystyi hahmottamaan vain pelin suljetun maailman tai korkeintaan heijastamaan omaa pelitapaansa, koska oli harjoitellut vain itseään vastaan. AG:n yksi heikkous onkin sen luottamus omaan ”voittotodennäköisyys”-malliinsa, koska voittotodennäköisyys perustuu vain sen omalle pelille. Tällöin se Monte Carlo-ohjelmille tyypilliseen tapaan pyrkii maksimoimaan pelin voittotodennäköisyyttä huomioimatta esim. eroa varmassa alueessa, kun taas ihminen pystyy järkeilemään, että marginaali pisteissä antaa myös jotain epäämääräistä pelivaraa pelin lopun epävarmuuksien kohdalla. AG ei myöskään kykene tappioasemasta muuttamaan omaa pelitapaansa sellaiseksi, että se yrittäisi löytää ihmiselle hankalia sekvenssejä yksinkertaistaa, jotka tekisivät lopputuloksesta epävarman.

Yhteiskunnallinen merkitys

Kun 90-luvun kuuluisassa ottelussa Kasparov hävisi ensimmäistä kertaa Deep Bluelle, voidaan karkeasti sanoa, että kone voitti, koska se yksinkertaisesti luki vain tarpeeksi suuren määrän sekvenssejä eikä tehnyt virheitä. Shakissa tilanteet muuttuvat siirtojen seurauksena ja yksittäiset taktiset virheet maksavat helposti koko pelin. Pitkään ajateltiin, että go olisi hyvin haastava ongelma koneille, koska raakaan laskentehoon perustuva lähestymistapa ei toimi siinä, sillä ihminen kykenee pelin ymmärryksellään karsimaan mahdollisia laittoja niin merkittävästi. Yleensä perusteluksi sanotaan, että go on kompleksisempi kuin shakki sen suuremman pelipuun takia, mutta itse uskon, että kuvaavampi luonnehdinta gon vaikeudesta tekoälylle on, että go sopii ihmisen ajattelulle paremmin kuin shakki. Tästä syystä AlphaGon voitolla on laajempaa merkitystä tekoälyn kehitykselle: nyt näyttää siltä, että periaatteellisella tasolla, ainakin rajatuissa ongelmissa kuten go-peli ja riittävällä laskentateholla, koneet ovat saavuttaneet ja ylittäneet ihmisen intuition menetelmillä, jotka yleistyvät ja joita ei ole edes alunperin gota varten kehitetty. Tämä on yksi filosofinen rajapyykki ihmisen älyn mallintamisessa ja vähän kerrallaan näyttää paljastuvan, ettei ihmisen älyssä ole periaatteellisella tasolla mitään tekniikan tavoittamatonta.

Todennäköisesti tarvitaan vielä ainakin yksi suuri oivallus ihmisen tietoisuuden osaaman hahmoista abstraktiokyvyn, käsitteellisen ajattelun ja hahmojen soveltamisen uusissa yhteyksissä toteuttamiseksi. Kun tämä saavutetaan, jäljelle jäävät laskentatehon ja energiatehokkuuden kasvattamiseen liittyvät tekniset ongelmat ja robotiikan kohdalla mekaniikan ja akkuteknologian ongelmat. Vaikka kaikkiin näistä ongelma-alueista liittyy lukemattomia haasteita, jotka tulevat vaatimaan merkittäviä oivalluksia, näyttäisi siltä, että ne kehittyvät inkrementaalisesti ja saavuttavat ihmisen ominaisuuksia hiljalleen. Tuntuisi epätodennäköiseltä, että evoluutio olisi ihmisaivoissa löytänyt jonkinlaisen globaalin optimitoteutuksen tälle älyn arkkitehtuurille. Uskoisin, että mikäli ihmiskunta ei kohtaa muita suuria ongelmia sitä ennen ja kehitys jatkuu tasaisesti, ihmisen kyvyt tullaan jollain aikavälillä saavuttamaan teknologialla.

Teknologista kehitystä rajoittavat myös lopulta luonnonlakien reunaehdot ja vaikka parissa vuosikymmenessä tietokoneiden nopeus ja tallennuskapasiteetti on tuhatkertaistunut, en usko, että kehitys jatkuu kovin kauaa tällä eksponentiaalisella käyrällä. Tässä mielessä en usko mihinkään teknologiseen ”singulariteettiin”, mutta sen sijaan uskon, että teknologinen kehitys voi potentiaalisesti jatkua ohi ihmisen. Meneekö tähän 50 vai 1000 vuotta on esimerkiksi geneettisen evoluution kannalta aivan sama, koska biologinen olemuksemme ei perustaltaan muutu tällaisissa aikaskaaloissa mitenkään, vaikka kulttuurievoluutio on edennyt jo teollisesta vallankumouksesta lähtien merkittäviä hyppäyksiä teknologisena kehityksenä. Teknologisten edistysaskeleiden käyttöönottoa on myös vaikea hallita: jos yritysjohtaja voidaan korvata hahmotukseltaan ylivertaisella tekoälyllä, tämä tullaan tekemään vaikka piilossa ja ne jotka eivät tee, putoavat kilpailusta. Tällä tavalla koneet tulevat vähitellen jossain vaiheessa miehittämään kaikki oleelliset asemat tuotannossa. Nämä tulevat tehokkaaseen toimintaansa tarvitsemaan kattavan mallin maailmasta ja tarpeelliset vapaudet toimia. Tällaisten tekoälyjen kontrollointi on lopulta kuin koira yrittäisi pitää ihmistä talutushihnassa ja kuvittelisi hallitsevansa tilannetta. Voitaisiin runollisesti sanoa, että kun kulttuurin teknologia ohittaa biologisen perustamme, ajatuksemme jäävät elämään, mutta ruumiimme perustuessa älykkääseen suunnitteluun verrattuna sokean evoluution painolastille, se käy rasitteeksi. Kukaan ei tietenkään voi sanoa, mitä pitkällä tähtäimellä tulevaisuus täsmälleen tuo tullessaan. Voimme esim. katsoa historiaan ja sumeasti nähdä kuinka kulttuurievoluutio on lyhyessä ajassa jo muuttanut useimmat yhteisön rakenteet. Tekoälyyn liittyvät uhkakuvat liittyvät juuri tähän yleiseen kontrollin menetykseen: tekoäly ei ole enää vain työkalu, jota ihminen ylhäältäpäin kontrolloi oman toimintansa jatkeena.

(2001: A Space Odyssey (1968) – From Bone to Satellite Scene (1/6) | Movieclips)

Vastaa

Täytä tietosi alle tai klikkaa kuvaketta kirjautuaksesi sisään:

WordPress.com-logo

Olet kommentoimassa WordPress.com -tilin nimissä. Log Out /  Muuta )

Facebook-kuva

Olet kommentoimassa Facebook -tilin nimissä. Log Out /  Muuta )

Muodostetaan yhteyttä palveluun %s

%d bloggaajaa tykkää tästä:
search previous next tag category expand menu location phone mail time cart zoom edit close