Luultavasti jokainen verkossa liikkunut on nähnyt takavuosien ohjeen, jonka mukaan trollaukseen ei kannata reagoida. Kun trollille ei vastata, vaan hänet blokataan ja puuhat raportoidaan ylläpidolle, trolli ei pääse muuttamaan keskustelun kulkua.

Mutta entä jos käyttäydymme itse trollien tavoin?

Psykologisesta näkökulmasta katsottuna meillä ihmisillä on synnynnäinen taipumus luokitella vieraita ihmisiä. Tällainen ominaisuus oli elintärkeä etu metsästäjä-keräilijöiden selviämiselle, mutta digitaalisessa ympäristössä siitä on haittaa. Nettikeskustelukumppanista tehdyt pikaoletukset menevät helposti poskelleen.

Meillä on myös tapana tarkastella keskustelukumppanin näkemyksiä oman arvomaailmamme ja vanhojen käsitystemme valokeilassa. Hyväksymme helpommin omia näkemyksiämme tukevat tiedot ja hylkäämme niitä kyseenalaistavat faktat. Psykologit tuntevat ilmiön vahvistusharhana.

Aikamme identiteettipolitiikka lisää tätä monimutkaisuutta, kun henkilökohtaiset valinnat ruokavaliosta seksuaalisuuteen voidaan tulkita kannanotoiksi.

Tekstipohjaisista digitaalisista keskusteluista puuttuvat myös kasvokkain tapahtuvan vuorovaikutuksen merkitykselliset vihjeet kuten katseet ja nyökkäykset. Tutkijat tietävät, että sanattomien vihjeiden puuttuessa empatiakykymme kutistuu.

Suomessa tunnetiedon teknologista välittymistä on tutkittu esimerkiksi Helsingin yliopiston, Aalto-yliopiston ja Oulun yliopiston yhteisessä Humex-hankkeessa. Tutkimus on kipeästi tarpeen, sillä nykyisellään verkkokeskustelujen tekniikka ei helpota tunnetiedon siirtämistä mitenkään.

Kuva, joka sisältää kohteen teksti, orvokki, violetti, Magenta

Kuvaus luotu automaattisesti

TEKNIIKKA SAATTAA itse asiassa kasvattaa kognitiivisia vääristymiämme. Tätä valaisi Eli Pariser kuuluisassa kirjassaan The Filter Bubble. Pariser käsittelee kirjassaan sitä, miten digitaalinen jalanjälkemme muovaa verkkokokemustamme.

Kun algoritmit oppivat mieltymyksemme, ne kuratoivat tarjoamaansa sisältöä vastaamaan paremmin mielenkiinnon kohteitamme. Juuri tämä itseään vahvistava silmukka pitää meidät koukussa laitteisiimme.

Samalla suodatinkupla voi synnyttää samanhenkisten käyttäjien kaikukammioita, joissa suttuinen aivopieru voi näyttää kirkkaalta ajattelulta.

Piikikkäimmät somekommentit näyttävät usein olevan suunnattuja varsinaisen pääkohteen ohella keskustelijan omalle digiheimolle. Ne ovat siis eräänlaista esiintymistä samaan tapaan kuin selfiet Instagramissa.

Tosin kaikki kuplat eivät ole vain algoritmien tuotetta. Hakeuduimmehan me jo ennen internetiä samankaltaisia käsityksiä jakavien ihmisten pariin. Osaamme siis luoda kuplamme itse.

Somealustoilla nuo kuplat törmäilevät toisiinsa.

Luultavasti verkossa rähjätään paljon myös siksi, että altistumme nyt sellaisille tuntemattomien ihmisten näkemyksille, jotka menneinä aikoina jäivät sanomalehtien lukijankirjeisiin tai henkilökohtaisten keskustelujen piiriin. Tähän ajatukseen viittasi toimittaja Jussi Pullinen verkkokulttuureja käsittelevässä kirjassaan Mitä meille tapahtui?.

Samasta syystä kasvavat myös ne synkän metsän varjoissa piilevät suojaisat pakopaikat, joissa keskitytään rauhallisiin keskusteluihin. Ja nyt näyttää pahasti siltä, että pian tarvitsemme sellaisia pakopaikkoja yhä kipeämmin.

HUHTIKUUN LOPULLA antropologi Maggie Appleton luennoi internetin synkästä metsästä poikkitieteellisessä Causal Islands -konferenssissa Torontossa.

Appleton työskentelee suunnittelijana tekoälypohjaisiin sovelluksiin keskittyneessä Ought-tutkimuslaboratoriossa, joka tunnetaan varsinkin tutkijoille suunnatusta Elicit-tekoälyapulaisestaan.

Päivätyöstään huolimatta Appleton näkee tekoälyjärjestelmien nopeasti laajenevassa verkkokäytössä riskejä. Synteettistä tekstiä generoiva kielimalli ei lisää aitoa vuorovaikutusta.

”Valitettavasti nykyinen käsitykseni on se, että synkän metsän osuus verkosta on pian laajenemassa melkoisesti generatiivisen tekoälyn vuoksi.”

Toistaiseksi synteettisen tekstin käyttöä verkossa on rajannut varsinkin kielimallien toiminnallinen rakenne, joka perustuu yksinkertaiseen syötteeseen ja syötteen perusteella saatavaan tulosteeseen.

Appletonin mukaan kielimallien puutteita voidaan kuitenkin ratkoa mallien tarjoamilla ohjelmointirajapinnoilla. Kehotteita voidaan myös ketjuttaa ja malli liittää datalähteisiin ja muihin järjestelmiin. Tähän soveltuu esimerkiksi kielimalleihin perustuvien sovelluksien kehittämiseen tarkoitettu, avoimen lähdekoodin LangChain-kehys.

Kielimallipohjainen agentti voi esimerkiksi hakea itsenäisesti tietoa verkosta sekä kirjoittaa ja ajaa ohjelmakoodia.

”Aina kun se saa suoritettua yhden näistä toimenpiteistä, se arvioi oppimaansa ja valitsee seuraavan toiminnon. Se jatkaa siihen asti, kunnes se saavuttaa hyväksyttävän lopputuloksen.”

APPLETON USKOO meidän jakavan pian internetin ja somealustat aivan uudenlaisten toimijoiden kanssa. Tulevaisuuden verkkoagentit ovat monin verroin nykyisiä botteja kehittyneempiä ihmisen käytöksen jäljittelemisessä.

Näin markkinoijat ja hakukoneoptimoijat pääsevät Appletonin mukaan täyttämään somealustat ja Googlen hakutulokset avainsanoilla täytetyllä paskanjauhamisella.

”Tämä melun räjähdysmäinen lisääntyminen tulee vaikeuttamaan huomattavasti laadukkaan sisällön löytämistä”, Appleton sanoi.

Synkän metsän kasvaessa me joudumme lopulta epäilemään verkossa myös keskustelukumppaniemme aitoutta.

”Pian emme pysty enää erottamaan näitä agentteja ihmisestä.”

Digitaaliset kansainvaellukset käynnistyvät hetkessä.