Tekoälyä kehitetään jatkuvasti ympäri maailmaa. Tekoäly on jo nyt osoittanut kykenevänsä monimutkaiseen luovaan työhön. Sen lisäksi, että tekoälyä kehitetään ihmisten avuksi, sillä on, kuten kaikilla asioilla aina yleensä on, kääntöpuolensa. Yksi näistä on tekoälyn hyödyntäminen rikollisessa toiminnassa.
Euroopassa on havaittu tekoälyn hyödyntäminen rikollisessa toiminnassa, ja siihen halutaan puuttua tehokkaasti. Tämän takia Euroopan lainvalvontayhteisöä auttava Europol Innovation Lab järjesti aiheeseen liittyen useita työpajoja asiantuntijoiden kanssa.
Julkinen osa tuloksista julkaistiin viime vuonna. Työpajoissa tutkittiin muun muassa, kuinka rikolliset voivat väärinkäyttää laajoja kielimalleja, kuten OpenAI:n kehittämää ChatGPT:tä. Kyseinen malli valittiin työpajojen käsittelyn kohteeksi, koska se on muun muassa tällä hetkellä yleisimmin käytetty julkisesti saatavilla oleva laaja kielimalli.
Rikollisen toiminnan mahdollisuudet
Vaikka laajat kielimallit mahdollistavat paljon, niihin sisältyy myös riskejä, sillä niitä voidaan käyttää rikolliseen toimintaan. Tämän takia esimerkiksi ChatGPT:hen on asennettu turvaominaisuuksia, jotka arvioivat syötetyn tekstin sisältöä. Jos tekstissä on esimerkiksi seksuaalista, vihamielistä tai väkivaltaista sisältöä, turvaominaisuudet rajoittavat kielimallin kykyä vastata tällaisiin kehotteisiin.
Monet näistä turvaominaisuuksista on kuitenkin melko helppo kiertää. Käyttäjät voivat esimerkiksi tarkentaa tapaa, jolla kysymys esitetään. Jos mahdollinen rikollinen ei tiedä tietystä rikollisuuden alueesta mitään, voi kielimalli nopeuttaa tutkimusprosessia merkittävästi tarjoamalla keskeisiä tietoja, joita voidaan tutkia myöhemmissä vaiheissa. Rikolliset voivat oppia kielimallien avulla esimerkiksi kyberrikollisuudesta tai terrorismista.
Europolin asiantuntijat tunnistivat työpajoissa tiettyjä ChatGPT:n väärinkäyttötapauksia, jotka eivät kuitenkaan ole tyhjentäviä. ChatGPT:tä voidaan käyttää esimerkiksi tietojenkalastelutarkoituksiin, sillä se pystyy laatimaan todella aidon oloisia tekstejä käyttäjän kehotteen perusteella. Aiemmin monet tietojenkalasteluhuijaukset olivat helposti havaittavissa kielioppi- ja kirjoitusvirheiden vuoksi, mutta nykyään laajojen kielimallien avulla on mahdollista esiintyä organisaationa tai yksilönä erittäin realistisella tavalla, vaikka rikollinen ei juuri osaisi vaadittua kieltä.
ChatGPT tarjoaakin rikollisille uusia mahdollisuuksia erityisesti sosiaaliseen manipulointiin liittyvissä rikoksissa, koska kielimalli pystyy vastaamaan viesteihin kontekstissa ja omaksumaan tietyn kirjoitustyylin. Lisäksi erityyppisille verkkopetoksille voidaan antaa lisää uskottavuutta ja luotettavuutta käyttämällä ChatGPT:tä väärennetyn sosiaalisen median tilin luomiseen, esimerkiksi vilpillisen sijoitustarjouksen mainostamiseen.
Aiemmin rikollisten on pitänyt laatia itse erilaiset petolliset viestit. Nykyään laajojen kielimallien avulla muun muassa massatuotetut tietojenkalastelut ja verkkopetokset voidaan luoda nopeammin, paljon realistisempina ja huomattavasti suuremmassa mittakaavassa. Laajoja kielimalleja voidaan käyttää myös imitoimaan tiettyjen yksilöiden tai ryhmien puhetta. Tätä kykyä voidaan käyttää väärin harhauttamalla rikoksen uhrit luottamaan rikollisiin.
ChatGPT soveltuu lisäksi tehokkaasti propagandaan, disinformaatioon ja terrorismiin liittyviin väärinkäyttötapauksiin. Mallia voidaan käyttää sellaisen tiedon keräämiseen, joka voi edistää terroristitoimintaa, kuten terrorismin rahoitusta tai anonyymiä tiedostojen jakamista. Kielimallin kyky tuottaa aidon kuuloista tekstiä nopeasti ja laajassa mittakaavassa tekee mallista ihanteellisen propaganda- ja disinformaatiotarkoituksiin. Sen avulla käyttäjät voivat tuottaa ja levittää tiettyä kertomusta heijastavia viestejä suhteellisen pienellä vaivalla.
ChatGPT pystyy tuottamaan myös koodia useilla eri ohjelmointikielillä. Tällä ominaisuudella on merkittävä vaikutus kyberrikollisuuteen. Esimerkiksi ChatGPT:n nykyisellä versiolla pystyy jo luomaan perustyökaluja haitallisiin tarkoituksiin, kuten tietojenkalastelusivujen tai haitallisten Microsoft Visual Basic for Applications (VBA) -komentosarjojen tuottamiseen. Pelkästään näiden perustyökalujen avulla henkilö, jolla ei ole teknistä osaamista, pystyy hyödyntämään uhrin järjestelmään kohdistuvaa hyökkäysvektoria. Tämä on erittäin hyödyllistä niille rikollisille, joilla on vähän tai ei ollenkaan tietoa koodauksesta.
Vaikka ChatGPT:n tuottamat työkalut ovat vielä melko yksinkertaisia, käytetään niitä rikollisiin toimiin aktiivisesti. Kielimalleja kehitetään jatkuvasti, mikä auttaa myös rikollisia toimijoita. Esimerkiksi osaavampi käyttäjä voi hyödyntää parannettuja ominaisuuksia kehittääkseen tai jopa automatisoidakseen kehittyneitä kyberrikollisia toimintatapoja. Turvaominaisuudet, jotka estävät ChatGPT:tä tarjoamasta mahdollisesti haitallista koodia, toimivat vain, jos malli ymmärtää, mitä se tekee. Jos kehotteet jaetaan yksittäisiin vaiheisiin, on suhteellisen helppoa ohittaa nämä turvatoimenpiteet.
Mitä tulee ottaa huomioon?
Edellä esitellyt laajojen kielimallien rikolliset käyttötavat ovat vain pieni osa sitä rikollista kokonaisuutta, johon laajoja kielimalleja voi käyttää. Tekniikan kehittyessä myös rikolliset käyttötavat kehittyvät ja niiden laatu paranee. Jo nyt, se, miten kielimalleja käytetään rikolliseen toimintaan, on erittäin huolestuttavaa.
Tulevaisuudessa rikollisten kielimalleja hyödyntävien ”tuotosten” odotetaan olevan entistä aidomman oloisia, monimutkaisempia ja vaikeammin erotettavissa ihmisen tuottamasta ”tuotoksesta”. Työtä tekoälymallien tuottaman tekstin havaitsemiseksi tehdään jatkuvasti, mutta ainakaan vielä ei ole olemassa riittävän tarkkaa työkalua kyseiseen tehtävään. Myös Euroopan unionissa on havahduttu asiaan. Tällä hetkellä unionissa viimeistelläänkin tekoälyjärjestelmien sääntelemiseksi tekoälylakia (AI Act), jonka Euroopan parlamentti hyväksyi maaliskuussa 2024.
Kun tekniikka kehittyy ja uusia malleja tulee saataville, on erittäin tärkeää, että lainvalvontaviranomaiset pysyvät kehityksessä mukana väärinkäytösten ennakoimiseksi ja estämiseksi. Tämän takia Europolin järjestämissä työpajoissa oli tarkoituksena muun ohessa myös esittää suosituksia siitä, kuinka lainvalvonta voi olla paremmin valmistautunut tulevaan.
Työpajoissa todettiin muun muassa, että ensinnäkin on äärimmäisen tärkeää lisätä tietoisuutta laajojen kielimallien mahdollisesta rikollisesta hyödyntämisestä, jotta voidaan varmistaa, että mahdolliset porsaanreiät löydetään ja tukitaan mahdollisimman nopeasti. Toiseksi lainvalvontaviranomaisten on ymmärrettävä, mihin kaikkiin rikollisuuden alueisiin laajoilla kielimalleilla voi olla vaikutusta, jotta he voivat paremmin ennustaa, ehkäistä ja tutkia erilaisia rikollisia väärinkäytöksiä.
Kolmanneksi lainvalvontaviranomaisten on kehitettävä taitoja, joita tarvitaan ChatGPT:n kaltaisten mallien hyödyntämiseen. Tämä tarkoittaa sen ymmärtämistä, kuinka tämäntyyppisiä järjestelmiä voidaan hyödyntää tiedon lisäämiseksi, olemassa olevan asiantuntemuksen laajentamiseksi ja vaadittujen tulosten saavuttamiseksi. Neljänneksi on tärkeää olla yhteydessä teknologian kehittäjien kanssa sen varmistamiseksi, että turvallisuusominaisuuksista huolehditaan ja että niitä kehitetään jatkuvasti.