Google kuvaa uudenlaista tekoälyuhkaa
Google Threat Intelligence Group (GTIG) julkaisi 11. toukokuuta 2026 uuden AI Threat Tracker -raportin, jonka ydinviesti on herätys tietoturva-alalle: tekoäly ei ole enää vain hyökkääjien apupoika phishing-viestien hionnassa tai koodinpätkien luomisessa. GTIG on ensimmäistä kertaa havainnut uhkatoimijan käyttäneen nollapäivähaavoittuvuutta, jonka rakentamisessa on arvioitu käytetyn tekoälyä.
Kyseisessä tapauksessa uhkatoimija valmisteli laajamittaista massahyödyntämiskampanjaa. Aseena oli Python-skriptiin toteutettu nollapäivähaavoittuvuus, joka mahdollisti kaksivaiheisen tunnistautumisen (2FA) ohittamisen suositussa avoimen lähdekoodin palvelintenhallintatyökalussa. Google puuttui peliin ennakoivasti häiritsemällä hyökkääjien toimintaa ja ilmoittamalla aukosta vastuullisesti ohjelmistotoimittajalle. Raportin mukaan ennakoiva vastatoiminta saattoi estää haavoittuvuuden käytön massahyökkäyksessä.
Google ei usko, että sen omaa Gemini-mallia olisi käytetty, mutta GTIG arvioi suurella varmuudella, että jokin tekoälymalli auttoi haavoittuvuuden paikantamisessa ja hyödyntämiskoodin rakentamisessa. Perusteina mainitaan hyökkäysskriptin poikkeuksellisen opetuksellinen rakenne, runsaat docstring-kommentit, hallusinoitu CVSS-pistemäärä eli haavoittuvuuksien vakavuusluokituksessa käytettävä pisteytys sekä koodityyli, joka muistuttaa suurten kielimallien opetusdataa.
Miksi tämä on eri asia kuin tavallinen haavoittuvuusskannaus?
Raportin todellinen uutinen ei ole pelkkä tekoälyn läsnäolo, vaan löydetyn haavoittuvuuden luonne. Google luokittelee sen korkean tason semanttiseksi logiikkavirheeksi. Kehittäjä oli jättänyt koodiin kovakoodatun luottamusoletuksen, joka rikkoi 2FA-valvonnan strategisesti, vaikka ohjelmisto saattoi näyttää perinteisten testaustyökalujen silmissä toimivalta.
Juuri tässä piilee suurten kielimallien todellinen muutosvoima. Perinteiset fuzzing-työkalut ja staattinen analyysi ovat loistavia poimimaan ohjelmistojen kaatumisia, muistivirheitä ja syötteiden käsittelyn puutteita, mutta ne ovat sokeita koodin tarkoitukselle. Kielimalli sen sijaan kykenee lukemaan koodia kehittäjän intention näkökulmasta ja tunnistamaan arkkitehtuurin sisäisiä ristiriitoja. Tekoäly ei itsessään ole kaikkivoipa hyökkääjä, mutta se kiihdyttää sellaisten haavoittuvuuksien löytämistä, joiden paljastaminen on aiemmin vaatinut kokeneen ihmisasiantuntijan hidasta ja työlästä päättelyä.
Tekoäly ulottuu koko hyökkäysketjuun
GTIG:n löydökset piirtävät kuvan laajemmasta murroksesta: tekoälyn käyttö on siirtymässä kokeiluista ammattimaisempaan ja laajamittaisempaan väärinkäyttöön. Google on havainnut tekoälyä hyödynnettävän haavoittuvuustutkimuksessa, haittaohjelmien kehityksessä, torjunnan väistelyssä, tiedustelussa, phishing-kohteiden pohjustuksessa, informaatiovaikuttamisessa ja jopa itse tekoälypalveluihin kohdistuvissa toimitusketjuhyökkäyksissä.
Yksi raportin huolestuttavimmista esimerkeistä on PROMPTSPY. Kyseessä on Android-takaportti, jonka LLM-komponentti osaa tulkita laitteen käyttöliittymän tilaa ja palauttaa suoria toimintaohjeita, kuten pyyhkäisyjä tai klikkauksia. Googlen mukaan tunnettuja PROMPTSPY-versioita ei kuitenkaan ole päätynyt viralliseen Google Play -kauppaan, ja Android-käyttäjiä suojaa oletuksena laitteiden Google Play Protect.
Myös valtiolliset toimijat ovat aktivoituneet. Raportti huomauttaa, että Kiinaan ja Pohjois-Koreaan kytkeytyvät uhkatoimijat osoittavat merkittävää kiinnostusta tekoälyavusteiseen haavoittuvuustutkimukseen. Samaan aikaan Venäjä-kytköksiset haittaohjelmaperheet hyödyntävät kielimalleilla generoitua harhautuskoodia peittääkseen varsinaisen haitallisen toimintansa.
Puolustajat vastaavat samalla teknologialla
Vaikka varoitus tulee Googlelta, sama kilpajuoksu näkyy koko toimialalla: hyökkääjät automatisoivat löytämistä, ja puolustajat rakentavat omia tekoälypohjaisia vastatoimiaan. OpenAI esittelee Daybreakia kyberpuolustuksen kokonaisuutena, joka yhdistää OpenAI:n mallit, Codexin agenttipohjaisen toimintamallin sekä alan tietoturvakumppanit. Tavoitteena on auttaa puolustajia tarkastamaan koodia, mallintamaan uhkia, validoimaan korjauksia ja lyhentämään aikaa, joka kuluu haavoittuvuuden löytymisestä sen paikkaamiseen. Varmennetuille tietoturvatoimijoille OpenAI kuvaa erillisiä Trusted Access for Cyber- ja GPT-5.5-Cyber -käyttötasoja.
Tämä kaksisuuntainen dynamiikka on myös Googlen raportin ytimessä. Tekoäly auttaa hyökkääjiä nopeuttamaan hyökkäysketjua, mutta se antaa myös puolustajille työkaluja löytää ja korjata aukkoja aiempaa varhaisemmassa vaiheessa. Google nostaa esiin Big Sleep -agentin ja CodeMenderin esimerkkeinä puolustavasta käytöstä.
Mitä suomalaisen organisaation kannattaa tehdä?
Tämä ei tarkoita, että jokainen suomalaisyritys olisi heti uudenlaisen automaattisen nollapäivähyökkäyksen kohteena. Se tarkoittaa kuitenkin sitä, että haavoittuvuuden löytämisen ja hyödyntämisen välinen aikaikkuna voi lyhentyä. Siksi organisaation kannattaa katsoa erityisesti niitä kohtia, joissa järjestelmä luottaa poikkeuksiin, kovakoodattuihin sääntöihin tai piileviin oletuksiin.
Erityisesti ohjelmistokehitystiimien on syytä olla hereillä. Kaksivaiheisen tunnistautumisen toteutukset, ylläpitäjien työkalut, poikkeussäännöt ja kovakoodatut luottamusoletukset on syynättävä uudella vakavuudella.
Googlen raportti ei ole spekulatiivista tieteiskuvitelmaa, vaan käytännön katsaus siihen, miten tekoälyä jo sovelletaan hyökkäysketjun eri vaiheissa. Suomalaiselle organisaatiolle viesti on arkinen mutta kiireellinen: jos hyökkääjä voi käyttää mallia lukemaan koodin tarkoitusta, puolustajan pitää testata samat oletukset ennen julkaisua.
Lähteet
- Google Cloud Blog: GTIG AI Threat Tracker: Adversaries Leverage AI for Vulnerability Exploitation, Augmented Operations, and Initial Access - https://cloud.google.com/blog/topics/threat-intelligence/ai-vulnerability-exploitation-initial-access/
- OpenAI: Daybreak - OpenAI for cybersecurity - https://openai.com/daybreak/



