AI-malleista tuli kansallisen turvallisuuden kysymys
Tekoälykilpailu on siirtynyt mallijulkaisuista ja kuluttajatuotteista yhä selvemmin turvallisuuspolitiikan puolelle. Senaatin oikeusvaliokunnan puheenjohtaja Chuck Grassley ja senaattori Jim Banks julkaisivat 1. toukokuuta 2026 tiedotteen, jonka mukaan he ovat lähettäneet kirjeet yhdeksälle keskeiselle tekoäly-yhtiölle Kiinaan liittyvistä vakoilu- ja sisäpiiririskeistä.
Kirjeet on osoitettu OpenAI:lle, Anthropicille, Google LLC:lle, x.AI Corp.:lle, Meta Platforms, Inc.:lle, Microsoftille, Amazonille, Safe Superintelligence Inc.:lle ja Thinking Machines Labille. Senaattorit pyytävät yhtiöiltä kuvauksia siitä, miten ne havaitsevat ja torjuvat Kiinan kansantasavaltaan kytkeytyvää vakoilua, hallitsevat sisäpiiriuhkia, suojaavat arkaluonteista malliteknologiaa ja ilmoittavat turvallisuusuhista Yhdysvaltain viranomaisille.
Edistyneistä tekoälymalleista, niiden painoista, koulutusmenetelmistä, turvamekanismeista ja käyttörajapinnoista on tullut strategista omaisuutta. Kun tekoäly kykenee koodaamaan, analysoimaan kyberuhkia ja pyörittämään agenttityönkulkuja, mallien suojaaminen ei ole enää vain yritysten oma IP-kysymys.
Huoli luvattomasta tislaamisesta
Senaattorien kirjeet liittyvät samaan keskusteluun kuin edustajainhuoneen turvallisuusvaliokunnan 29. huhtikuuta julkaisema tutkintailmoitus. Valiokunnan puheenjohtajat Andrew Garbarino ja John Moolenaar ilmoittivat selvittävänsä Kiinan kansantasavallassa kehitettyjen tekoälymallien kansalliseen turvallisuuteen ja kyberturvaan liittyviä riskejä.
Tutkinnan keskiössä ovat erityisesti halvat, avoimien painojen (open-weight) ja rajapintojen kautta käytettävät kiinalaiset mallit, joita kehittävät tiedotteen mukaan muun muassa DeepSeek, Alibaba, Moonshot AI ja MiniMax.
Huoli ei koske vain mallien hintaa tai avoimuutta, vaan niiden alkuperää ja turvallisuusmekanismeja. Syynissä on erityisesti luvaton mallien tislaaminen (model distillation), jossa pienempää mallia opetetaan vahvemman mallin tuotosten avulla. Tislaaminen voi olla täysin normaali koneoppimisen menetelmä, mutta valiokunnan mukaan riskit kasvavat, jos sitä tehdään vilpillisillä käyttäjätileillä, proxy-verkoilla, pääsyrajoituksia kiertämällä tai käyttöehtoja rikkomalla.
Cursor ja Airbnb kongressin kysymysten kohteena
Edustajainhuoneen tutkinnan ensimmäiset kirjeet lähetettiin Anyspherelle ja Airbnb:lle. Anysphere tunnetaan Cursor-koodieditorista. Valiokunta nostaa tiedotteessaan esiin kysymyksiä Cursorin Composer 2 -mallista ja sen raportoidusta yhteydestä Moonshot AI:n avoimen painon malliin. Airbnb:n kohdalla valiokunta kertoo olevansa huolissaan siitä, että yhtiö olisi tukeutunut Alibaban kehittämään Qwen-malliin asiakaspalvelussa.
Nämä ovat toistaiseksi selvityspyyntöjä ja poliittisia huolia, eivät todisteita siitä, että yhtiöt olisivat syyllistyneet vakoiluun, väärinkäytöksiin tai lainrikkomuksiin. Ne osoittavat silti, miten nopeasti tekoälyhankintojen riskikeskustelu on muuttunut. Mallin suorituskyky ja hinta eivät enää yksin riitä, jos alkuperästä, datan käsittelystä tai toimittajan taustakytköksistä jää epäselvyyksiä.
Mitä tämä tarkoittaa suomalaisille yrityksille?
Suomessa tekoälymalleja arvioidaan usein käytännönläheisesti: mikä on nopea, halpa ja tehtävään riittävän kyvykäs. Se on järkevä lähtökohta, mutta Yhdysvaltain uudet avaukset muistuttavat, että mallivalinta on myös luottamuspäätös.
Kun organisaatio ottaa käyttöön avoimien painojen mallin, edullisen API:n tai uuden agenttialustan, sen pitää tietää, mistä malli on peräisin ja millä ehdoilla sitä saa käyttää. Yhtä olennaista on, miten palvelu käsittelee yrityksen dataa, lokitietoja ja käyttäjätunnuksia, sekä voiko toimittajaketjuun sisältyä geopoliittisia tai lainsäädännöllisiä riskejä.
Halpa malli voi olla perusteltu valinta rajattuun sisäiseen kokeiluun. Tilanne muuttuu, jos samalle mallille avataan pääsy asiakasdataan, koodivarastoihin, päätöksentekoon tai sisäisiin järjestelmiin.
Avoimuus ei yksin ratkaise luottamusta
Avoimien painojen mallit ovat tärkeä vastavoima suljetuille jättimalleille. Ne laskevat kustannuksia, lisäävät kokeilua ja antavat kehittäjille enemmän kontrollia. Siksi turvallisuuskeskustelussa kannattaa varoa tekemästä teknologisesta avoimuudesta automaattisesti epäilyttävää.
Avoimuus ei silti poista alkuperäkysymystä. Jos mallin kyvykkyydet on väitetysti rakennettu luvattomasti kopioimalla toisen järjestelmän vastauksia, avoimet painot eivät tee siitä riskitöntä. Samoin puutteet turvallisuusmekanismeissa voivat olla yrityskäytössä ongelma, vaikka malli olisi teknisesti vaikuttava.
Suomalaiselle teknologia- ja yritysjohdolle tämä on käytännön hankintakysymys. Seuraavassa tekoälyinvestoinnissa ei riitä, että kysytään, mikä malli toimii parhaiten. On pystyttävä vastaamaan myös siihen, mistä järjestelmä tulee, miten se on rakennettu, mitä dataa sille annetaan ja kenen riskiä organisaatio lopulta kantaa.
Lähteet
- Senator Chuck Grassley: Grassley, Banks Press American AI Companies on Chinese Espionage Safeguards - https://www.grassley.senate.gov/news/news-releases/grassley-banks-press-american-ai-companies-on-chinese-espionage-safeguards
- House Committee on Homeland Security: Chairmen Garbarino, Moolenaar Announce Joint Investigation into National Security Risks Posed by PRC AI Models - https://homeland.house.gov/2026/04/29/chairmen-garbarino-moolenaar-announce-joint-investigation-into-national-security-risks-posed-by-prc-ai-models/



