DeepSeek V4 on nyt virallisesti ulkona
DeepSeek julkaisi 24. huhtikuuta 2026 V4 Preview -mallisarjan. Julkaisu on kiinnostava, koska se yhdistää pitkän kontekstin, avoimet painot ja API-hinnoittelun samaan pakettiin.
Julkaisun pääkohdat:
- kaksi uutta mallia: DeepSeek-V4-Pro ja DeepSeek-V4-Flash
- miljoonan tokenin konteksti molemmissa malleissa
- avoimet painot Hugging Facessa
- API-saatavuus OpenAI- ja Anthropic-yhteensopivilla rajapinnoilla
- uusi hinnoittelu, jossa Flash on edullisempi vaihtoehto ja Pro on aluksi määräaikaisessa alennuksessa
Kehittäjälle käytännön muutos on pieni: DeepSeekin mukaan base_url voi pysyä ennallaan, ja mallinimeksi vaihdetaan deepseek-v4-pro tai deepseek-v4-flash.
Pro on suuri malli, Flash on nopeampi käyttömalli
DeepSeekin julkaisemien tietojen mukaan V4-Pro on 1,6 biljoonan parametrin MoE-malli, josta aktiivisena on 49 miljardia parametria. V4-Flash on pienempi malli: 284 miljardia kokonaisparametria ja 13 miljardia aktiivista parametria.
Yhtiö asemoi Pron vaativampiin koodaus-, matematiikka-, STEM- ja agenttitehtäviin. Flash taas on tarkoitettu tilanteisiin, joissa nopeus ja hinta ratkaisevat enemmän kuin korkein mahdollinen päättelytaso.
DeepSeekin omiin benchmarkeihin kannattaa suhtautua kuten muidenkin mallijulkaisujen mittauksiin: ne ovat hyödyllinen lähtökohta, mutta eivät korvaa riippumattomia testejä.
Miljoonan tokenin konteksti on oletus, ei erikoistila
Julkaisun tärkein tekninen yksityiskohta on konteksti-ikkuna. DeepSeek sanoo, että 1M konteksti on nyt oletus sen virallisissa palveluissa ja että sekä V4-Pro että V4-Flash tukevat miljoonan tokenin kontekstia.
Tämä on merkittävä ominaisuus pitkien dokumenttien, koodipohjien, sopimusten ja agenttityönkulkujen kannalta. Pitkä konteksti ei automaattisesti takaa hyvää vastausta, mutta se voi vähentää tarvetta pilkkoa aineistoa ja rakentaa erillisiä hakuputkia jokaista käyttötapausta varten.
DeepSeekin teknisen raportin mukaan V4-sarja käyttää hybridihuomiomekanismia, joka yhdistää tiivistettyä ja harvaa huomiota pitkän kontekstin kustannusten pienentämiseksi. Yhtiö väittää, että miljoonan tokenin asetuksessa V4-Pro tarvitsee selvästi vähemmän yhden tokenin päättelylaskentaa ja KV-välimuistia kuin DeepSeek-V3.2. Käytännön hyöty pitää silti mitata omissa sovelluksissa.
API: OpenAI- ja Anthropic-yhteensopivuus jatkuu
DeepSeekin API-dokumentaation mukaan uudet mallit ovat saatavilla heti. Palvelu tukee sekä OpenAI Chat Completions -muotoa että Anthropic API -muotoa.
Molemmat mallit tarjoavat kaksi ajotapaa:
- Thinking mode, eli hitaampi päättelytila vaikeampiin tehtäviin
- Non-thinking mode, eli nopeampi tila rutiinitehtäviin
Dokumentaatiossa mainitaan myös JSON-output, työkalukutsut, chat prefix completion ja FIM completion. FIM on rajattu non-thinking-tilaan.
Vanhojen mallinimien käyttäjille tärkeä päivämäärä on 24. heinäkuuta 2026 klo 15.59 UTC. DeepSeekin mukaan deepseek-chat ja deepseek-reasoner poistuvat käytöstä silloin. Tällä hetkellä ne reitittyvät V4-Flashin non-thinking- ja thinking-tiloihin.
Hinnoittelu on suoraan suunnattu kehittäjille
DeepSeek ilmoittaa hinnat miljoonaa tokenia kohti. V4-Flashin hinnat ovat:
- input, cache hit: $0.028 / 1M tokenia
- input, cache miss: $0.14 / 1M tokenia
- output: $0.28 / 1M tokenia
V4-Pro on kalliimpi, mutta DeepSeek tarjoaa sille 75 prosentin määräaikaisen alennuksen 5. toukokuuta 2026 klo 15.59 UTC asti. Alennettuna hinnat ovat:
- input, cache hit: $0.03625 / 1M tokenia
- input, cache miss: $0.435 / 1M tokenia
- output: $0.87 / 1M tokenia
Halpa hinta ei yksin tee mallista parasta valintaa. Jos V4-Flash kuitenkin toimii käytännössä riittävän hyvin arkisissa agentti- ja kooditehtävissä, DeepSeek lisää jälleen hintapainetta koko mallimarkkinaan.
Mitä tämä merkitsee kehittäjälle ja yrityskäyttäjälle?
Satunnaiselle chatbot-käyttäjälle V4 Preview on kiinnostava, mutta ei välttämättä arkea muuttava uutinen. Tilanne on toinen, jos rakennat tuotteita, analysoit pitkiä asiakirjoja tai ajat agentteja koodipohjien päällä.
Kolme asiaa nousee esiin:
- Pitkä konteksti halpenee. Miljoonan tokenin ikkuna ei ole enää vain kalliiden enterprise-sopimusten lupaus.
- Avoimet painot pysyvät kilpailussa mukana. Hugging Face -mallikortit näyttävät MIT-lisenssin, mikä tekee julkaisuista kiinnostavia omiin kokeiluihin ja tutkimukseen.
- API-yhteensopivuus madaltaa kokeilukynnystä. Jos sovellus osaa käyttää OpenAI- tai Anthropic-muotoista API:a, DeepSeekin testaaminen voi olla teknisesti suoraviivaista.
Tuotantokäyttöön ei silti kannata hypätä pelkän julkaisublogin perusteella. Ensin pitää testata ainakin suomen kielen laatu, faktatarkkuus, työkalukutsut, viive, kustannus ja tietoturvavaatimukset omilla aineistoilla.
Yhteenveto
DeepSeek V4 Preview on yksi kevään 2026 kiinnostavimmista mallijulkaisuista, koska se yhdistää pitkän kontekstin, avoimet painot ja matalan API-hinnan.
Julkaisu ei yksin todista, että DeepSeek olisi ohittanut suljetut huippumallit. Se osoittaa kuitenkin, että avoimien mallien kilpailu ei ole hidastumassa. Kehittäjälle tämä tarkoittaa lisää vaihtoehtoja ja kovempaa hinta-laatusuhteen kilpailua.
Lähteet
- DeepSeek API Docs: DeepSeek V4 Preview Release 2026/04/24 - https://api-docs.deepseek.com/news/news260424
- DeepSeek API Docs: Models & Pricing - https://api-docs.deepseek.com/quick_start/pricing
- Hugging Face: DeepSeek-V4-Pro model card - https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro
- Hugging Face: DeepSeek-V4-Flash model card - https://huggingface.co/deepseek-ai/DeepSeek-V4-Flash



