Compania chineză DeepSeek a lansat noile modele de IA DeepSeek V4-Pro și DeepSeek V4-Flash

25.04.2026
Compania chineză DeepSeek a lansat noile modele de IA DeepSeek V4-Pro și DeepSeek V4-Flash
Sursa foto: Shutterstock

Compania chineză DeepSeek a lansat noile modele de IA DeepSeek V4-Pro și DeepSeek V4-Flash, versiuni cu fereastră de context de 1 milion de tokenuri și arhitectură Mixture-of-Experts, poziționate ca alternative mai ieftine la modelele de vârf cu sursă închisă.

Compania chineză de inteligență artificială DeepSeek a prezentat o versiune preliminară a noului său model lingvistic de mari dimensiuni, V4, pe fondul intensificării competiției globale în domeniul IA.

DeepSeek a devenit una dintre cele mai urmărite companii de IA anul trecut, după ce a lansat, în ianuarie 2025, modele care păreau să ofere performanțe solide la un cost mai mic decât multe dintre rivalele americane.

Startup-ul cu sediul în Hangzhou a lansat noile modele de IA sub denumirile DeepSeek V4-Pro și DeepSeek V4-Flash. V4-Pro este un model mai mare, destinat sarcinilor mai exigente, în timp ce V4-Flash este o versiune mai mică, concepută pentru a răspunde mai rapid și a avea costuri de funcționare mai reduse, potrivit TechCrunch.

„În testele de referință privind cunoștințele globale, DeepSeek V4-Pro devansează semnificativ alte modele open source și este depășit doar ușor de modelul de top cu sursă închisă Gemini-3.1-Pro”, a declarat DeepSeek.

Compania a afirmat că noul model de IA suportă o „lungime a contextului de un milion de tokenuri”, ceea ce înseamnă că poate prelua solicitări mult mai mari, cum ar fi documente lungi sau linii de cod, înainte de a genera un răspuns.

În domeniul IA, lungimea contextului se referă la cantitatea de text, măsurată în tokenuri, pe care un model o poate lua în considerare ca referință pentru generarea unui răspuns. O fereastră de context mai mare permite unui model de IA să proceseze intrări mai lungi și să includă mai multe informații în fiecare ieșire, potrivit IBM.

Noul model este în continuare open-source, permițând utilizatorilor să descarce codul și să îl modifice dacă doresc. DeepSeek afirmă că V4-Pro are capacități agentice îmbunătățite și susține că rivalizează cu modelele de top cu sursă închisă în ceea ce privește raționamentul. De asemenea, afirmă că se situează doar în urma modelului Gemini-3.1-Pro în ceea ce privește cunoștințele bogate despre lume. În același timp, V4-Flash nu este la fel de puternic ca V4-Pro, dar are timpi de răspuns mai rapizi. Totuși, abilitățile sale de raționament se apropie foarte mult de cele ale V4-Pro, afirmă DeepSeek, iar performanța sa este comparabilă cu cea a versiunii Pro în ceea ce privește sarcinile simple de tip agent.

Această întârziere sugerează o „traiectorie de dezvoltare care rămâne în urma modelelor de frontieră de ultimă generație cu aproximativ 3 până la 6 luni”, a scris laboratorul.

DeepSeek a evidențiat o tehnică pe care a numit-o Hybrid Attention Architecture, despre care a afirmat că îmbunătățește capacitatea unei platforme de IA de a reține interogările din conversații lungi.

Într-o postare pe WeChat, DeepSeek a declarat că capacitatea de serviciu pentru seria V4-Pro este extrem de limitată, din cauza resurselor de calcul limitate de care dispune compania. Cu toate acestea, startup-ul se așteaptă ca prețul modelului să scadă semnificativ după lansarea, în a doua jumătate a acestui an, a clusterelor de calcul alimentate de cipurile Ascend 950 ale Huawei Technologies Co. DeepSeek se află în prezent în discuții cu Tencent Holdings Ltd. și Alibaba Group Holding Ltd. pentru prima sa rundă de finanțare.

Sistemul DeepSeek cu un trilion de parametri utilizează tehnica Mixture-of-Experts, declanșând selectiv doar un mic subset de experți și activând doar până la 37 de miliarde de parametri per sarcină, pentru a menține costurile de inferență mult mai mici decât în cazul modelelor de frontieră similare.

DeepSeek a subliniat că nu promovează doar capacitatea brută, ci și reducerea fundamentală a costurilor. V4 este proiectat pentru a fi implementat pe o infrastructură mai ieftină.

DeepSeek afirmă că ambele modele sunt mai eficiente și mai performante decât DeepSeek V3.2 datorită îmbunătățirilor arhitecturale și că au „redus aproape la zero decalajul” față de modelele de vârf actuale, atât open-source, cât și proprietare, în ceea ce privește testele de raționament.

Atât V4-Flash, cât și V4-Pro acceptă doar text, spre deosebire de multe dintre modelele similare cu sursă închisă, care oferă suport pentru înțelegerea și generarea de audio, video și imagini.

DeepSeek V4 este mai accesibil decât orice model de ultimă generație disponibil în prezent, potrivit companiei, însă prețurile oficiale comunicate pentru DeepSeek V4 standard sunt, în realitate, de 0,30 dolari pe milion de tokeni de intrare și 0,50 dolari pe milion de tokeni de ieșire, respectiv 0,03 dolari pe milion de tokeni de intrare în cazul tokenilor din cache, potrivit unor analize independente. Modelul mai mic, V4-Flash, costă 0,14 dolari pe milion de tokeni de intrare și 0,28 dolari pe milion de tokeni de ieșire în unele implementări de tip reseller, sub prețurile pentru GPT-5.4 Nano, Gemini 3.1 Flash, GPT-5.4 Mini și Claude Haiku 4.5. Modelul V4-Pro, mai mare, costă 0,145 dolari pe milion de tokeni de intrare și 3,48 dolari pe milion de tokeni de ieșire, subcotând, de asemenea, Gemini 3.1 Pro, GPT-5.5, Claude Opus 4.7 și GPT-5.4, conform acelorași surse; aceste cifre se referă însă la oferte comerciale intermediare, nu la lista de prețuri direct de la DeepSeek.

Lansarea are loc la o zi după ce SUA au acuzat China că a furat proprietatea intelectuală a laboratoarelor americane de IA la scară industrială, folosind mii de conturi proxy. DeepSeek a fost la rândul său acuzat de Anthropic și OpenAI că le-a „distilat”, adică practic le-a copiat, modelele de IA.

Urmărește Go4IT.ro pe Google News