DeepSeek revolutionerar AI med nya modeller - En tävling för OpenAI!
Kinesiska startupen DeepSeek introducerar nya AI-modeller som överträffar amerikanska konkurrenter och visar innovativa resonemangsförmåga.
DeepSeek revolutionerar AI med nya modeller - En tävling för OpenAI!
Den 29 maj 2025 släppte den kinesiska startupen DeepSeek ett nytt FOCUS för sin R1-resonemangsmodell. Modellen R1-0528 presenterades på utvecklarplattformen Hugging Face, men utan ett officiellt tillkännagivande. Detaljer om själva modellen, inklusive hur den kan jämföras med andra AI-modeller, har ännu inte publicerats. I den nuvarande LiveCodeBench-rankingen rankas DeepSeeks R1-inferensmodell på tredje plats i kodgenerering, precis bakom OpenAI:s o4 mini- och o3-modeller.
DeepSeeks R1-modell rapporteras också överträffa sina konkurrenter, inklusive xAI:s Grok 3 mini och Alibabas Qwen 3. En DeepSeek-representant sa i en WeChat-grupp att en "liten testuppgradering" av modellen för närvarande pågår. Trots en utbredd uppfattning om att USA:s exportkontroller hindrar utvecklingen av kinesisk AI-forskning, har DeepSeek betonat att dess nysläppta AI-modeller är lika eller till och med överlägsna dem från USA, och till en lägre kostnad.
Relevans för teknikbranschen
Lanseringen av R1-modellen i januari ledde också till en nedgång i tekniklager utanför Kina. Stora kinesiska företag som Alibaba och Tencent har sedan dess släppt 700 nya modeller som sägs överträffa DeepSeek. I detta konkurrensutsatta landskap har Google svarat genom att introducera rabatterade åtkomstnivåer till sin Gemini-modell. OpenAI sänkte även priserna för sina tjänster och introducerade en o3 Mini-modell som kräver mindre datorkraft.
DeepSeek planerar redan att introducera sin efterföljande modell, R2, som ursprungligen var planerad att släppas i maj 2025. Företaget hade redan presenterat en uppgradering för sin stora språkmodell V3 i mars i år.
Innovativa AI-modeller
Utöver R1-modellen har DeepSeek introducerat två nya AI-modeller: DeepSeek-R1-Zero och DeepSeek-R1. R1-Zero-modellen tränades uteslutande med hjälp av förstärkningsinlärning (RL) utan att förlita sig på övervakad data. Detta visar att AI-modeller kan utveckla förmågan att resonera utan mänsklig input.
DeepSeek R1-modellen utnyttjar initial data och uppnår prestanda jämförbar med OpenAIs modeller inom matematik, programmering och resonemang. DeepSeek har också släppt sex mer kompakta modeller som ärver kunskapen från de större modellerna genom destillation. Bland dem överträffar 32B-modellen OpenAI-o1-mini i olika riktmärken.
Alla DeepSeeks nya modeller är öppen källkod och kan användas via DeepSeek-plattformen eller lokalt, vilket gör tekniken ännu lättare att komma åt.
För mer information besök Reuters eller Staden Bremerhaven.