Deepseek: cel perturbator revoluționând peisajul AI

Aipu Waton Group

Introducere

Anxietatea continuă în rândul modelelor mari concurente, furnizorii de cloud care concurează pentru cota de piață și producătorii de cipuri muncitoare - efectul Deepseek persistă.

Pe măsură ce festivalul de primăvară se încheie, emoția din jurul Deepseek rămâne puternică. Vacanța recentă a evidențiat un sentiment semnificativ de concurență în cadrul industriei tehnologice, mulți discutând și analizând acest „pește”. Silicon Valley se confruntă cu un sentiment de criză fără precedent: avocații open-source își exprimă din nou opiniile și chiar Openai reevaluează dacă strategia sa cu sursă închisă a fost cea mai bună alegere. Noua paradigmă a costurilor de calcul mai mici a declanșat o reacție în lanț în rândul giganților de cipuri precum Nvidia, ceea ce a dus la înregistrarea pierderilor de valori de piață de o singură zi în istoria pieței bursiere din SUA, în timp ce agențiile guvernamentale investighează conformitatea cipurilor utilizate de Deepseek. Pe fondul recenziilor mixte ale profundului de peste mări, pe plan intern, se confruntă cu o creștere extraordinară. După lansarea modelului R1, aplicația asociată a înregistrat o creștere a traficului, ceea ce indică faptul că creșterea sectoarelor de aplicații va conduce ecosistemul AI general înainte. Aspectul pozitiv este că Deepseek va lărgi posibilitățile de aplicare, ceea ce sugerează că bazarea pe ChatGPT nu va fi la fel de scumpă în viitor. Această schimbare s-a reflectat în activitățile recente ale lui Openai, inclusiv furnizarea unui model de raționament numit O3-MINI pentru utilizatorii liberi ca răspuns la Deepseek R1, precum și upgrade-uri ulterioare care au făcut ca lanțul gândit al O3-Mini să fie public. Mulți utilizatori de peste mări și -au exprimat recunoștința față de Deepseek pentru aceste evoluții, deși acest lanț de gândire servește ca un rezumat.

Optimist, este evident că Deepseek unifică jucătorii casnici. Cu accentul său pe reducerea costurilor de instruire, diverși producători de cipuri din amonte, furnizori de cloud intermediari și numeroase startup -uri se alătură activ ecosistemului, îmbunătățind eficiența costurilor pentru utilizarea modelului DeepSeek. Conform lucrărilor Deepseek, pregătirea completă a modelului V3 necesită doar 2,788 milioane de ore GPU H800, iar procesul de instruire este extrem de stabil. Arhitectura MOE (amestecul de experți) este crucială pentru reducerea costurilor pre-instruire cu un factor de zece în comparație cu Llama 3 cu 405 miliarde de parametri. În prezent, V3 este primul model recunoscut public care demonstrează o astfel de mare sparsitate în MOE. În plus, MLA (atenție multi -strat) funcționează sinergic, în special în aspecte de raționament. "Cu cât mai puțin este mai mare, cu atât dimensiunea lotului este necesară în timpul raționamentului pentru a utiliza pe deplin puterea de calcul, dimensiunea KVCache fiind factorul de limitare cheie; MLA reduce semnificativ dimensiunea KVCache", a remarcat un cercetător din tehnologia Chuanjing într -o analiză pentru revizuirea tehnologiei AI. În general, succesul Deepseek constă în combinația diferitelor tehnologii, nu doar una. Insiderii din industrie laudă capacitățile de inginerie ale echipei Deepseek, remarcând excelența lor în formare paralelă și optimizarea operatorilor, obținând rezultate inovatoare prin rafinarea fiecărui detaliu. Abordarea open-source a Deepseek alimentează în continuare dezvoltarea generală a modelelor mari și se anticipează că, dacă modelele similare se extind în imagini, videoclipuri și multe altele, acest lucru va stimula semnificativ cererea din întreaga industrie.

Oportunități pentru servicii de raționament terțe

Datele indică faptul că, de la lansare, Deepseek a acumulat 22,15 milioane de utilizatori activi zilnici (DAU) în doar 21 de zile, obținând 41,6% din baza de utilizatori a lui ChatGPT și depășind 16,95 milioane de utilizatori activi zilnic de Doubao, devenind astfel cea mai rapidă aplicație în creștere la nivel global, depășind magazinul Apple App App în 157 de țări/regiuni. Cu toate acestea, în timp ce utilizatorii s -au aruncat în droguri, hackerii cibernetici au atacat fără încetare aplicația Deepseek, provocând o încordare semnificativă pe serverele sale. Analiștii din industrie consideră că acest lucru se datorează parțial cardurilor de implementare Deepseek pentru instruire, în timp ce nu are suficientă putere de calcul pentru raționament. Un insider din industrie a informat revizuirea tehnologiei AI, „Problemele frecvente ale serverului pot fi rezolvate cu ușurință prin încărcarea taxelor sau finanțarea pentru a achiziționa mai multe mașini; în cele din urmă, depinde de deciziile Deepseek”. Acest lucru prezintă un compromis în concentrarea pe tehnologie versus producție. Deepseek s-a bazat în mare parte pe cuantificarea cuantică pentru auto-susținere, după ce a primit puține finanțări externe, ceea ce a dus la o presiune relativ scăzută a fluxului de numerar și la un mediu tehnologic mai pur. În prezent, având în vedere problemele menționate mai sus, unii utilizatori solicită Deepseek pe rețelele de socializare să ridice pragurile de utilizare sau să introducă funcții plătite pentru a îmbunătăți confortul utilizatorului. În plus, dezvoltatorii au început să utilizeze API-ul oficial sau API-urile terțe pentru optimizare. Cu toate acestea, platforma deschisă Deepseek a anunțat recent, „Resursele serverului actuale sunt rare, iar reîncărcările de servicii API au fost suspendate.”

 

Acest lucru deschide, fără îndoială, mai multe oportunități pentru furnizorii terți din sectorul infrastructurii AI. Recent, numeroși giganți de cloud interni și internaționali au lansat API -urile Model Deepseek - Giganții devers Microsoft și Amazon au fost printre primii care s -au alăturat la sfârșitul lunii ianuarie. Liderul intern, Huawei Cloud, a făcut prima mișcare, eliberând servicii de raționament Deepseek R1 și V3 în colaborare cu fluxul bazat pe siliciu la 1 februarie. Rapoartele AI Technology Review indică faptul că serviciile bazate pe silicon au văzut un aflux de utilizatori, în mod efectiv „prăbușind” platforma. Cele trei mari companii de tehnologie-Bat (Baidu, Alibaba, Tencent) și Bytedance-au emis, de asemenea, oferte cu costuri reduse, în timp limitat, începând cu 3 februarie, care amintesc de vânzătorii de cloud de anul trecut, Price Wars, aprinse de lansarea modelului V2 de la Deepseek, unde Deepseek a început să fie denumit „Butcher de preț”. Acțiunile frenetice ale furnizorilor de cloud reprezintă legăturile puternice anterioare dintre Microsoft Azure și OpenAI, unde în 2019, Microsoft a făcut o investiție substanțială de 1 miliard de dolari în OpenAI și a obținut beneficii după lansarea lui Chatgpt în 2023. Cu toate acestea, această relație strânsă a început să se încadreze după ce meta-ul open-sourd Llama, permițând altor vânzători în afara Microsoft Azure Ecosystem pentru a concura cu competem. În acest caz, Deepseek nu a depășit doar chatGPT în ceea ce privește căldura produsului, dar a introdus și modele open-source în urma lansării O1, similar cu emoția din jurul renașterii GPT-3 a Llama.

 

În realitate, furnizorii de cloud se poziționează, de asemenea, ca gateway -uri de trafic pentru aplicații AI, ceea ce înseamnă că aprofundarea legăturilor cu dezvoltatorii se traduce prin avantaje preventive. Rapoartele indică faptul că Baidu Smart Cloud avea peste 15.000 de clienți care utilizează modelul Deepseek prin intermediul platformei Qianfan în ziua lansării modelului. În plus, mai multe firme mai mici oferă soluții, inclusiv flux pe bază de siliciu, tehnologie Luchen, tehnologie Chuanjing și diverși infraroși AI care au lansat sprijin pentru modelele Deepseek. AI Technology Review a aflat că oportunitățile actuale de optimizare pentru implementări localizate ale Deepseek există în primul rând în două domenii: una este optimizarea caracteristicilor de sparsitate ale modelului MOE folosind o abordare de raționament mixt pentru a implementa modelul MOE de 671 miliarde de parametri la nivel local, în timp ce se utilizează inferință hibridă GPU/CPU. În plus, optimizarea MLA este vitală. Cu toate acestea, cele două modele ale lui Deepseek se confruntă în continuare cu unele provocări în optimizarea implementării. „Datorită dimensiunii modelului și a numeroșilor parametri, optimizarea este într -adevăr complexă, în special pentru implementările locale, în cazul în care obținerea unui echilibru optim între performanță și cost va fi dificilă”, a declarat un cercetător de la Chuanjing Technology. Cea mai semnificativă obstacol constă în depășirea limitelor de capacitate a memoriei. „Adoptăm o abordare de colaborare eterogenă pentru a utiliza complet procesoare și alte resurse de calcul, plasând doar părțile ne-partajate ale matricei MO-uri rare pe CPU/DRAM pentru procesare folosind operatori de CPU de înaltă performanță, în timp ce porțiunile dense rămân la GPU”, a explicat el în continuare. Rapoartele indică faptul că KTransformers-ul cadrului open-source al Chuanjing injectează în principal diverse strategii și operatori în implementarea originală a transformatoarelor printr-un șablon, sporind semnificativ viteza de inferență folosind metode precum CUDAGRAPH. Deepseek a creat oportunități pentru aceste startup -uri, deoarece beneficiile de creștere devin evidente; Multe firme au raportat o creștere vizibilă a clienților după lansarea API -ului Deepseek, primind întrebări de la clienții precedenți care caută optimizări. Industria din industrie au remarcat: „În trecut, grupurile de clienți oarecum stabilite au fost adesea blocate în serviciile standardizate ale companiilor mai mari, strâns legate de avantajele lor de costuri din cauza scării. Cu toate acestea, după ce am finalizat desfășurarea de DeepSeek-R1/V3 înainte de festivalul de primăvară, am primit brusc cereri de cooperare de la mai mulți clienți cunoscuți și chiar și clienții de primăvară, au inițiat un contact pentru a introduce servicii profund." În prezent, se pare că Deepseek face ca performanța de inferență a modelului să fie din ce în ce mai critică și, odată cu adoptarea mai largă a modelelor mari, acest lucru va continua să influențeze în mod semnificativ dezvoltarea în industria AI. Dacă un model la nivel profund ar putea fi implementat la nivel local la un cost redus, acesta ar ajuta foarte mult eforturile de transformare digitală a guvernului și întreprinderii. Cu toate acestea, provocările persistă, deoarece unii clienți pot deține așteptări ridicate cu privire la capacitățile de model mari, ceea ce face mai evident că echilibrarea performanței și a costurilor devine vitală în implementarea practică. 

Pentru a evalua dacă Deepseek este mai bun decât ChatGPT, este esențial să înțelegem diferențele lor cheie, punctele forte și cazurile de utilizare. Iată o comparație cuprinzătoare:

Caracteristică/aspect Deepseek Chatgpt
Proprietate Dezvoltat de o companie chineză Dezvoltat de OpenAI
Model sursă Open-source Proprietate
Cost Liber de utilizat; Opțiuni de acces API mai ieftine Prețuri de abonament sau de plată pe utilizare
Personalizare Foarte personalizabil, permițând utilizatorilor să regleze și să se bazeze pe el Personalizare limitată disponibilă
Performanță în sarcini specifice Excelează în anumite domenii precum analiza datelor și recuperarea informațiilor Versatil cu performanțe puternice în scrierea creativă și sarcinile de conversație
Suport lingvistic Concentrare puternică pe limba și cultura chineză Suport larg al limbajului, dar centrat în SUA
Cost de instruire Costuri de instruire mai mici, optimizate pentru eficiență Costuri de instruire mai mari, necesitând resurse de calcul substanțiale
Variație de răspuns Poate oferi răspunsuri diferite, eventual influențate de contextul geopolitic Răspunsuri consistente bazate pe datele de instruire
Publicul țintă Destinate dezvoltatorilor și cercetătorilor care doresc flexibilitate Destinate utilizatorilor generali care caută capacități de conversație
Cazuri de utilizare Mai eficient pentru generarea de coduri și sarcini rapide Ideal pentru generarea de text, pentru a răspunde la întrebări și pentru a se angaja în dialog

O perspectivă critică asupra „perturbării Nvidia”

În prezent, în afară de Huawei, mai mulți producători de cipuri interne precum Moore Threads, Muxi, Tehnologia Biran și Tianxu Zhixin se adaptează, de asemenea, la cele două modele ale Deepseek. Un producător de cipuri a declarat pentru AI Technology Review: "Structura Deepseek demonstrează inovație, dar rămâne un LLM. Adaptarea noastră la Deepseek este concentrată în principal pe aplicațiile de raționament, ceea ce face ca implementarea tehnică să fie destul de simplă și rapidă." Cu toate acestea, abordarea MOE necesită cereri mai mari în ceea ce privește stocarea și distribuția, însoțită de asigurarea compatibilității atunci când se implementează cu cipuri interne, prezentând numeroase provocări inginerești care au nevoie de rezoluție în timpul adaptării. "În prezent, puterea de calcul intern nu se potrivește cu NVIDIA în ceea ce privește capacitatea de utilizare și stabilitate, necesitând participarea originală a fabricii pentru configurarea mediului software, depanarea și optimizarea performanței fundamentale", a spus un practicant din industrie bazat pe experiență practică. În același timp, "Datorită scării de parametri mari a Deepseek R1, puterea de calcul internă necesită mai multe noduri pentru paralelizare. În plus, specificațiile hardware interne sunt încă oarecum în urmă; de exemplu, Huawei 910B nu poate susține în prezent inferența FP8 introdusă de Deepseek." Unul dintre punctele culminante ale modelului Deepseek V3 este introducerea unui cadru de formare mixtă FP8 mixtă, care a fost validat eficient pe un model extrem de mare, marcând o realizare semnificativă. Anterior, jucători importanți precum Microsoft și Nvidia au sugerat lucrări conexe, dar îndoieli persistă în industrie cu privire la fezabilitate. Se înțelege că, în comparație cu INT8, avantajul principal al FP8 este că cuantificarea post-instruire poate obține o precizie aproape fără pierderi, în timp ce îmbunătățește semnificativ viteza de inferență. Atunci când se compară cu FP16, FP8 poate realiza de până la două ori accelerație pe H20 NVIDIA și de peste 1,5 ori accelerație pe H100. În special, întrucât discuțiile privind tendința puterii de calcul interne, plus modelele interne câștigă impuls, speculațiile cu privire la dacă NVIDIA ar putea fi perturbată și dacă Moat CUDA ar putea fi ocolit, devine din ce în ce mai răspândit. Un fapt incontestabil este faptul că Deepseek a provocat într-adevăr o scădere substanțială a valorii de piață a Nvidia, dar această schimbare ridică întrebări cu privire la integritatea puterii de calcul de înaltă calitate a NVIDIA. Narațiunile acceptate anterior cu privire la acumularea de calcul bazată pe capital sunt contestate, dar rămâne dificil pentru Nvidia să fie înlocuit complet în scenarii de instruire. Analiza utilizării profunde a CUDA de către Deepseek arată că flexibilitatea - cum ar fi utilizarea SM pentru comunicare sau manipularea directă a cardurilor de rețea - nu este posibilă pentru GPU -urile obișnuite să se adapteze. Punctele de vedere ale industriei subliniază faptul că groapa Nvidia cuprinde întregul ecosistem CUDA, mai degrabă decât doar cuda în sine, iar instrucțiunile PTX (execuție paralelă a firului) pe care Deepseek le folosește încă fac parte din ecosistemul CUDA. "Pe termen scurt, puterea de calcul a NVIDIA nu poate fi ocolită - acest lucru este deosebit de clar în formare; cu toate acestea, implementarea cardurilor interne pentru raționament va fi relativ mai ușoară, astfel încât progresul va fi probabil mai rapid. Adaptarea cardurilor interne se concentrează în primul rând pe deferență; nimeni nu a reușit încă să instruiască un model de performanță a profunzilor pe cardurile domestice la scară", a remarcat un analist al industriei la înregistrarea unui model de tehnologie de profunzime. În general, din punct de vedere al inferenței, circumstanțele sunt încurajatoare pentru jetoanele cu modele mari. Oportunitățile pentru producătorii de cipuri interne pe tărâmul inferenței sunt mai evidente datorită cerințelor excesiv de mari ale instruirii, care împiedică intrarea. Analiștii susțin că pur și simplu valorificarea cărților de inferență internă este suficientă; Dacă este necesar, dobândirea unei mașini suplimentare este posibilă, în timp ce modelele de instruire reprezintă provocări unice - gestionarea unui număr crescut de mașini poate deveni împovărătoare, iar ratele de eroare mai mari pot afecta negativ rezultatele instruirii. De asemenea, instruirea are cerințe specifice de scară a clusterului, în timp ce cerințele pentru grupuri pentru inferență nu sunt la fel de stricte, ușurând astfel cerințele GPU. În prezent, performanța cardului H20 unic NVIDIA nu o depășește pe cea a lui Huawei sau Cambrian; Puterea sa constă în clustering. Pe baza impactului general pe piața de putere de calcul, fondatorul Luchen Technology, Yang, ați remarcat într-un interviu acordat AI Technology Review, "Deepseek poate submina temporar înființarea și închirierea de grupuri de calcul ultra-mari de calcul. Cerere susținută pe piața energiei de calcul. " În plus, „cererea crescută a Deepseek pentru raționament și servicii de reglare fină este mai compatibilă cu peisajul de calcul intern, unde capacitățile locale sunt relativ slabe, contribuind la atenuarea deșeurilor de la resursele inactive post-cluster, creează oportunități viabile pentru producători pe diferite niveluri ale ecosistemului de calcul intern.” Luchen Technology a colaborat cu Huawei Cloud pentru a lansa API -urile de raționament ale seriei Deepseek R1 și serviciile de imagini în cloud bazate pe puterea de calcul intern. Yang ai exprimat optimismul cu privire la viitor: „Deepseek insuflă încredere în soluții produse pe plan intern, încurajând un entuziasm și investiții mai mari în capacitățile de calcul interne care vor merge înainte”.

微信图片 _20240614024031.jpg1

Concluzie

Dacă DeepSeek este „mai bun” decât ChatGPT depinde de nevoile și obiectivele specifice ale utilizatorului. Pentru sarcinile care au nevoie de flexibilitate, costuri reduse și personalizare, Deepseek poate fi superioară. Pentru scrierea creativă, ancheta generală și interfețele de conversație prietenoase cu utilizatorul, ChatGPT poate prelua conducerea. Fiecare instrument servește scopuri diferite, astfel încât alegerea va depinde foarte mult de contextul în care sunt utilizate.

Găsiți soluția de cablu ELV

Cabluri de control

Pentru BMS, autobuz, industrial, cablu de instrumentare.

Sistem de cablare structurată

Rețea și date, cablu cu fibră optică, cablu de plasture, module, placă de față

2024 Expoziții și evenimente de recenzie

18 aprilie-18, 2024-energie mijlocie în Dubai

18-16 aprilie, 2024 Securika la Moscova

9 mai, 2024 Eveniment de lansare de produse și tehnologii noi în Shanghai

22 octombrie, 2024 Securitate China la Beijing

Nov.19-20, 2024 Conectat World KSA


Timpul post: februarie-10-2025