Pentru BMS, BUS, industrial, cablu de instrumentație.

Pe măsură ce Festivalul Primăverii se apropie de sfârșit, entuziasmul din jurul DeepSeek rămâne puternic. Recenta sărbătoare a scos în evidență un sentiment semnificativ de concurență în cadrul industriei tehnologice, mulți discutând și analizând acest „somn”. Silicon Valley se confruntă cu un sentiment de criză fără precedent: susținătorii open-source își exprimă din nou opiniile, iar chiar și OpenAI reevaluează dacă strategia sa cu sursă închisă a fost cea mai bună alegere. Noua paradigmă a costurilor de calcul mai mici a declanșat o reacție în lanț în rândul giganților producători de cipuri precum Nvidia, ducând la pierderi record de valoare de piață într-o singură zi în istoria pieței bursiere din SUA, în timp ce agențiile guvernamentale investighează conformitatea cipurilor utilizate de DeepSeek. Pe fondul recenziilor mixte despre DeepSeek în străinătate, pe plan intern, aceasta se confruntă cu o creștere extraordinară. După lansarea modelului R1, aplicația asociată a înregistrat o creștere a traficului, indicând faptul că creșterea în sectoarele de aplicații va impulsiona ecosistemul general al IA. Aspectul pozitiv este că DeepSeek va lărgi posibilitățile aplicațiilor, sugerând că utilizarea ChatGPT nu va fi la fel de scumpă în viitor. Această schimbare s-a reflectat în activitățile recente ale OpenAI, inclusiv furnizarea unui model de raționament numit o3-mini utilizatorilor liberi ca răspuns la DeepSeek R1, precum și în actualizările ulterioare care au făcut public lanțul de gândire al o3-mini. Mulți utilizatori din străinătate și-au exprimat recunoștința față de DeepSeek pentru aceste evoluții, deși acest lanț de gândire servește drept rezumat.
Optimist, este evident că DeepSeek unifică jucătorii locali. Concentrându-se pe reducerea costurilor de instruire, diverși producători de cipuri upstream, furnizori intermediari de cloud și numeroase startup-uri se alătură activ ecosistemului, sporind eficiența costurilor pentru utilizarea modelului DeepSeek. Conform lucrărilor DeepSeek, instruirea completă a modelului V3 necesită doar 2,788 milioane de ore GPU H800, iar procesul de instruire este extrem de stabil. Arhitectura MoE (Mixture of Experts) este crucială pentru reducerea costurilor de pre-antrenare cu un factor de zece, comparativ cu Llama 3 cu 405 miliarde de parametri. În prezent, V3 este primul model recunoscut public care demonstrează o astfel de raritate ridicată în MoE. În plus, MLA (Multi Layer Attention) funcționează sinergic, în special în aspectele legate de raționament. „Cu cât MoE este mai rar, cu atât este mai mare dimensiunea lotului necesară în timpul raționamentului pentru a utiliza pe deplin puterea de calcul, dimensiunea KVCache fiind factorul limitator cheie; MLA reduce semnificativ dimensiunea KVCache”, a remarcat un cercetător de la Chuanjing Technology într-o analiză pentru AI Technology Review. Per total, succesul DeepSeek constă în combinarea diverselor tehnologii, nu doar a uneia singure. Experții din industrie laudă capacitățile inginerești ale echipei DeepSeek, remarcând excelența lor în instruirea paralelă și optimizarea operatorilor, obținând rezultate inovatoare prin rafinarea fiecărui detaliu. Abordarea open-source a DeepSeek alimentează în continuare dezvoltarea generală a modelelor mari și se anticipează că, dacă modele similare se extind în imagini, videoclipuri și multe altele, acest lucru va stimula semnificativ cererea în întreaga industrie.
Oportunități pentru servicii de raționament oferite de terți
Datele indică faptul că, de la lansarea sa, DeepSeek a acumulat 22,15 milioane de utilizatori activi zilnic (DAU) în doar 21 de zile, reprezentând 41,6% din baza de utilizatori ChatGPT și depășind 16,95 milioane de utilizatori activi zilnic ai Doubao, devenind astfel aplicația cu cea mai rapidă creștere la nivel global, depășind Apple App Store în 157 de țări/regiuni. Cu toate acestea, în timp ce utilizatorii se adunau în masă, hackerii cibernetici au atacat neobosit aplicația DeepSeek, provocând o presiune semnificativă asupra serverelor sale. Analiștii din industrie consideră că acest lucru se datorează parțial faptului că DeepSeek implementează carduri pentru antrenament, fără a avea suficientă putere de calcul pentru raționament. O sursă din industrie a declarat pentru AI Technology Review: „Problemele frecvente ale serverului pot fi rezolvate cu ușurință prin perceperea de taxe sau finanțare pentru achiziționarea mai multor mașini; în cele din urmă, depinde de deciziile DeepSeek.” Aceasta reprezintă un compromis între concentrarea pe tehnologie și productivizare. DeepSeek s-a bazat în mare măsură pe cuantizarea cuantică pentru auto-susținere, primind puțină finanțare externă, ceea ce a dus la o presiune relativ scăzută asupra fluxului de numerar și un mediu tehnologic mai pur. În prezent, având în vedere problemele menționate anterior, unii utilizatori îndeamnă DeepSeek pe rețelele de socializare să ridice pragurile de utilizare sau să introducă funcții plătite pentru a spori confortul utilizatorilor. În plus, dezvoltatorii au început să utilizeze API-ul oficial sau API-uri terțe pentru optimizare. Cu toate acestea, platforma deschisă a DeepSeek a anunțat recent: „Resursele actuale ale serverului sunt limitate, iar reîncărcările serviciilor API au fost suspendate.”
Acest lucru deschide, fără îndoială, mai multe oportunități pentru furnizorii terți din sectorul infrastructurii AI. Recent, numeroși giganți locali și internaționali din domeniul cloud au lansat API-urile model DeepSeek - giganții străini Microsoft și Amazon au fost printre primii care s-au alăturat la sfârșitul lunii ianuarie. Liderul autohton, Huawei Cloud, a făcut primul pas, lansând serviciile de raționament DeepSeek R1 și V3 în colaborare cu Flow, bazat pe Silicon, pe 1 februarie. Rapoartele de la AI Technology Review indică faptul că serviciile Flow, bazate pe Silicon, au înregistrat un aflux de utilizatori, „prăbușind” efectiv platforma. Cele trei mari companii de tehnologie - BAT (Baidu, Alibaba, Tencent) și ByteDance - au lansat, de asemenea, oferte low-cost, pe o perioadă limitată, începând cu 3 februarie, amintind de războaiele prețurilor furnizorilor de cloud declanșate de lansarea modelului V2 al DeepSeek, unde DeepSeek a început să fie supranumit „măcelarul prețurilor”. Acțiunile frenetice ale furnizorilor de cloud reflectă legăturile puternice anterioare dintre Microsoft Azure și OpenAI, unde în 2019, Microsoft a făcut o investiție substanțială de 1 miliard de dolari în OpenAI și a cules beneficii după lansarea ChatGPT în 2023. Cu toate acestea, această relație strânsă a început să se deterioreze după ce Meta a lansat Llama în format open-source, permițând altor furnizori din afara ecosistemului Microsoft Azure să concureze cu modelele lor mari. În acest caz, DeepSeek nu numai că a depășit ChatGPT în ceea ce privește popularitatea produselor, dar a introdus și modele open-source după lansarea o1, similar entuziasmului din jurul renașterii GPT-3 de către Llama.
În realitate, furnizorii de cloud se poziționează și ca gateway-uri de trafic pentru aplicațiile AI, ceea ce înseamnă că aprofundarea legăturilor cu dezvoltatorii se traduce prin avantaje preventive. Rapoartele indică faptul că Baidu Smart Cloud avea peste 15.000 de clienți care utilizau modelul DeepSeek prin intermediul platformei Qianfan în ziua lansării modelului. În plus, mai multe firme mai mici oferă soluții, inclusiv Silicon-based Flow, Luchen Technology, Chuanjing Technology și diverși furnizori de infrastructură AI care au lansat suport pentru modelele DeepSeek. AI Technology Review a aflat că oportunitățile actuale de optimizare pentru implementările localizate ale DeepSeek există în principal în două domenii: una este optimizarea caracteristicilor de raritate ale modelului MoE folosind o abordare de raționament mixt pentru a implementa local modelul MoE cu 671 de miliarde de parametri, utilizând în același timp inferența hibridă GPU/CPU. În plus, optimizarea MLA este vitală. Cu toate acestea, cele două modele DeepSeek se confruntă încă cu unele provocări în optimizarea implementării. „Datorită dimensiunii modelului și numeroșilor parametri, optimizarea este într-adevăr complexă, în special pentru implementările locale unde atingerea unui echilibru optim între performanță și cost va fi o provocare”, a declarat un cercetător de la Chuanjing Technology. Cel mai semnificativ obstacol constă în depășirea limitelor capacității memoriei. „Adoptăm o abordare de colaborare eterogenă pentru a utiliza pe deplin procesoarele și alte resurse de calcul, plasând doar părțile nepartajate ale matricei MoE rare pe CPU/DRAM pentru procesare folosind operatori CPU de înaltă performanță, în timp ce porțiunile dense rămân pe GPU”, a explicat el în continuare. Rapoartele indică faptul că framework-ul open-source KTransformers al Chuanjing injectează în principal diverse strategii și operatori în implementarea originală a Transformers printr-un șablon, îmbunătățind semnificativ viteza de inferență folosind metode precum CUDAGraph. DeepSeek a creat oportunități pentru aceste startup-uri, deoarece beneficiile de creștere devin evidente; multe firme au raportat o creștere vizibilă a numărului de clienți după lansarea API-ului DeepSeek, primind solicitări de la clienți anteriori care căutau optimizări. Experții din industrie au remarcat: „În trecut, grupurile de clienți oarecum consacrate erau adesea blocate în serviciile standardizate ale companiilor mai mari, strâns legate de avantajele lor de cost datorate dimensiunii. Cu toate acestea, după finalizarea implementării DeepSeek-R1/V3 înainte de Festivalul de Primăvară, am primit brusc solicitări de cooperare de la mai mulți clienți cunoscuți, ba chiar și clienți anterior inactivi au inițiat contactarea pentru a introduce serviciile noastre DeepSeek.” În prezent, se pare că DeepSeek face ca performanța inferenței modelelor să fie din ce în ce mai critică, iar odată cu adoptarea pe scară largă a modelelor mari, acest lucru va continua să influențeze semnificativ dezvoltarea în industria infrastructurii de inteligență artificială. Dacă un model la nivel DeepSeek ar putea fi implementat local la un cost redus, ar ajuta foarte mult eforturile de transformare digitală ale guvernului și întreprinderilor. Cu toate acestea, provocările persistă, deoarece unii clienți pot avea așteptări mari în ceea ce privește capacitățile modelelor mari, ceea ce face mai evident că echilibrarea performanței și a costului devine vitală în implementarea practică.
Pentru a evalua dacă DeepSeek este mai bun decât ChatGPT, este esențial să înțelegem diferențele cheie, punctele forte și cazurile de utilizare. Iată o comparație completă:
Caracteristică/Aspect | DeepSeek | ChatGPT |
---|---|---|
Proprietate | Dezvoltat de o companie chineză | Dezvoltat de OpenAI |
Model sursă | Sursă deschisă | Proprietate |
Cost | Gratuit de utilizat; opțiuni de acces API mai ieftine | Prețuri pe bază de abonament sau cu plată per utilizare |
Personalizare | Foarte personalizabil, permițând utilizatorilor să îl modifice și să îl dezvolte pe baza acestuia | Personalizare limitată disponibilă |
Performanță în sarcini specifice | Excelează în anumite domenii, cum ar fi analiza datelor și recuperarea informațiilor | Versatil, cu performanțe solide în scrierea creativă și sarcinile conversaționale |
Suport lingvistic | Accent puternic pus pe limba și cultura chineză | Suport larg pentru limbi, dar centrat pe SUA |
Costul instruirii | Costuri de instruire mai mici, optimizate pentru eficiență | Costuri de instruire mai mari, care necesită resurse de calcul substanțiale |
Variația răspunsului | Poate oferi răspunsuri diferite, posibil influențate de contextul geopolitic | Răspunsuri consistente bazate pe date de antrenament |
Public țintă | Destinat dezvoltatorilor și cercetătorilor care doresc flexibilitate | Destinat utilizatorilor generali care caută capacități conversaționale |
Cazuri de utilizare | Mai eficient pentru generarea de cod și sarcini rapide | Ideal pentru generarea de text, răspunsul la întrebări și angajarea în dialoguri |
O perspectivă critică asupra „perturbării Nvidia”
În prezent, pe lângă Huawei, mai mulți producători autohtoni de cipuri, precum Moore Threads, Muxi, Biran Technology și Tianxu Zhixin, se adaptează și ei la cele două modele ale DeepSeek. Un producător de cipuri a declarat pentru AI Technology Review: „Structura DeepSeek demonstrează inovație, dar rămâne un LLM. Adaptarea noastră la DeepSeek se concentrează în principal pe aplicații de raționament, făcând implementarea tehnică destul de simplă și rapidă.” Cu toate acestea, abordarea MoE necesită cerințe mai mari în ceea ce privește stocarea și distribuția, împreună cu asigurarea compatibilității la implementarea cu cipuri autohtone, prezentând numeroase provocări inginerești care necesită rezolvare în timpul adaptării. „În prezent, puterea de calcul autohtonă nu se compară cu Nvidia în ceea ce privește utilizabilitatea și stabilitatea, necesitând participarea originală a fabricii pentru configurarea mediului software, depanarea și optimizarea performanței fundamentale”, a declarat un profesionist din industrie pe baza experienței practice. Simultan, „Datorită scalei mari de parametri a DeepSeek R1, puterea de calcul autohtonă necesită mai multe noduri pentru paralelizare. În plus, specificațiile hardware autohtone sunt încă oarecum în urmă; de exemplu, Huawei 910B nu poate suporta în prezent inferența FP8 introdusă de DeepSeek.” Unul dintre punctele culminante ale modelului DeepSeek V3 este introducerea unui cadru de antrenament cu precizie mixtă FP8, care a fost validat eficient pe un model extrem de mare, marcând o realizare semnificativă. Anterior, jucători importanți precum Microsoft și Nvidia au sugerat lucrări similare, dar în industrie persistă îndoieli cu privire la fezabilitate. Se înțelege că, în comparație cu INT8, principalul avantaj al FP8 este că cuantizarea post-antrenament poate obține o precizie aproape fără pierderi, sporind în același timp semnificativ viteza de inferență. În comparație cu FP16, FP8 poate realiza o accelerație de până la două ori mai mare decât H20 de la Nvidia și de peste 1,5 ori mai mare decât H100. În special, pe măsură ce discuțiile despre tendința puterii de calcul interne plus modelele interne prind amploare, speculațiile despre dacă Nvidia ar putea fi perturbată și dacă șanțul de acces CUDA ar putea fi ocolit devin din ce în ce mai răspândite. Un fapt incontestabil este că DeepSeek a cauzat într-adevăr o scădere substanțială a valorii de piață a Nvidia, dar această schimbare ridică întrebări cu privire la integritatea puterii de calcul de înaltă performanță a Nvidia. Narațiunile acceptate anterior privind acumularea de calcul bazată pe capital sunt contestate, însă rămâne dificil ca Nvidia să fie complet înlocuită în scenariile de antrenament. Analiza utilizării aprofundate a CUDA de către DeepSeek arată că flexibilitatea - cum ar fi utilizarea SM pentru comunicare sau manipularea directă a plăcilor de rețea - nu este fezabilă pentru GPU-urile obișnuite. Opiniile din industrie subliniază faptul că avantajul Nvidia cuprinde întregul ecosistem CUDA, mai degrabă decât doar CUDA în sine, iar instrucțiunile PTX (Parallel Thread Execution) pe care le folosește DeepSeek fac încă parte din ecosistemul CUDA. „Pe termen scurt, puterea de calcul a Nvidia nu poate fi ocolită - acest lucru este evident mai ales în antrenament; cu toate acestea, implementarea plăcilor interne pentru raționament va fi relativ mai ușoară, așa că progresul va fi probabil mai rapid. Adaptarea plăcilor interne se concentrează în principal pe inferență; nimeni nu a reușit încă să antreneze un model al performanței DeepSeek pe plăci interne la scară largă”, a remarcat un analist din industrie pentru AI Technology Review. Per total, din punct de vedere al inferenței, circumstanțele sunt încurajatoare pentru cipurile interne de model mare. Oportunitățile pentru producătorii autohtoni de cipuri în domeniul inferenței sunt mai evidente datorită cerințelor excesiv de ridicate ale antrenamentului, care împiedică intrarea. Analiștii susțin că simpla valorificare a plăcilor de inferență autohtone este suficientă; dacă este necesar, achiziționarea unei mașini suplimentare este fezabilă, în timp ce modelele de antrenament prezintă provocări unice - gestionarea unui număr crescut de mașini poate deveni împovărătoare, iar ratele de eroare mai mari pot avea un impact negativ asupra rezultatelor antrenamentului. Antrenamentul are, de asemenea, cerințe specifice de scară a clusterelor, în timp ce cerințele privind clusterele pentru inferență nu sunt la fel de stricte, ceea ce reduce cerințele GPU. În prezent, performanța plăcii unice H20 de la Nvidia nu depășește pe cea a Huawei sau Cambrian; punctul său forte constă în clusterizare. Pe baza impactului general asupra pieței puterii de calcul, fondatorul Luchen Technology, You Yang, a remarcat într-un interviu acordat AI Technology Review: „DeepSeek ar putea submina temporar înființarea și închirierea de clustere de calcul pentru antrenament ultra-mari. Pe termen lung, prin reducerea semnificativă a costurilor asociate cu antrenamentul, raționamentul și aplicațiile modelelor mari, este probabil ca cererea pieței să crească. Prin urmare, iterațiile ulterioare ale IA bazate pe acest lucru vor conduce în mod continuu la o cerere susținută pe piața puterii de calcul.” În plus, „cererea crescută a DeepSeek pentru servicii de raționament și reglaj fin este mai compatibilă cu peisajul computațional intern, unde capacitățile locale sunt relativ slabe, contribuind la atenuarea risipei provenite din resursele inactive după înființarea clusterului; acest lucru creează oportunități viabile pentru producătorii de la diferite niveluri ale ecosistemului computațional intern.” Luchen Technology a colaborat cu Huawei Cloud pentru a lansa API-urile de raționament din seria DeepSeek R1 și serviciile de imagistică în cloud bazate pe puterea de calcul internă. You Yang și-a exprimat optimismul cu privire la viitor: „DeepSeek insuflă încredere în soluțiile produse la nivel intern, încurajând un entuziasm și investiții sporite în capacitățile de calcul interne pe viitor.”

Concluzie
Dacă DeepSeek este „mai bun” decât ChatGPT depinde de nevoile și obiectivele specifice ale utilizatorului. Pentru sarcini care necesită flexibilitate, cost redus și personalizare, DeepSeek poate fi superior. Pentru scriere creativă, investigații generale și interfețe conversaționale ușor de utilizat, ChatGPT poate fi inițiativa. Fiecare instrument servește unor scopuri diferite, așa că alegerea va depinde în mare măsură de contextul în care este utilizat.
Cabluri de control
Sistem de cablare structurată
Rețea și date, cablu cu fibră optică, cablu de conectare, module, placă frontală
16-18 aprilie 2024, evenimentul „Energie în Orientul Mijlociu” din Dubai
16-18 aprilie 2024, Securika la Moscova
9 mai 2024 EVENIMENT DE LANSARE DE NOI PRODUSE ȘI TEHNOLOGII la Shanghai
22-25 octombrie 2024 SECURITY CHINA la Beijing
19-20 noiembrie 2024, CONNECTED WORLD KSA
Data publicării: 10 februarie 2025