Pre káble BMS, zbernice, priemyselné a prístrojové káble.

Keďže sa Jarný festival blíži ku koncu, vzrušenie okolo DeepSeek zostáva silné. Nedávny sviatok zdôraznil výrazný pocit konkurencie v technologickom priemysle, pričom mnohí diskutujú a analyzujú tohto „sumca“. Silicon Valley zažíva bezprecedentný pocit krízy: zástancovia open source opäť vyjadrujú svoje názory a dokonca aj OpenAI prehodnocuje, či bola jeho stratégia closed source tou najlepšou voľbou. Nová paradigma nižších výpočtových nákladov spustila reťazovú reakciu medzi čipovými gigantmi, ako je Nvidia, čo viedlo k rekordným jednodňovým stratám trhovej hodnoty v histórii amerického akciového trhu, zatiaľ čo vládne agentúry vyšetrujú súlad čipov používaných DeepSeek s predpismi. Uprostred zmiešaných recenzií DeepSeek v zahraničí zaznamenáva mimoriadny rast na domácom trhu. Po spustení modelu R1 zaznamenala súvisiaca aplikácia prudký nárast návštevnosti, čo naznačuje, že rast v aplikačných sektoroch bude poháňať celý ekosystém AI vpred. Pozitívnym aspektom je, že DeepSeek rozšíri možnosti aplikácií, čo naznačuje, že spoliehanie sa na ChatGPT nebude v budúcnosti také drahé. Tento posun sa odráža v nedávnych aktivitách OpenAI vrátane poskytnutia modelu uvažovania s názvom o3-mini pre bezplatných používateľov v reakcii na DeepSeek R1, ako aj v následných aktualizáciách, ktoré zverejnili myšlienkový reťazec o3-mini. Mnohí zahraniční používatelia vyjadrili DeepSeeku vďaku za tento vývoj, hoci tento myšlienkový reťazec slúži len ako zhrnutie.
Optimisticky je zrejmé, že DeepSeek zjednocuje domácich hráčov. Vďaka svojmu zameraniu na znižovanie nákladov na školenie sa do ekosystému aktívne zapojujú rôzni výrobcovia čipov, poskytovatelia cloudových služieb a početné startupy, čím sa zvyšuje nákladová efektívnosť používania modelu DeepSeek. Podľa článkov DeepSeek si kompletné školenie modelu V3 vyžaduje iba 2,788 milióna hodín na GPU H800 a proces školenia je vysoko stabilný. Architektúra MoE (Mixture of Experts) je kľúčová pre desaťnásobné zníženie nákladov na predtréning v porovnaní s Llama 3 so 405 miliardami parametrov. V súčasnosti je V3 prvým verejne uznávaným modelom, ktorý preukazuje takúto vysokú riedkosť v MoE. Okrem toho MLA (Multi Layer Attention) funguje synergicky, najmä v aspektoch uvažovania. „Čím je MoE riedší, tým väčšia je veľkosť dávky potrebná počas uvažovania na plné využitie výpočtového výkonu, pričom veľkosť KVCache je kľúčovým limitujúcim faktorom; MLA výrazne znižuje veľkosť KVCache,“ poznamenal výskumník zo spoločnosti Chuanjing Technology v analýze pre AI Technology Review. Celkový úspech DeepSeek spočíva v kombinácii rôznych technológií, nielen v jednej jedinej. Odborníci z odvetvia chvália inžinierske schopnosti tímu DeepSeek a všímajú si ich excelentnosť v paralelnom školení a optimalizácii operátorov, pričom dosahujú prelomové výsledky zdokonaľovaním každého detailu. Open-source prístup DeepSeek ďalej podporuje celkový vývoj rozsiahlych modelov a očakáva sa, že ak sa podobné modely rozšíria do obrázkov, videí a ďalších oblastí, výrazne to stimuluje dopyt v celom odvetví.
Príležitosti pre služby tretích strán v oblasti uvažovania
Údaje naznačujú, že od svojho vydania si DeepSeek za púhych 21 dní nazbieral 22,15 milióna denne aktívnych používateľov (DAU), čím dosiahol 41,6 % používateľskej základne ChatGPT a prekonal 16,95 milióna denne aktívnych používateľov aplikácie Doubao, čím sa stal najrýchlejšie rastúcou aplikáciou na svete a v 157 krajinách/regiónoch obsadil prvé miesto v Apple App Store. Zatiaľ čo sa používatelia hromadne hrnuli, kybernetickí hackeri neúnavne útočia na aplikáciu DeepSeek, čo spôsobuje značné zaťaženie jej serverov. Analytici z odvetvia sa domnievajú, že je to čiastočne spôsobené tým, že DeepSeek nasadzuje karty na tréning, pričom nemá dostatočný výpočtový výkon na uvažovanie. Zdroj z odvetvia pre AI Technology Review uviedol: „Časté problémy so servermi sa dajú ľahko vyriešiť účtovaním poplatkov alebo financovaním nákupu ďalších strojov; v konečnom dôsledku to závisí od rozhodnutí DeepSeek.“ To predstavuje kompromis medzi zameraním sa na technológiu a produktizáciou. DeepSeek sa do značnej miery spoliehal na kvantovú kvantizáciu pre svoju sebestačnosť, pričom získal málo externého financovania, čo viedlo k relatívne nízkemu tlaku na peňažné toky a čistejšiemu technologickému prostrediu. Vzhľadom na vyššie uvedené problémy niektorí používatelia v súčasnosti na sociálnych sieťach naliehajú na spoločnosť DeepSeek, aby zvýšila limity používania alebo zaviedla platené funkcie na zvýšenie používateľského komfortu. Vývojári navyše začali na optimalizáciu využívať oficiálne API alebo API tretích strán. Otvorená platforma DeepSeek však nedávno oznámila: „Súčasné serverové zdroje sú obmedzené a dobíjanie služieb API bolo pozastavené.“
Toto nepochybne otvára ďalšie príležitosti pre dodávateľov tretích strán v sektore infraštruktúry umelej inteligencie. Nedávno mnoho domácich a medzinárodných cloudových gigantov spustilo modelové API rozhraní DeepSeek – medzi prvými, ktorí sa koncom januára pridali, boli zámorskí giganti Microsoft a Amazon. Domáci líder, Huawei Cloud, urobil prvý krok a 1. februára v spolupráci so spoločnosťou Flow, ktorá je založená na spoločnosti Silicon, vydal služby uvažovania DeepSeek R1 a V3. Správy z AI Technology Review naznačujú, že služby spoločnosti Flow, ktorá je založená na spoločnosti Silicon, zaznamenali prílev používateľov, čo platformu v podstate „zrútilo“. Tri veľké technologické spoločnosti – BAT (Baidu, Alibaba, Tencent) a ByteDance – tiež vydali od 3. februára nízkonákladové, časovo obmedzené ponuky, ktoré pripomínajú minuloročné cenové vojny dodávateľov cloudu, ktoré vyvolalo spustenie modelu V2 spoločnosti DeepSeek, kde sa DeepSeek začal nazývať „cenovým mäsiarom“. Zbesilé konanie cloudových dodávateľov odráža skoršie silné väzby medzi Microsoft Azure a OpenAI, kde v roku 2019 spoločnosť Microsoft investovala do OpenAI značnú miliardu dolárov a po spustení ChatGPT v roku 2023 z toho vyťažila výhody. Tento blízky vzťah sa však začal narúšať po tom, čo spoločnosť Meta sprístupnila Llama s otvoreným zdrojovým kódom, čo umožnilo iným dodávateľom mimo ekosystému Microsoft Azure konkurovať ich veľkým modelom. V tomto prípade spoločnosť DeepSeek nielenže prekonala ChatGPT z hľadiska produktového zamerania, ale po vydaní o1 predstavila aj open-source modely, podobne ako vzrušenie okolo oživenia GPT-3 spoločnosťou Llama.
V skutočnosti sa poskytovatelia cloudových služieb prezentujú aj ako brány pre dáta v aplikáciách umelej inteligencie, čo znamená, že prehĺbenie väzieb s vývojármi sa premieta do preventívnych výhod. Správy naznačujú, že Baidu Smart Cloud mal v deň spustenia modelu DeepSeek viac ako 15 000 zákazníkov využívajúcich model DeepSeek prostredníctvom platformy Qianfan. Okrem toho niekoľko menších firiem ponúka riešenia vrátane spoločností Flow na báze Siliconu, Luchen Technology, Chuanjing Technology a rôznych poskytovateľov AI Infra, ktorí spustili podporu pre modely DeepSeek. AI Technology Review zistil, že súčasné možnosti optimalizácie pre lokalizované nasadenie DeepSeek existujú predovšetkým v dvoch oblastiach: jednou je optimalizácia charakteristík riedkosti modelu MoE pomocou zmiešaného prístupu uvažovania na lokálne nasadenie modelu MoE so 671 miliardami parametrov s využitím hybridnej inferencie GPU/CPU. Okrem toho je nevyhnutná optimalizácia MLA. Dva modely DeepSeek však stále čelia určitým výzvam pri optimalizácii nasadenia. „Vzhľadom na veľkosť modelu a početné parametre je optimalizácia skutočne zložitá, najmä pri lokálnych nasadeniach, kde bude dosiahnutie optimálnej rovnováhy medzi výkonom a nákladmi náročné,“ uviedol výskumník zo spoločnosti Chuanjing Technology. Najvýznamnejšou prekážkou je prekonanie limitov kapacity pamäte. „Na plné využitie CPU a iných výpočtových zdrojov prijímame heterogénny prístup k spolupráci, pričom na CPU/DRAM umiestňujeme iba nezdieľané časti riedkej matice MoE na spracovanie pomocou vysokovýkonných operátorov CPU, zatiaľ čo husté časti zostávajú na GPU,“ ďalej vysvetlil. Správy naznačujú, že open-source framework KTransformers od spoločnosti Chuanjing primárne vkladá rôzne stratégie a operátory do pôvodnej implementácie Transformers prostredníctvom šablóny, čím výrazne zvyšuje rýchlosť inferencie pomocou metód ako CUDAGraph. DeepSeek vytvoril príležitosti pre tieto startupy, keďže sa stávajú zjavnými výhody rastu; mnohé firmy hlásili znateľný nárast zákazníkov po spustení rozhrania DeepSeek API a dostali dopyty od predchádzajúcich klientov, ktorí hľadali optimalizácie. Zasvätení ľudia z odvetvia poznamenali: „V minulosti boli do istej miery etablované skupiny klientov často viazané na štandardizované služby väčších spoločností, pevne viazané svojimi nákladovými výhodami vďaka rozsahu. Po dokončení nasadenia DeepSeek-R1/V3 pred jarným festivalom sme však zrazu dostali žiadosti o spoluprácu od niekoľkých známych klientov a dokonca aj predtým neaktívni klienti iniciovali kontakt s cieľom predstaviť naše služby DeepSeek.“ V súčasnosti sa zdá, že DeepSeek zvyšuje dôležitosť výkonu inferencie modelov a so širším prijatím rozsiahlych modelov to bude naďalej výrazne ovplyvňovať vývoj v odvetví infraštruktúry umelej inteligencie. Ak by sa model na úrovni DeepSeek dal nasadiť lokálne za nízku cenu, výrazne by to pomohlo úsiliu vlády a podnikov o digitálnu transformáciu. Výzvy však pretrvávajú, pretože niektorí klienti môžu mať vysoké očakávania týkajúce sa možností rozsiahlych modelov, čo ešte viac zdôrazňuje, že vyváženie výkonu a nákladov sa stáva pri praktickom nasadení kľúčovým.
Na zhodnotenie, či je DeepSeek lepší ako ChatGPT, je nevyhnutné pochopiť ich kľúčové rozdiely, silné stránky a prípady použitia. Tu je komplexné porovnanie:
Funkcia/Aspekt | Hlboké vyhľadávanie | GPT v Chate |
---|---|---|
Vlastníctvo | Vyvinuté čínskou spoločnosťou | Vyvinuté spoločnosťou OpenAI |
Zdrojový model | Open-source | Vlastnícke |
Cena | Bezplatné použitie; lacnejšie možnosti prístupu k API | Predplatné alebo platba za použitie |
Prispôsobenie | Vysoko prispôsobiteľné, čo používateľom umožňuje upravovať a rozvíjať ho | K dispozícii je obmedzené prispôsobenie |
Výkon v špecifických úlohách | Vyniká v určitých oblastiach, ako je analýza dát a vyhľadávanie informácií | Všestranný so silným výkonom v kreatívnom písaní a konverzačných úlohách |
Jazyková podpora | Silný dôraz na čínsky jazyk a kultúru | Široká jazyková podpora, ale zameraná na USA |
Náklady na školenie | Nižšie náklady na školenie, optimalizované pre efektivitu | Vyššie náklady na školenie, ktoré si vyžadujú značné výpočtové zdroje |
Variácia odpovede | Môže ponúknuť rôzne odpovede, pravdepodobne ovplyvnené geopolitickým kontextom | Konzistentné odpovede založené na tréningových dátach |
Cieľová skupina | Zamerané na vývojárov a výskumníkov, ktorí chcú flexibilitu | Zamerané na bežných používateľov, ktorí hľadajú konverzačné schopnosti |
Prípady použitia | Efektívnejšie pre generovanie kódu a rýchle úlohy | Ideálne na generovanie textu, odpovedanie na otázky a vedenie dialógu |
Kritický pohľad na „narušenie Nvidie“
V súčasnosti sa okrem spoločnosti Huawei na dva modely DeepSeek prispôsobuje aj niekoľko domácich výrobcov čipov, ako napríklad Moore Threads, Muxi, Biran Technology a Tianxu Zhixin. Jeden výrobca čipov pre AI Technology Review uviedol: „Štruktúra DeepSeek demonštruje inováciu, no stále zostáva LLM. Naša adaptácia na DeepSeek sa primárne zameriava na aplikácie založené na uvažovaní, vďaka čomu je technická implementácia pomerne jednoduchá a rýchla.“ Prístup MoE však vyžaduje vyššie nároky na úložisko a distribúciu, spolu so zabezpečením kompatibility pri nasadzovaní s domácimi čipmi, čo predstavuje množstvo technických výziev, ktoré je potrebné počas adaptácie vyriešiť. „V súčasnosti domáci výpočtový výkon nevyhovuje spoločnosti Nvidia v použiteľnosti a stabilite, čo si vyžaduje pôvodnú účasť výrobcu na nastavení softvérového prostredia, riešení problémov a optimalizácii základného výkonu,“ povedal odborník z odvetvia na základe praktických skúseností. Zároveň: „Vzhľadom na veľký rozsah parametrov DeepSeek R1 si domáci výpočtový výkon vyžaduje viac uzlov na paralelizáciu. Okrem toho domáce hardvérové špecifikácie stále trochu zaostávajú; napríklad Huawei 910B v súčasnosti nemôže podporovať inferenciu FP8, ktorú zaviedol DeepSeek.“ Jedným z vrcholov modelu DeepSeek V3 je zavedenie zmiešaného rámca precízneho trénovania FP8, ktorý bol efektívne overený na extrémne veľkom modeli, čo predstavuje významný úspech. V minulosti hlavní hráči ako Microsoft a Nvidia navrhli súvisiacu prácu, ale v odvetví pretrvávajú pochybnosti o uskutočniteľnosti. Predpokladá sa, že v porovnaní s INT8 je hlavnou výhodou FP8 to, že kvantizácia po trénovaní dokáže dosiahnuť takmer bezstratovú presnosť a zároveň výrazne zvýšiť rýchlosť inferencie. V porovnaní s FP16 dokáže FP8 dosiahnuť až dvojnásobné zrýchlenie na Nvidia H20 a viac ako 1,5-násobné zrýchlenie na H100. Je pozoruhodné, že keďže diskusie o trende domáceho výpočtového výkonu plus domácich modelov naberajú na obrátkach, špekulácie o tom, či by sa Nvidia mohla narušiť a či by sa dala obísť bariéra CUDA, sa stávajú čoraz rozšírenejšími. Jedným nepopierateľným faktom je, že DeepSeek skutočne spôsobil výrazný pokles trhovej hodnoty Nvidie, ale tento posun vyvoláva otázky týkajúce sa integrity špičkového výpočtového výkonu Nvidie. Predtým akceptované naratívy týkajúce sa akumulácie výpočtových síl riadených kapitálom sú spochybňované, no pre Nvidiu je stále ťažké ju úplne nahradiť v tréningových scenároch. Analýza hlbokého využívania CUDA systémom DeepSeek ukazuje, že flexibilita – ako napríklad používanie SM na komunikáciu alebo priama manipulácia so sieťovými kartami – nie je pre bežné GPU uskutočniteľná. Názory odvetvia zdôrazňujú, že Nvidia sila zahŕňa celý ekosystém CUDA, nielen samotný CUDA, a inštrukcie PTX (Parallel Thread Execution), ktoré DeepSeek používa, sú stále súčasťou ekosystému CUDA. „V krátkodobom horizonte nemožno obísť výpočtový výkon spoločnosti Nvidia – to je obzvlášť zrejmé pri tréningu; nasadenie domácich kariet na uvažovanie však bude relatívne jednoduchšie, takže pokrok bude pravdepodobne rýchlejší. Adaptácia domácich kariet sa primárne zameriava na inferenciu; nikomu sa zatiaľ nepodarilo natrénovať model výkonu DeepSeek na domácich kartách vo veľkom meradle,“ poznamenal priemyselný analytik pre AI Technology Review. Celkovo sú z hľadiska inferencie okolnosti pre veľké modely domácich čipov povzbudivé. Príležitosti pre domácich výrobcov čipov v oblasti inferencie sú zreteľnejšie kvôli nadmerne vysokým požiadavkám na tréning, ktoré bránia vstupu na trh. Analytici tvrdia, že stačí len využiť domáce inferenčné karty; v prípade potreby je možné získať ďalší stroj, zatiaľ čo tréningové modely predstavujú jedinečné výzvy – správa väčšieho počtu strojov sa môže stať zaťažujúcou a vyššia miera chybovosti môže negatívne ovplyvniť výsledky tréningu. Tréning má tiež špecifické požiadavky na rozsah klastrov, zatiaľ čo požiadavky na klastre pre inferenciu nie sú také prísne, čo zmierňuje požiadavky na GPU. V súčasnosti výkon jedinej karty H20 od spoločnosti Nvidia neprevyšuje výkon spoločností Huawei alebo Cambrian; jej silná stránka spočíva v klastrovaní. Na základe celkového vplyvu na trh s výpočtovým výkonom zakladateľ spoločnosti Luchen Technology, You Yang, v rozhovore pre AI Technology Review poznamenal: „DeepSeek môže dočasne ohroziť zriaďovanie a prenájom ultra veľkých tréningových výpočtových klastrov. Z dlhodobého hľadiska, výrazným znížením nákladov spojených s tréningom, uvažovaním a aplikáciami veľkých modelov, je pravdepodobné, že dopyt na trhu prudko vzrastie. Následné iterácie umelej inteligencie založené na tomto budú preto neustále poháňať trvalý dopyt na trhu s výpočtovým výkonom.“ Okrem toho „zvýšený dopyt spoločnosti DeepSeek po službách uvažovania a jemného doladenia je viac kompatibilný s domácou výpočtovou krajinou, kde sú lokálne kapacity relatívne slabé, čo pomáha zmierňovať plytvanie nevyužitými zdrojmi po založení klastra; to vytvára životaschopné príležitosti pre výrobcov na rôznych úrovniach domáceho výpočtového ekosystému.“ Spoločnosť Luchen Technology spolupracovala so spoločnosťou Huawei Cloud na spustení rozhraní API pre uvažovanie a cloudových zobrazovacích služieb DeepSeek R1 založených na domácej výpočtovej sile. You Yang vyjadril optimizmus ohľadom budúcnosti: „DeepSeek vzbudzuje dôveru v domáce riešenia a podporuje väčšie nadšenie a investície do domácich výpočtových kapacít v budúcnosti.“

Záver
Či je DeepSeek „lepší“ ako ChatGPT, závisí od špecifických potrieb a cieľov používateľa. Pre úlohy vyžadujúce flexibilitu, nízke náklady a prispôsobenie môže byť DeepSeek lepší. Pre kreatívne písanie, všeobecné skúmanie a užívateľsky prívetivé konverzačné rozhrania môže ChatGPT prevziať vedenie. Každý nástroj slúži na iné účely, takže výber bude do značnej miery závisieť od kontextu, v ktorom sa používa.
Ovládacie káble
Štruktúrovaný kabelážny systém
Sieť a dáta, optický kábel, prepojovací kábel, moduly, čelný panel
16. – 18. apríla 2024 Blízkovýchodná energetika v Dubaji
16. – 18. apríla 2024 Securika v Moskve
9. mája 2024 PODUJATIE PRI SPÔSOBENÍ UVÁDZANIA NOVÝCH PRODUKTOV A TECHNOLÓGIÍ v Šanghaji
22. – 25. októbra 2024, konferencia SECURITY CHINA v Pekingu
19. – 20. novembra 2024 CONNECTED WORLD KSA
Čas uverejnenia: 10. februára 2025