Pro kabely BMS, sběrnice, průmyslové a přístrojové kabely.

S blížícím se koncem Jarního festivalu zůstává nadšení kolem DeepSeeku silné. Nedávný svátek zdůraznil výrazný pocit konkurence v technologickém průmyslu, kdy mnozí diskutují a analyzují tohoto „sumce“. Silicon Valley zažívá bezprecedentní pocit krize: zastánci open-source opět vyjadřují své názory a dokonce i OpenAI přehodnocuje, zda byla jeho strategie closed-source tou nejlepší volbou. Nové paradigma nižších výpočetních nákladů spustilo řetězovou reakci mezi čipovými giganty, jako je Nvidia, což vedlo k rekordním ztrátám tržní hodnoty za jeden den v historii amerického akciového trhu, zatímco vládní agentury vyšetřují soulad čipů používaných DeepSeekem s předpisy. Navzdory smíšeným recenzím DeepSeeku v zahraničí zažívá DeepSeek v tuzemsku mimořádný růst. Po spuštění modelu R1 zaznamenala související aplikace prudký nárůst návštěvnosti, což naznačuje, že růst v aplikačních sektorech pohne celý ekosystém umělé inteligence vpřed. Pozitivní je, že DeepSeek rozšíří možnosti aplikací, což naznačuje, že spoléhání se na ChatGPT nebude v budoucnu tak drahé. Tento posun se odráží v nedávných aktivitách OpenAI, včetně poskytnutí modelu uvažování s názvem o3-mini bezplatným uživatelům v reakci na DeepSeek R1, a také v následných aktualizacích, které zveřejnily myšlenkový řetězec o3-mini. Mnoho zahraničních uživatelů vyjádřilo DeepSeeku vděčnost za tento vývoj, ačkoli tento myšlenkový řetězec slouží jako shrnutí.
Optimisticky je zřejmé, že DeepSeek sjednocuje domácí hráče. Díky svému zaměření na snižování nákladů na školení se do ekosystému aktivně zapojují různí výrobci čipů, poskytovatelé cloudových služeb a řada startupů, což zvyšuje nákladovou efektivitu používání modelu DeepSeek. Podle článků DeepSeek vyžaduje kompletní školení modelu V3 pouze 2,788 milionu hodin s využitím GPU H800 a proces školení je vysoce stabilní. Architektura MoE (Mixture of Experts) je klíčová pro desetinásobné snížení nákladů na předškolení ve srovnání s Llama 3 se 405 miliardami parametrů. V současné době je V3 prvním veřejně uznávaným modelem, který vykazuje tak vysokou řídkost v MoE. MLA (Multi Layer Attention) navíc funguje synergicky, zejména v aspektech uvažování. „Čím řídčí je MoE, tím větší je velikost dávky potřebná během uvažování k plnému využití výpočetního výkonu, přičemž klíčovým limitujícím faktorem je velikost KVCache; MLA významně snižuje velikost KVCache,“ poznamenal výzkumník ze společnosti Chuanjing Technology v analýze pro AI Technology Review. Celkový úspěch DeepSeeku spočívá v kombinaci různých technologií, nikoli pouze v jedné jediné. Zasvěcenci z oboru chválí inženýrské schopnosti týmu DeepSeek a zmiňují jejich vynikající výsledky v paralelním školení a optimalizaci operátorů, kdy dosahují průlomových výsledků zdokonalováním každého detailu. Otevřený přístup DeepSeeku dále podporuje celkový vývoj velkých modelů a očekává se, že pokud se podobné modely rozšíří do obrázků, videí a dalších oblastí, výrazně to podnítí poptávku v celém odvětví.
Příležitosti pro služby třetích stran v oblasti uvažování
Data ukazují, že od svého vydání DeepSeek nashromáždil během pouhých 21 dnů 22,15 milionu denně aktivních uživatelů (DAU), čímž dosáhl 41,6 % uživatelské základny ChatGPT a překonal 16,95 milionu denně aktivních uživatelů Doubao. Stala se tak nejrychleji rostoucí aplikací na světě a ve 157 zemích/regionech obsadila vrchol Apple App Store. Zatímco se uživatelé hromadně hrnuli, kybernetičtí hackeři neúnavně útočili na aplikaci DeepSeek a způsobovali značnou zátěž na její servery. Analytici se domnívají, že je to částečně způsobeno tím, že DeepSeek nasazoval karty pro školení, ale neměl dostatečný výpočetní výkon pro uvažování. Zdroj z oboru sdělil AI Technology Review: „Časté problémy se servery lze snadno vyřešit účtováním poplatků nebo financováním nákupu dalších strojů; v konečném důsledku to závisí na rozhodnutích DeepSeeku.“ To představuje kompromis mezi zaměřením na technologii a produktivitu. DeepSeek se do značné míry spoléhal na kvantovou kvantizaci pro svou soběstačnost, protože obdržel málo externího financování, což vedlo k relativně nízkému tlaku na cash flow a čistšímu technologickému prostředí. Vzhledem k výše uvedeným problémům někteří uživatelé na sociálních sítích naléhají na DeepSeek, aby zvýšil limity používání nebo zavedl placené funkce pro zvýšení uživatelského komfortu. Vývojáři navíc začali pro optimalizaci využívat oficiální API nebo API třetích stran. Otevřená platforma DeepSeek však nedávno oznámila: „Aktuální serverové zdroje jsou omezené a dobíjení služeb API bylo pozastaveno.“
To nepochybně otevírá další příležitosti pro externí dodavatele v sektoru infrastruktury umělé inteligence. V poslední době řada domácích i mezinárodních cloudových gigantů spustila modelovací API DeepSeek – mezi prvními, kteří se k nim na konci ledna připojili, byli zámořští giganti Microsoft a Amazon. První krok učinil domácí lídr, Huawei Cloud, který ve spolupráci se společností Flow, založenou na platformě Silicon, 1. února vydal služby DeepSeek R1 a V3 pro uvažování. Zprávy z AI Technology Review naznačují, že služby Flow, založené na platformě Silicon, zaznamenaly příliv uživatelů, což platformu fakticky „zhroutilo“. Tři velké technologické společnosti – BAT (Baidu, Alibaba, Tencent) a ByteDance – také vydaly od 3. února nízkonákladové, časově omezené nabídky, které připomínají loňské cenové války cloudových dodavatelů, které vyvolalo spuštění modelu V2 společnosti DeepSeek, kde se DeepSeek začal nazývat „řezníkem cen“. Zběsilé akce cloudových dodavatelů odrážejí dřívější silné vazby mezi Microsoft Azure a OpenAI, kde Microsoft v roce 2019 investoval do OpenAI značnou miliardu dolarů a sklidil z toho výhody po spuštění ChatGPT v roce 2023. Tento blízký vztah se však začal narušovat poté, co Meta open-sourceovala Llama, což umožnilo dalším dodavatelům mimo ekosystém Microsoft Azure konkurovat jejich velkým modelům. V tomto případě DeepSeek nejen překonal ChatGPT z hlediska produktového nadšení, ale po vydání o1 také představil open-source modely, podobně jako nadšení kolem oživení GPT-3 společností Llama.
Ve skutečnosti se poskytovatelé cloudových služeb také pozicionují jako brány provozu pro aplikace umělé inteligence, což znamená, že prohloubení vazeb s vývojáři se promítá do preventivních výhod. Zprávy ukazují, že Baidu Smart Cloud měl v den spuštění modelu DeepSeek přes 15 000 zákazníků využívajících model DeepSeek prostřednictvím platformy Qianfan. Kromě toho několik menších firem nabízí řešení, včetně společností Flow na bázi křemíku, Luchen Technology, Chuanjing Technology a různých poskytovatelů AI infrastruktury, kteří zahájili podporu pro modely DeepSeek. AI Technology Review zjistil, že současné možnosti optimalizace pro lokalizované nasazení DeepSeek existují především ve dvou oblastech: jednou je optimalizace charakteristik řídkosti modelu MoE pomocí přístupu smíšeného uvažování k lokálnímu nasazení modelu MoE s 671 miliardami parametrů s využitím hybridní inference GPU/CPU. Kromě toho je zásadní optimalizace MLA. Oba modely DeepSeek však stále čelí určitým výzvám v optimalizaci nasazení. „Vzhledem k velikosti modelu a četným parametrům je optimalizace skutečně složitá, zejména pro lokální nasazení, kde bude dosažení optimální rovnováhy mezi výkonem a náklady náročné,“ uvedl výzkumník ze společnosti Chuanjing Technology. Nejvýznamnější překážkou je překonání limitů kapacity paměti. „Pro plné využití CPU a dalších výpočetních zdrojů používáme heterogenní přístup ke spolupráci, přičemž na CPU/DRAM umisťujeme pouze nesdílené části řídké MoE matice pro zpracování pomocí vysoce výkonných operátorů CPU, zatímco husté části zůstávají na GPU,“ vysvětlil dále. Zprávy naznačují, že open-source framework KTransformers od společnosti Chuanjing primárně vkládá různé strategie a operátory do původní implementace Transformers prostřednictvím šablony, čímž výrazně zvyšuje rychlost inference pomocí metod, jako je CUDAGraph. DeepSeek vytvořil příležitosti pro tyto startupy, protože se stávají zřejmými výhody růstu; mnoho firem hlásilo znatelný nárůst zákazníků po spuštění DeepSeek API a dostávalo dotazy od předchozích klientů, kteří hledali optimalizace. Zasvěcenci z oboru poznamenali: „V minulosti byly poněkud zavedené skupiny klientů často vázány na standardizované služby větších společností, pevně vázány svými nákladovými výhodami díky rozsahu. Po dokončení nasazení DeepSeek-R1/V3 před Jarním festivalem jsme však náhle obdrželi žádosti o spolupráci od několika známých klientů a dokonce i dříve spící klienti iniciovali kontakt s cílem představit naše služby DeepSeek.“ V současné době se zdá, že DeepSeek klade stále větší důraz na výkon inference modelů a s širším přijetím velkých modelů bude tento faktor i nadále významně ovlivňovat vývoj v odvětví AI infrastruktury. Pokud by bylo možné model na úrovni DeepSeek nasadit lokálně za nízkou cenu, výrazně by to pomohlo snahám vlád a podniků o digitální transformaci. Problémy však přetrvávají, protože někteří klienti mohou mít vysoká očekávání ohledně možností velkých modelů, což jasně ukazuje, že vyvážení výkonu a nákladů se při praktickém nasazení stává zásadním.
Abychom mohli posoudit, zda je DeepSeek lepší než ChatGPT, je nezbytné pochopit jejich klíčové rozdíly, silné stránky a případy použití. Zde je komplexní srovnání:
Funkce/Aspekt | Hluboké vyhledávání | ChatGPT |
---|---|---|
Vlastnictví | Vyvinuto čínskou společností | Vyvinuto společností OpenAI |
Zdrojový model | Open-source | Proprietární |
Náklady | Zdarma k použití; levnější možnosti přístupu k API | Cena předplatného nebo platby za použití |
Přizpůsobení | Vysoce přizpůsobitelný, což uživatelům umožňuje jeho úpravy a další vývoj | Omezené možnosti přizpůsobení |
Výkon v konkrétních úkolech | Vyniká v určitých oblastech, jako je analýza dat a vyhledávání informací | Všestranný s vysokým výkonem v tvůrčím psaní a konverzačních úkolech |
Jazyková podpora | Silné zaměření na čínský jazyk a kulturu | Široká jazyková podpora, ale zaměření na USA |
Náklady na školení | Nižší náklady na školení, optimalizované pro efektivitu | Vyšší náklady na školení, které vyžadují značné výpočetní zdroje |
Variace odezvy | Může nabídnout různé odpovědi, pravděpodobně ovlivněné geopolitickým kontextem | Konzistentní odpovědi založené na trénovacích datech |
Cílová skupina | Zaměřeno na vývojáře a výzkumníky, kteří chtějí flexibilitu | Zaměřeno na běžné uživatele, kteří hledají konverzační schopnosti |
Případy použití | Efektivnější pro generování kódu a rychlé úkoly | Ideální pro generování textu, odpovídání na dotazy a účast v dialogu |
Kritický pohled na „narušení Nvidie“
V současné době se kromě Huawei na dva modely DeepSeek adaptuje i několik domácích výrobců čipů, jako jsou Moore Threads, Muxi, Biran Technology a Tianxu Zhixin. Jeden výrobce čipů pro AI Technology Review uvedl: „Struktura DeepSeeku demonstruje inovaci, přesto zůstává LLM. Naše adaptace na DeepSeek se primárně zaměřuje na aplikace založené na uvažování, díky čemuž je technická implementace poměrně přímočará a rychlá.“ Přístup MoE však vyžaduje vyšší nároky na úložiště a distribuci a zároveň zajišťuje kompatibilitu při nasazení s domácími čipy, což představuje řadu technických výzev, které je třeba během adaptace vyřešit. „V současné době se domácí výpočetní výkon nevyrovná Nvidii v použitelnosti a stabilitě a vyžaduje původní účast výrobce na nastavení softwarového prostředí, řešení problémů a optimalizaci základního výkonu,“ uvedl jeden odborník z oboru na základě praktických zkušeností. Zároveň: „Vzhledem k velkému rozsahu parametrů DeepSeek R1 vyžaduje domácí výpočetní výkon více uzlů pro paralelizaci. Specifikace domácího hardwaru jsou navíc stále poněkud pozadu; například Huawei 910B v současné době nemůže podporovat inferenci FP8 zavedenou DeepSeekem.“ Jedním z vrcholů modelu DeepSeek V3 je zavedení smíšeného frameworku pro precizní trénování FP8, který byl efektivně ověřen na extrémně velkém modelu, což představuje významný úspěch. Dříve významní hráči jako Microsoft a Nvidia navrhli související výzkum, ale v oboru přetrvávají pochybnosti o jeho proveditelnosti. Předpokládá se, že ve srovnání s INT8 je hlavní výhodou FP8 to, že kvantizace po trénování může dosáhnout téměř bezztrátové přesnosti a zároveň výrazně zvýšit rychlost inference. Ve srovnání s FP16 dokáže FP8 dosáhnout až dvojnásobného zrychlení na Nvidia H20 a více než 1,5násobného zrychlení na H100. Je pozoruhodné, že s tím, jak nabývají na obrátkách diskuse o trendu domácího výpočetního výkonu plus domácích modelů, se stále více rozšiřují spekulace o tom, zda by Nvidia mohla být narušena a zda by se dalo obejít omezení CUDA. Jedním nepopiratelným faktem je, že DeepSeek skutečně způsobil podstatný pokles tržní hodnoty Nvidie, ale tento posun vyvolává otázky ohledně integrity špičkového výpočetního výkonu Nvidie. Dříve přijímané narativy týkající se akumulace výpočetních prostředků řízených kapitálem jsou zpochybňovány, přesto je pro Nvidii stále obtížné ji plně nahradit v trénovacích scénářích. Analýza hlubokého využití CUDA systémem DeepSeek ukazuje, že flexibilita – jako je použití SM pro komunikaci nebo přímá manipulace se síťovými kartami – není pro běžné GPU proveditelná. Názory z oboru zdůrazňují, že Nvidia zahrnuje celý ekosystém CUDA, nikoli pouze CUDA samotnou, a instrukce PTX (Parallel Thread Execution), které DeepSeek používá, jsou stále součástí ekosystému CUDA. „V krátkodobém horizontu nelze výpočetní výkon Nvidie obejít – to je obzvláště zřejmé při trénování; nasazení domácích karet pro uvažování však bude relativně snazší, takže pokrok bude pravděpodobně rychlejší. Adaptace domácích karet se primárně zaměřuje na inferenci; nikomu se dosud nepodařilo natrénovat model výkonu DeepSeeku na domácích kartách ve velkém měřítku,“ poznamenal jeden z průmyslových analytiků pro AI Technology Review. Celkově vzato jsou z hlediska inference okolnosti pro velké modely domácích čipů povzbudivé. Příležitosti pro domácí výrobce čipů v oblasti inference jsou zřetelnější kvůli nadměrně vysokým požadavkům na školení, které brání vstupu na trh. Analytici tvrdí, že stačí pouhé využití domácích inferenčních karet; v případě potřeby je proveditelné pořízení dalšího stroje, zatímco trénovací modely představují specifické výzvy – správa většího počtu strojů se může stát zatěžující a vyšší míra chyb může negativně ovlivnit výsledky školení. Školení má také specifické požadavky na velikost clusteru, zatímco požadavky na clustery pro inferenci nejsou tak přísné, což snižuje požadavky na GPU. V současné době výkon jediné karty Nvidia H20 nepřekonává výkon Huawei nebo Cambrian; její silná stránka spočívá v clusterování. Na základě celkového dopadu na trh s výpočetním výkonem zakladatel společnosti Luchen Technology, You Yang, v rozhovoru pro AI Technology Review poznamenal: „DeepSeek může dočasně podkopat zřizování a pronájem ultra velkých výpočetních clusterů pro školení. Z dlouhodobého hlediska, díky výraznému snížení nákladů spojených s trénováním, uvažováním a aplikacemi velkých modelů, je pravděpodobné, že poptávka na trhu vzroste. Následné iterace umělé inteligence založené na tomto budou proto neustále zvyšovat udržitelnou poptávku na trhu s výpočetním výkonem.“ „Zvýšená poptávka společnosti DeepSeek po službách uvažování a jemného doladění je navíc kompatibilnější s domácí výpočetní krajinou, kde jsou místní kapacity relativně slabé, což pomáhá zmírňovat plýtvání nevyužitými zdroji po založení klastru; to vytváří životaschopné příležitosti pro výrobce na různých úrovních domácího výpočetního ekosystému.“ Společnost Luchen Technology spolupracovala se společností Huawei Cloud na spuštění rozhraní API pro uvažování a cloudových zobrazovacích služeb DeepSeek R1 založených na domácím výpočetním výkonu. You Yang vyjádřil optimismus ohledně budoucnosti: „DeepSeek vzbuzuje důvěru v domácí řešení a podporuje větší nadšení a investice do domácích výpočetních kapacit v budoucnu.“

Závěr
Zda je DeepSeek „lepší“ než ChatGPT, závisí na konkrétních potřebách a cílech uživatele. Pro úkoly vyžadující flexibilitu, nízké náklady a přizpůsobení může být DeepSeek lepší. Pro kreativní psaní, obecné dotazy a uživatelsky přívětivá konverzační rozhraní může ChatGPT převzít vedení. Každý nástroj slouží jiným účelům, takže volba bude do značné míry záviset na kontextu, ve kterém se používá.
Ovládací kabely
Strukturovaný kabelážní systém
Síť a data, optický kabel, propojovací kabel, moduly, čelní panel
16.–18. dubna 2024, veletrh energetiky na Středním východě v Dubaji
16.–18. dubna 2024 Securika v Moskvě
9. května 2024 AKCE K UVÁDĚNÍ NOVÝCH PRODUKTŮ A TECHNOLOGIÍ v Šanghaji
22.–25. října 2024 SECURITY CHINA v Pekingu
19.–20. listopadu 2024 CONNECTED WORLD KSA
Čas zveřejnění: 10. února 2025