Pro BMS, Bus, Industrial, Instrumentation Cable.

Když se jarní festival blíží ke konci, vzrušení kolem Deepseek zůstává silné. Nedávná dovolená zdůraznila významný pocit konkurence v technologickém průmyslu, přičemž mnozí diskutovali a analyzovali tento „sumci“. Silicon Valley zažívá bezprecedentní pocit krize: obhájci open-source znovu vyjadřují své názory a dokonce OpenAI přehodnocuje, zda jeho strategie uzavřeného zdroje byla nejlepší volbou. Nové paradigma nižších výpočetních nákladů vyvolalo řetězovou reakci mezi giganty čipu, jako je NVIDIA, což vedlo k zaznamenání jednodenních ztrát tržní hodnoty v historii amerického trhu, zatímco vládní agentury vyšetřují dodržování čipů používaných Deepseekem. Uprostřed smíšených recenzí Deepseek v zámoří na domácím trhu zažívá mimořádný růst. Po spuštění modelu R1 přidružená aplikace zaznamenala nárůst provozu, což naznačuje, že růst v aplikačních sektorech povede celkový ekosystém AI vpřed. Pozitivním aspektem je, že Deepseek rozšíří možnosti aplikací, což naznačuje, že spoléhání se na chatgpt nebude v budoucnu tak drahé. Tento posun se odrazil v nedávných činnostech OpenAI, včetně poskytnutí modelu uvažování s názvem O3-Mini na svobodné uživatele v reakci na Deepseek R1, jakož i následné vylepšení, které zveřejnilo myšlenkový řetězec O3-Mini. Mnoho zámořských uživatelů vyjádřilo vděčnost Deepseeka za tento vývoj, ačkoli tento myšlenkový řetězec slouží jako shrnutí.
Optimisticky je zřejmé, že Deepseek sjednocuje domácí hráče. Se zaměřením na snižování nákladů na školení se do ekosystému aktivně připojují různí výrobci čipů proti proudu, mezilehlými poskytovateli cloudů a četné startupy a zvyšují efektivitu nákladů pro používání modelu DeepSeek. Podle novin Deepseek vyžaduje úplné školení modelu V3 pouze 2,788 milionu H800 GPU hodin a proces tréninku je vysoce stabilní. Architektura MOE (směs odborníků) je zásadní pro snížení nákladů na předškolení o faktor deseti ve srovnání s Llamou 3 s 405 miliardami parametrů. V současné době je V3 prvním veřejně uznávaným modelem demonstrujícím tak vysokou řídkost v MOE. Kromě toho MLA (více vrstva pozornosti) pracuje synergicky, zejména v aspektech uvažování. „Čím sparserium je moe, tím větší je velikost šarže potřebná během uvažování, aby plně využila výpočetní sílu, přičemž velikost KVCache byla klíčovým omezujícím faktorem; MLA významně snižuje velikost KVCache,“ poznamenal výzkumný pracovník z technologie Chuanjing v analýze pro přezkum technologie AI. Celkově úspěch Deepseek spočívá v kombinaci různých technologií, nejen v jednom. Zasvěcenci průmyslu chválí inženýrské schopnosti týmu Deepseek a zaznamenávají jejich dokonalost v paralelním tréninku a optimalizaci operátorů a dosahují průkopnických výsledků zdokonalováním všech detailů. Přístup Deepseek Open-Source dále podporuje celkový vývoj velkých modelů a očekává se, že pokud se podobné modely rozšíří na obrázky, videa a další, bude to výrazně stimulovat poptávku v celém odvětví.
Příležitosti pro služby uvažování třetích stran
Data naznačují, že od svého vydání získala DeepSeek během pouhých 21 dnů 22,15 milionu aktivních uživatelů denně (DAU) a dosáhla 41,6% uživatelské základny CHATGPT a překonal 16,95 milionu denních aktivních uživatelů Doubao, čímž se stal nejrychleji rostoucí aplikací, a najděte obchod Apple App Store v 157 zemích/regionech. Přestože se však uživatelé vrhli do houfeů, kybernetičtí hackeři neúnavně útočili na aplikaci DeepSeek, což způsobilo značné zatížení na jejích serverech. Analytici průmyslu se domnívají, že je to částečně způsobeno tím, že DeepSeek nasazuje karty pro školení a přitom postrádá dostatečný výpočetní výkon pro uvažování. Intervision Insider informoval AI Technology Review: „Časté problémy se serverem lze snadno vyřešit účtováním poplatků nebo financování na nákup více strojů; v konečném důsledku to záleží na Deepseekových rozhodnutích.“ To představuje kompromis v zaměření na technologii versus produkci. DeepSeek se do značné míry spoléhal na kvantovou kvantizaci pro soběstačnou údržbu, poté, co získal malé externí financování, což mělo za následek relativně nízký tlak peněžních toků a čistší technologické prostředí. V současné době, s ohledem na výše uvedené problémy, někteří uživatelé naléhají na sociální média, aby zvýšili prahové hodnoty využití nebo zavedli placené funkce za účelem zvýšení pohodlí uživatele. Vývojáři navíc začali využívat oficiální API nebo API třetích stran pro optimalizaci. Otevřená platforma DeepSeek však nedávno oznámila: „Aktuální zdroje serveru jsou vzácné a nabíjecí nabídky API byly pozastaveny.“
To bezpochyby otevírá více příležitostí pro prodejce třetích stran v sektoru infrastruktury AI. Nedávno bylo mnoho domácích a mezinárodních cloudových gigantů spuštěno DeepSeekovy modelové API - nadcházející Giants Microsoft a Amazon byli mezi prvními, kteří se připojili na konci ledna. Domácí vůdce, Huawei Cloud, provedl první krok a uvolnil Deepseek R1 a V3 Dodostrovací služby ve spolupráci s tokem na bázi křemíku 1. února. Zprávy z AI Technology Review naznačují, že služby Flow na bázi křemíku zaznamenaly příliv uživatelů, což účinně „havarovalo“ platformu. Velké tři technologické společnosti-Bat (Baidu, Alibaba, Tencent) a Bytedance-také vydaly levné nabídky s omezeným časem od 3. února, připomínající loňské cenové války s cloudovým prodejcem zapálily modelem V2, kde se začaly podat „cenový butcher“. Zběsilé akce prodejců cloudu odrážejí dřívější silné vazby mezi Microsoft Azure a OpenAI, kde v roce 2019 Microsoft provedl podstatnou investici ve výši 1 miliardy dolarů do OpenAi a po zahájení Chatgptu získal výhody mimo Microsoft Econure s konkurencí s jejich velkými modely. V tomto případě Deepseek nejen překonal ChatGPT, pokud jde o teplo produktu, ale také zavedl modely open-source po vydání O1, podobné vzrušení kolem Llamova oživení GPT-3.
Ve skutečnosti se poskytovatelé cloudu také staví jako dopravní brány pro aplikace AI, což znamená, že prohlubování vazeb s vývojáři se překládá na preventivní výhody. Zprávy naznačují, že Baidu Smart Cloud měl více než 15 000 zákazníků využívajících model DeepSeek prostřednictvím platformy Qianfan v den zahájení modelu. Několik menších firem navíc nabízí řešení, včetně toku na bázi křemíku, technologie Luchen, technologie Chuanjing a různých poskytovatelů infra, které zahájily podporu pro modely DeepSeek. Přezkum technologií AI se dozvěděl, že současné optimalizační příležitosti pro lokalizované nasazení Deepseek existují především ve dvou oblastech: jedna optimalizuje charakteristiky modelu MOE pomocí smíšeného přístupu k nasazení modelu MOE 671 miliard, zatímco využívá hybridní inferenční gpu/cpu. Navíc je optimalizace MLA zásadní. Dva modely Deepseek však stále čelí některým výzvám při optimalizaci nasazení. „Vzhledem k velikosti modelu a četným parametrům je optimalizace skutečně složitá, zejména pro místní nasazení, kde dosažení optimální rovnováhy mezi výkonem a náklady bude náročné,“ uvedl výzkumník z technologie Chuanjing. Nejvýznamnější překážka spočívá v překonávání limitů kapacity paměti. „Přijímáme heterogenní přístup spolupráce k plnému využití CPU a dalších výpočetních zdrojů a umístíme pouze nesdílené části řídké matice MOE na CPU/DRAM pro zpracování vysoce výkonných operátorů CPU, zatímco husté porce zůstávají na GPU,“ vysvětlil dále. Zprávy naznačují, že Open-Source Framework Chuanjing Ktransformers primárně vkládá různé strategie a operátory do původní implementace transformátorů prostřednictvím šablony, což výrazně zvyšuje inferenční rychlost pomocí metod, jako je Cudagraph. DeepSeek vytvořil příležitosti pro tyto startupy, protože růstové výhody jsou zřejmé; Mnoho firem oznámilo znatelný růst zákazníků po spuštění API Deepseek API a přijímání dotazů od předchozích klientů, kteří hledají optimalizace. Zasvěcenci v odvětví poznamenali: „V minulosti byly poněkud zavedené skupiny klientů často zamčeny do standardizovaných služeb větších společností, přísně vázány jejich nákladové výhody v důsledku měřítka. Po dokončení nasazení DeepSeek-R1/V3 však před jarním festivalem jsme najednou obdrželi žádosti o spolupráci od několika známých klientů, a dokonce i zavedení kontaktních služeb.“ V současné době se zdá, že DeepSeek zvyšuje výkonnost modelu stále kritičtější a s širším přijetím velkých modelů to bude i nadále výrazně ovlivňovat vývoj v průmyslu AI Infra. Pokud by model na úrovni hlubokého hledání mohl být nasazen místně za nízkou cenu, výrazně by pomohl vládě a podnikové digitální transformační úsilí. Výzvy však přetrvávají, protože někteří klienti mohou mít vysoká očekávání ohledně velkých modelových schopností, což ukazuje, že vyvážení výkonnosti a nákladů se stává zásadní při praktickém nasazení.
Pro vyhodnocení, zda je Deepseek lepší než chatgpt, je nezbytné pochopit jejich klíčové rozdíly, silné stránky a případy použití. Zde je komplexní srovnání:
Funkce/aspekt | Deepseek | CHATGPT |
---|---|---|
Vlastnictví | Vyvinul čínskou společnost | Vyvinul OpenAI |
Zdrojový model | Open-Source | Proprietární |
Náklady | Zdarma k použití; Levnější možnosti přístupu API | Ceny předplatného nebo placení za použití |
Přizpůsobení | Vysoce přizpůsobitelné, umožňující uživatelům vyladit a stavět na něm | K dispozici je omezené přizpůsobení |
Výkon v konkrétních úkolech | Vyniká v určitých oblastech, jako je analýza dat a získávání informací | Všestranný se silným výkonem v kreativních a konverzačních úkolech |
Jazyková podpora | Silné zaměření na čínský jazyk a kulturu | Široká jazyková podpora, ale zaměřená na USA |
Náklady na školení | Nižší náklady na školení, optimalizované pro efektivitu | Vyšší náklady na školení, vyžadující značné výpočetní zdroje |
Změna odezvy | Může nabídnout různé odpovědi, případně ovlivněné geopolitickým kontextem | Konzistentní odpovědi na základě údajů o školení |
Cílové publikum | Zaměřené na vývojáře a výzkumné pracovníky, kteří chtějí flexibilitu | Zaměřené na obecné uživatele, kteří hledají konverzační schopnosti |
Případy použití | Efektivnější pro generování kódu a rychlé úkoly | Ideální pro generování textu, zodpovězení dotazů a zapojení do dialogu |
Kritický pohled na „narušení NVIDIA“
V současné době se kromě Huawei také přizpůsobuje několika modelům DeepSeek několik domácích výrobců čipů, jako jsou Moore Threads, Muxi, Biran Technology a Tianxu. Výrobce čipů řekl AI Technology Review: „Struktura DeepSeek demonstruje inovace, přesto zůstává LLM. Naše adaptace Deepseeku je primárně zaměřena na aplikace pro uvažování, čímž se technické implementace poměrně jednoduché a rychlé.“ Přístup MOE však vyžaduje vyšší požadavky, pokud jde o skladování a distribuci, spojený se zajištěním kompatibility při nasazení s domácími čipy, což představuje četné inženýrské výzvy, které během přizpůsobení vyžadují řešení. „V současné době se domácí výpočetní výkon neodpovídá NVIDIA v použitelnosti a stabilitě, což vyžaduje původní účast na továrně na nastavení softwarového prostředí, řešení problémů a optimalizaci základního výkonu,“ uvedl odborník odvětví na základě praktických zkušeností. Současně, „vzhledem k velkému parametru měřítka Deepseek R1, domácí výpočetní síla vyžaduje více uzlů pro paralelizaci. Navíc jsou domácí hardwarové specifikace stále poněkud pozadu; například Huawei 910b v současné době nemůže podporovat inference FP8 zavedeného hlubokýmseekem.“ Jedním z vrcholů modelu Deepseek V3 je zavedení rámce s přesným tréninkem FP8, který byl efektivně ověřen na extrémně velkém modelu, což znamená významný úspěch. Dříve hlavní hráči jako Microsoft a NVIDIA navrhli související práci, ale pochybují o přetrvávání v tomto odvětví ohledně proveditelnosti. Rozumí se, že ve srovnání s INT8 je primární výhodou FP8, že kvantizace po tréninku může dosáhnout téměř bezeztrátové přesnosti, přičemž výrazně zvyšuje inferenční rychlost. Při porovnání s FP16 může FP8 realizovat až dvakrát zrychlení na H20 NVIDIA a více než 1,5krát zrychlení na H100. Pozoruhodné, jak diskuse o trendu domácí výpočetní síly plus domácí modely získávají na síle, spekulace o tom, zda by mohla být NVIDIA narušena a zda může být příkop CUDA obejít, stále více převládají. Jednou nepopiratelnou skutečností je, že Deepseek skutečně způsobil značný pokles tržní hodnoty NVIDIA, ale tento posun vyvolává otázky týkající se špičkového výpočetní integrity NVIDIA. Dříve přijímané příběhy týkající se výpočetní akumulace řízené kapitálem jsou zpochybňovány, přesto je pro NVIDIA obtížné plně nahradit scénáře tréninku. Analýza hlubokého využití CUDA Deepseeka ukazuje, že flexibilita - například používání SM pro komunikaci nebo přímo manipulaci s síťovými kartami - není pro běžné GPU proveditelné. Pohledy v oboru zdůrazňují, že příkop Nvidia zahrnuje spíše celý ekosystém CUDA než jen samotný CUDA, a pokyny PTX (paralelní provádění vlákna), které Deepseek zaměstnává, jsou stále součástí ekosystému CUDA. „V krátkodobém horizontu nelze výpočetní sílu NVIDIA obejít - to je zvláště jasné ve školení; nasazení domácích karet však bude relativně snazší, takže pokrok bude pravděpodobně rychlejší. Adaptace domácích karet se především zaměřuje na inferenci; nikdo se nepodařilo vyškolit model hlubokých karet na měřítku. Celkově jsou z hlediska inference okolnosti povzbudivé pro domácí velké modelové čipy. Příležitosti pro výrobce domácích čipů v oblasti inference jsou patrnější kvůli přílišným vysokým požadavkům školení, které brání vstupu. Analytici tvrdí, že stačí jednoduše využít domácí inferenční karty; V případě potřeby je proveditelné získávání dalšího stroje, zatímco tréninkové modely představují jedinečné výzvy - manipulace se zvýšeným počtem strojů může být zatěžující a vyšší míra chyb může negativně ovlivnit výsledky tréninku. Školení má také specifické požadavky na klastrové měřítko, zatímco požadavky na shluky pro odvození nejsou tak přísné, a tak zmírňují požadavky GPU. V současné době výkon jediné karty H20 NVIDIA nepřekonává výkon Huawei nebo Cambrianu; Jeho síla spočívá ve shlukování. Na základě celkového dopadu na trh s výpočetní energií, zakladatel Luchen Technology, jste v rozhovoru s technologickou přezkoumáváním AI, „Deepseek může dočasně podkopat založení a pronájem ultra velkých výcvikových shluků. V dlouhodobém horizontu je výrazně snižování nákladů na tuto velkou modelovou trénink, a aplikace, která je tedy na trhu, která je tedy na základě tohoto, založena na tomto založení. poptávka na trhu s výpočetní energií. “ Navíc „zvýšená poptávka Deepseeka po odůvodnění a jemném doladění je navíc kompatibilnější s domácím výpočetním prostředí, kde jsou místní kapacity relativně slabé, což pomáhá zmírnit odpad z nečinných zdrojů po založení po kladivě; to vytváří životaschopné příležitosti pro výrobce na různých úrovních domácího výpočetního ekosystému.“ Společnost Luchen Technology spolupracovala s Huawei Cloud na spuštění API DeepSeek R1 Series Reaging API a Cloud Imaging Services založené na domácí výpočetní síle. Yang vyjádřil optimismus ohledně budoucnosti: „Deepseek v budoucnu vyvolává důvěru v řešení na domácím trhu, podporuje větší nadšení a investice do domácích výpočetních schopností.“

Závěr
Zda je Deepseek „lepší“ než ChatGPT, závisí na konkrétních potřebách a cílech uživatele. Pro úkoly, které vyžadují flexibilitu, nízké náklady a přizpůsobení, může být Deepseek lepší. Pro kreativní psaní, obecné dotazy a uživatelsky přívětivá konverzační rozhraní se může chatgpt ujmout vedení. Každý nástroj slouží různým účelům, takže volba bude velmi záviset na kontextu, ve kterém se používají.
Ovládací kabely
Strukturovaný systém kabeláže
Síť a data, optický kabel, náplast, moduly, čelní deska
16. dubna-18. 18. 2024 Střední východní energie v Dubaji
16. 18. 18. 18. 2024 Securika v Moskvě
9. května, 2024 Událost nových produktů a technologií v Šanghaji
22. října-25. 20. 2024 Zabezpečení Číny v Pekingu
19.-20. listopadu 2024 Connected World KSA
Čas příspěvku: únor-10-2025