穿透 io.net 的 AB 面:一場被低估的 AI 算力生產力革命?

中級7/8/2024, 4:18:53 PM
Web3 作爲一種新型生產關係,天然適配代表新型生產力的 AI,這也是技術和生產關係能力的同時進步,從這個角度看,io.net 的核心邏輯,正是通過採用“Web3+代幣經濟”的經濟基礎架構,來改變傳統雲服務巨頭、中長尾算力用戶、全球閒散網路計算資源之間的生產關係。

如果說 io.net 的核心底色,是“草根”,你會怎麼看?

融資 3000 萬美元,獲 Hack VC、Multicoin Capital、Delphi Digital、Solana Lab 等頂級資本青眼,怎麼看都不是那麼“接地氣”,尤其是迭加 GPU 算力/AI 革命的標籤,無一不是高大上的代名詞。

然而,喧囂的社區議論之下,關鍵的線索往往被忽視,尤其是 io.net 可能給全球算力網路帶來的深刻變革——不同於 AWS、Azure、GCP 的“精英化”定位,io.net 本質上是在走平民化路線:

錯位補充被忽視的“腰部+長尾”算力需求,聚集閒置的 GPU 資源,打造一個企業級、去中心化的分布式計算網路,將更多增量/存量算力資源賦能更爲廣泛的中小型用戶的 AI 創新,用低成本、高彈性實現全球 AI 創新的“生產力再解放“。

AI 浪潮背後,被忽視的算力生產關係潛流

什麼是本輪 AI 浪潮及未來數字經濟時代的核心生產力資源?

毫無疑問,算力。

根據 Precedence Research 的數據顯示,全球人工智能硬件市場預計將以 24.3% 的復合年增長率(CAGR)增長,到 2033 年將超過 4,735.3 億美元。

即便拋開預測數據,從增量和存量的邏輯角度展望,我們也可以明眼可見地發現,未來算力市場發展過程中,注定將長期存在兩個主要矛盾:

  • 增量維度,呈指數級趨勢的算力需求側增長,注定遠大於呈線性趨勢的算力供給側增長;
  • 存量維度,頭部效應之下算力被“掐尖”,腰部和長尾玩家無米下炊,但大量分布式 GPU 資源又被閒置,供需雙邊嚴重錯配;

增量維度:算力需求遠大於供給

首先是增量維度,除了 AIGC 大模型的極速膨脹之外,醫療、教育、智能駕駛等無數處於爆發初期的 AI 場景都在快速鋪開,這無一不需要海量的計算資源,因此當下市場對 GPU 算力資源的缺口不僅將持續存在,甚至還在不斷擴大。

也就是說,從供需角度看的話,在可預見的未來,市場對算力的需求一定是遠遠大於供給,且需求曲線在短期內還是呈現指數級上升的趨勢。

而供給側則由於受限於物理規律和現實生產因素,無論是制程工藝提升還是大規模建廠擴產能,至多都只能實現線性增長,這也就注定了 AI 發展的算力瓶頸會長期存在。

存量維度:腰部和長尾玩家的供需嚴重錯配

與此同時,在算力資源有限且面臨嚴重增長瓶頸的情況下,亞馬遜雲科技(AWS)、微軟 Azure、谷歌雲平台(GCP)三家就合計佔據了六成以上的雲計算份額,處於明顯的賣方市場。

它們囤積高性能 GPU 芯片,壟斷大量算力資源,而腰部和長尾的中小算力需求方不僅沒有議價權,還不得不面臨高資金成本、KYC 進入門檻、租賃霸王條款等諸多問題,此外傳統雲服務巨頭出於收益比考量,也難免忽視“腰部+長尾”用戶的差異化業務訴求(譬如時間更短、更即時、體量更小的租賃需求等等)。

但實際上,在雲服務巨頭的算力網路之外,大量 GPU 算力卻閒置無用,譬如全球還有數十萬家第三方獨立互聯網數據中心(IDC)訓練任務小出現資源浪費,甚至包括加密礦場和 FIL、Render、Aethir 等加密項目的海量算力閒置。

據 io.net 官方估算,目前僅美國一地的 IDC 顯卡閒置率就高達 60% 以上,這就產生了一個頗具諷刺意味的供需錯配悖論:數以萬計的中小型數據中心、加密礦場等運營商的過半算力資源被日常浪費,無法帶來有效營收,但腰部和長尾的 AI 創業者卻又在忍受高成本、高門檻的雲巨頭算力服務,甚至更多樣化的創新需求無法得到滿足。

旱的旱死,澇的澇死,明確了這兩個基本前提,其實我們就能一看看出目前全球 AI 發展合全球算力市場的核心矛盾所在——一方面 AI 創新遍地,算力需求不斷膨脹,另一方面,一衆“腰部+長尾”的算力需求和閒置 GPU 資源卻又無法被有效滿足,遊離在當前的算力市場之外。

這個問題不只是 AI 創業者日益增長的算力需求同落後的算力增長之間的矛盾,更是廣大“腰部+長尾”AI 創業者、算力運營商和不平衡不充分的供需錯配之間的矛盾,所以遠超中心化雲服務商的解決能力範疇。

正因如此,市場需要也在呼喚新解。試想一下,如果這些手握算力的運營商,可以靈活地選擇在空閒時出租算力,是不是就可以以低成本獲得一個和 AWS 類似的計算集羣?

要知道新建一個如此大算力的數據網路是極其昂貴的,這就催生出了專門針對中尾部閒置算力資源、中小型 AI 創業者的算力撮合平台,以調動這些零散的閒置算力資源,與中小模型訓練及大模型在醫療、法律、金融等細分場景進行專門撮合。

不僅能夠滿足中尾部的多元化算力需求,也將是對現有以中心化雲巨頭爲主的算力服務格局的錯位補充:

  • 手握海量算力資源的雲服務巨頭負責大模型訓練、高性能計算等“急難險重需求”;
  • io.net 等去中心化雲算力市場負責中小模型計算、大模型微調、推理部署等更多元化的“靈活低成本需求”;

其實就是提供一條更具包容性的成本效益和算力質量之間的動態平衡供需曲線,這也更符合市場優化資源配置的經濟學邏輯。

故 io.net 等分布式算力網路本質上就是一個融合“AI+Crypto”的解決方案,即用分布式協作框架結合代幣激勵的基礎經濟手段,來滿足潛力巨大但又處於被流放狀態的中尾部 AI 市場需求,允許中小 AI 團隊按需求定制化搭配和購買大雲無法提供所需的 GPU 計算服務,實現全球算力市場與 AI 發展的“生產力再解放”。

所以說白了,io.net 並不是 AWS、Azure、GCP 的直接競爭對手,反而是與它們攜手優化全球算力資源配置、共同做大市場蛋糕的“錯位補充戰友”,只是分管不同層級的“成本效益&算力質量”需求的戰線罷了。

甚至不排除 io.net 通過聚合“腰部+長尾”的供需雙邊玩家,再造一個不亞於現有頭部三家雲巨頭體量的市場份額。

io.net:面向全球 GPU 算力的撮合交易平台

正因爲 io.net 是基於 Web3 分布式協作+代幣激勵來重塑中尾部算力市場的生產關係,所以我們其實可以在其中窺見 Uber、滴滴等共享經濟的影子,即類似於 Uber、滴滴的面向 GPU 算力的撮合交易平台。

衆所周知,在沒有 Uber、滴滴之前,廣泛意義上用戶“即叫即有”的打車體驗是不存在的,因爲若幹個私家車是一個龐大而又無序的閒置車輛網路,你要是想打車,只能在路邊招手等待,或向每個城市對應的出租車中心公司申請調度,耗時、不確定性高,還屬於賣方強勢市場,對絕大部分普通人來說並不友好。

而這其實也是目前整個算力市場供需雙方的真實寫照,正如上文所言,腰部和長尾的中小算力需求方不僅沒有議價權,還不得不面臨高資金成本、KYC 進入門檻、租賃霸王條款等諸多問題。

那具體來看的話,io.net 究竟是如何實現“全球 GPU 算力集散地+撮合市場”的定位,或者說要想幫助中長尾用戶獲得算力資源,需要什麼樣的系統架構和功能服務?

靈活且低成本的撮合平台

io.net 最大的屬性,就是輕資產的算力撮合平台。

也即和 Uber、滴滴一樣,自身不涉及風險極高的 GPU 硬件等重資產的實際運營,而是將中長尾的零售算力(很多在 AWS 等大雲處被視爲二等算力)供應聯系起來,通過撮合匹配,盤活原先處於閒置狀態的算力資源(私家車)和亟需算力的中尾部 AI 需求(打車人)。

其中 io.net 一端連着中小型 IDC、礦場、加密項目等成千上萬的閒置 GPU(私家車),另一端連結數以億計中小型公司的算力需求(打車人),然後 io.net 作爲撮合平台進行中間調度,就像是一個經紀商對無數筆買單、賣單進行一一匹配撮合。

這就通過聚集閒置的算力,用低廉的成本和更靈活的部署配置形式,來幫助創業者訓練更個性化的中小 AI 模型,極大提高了資源的利用率,其中的優勢則很明顯,無論市場過冷過熱,只要存在資源錯配,實現撮合的平台需求都是最旺盛的:

  • 供給側,中小型 IDC、礦場、加密項目等閒置算力資源供給方只需與 io.net 對接,既不用專門成立 BD 部門,也無需因算力規模小而被迫折價賣給 AWS 等,反之可直接將閒置算力以極低摩擦成本,按市場價甚至更高價格匹配到合適的中小算力客戶,從而獲得收益;
  • 需求側,原本在 AWS 等大雲面前沒有議價權的中小算力需求方,也可以通過 io.net 這個資源管道,對接更小規模、無需許可、無需等待、無需 KYC、部署時間更靈活的算力,自由挑選、組合自己所需要的芯片來組成“集羣”,完成個性化的計算任務;

本身中尾部的算力供給方和需求方,在 AWS 等大雲面前都存在類似的議價權弱、自主權低等痛點,io.net 則將腰部和中長尾的供應與需求盤活,提供這樣一個撮合平台,讓供需雙方都能以比 AWS 等大雲更優的價格、更靈活的配置形式來完成交易。

從這個角度看,類比淘寶等平台,早期出現低劣算力也是平台經濟無法杜絕的發展規律,而 io.net 也針對供應方還是需求方設置了一套聲譽系統,根據計算性能、對網路參與度來累計分數,獲得獎勵或優惠。

去中心化 GPU 集羣

其次,雖然 io.net 是零售型供需雙方之間的撮合平台,但現在的大模型等算力場景都是需要若幹張顯卡共同進行計算——不只要看你這個撮合平台能聚合多少閒置的 GPU 資源,還要看平台上分散的算力之間聯系有多緊密。

也就是說,這張囊括不同地域、不同規模中小型算力的分布式網路,需要實現“分散但又集中”的算力架構:可以根據不同場景的靈活計算需求,將若幹分布式的 GPU 放到同一個框架下進行訓練,並確保不同 GPU 的溝通協作要非常迅速,至少實現足堪使用的低延遲等特性。

這就完全不同於某些去中心化雲算力項目只能受限於同一機房 GPU 的使用困境,背後的技術實現則涉及到 io.net 產品組合的“三駕馬車”:IO Cloud、IO Worker、IO Explorer。

  • IO Cloud 基本業務模塊爲集羣(Clusters),是一個可以自我協調完成計算任務的 GPU 羣組,人工智能工程師可以根據自己的需求來自定義想要的集羣,它也與 IO-SDK 無縫集成,爲擴展 AI 和 Python 應用程序提供全面的解決方案;
  • IO Worker 提供一套用戶友好的 UI 界面,允許供需雙方在 Web 應用程序上有效管理其供應操作,範圍包括與用戶帳戶管理、計算活動監控、實時數據顯示、溫度和功耗跟蹤、安裝協助、錢包管理、安全措施和盈利計算相關的功能;
  • IO Explorer 主要爲用戶提供全面統計數據和 GPU 雲各個方面的可視化圖。它通過提供對網路活動、重要統計數據、數據點和獎勵交易的完整可見性,使用戶能夠輕鬆監控、分析和了解 io.net 網路的各數據細節;

正因以上的功能架構,io.net 允許算力供給方可以輕鬆共享閒置的計算資源,大大降低了準入門檻,需求方也無需籤訂長期合同、忍受傳統雲服務中常見的漫長等待時間,就能快速組建具有所需 GPU 的集羣,獲得超強算力和優化的服務器響應等服務。

輕量級的彈性需求場景

再具體一點,談及 io.net 和 AWS 等大雲的錯位服務場景,主要集中在一些大雲不具性價比的輕量級彈性需求,其中大家能夠想到的諸如中小 AI 創業項目的細分領域模型訓練、大模型微調等多元化場景,均在此之列。

此外,還有一個容易被大家忽視的普遍適用場景:模型推理。

衆所周知,GPT 等大模型的早期訓練,需要借助上萬張高性能 GPU、以超強算力、海量數據進行長時間的高質量計算,這也是 AWS、GCP 等大雲的絕對優勢領域。

但訓練好之後,主要的算力需求就成了細水長流的模型推理,這個階段對於算力的需求,也要遠遠高於訓練階段——基於已經訓練好的模型進行推理的,也就是我們普通用戶和 GPT 等模型的日常對話互動場景,反倒佔據了 80%-90% 的 AI 計算份額。

有意思的是,推理過程的整體算力更爲平緩,或許只需要幾十張 GPU 數分鍾就可以得出答案,且對網路延遲、並發性的要求更低;同時還有一點,絕大部分 AI 公司可能也不會單獨訓練自己的大模型,而只是選擇圍繞 GPT 等少數頭部大模型進行優化、微調,而這些場景都天然適合 io.net 的分布式閒置算力資源。

少數派的高強度高標準應用場景之外,更廣泛的、日常的輕量級場景也是一塊亟待開發的處女地,看起來很零碎,但市場份額甚至更大——據美銀最新報告,高性能計算在數據中心總可用市場(TAM)中只佔很小一部分,僅約 5% 的份額。

簡言之,不是 AWS、GCP 等用不起,而是 io.net 更具性價比。

Web2 BD 的勝負手

當然最後的最後,io.net 等面向分布式算力資源的平台,核心競爭力還是在於 BD 能力,這才是關鍵的勝負手。

除了英偉達高性能芯片催生出顯卡掮客這一奇景之外,其實困擾很多中小 IDC 等算力運營商的最大問題,就是“酒香也怕巷子深“。

所以從這個角度看的話,io.net 其實坐擁一個同賽道項目難以復刻的獨家競爭優勢——有一支直接駐地硅谷的 Web2 BD 團隊,他們都是浸淫算力市場商務領域多年的老炮,不僅了解中小型客戶的多元化場景,更是掌握一衆 Web2 客戶的終端需求。

據 io.net 官方披露,目前已有二三十家 Web2 公司表達了算力購買/租賃意願,願意因爲更低成本、更靈活算力服務來嘗試或試錯(有些可能在 AWS 根本等不到算力),試錯且單個客戶都至少需要幾百上千張顯卡(折合每個月數十萬美元的算力訂單)。

這種需求端的真實終端付費意願,本質上也會吸引更多的閒置算力資源在供給端主動湧入,從而最容易率?

聲明:

  1. 本文轉載自[LFG Labs],著作權歸屬原作者[LFG Labs],如對轉載有異議,請聯系Gate Learn團隊,團隊會根據相關流程盡速處理。
  2. 免責聲明:本文所表達的觀點和意見僅代表作者個人觀點,不構成任何投資建議。
  3. 文章其他語言版本由Gate Learn團隊翻譯, 在未提及Gate.io的情況下不得復制、傳播或抄襲經翻譯文章。

穿透 io.net 的 AB 面:一場被低估的 AI 算力生產力革命?

中級7/8/2024, 4:18:53 PM
Web3 作爲一種新型生產關係,天然適配代表新型生產力的 AI,這也是技術和生產關係能力的同時進步,從這個角度看,io.net 的核心邏輯,正是通過採用“Web3+代幣經濟”的經濟基礎架構,來改變傳統雲服務巨頭、中長尾算力用戶、全球閒散網路計算資源之間的生產關係。

如果說 io.net 的核心底色,是“草根”,你會怎麼看?

融資 3000 萬美元,獲 Hack VC、Multicoin Capital、Delphi Digital、Solana Lab 等頂級資本青眼,怎麼看都不是那麼“接地氣”,尤其是迭加 GPU 算力/AI 革命的標籤,無一不是高大上的代名詞。

然而,喧囂的社區議論之下,關鍵的線索往往被忽視,尤其是 io.net 可能給全球算力網路帶來的深刻變革——不同於 AWS、Azure、GCP 的“精英化”定位,io.net 本質上是在走平民化路線:

錯位補充被忽視的“腰部+長尾”算力需求,聚集閒置的 GPU 資源,打造一個企業級、去中心化的分布式計算網路,將更多增量/存量算力資源賦能更爲廣泛的中小型用戶的 AI 創新,用低成本、高彈性實現全球 AI 創新的“生產力再解放“。

AI 浪潮背後,被忽視的算力生產關係潛流

什麼是本輪 AI 浪潮及未來數字經濟時代的核心生產力資源?

毫無疑問,算力。

根據 Precedence Research 的數據顯示,全球人工智能硬件市場預計將以 24.3% 的復合年增長率(CAGR)增長,到 2033 年將超過 4,735.3 億美元。

即便拋開預測數據,從增量和存量的邏輯角度展望,我們也可以明眼可見地發現,未來算力市場發展過程中,注定將長期存在兩個主要矛盾:

  • 增量維度,呈指數級趨勢的算力需求側增長,注定遠大於呈線性趨勢的算力供給側增長;
  • 存量維度,頭部效應之下算力被“掐尖”,腰部和長尾玩家無米下炊,但大量分布式 GPU 資源又被閒置,供需雙邊嚴重錯配;

增量維度:算力需求遠大於供給

首先是增量維度,除了 AIGC 大模型的極速膨脹之外,醫療、教育、智能駕駛等無數處於爆發初期的 AI 場景都在快速鋪開,這無一不需要海量的計算資源,因此當下市場對 GPU 算力資源的缺口不僅將持續存在,甚至還在不斷擴大。

也就是說,從供需角度看的話,在可預見的未來,市場對算力的需求一定是遠遠大於供給,且需求曲線在短期內還是呈現指數級上升的趨勢。

而供給側則由於受限於物理規律和現實生產因素,無論是制程工藝提升還是大規模建廠擴產能,至多都只能實現線性增長,這也就注定了 AI 發展的算力瓶頸會長期存在。

存量維度:腰部和長尾玩家的供需嚴重錯配

與此同時,在算力資源有限且面臨嚴重增長瓶頸的情況下,亞馬遜雲科技(AWS)、微軟 Azure、谷歌雲平台(GCP)三家就合計佔據了六成以上的雲計算份額,處於明顯的賣方市場。

它們囤積高性能 GPU 芯片,壟斷大量算力資源,而腰部和長尾的中小算力需求方不僅沒有議價權,還不得不面臨高資金成本、KYC 進入門檻、租賃霸王條款等諸多問題,此外傳統雲服務巨頭出於收益比考量,也難免忽視“腰部+長尾”用戶的差異化業務訴求(譬如時間更短、更即時、體量更小的租賃需求等等)。

但實際上,在雲服務巨頭的算力網路之外,大量 GPU 算力卻閒置無用,譬如全球還有數十萬家第三方獨立互聯網數據中心(IDC)訓練任務小出現資源浪費,甚至包括加密礦場和 FIL、Render、Aethir 等加密項目的海量算力閒置。

據 io.net 官方估算,目前僅美國一地的 IDC 顯卡閒置率就高達 60% 以上,這就產生了一個頗具諷刺意味的供需錯配悖論:數以萬計的中小型數據中心、加密礦場等運營商的過半算力資源被日常浪費,無法帶來有效營收,但腰部和長尾的 AI 創業者卻又在忍受高成本、高門檻的雲巨頭算力服務,甚至更多樣化的創新需求無法得到滿足。

旱的旱死,澇的澇死,明確了這兩個基本前提,其實我們就能一看看出目前全球 AI 發展合全球算力市場的核心矛盾所在——一方面 AI 創新遍地,算力需求不斷膨脹,另一方面,一衆“腰部+長尾”的算力需求和閒置 GPU 資源卻又無法被有效滿足,遊離在當前的算力市場之外。

這個問題不只是 AI 創業者日益增長的算力需求同落後的算力增長之間的矛盾,更是廣大“腰部+長尾”AI 創業者、算力運營商和不平衡不充分的供需錯配之間的矛盾,所以遠超中心化雲服務商的解決能力範疇。

正因如此,市場需要也在呼喚新解。試想一下,如果這些手握算力的運營商,可以靈活地選擇在空閒時出租算力,是不是就可以以低成本獲得一個和 AWS 類似的計算集羣?

要知道新建一個如此大算力的數據網路是極其昂貴的,這就催生出了專門針對中尾部閒置算力資源、中小型 AI 創業者的算力撮合平台,以調動這些零散的閒置算力資源,與中小模型訓練及大模型在醫療、法律、金融等細分場景進行專門撮合。

不僅能夠滿足中尾部的多元化算力需求,也將是對現有以中心化雲巨頭爲主的算力服務格局的錯位補充:

  • 手握海量算力資源的雲服務巨頭負責大模型訓練、高性能計算等“急難險重需求”;
  • io.net 等去中心化雲算力市場負責中小模型計算、大模型微調、推理部署等更多元化的“靈活低成本需求”;

其實就是提供一條更具包容性的成本效益和算力質量之間的動態平衡供需曲線,這也更符合市場優化資源配置的經濟學邏輯。

故 io.net 等分布式算力網路本質上就是一個融合“AI+Crypto”的解決方案,即用分布式協作框架結合代幣激勵的基礎經濟手段,來滿足潛力巨大但又處於被流放狀態的中尾部 AI 市場需求,允許中小 AI 團隊按需求定制化搭配和購買大雲無法提供所需的 GPU 計算服務,實現全球算力市場與 AI 發展的“生產力再解放”。

所以說白了,io.net 並不是 AWS、Azure、GCP 的直接競爭對手,反而是與它們攜手優化全球算力資源配置、共同做大市場蛋糕的“錯位補充戰友”,只是分管不同層級的“成本效益&算力質量”需求的戰線罷了。

甚至不排除 io.net 通過聚合“腰部+長尾”的供需雙邊玩家,再造一個不亞於現有頭部三家雲巨頭體量的市場份額。

io.net:面向全球 GPU 算力的撮合交易平台

正因爲 io.net 是基於 Web3 分布式協作+代幣激勵來重塑中尾部算力市場的生產關係,所以我們其實可以在其中窺見 Uber、滴滴等共享經濟的影子,即類似於 Uber、滴滴的面向 GPU 算力的撮合交易平台。

衆所周知,在沒有 Uber、滴滴之前,廣泛意義上用戶“即叫即有”的打車體驗是不存在的,因爲若幹個私家車是一個龐大而又無序的閒置車輛網路,你要是想打車,只能在路邊招手等待,或向每個城市對應的出租車中心公司申請調度,耗時、不確定性高,還屬於賣方強勢市場,對絕大部分普通人來說並不友好。

而這其實也是目前整個算力市場供需雙方的真實寫照,正如上文所言,腰部和長尾的中小算力需求方不僅沒有議價權,還不得不面臨高資金成本、KYC 進入門檻、租賃霸王條款等諸多問題。

那具體來看的話,io.net 究竟是如何實現“全球 GPU 算力集散地+撮合市場”的定位,或者說要想幫助中長尾用戶獲得算力資源,需要什麼樣的系統架構和功能服務?

靈活且低成本的撮合平台

io.net 最大的屬性,就是輕資產的算力撮合平台。

也即和 Uber、滴滴一樣,自身不涉及風險極高的 GPU 硬件等重資產的實際運營,而是將中長尾的零售算力(很多在 AWS 等大雲處被視爲二等算力)供應聯系起來,通過撮合匹配,盤活原先處於閒置狀態的算力資源(私家車)和亟需算力的中尾部 AI 需求(打車人)。

其中 io.net 一端連着中小型 IDC、礦場、加密項目等成千上萬的閒置 GPU(私家車),另一端連結數以億計中小型公司的算力需求(打車人),然後 io.net 作爲撮合平台進行中間調度,就像是一個經紀商對無數筆買單、賣單進行一一匹配撮合。

這就通過聚集閒置的算力,用低廉的成本和更靈活的部署配置形式,來幫助創業者訓練更個性化的中小 AI 模型,極大提高了資源的利用率,其中的優勢則很明顯,無論市場過冷過熱,只要存在資源錯配,實現撮合的平台需求都是最旺盛的:

  • 供給側,中小型 IDC、礦場、加密項目等閒置算力資源供給方只需與 io.net 對接,既不用專門成立 BD 部門,也無需因算力規模小而被迫折價賣給 AWS 等,反之可直接將閒置算力以極低摩擦成本,按市場價甚至更高價格匹配到合適的中小算力客戶,從而獲得收益;
  • 需求側,原本在 AWS 等大雲面前沒有議價權的中小算力需求方,也可以通過 io.net 這個資源管道,對接更小規模、無需許可、無需等待、無需 KYC、部署時間更靈活的算力,自由挑選、組合自己所需要的芯片來組成“集羣”,完成個性化的計算任務;

本身中尾部的算力供給方和需求方,在 AWS 等大雲面前都存在類似的議價權弱、自主權低等痛點,io.net 則將腰部和中長尾的供應與需求盤活,提供這樣一個撮合平台,讓供需雙方都能以比 AWS 等大雲更優的價格、更靈活的配置形式來完成交易。

從這個角度看,類比淘寶等平台,早期出現低劣算力也是平台經濟無法杜絕的發展規律,而 io.net 也針對供應方還是需求方設置了一套聲譽系統,根據計算性能、對網路參與度來累計分數,獲得獎勵或優惠。

去中心化 GPU 集羣

其次,雖然 io.net 是零售型供需雙方之間的撮合平台,但現在的大模型等算力場景都是需要若幹張顯卡共同進行計算——不只要看你這個撮合平台能聚合多少閒置的 GPU 資源,還要看平台上分散的算力之間聯系有多緊密。

也就是說,這張囊括不同地域、不同規模中小型算力的分布式網路,需要實現“分散但又集中”的算力架構:可以根據不同場景的靈活計算需求,將若幹分布式的 GPU 放到同一個框架下進行訓練,並確保不同 GPU 的溝通協作要非常迅速,至少實現足堪使用的低延遲等特性。

這就完全不同於某些去中心化雲算力項目只能受限於同一機房 GPU 的使用困境,背後的技術實現則涉及到 io.net 產品組合的“三駕馬車”:IO Cloud、IO Worker、IO Explorer。

  • IO Cloud 基本業務模塊爲集羣(Clusters),是一個可以自我協調完成計算任務的 GPU 羣組,人工智能工程師可以根據自己的需求來自定義想要的集羣,它也與 IO-SDK 無縫集成,爲擴展 AI 和 Python 應用程序提供全面的解決方案;
  • IO Worker 提供一套用戶友好的 UI 界面,允許供需雙方在 Web 應用程序上有效管理其供應操作,範圍包括與用戶帳戶管理、計算活動監控、實時數據顯示、溫度和功耗跟蹤、安裝協助、錢包管理、安全措施和盈利計算相關的功能;
  • IO Explorer 主要爲用戶提供全面統計數據和 GPU 雲各個方面的可視化圖。它通過提供對網路活動、重要統計數據、數據點和獎勵交易的完整可見性,使用戶能夠輕鬆監控、分析和了解 io.net 網路的各數據細節;

正因以上的功能架構,io.net 允許算力供給方可以輕鬆共享閒置的計算資源,大大降低了準入門檻,需求方也無需籤訂長期合同、忍受傳統雲服務中常見的漫長等待時間,就能快速組建具有所需 GPU 的集羣,獲得超強算力和優化的服務器響應等服務。

輕量級的彈性需求場景

再具體一點,談及 io.net 和 AWS 等大雲的錯位服務場景,主要集中在一些大雲不具性價比的輕量級彈性需求,其中大家能夠想到的諸如中小 AI 創業項目的細分領域模型訓練、大模型微調等多元化場景,均在此之列。

此外,還有一個容易被大家忽視的普遍適用場景:模型推理。

衆所周知,GPT 等大模型的早期訓練,需要借助上萬張高性能 GPU、以超強算力、海量數據進行長時間的高質量計算,這也是 AWS、GCP 等大雲的絕對優勢領域。

但訓練好之後,主要的算力需求就成了細水長流的模型推理,這個階段對於算力的需求,也要遠遠高於訓練階段——基於已經訓練好的模型進行推理的,也就是我們普通用戶和 GPT 等模型的日常對話互動場景,反倒佔據了 80%-90% 的 AI 計算份額。

有意思的是,推理過程的整體算力更爲平緩,或許只需要幾十張 GPU 數分鍾就可以得出答案,且對網路延遲、並發性的要求更低;同時還有一點,絕大部分 AI 公司可能也不會單獨訓練自己的大模型,而只是選擇圍繞 GPT 等少數頭部大模型進行優化、微調,而這些場景都天然適合 io.net 的分布式閒置算力資源。

少數派的高強度高標準應用場景之外,更廣泛的、日常的輕量級場景也是一塊亟待開發的處女地,看起來很零碎,但市場份額甚至更大——據美銀最新報告,高性能計算在數據中心總可用市場(TAM)中只佔很小一部分,僅約 5% 的份額。

簡言之,不是 AWS、GCP 等用不起,而是 io.net 更具性價比。

Web2 BD 的勝負手

當然最後的最後,io.net 等面向分布式算力資源的平台,核心競爭力還是在於 BD 能力,這才是關鍵的勝負手。

除了英偉達高性能芯片催生出顯卡掮客這一奇景之外,其實困擾很多中小 IDC 等算力運營商的最大問題,就是“酒香也怕巷子深“。

所以從這個角度看的話,io.net 其實坐擁一個同賽道項目難以復刻的獨家競爭優勢——有一支直接駐地硅谷的 Web2 BD 團隊,他們都是浸淫算力市場商務領域多年的老炮,不僅了解中小型客戶的多元化場景,更是掌握一衆 Web2 客戶的終端需求。

據 io.net 官方披露,目前已有二三十家 Web2 公司表達了算力購買/租賃意願,願意因爲更低成本、更靈活算力服務來嘗試或試錯(有些可能在 AWS 根本等不到算力),試錯且單個客戶都至少需要幾百上千張顯卡(折合每個月數十萬美元的算力訂單)。

這種需求端的真實終端付費意願,本質上也會吸引更多的閒置算力資源在供給端主動湧入,從而最容易率?

聲明:

  1. 本文轉載自[LFG Labs],著作權歸屬原作者[LFG Labs],如對轉載有異議,請聯系Gate Learn團隊,團隊會根據相關流程盡速處理。
  2. 免責聲明:本文所表達的觀點和意見僅代表作者個人觀點,不構成任何投資建議。
  3. 文章其他語言版本由Gate Learn團隊翻譯, 在未提及Gate.io的情況下不得復制、傳播或抄襲經翻譯文章。
ابدأ التداول الآن
اشترك وتداول لتحصل على جوائز ذهبية بقيمة
100 دولار أمريكي
و
5500 دولارًا أمريكيًا
لتجربة الإدارة المالية الذهبية!
It seems that you are attempting to access our services from a Restricted Location where Gate.io is unable to provide services. We apologize for any inconvenience this may cause. Currently, the Restricted Locations include but not limited to: the United States of America, Canada, Cambodia, Cuba, Iran, North Korea and so on. For more information regarding the Restricted Locations, please refer to the User Agreement. Should you have any other questions, please contact our Customer Support Team.