下文將結合今年的熱點 AI 專案 IO.NET,嘗試梳理關於以下 2 個問題的思考:AI+Web3 在商業上的必要性、分散式算力服務的必要性和挑戰。 並重點分析 AI 分散式算力的代表專案 IO.NET 的關鍵資訊。本文源自 Alex Xu, Mint Ventures 所著文章,由 PANews 整理。
(前情提要:io.net研報:DePIN模式解決GPU資源困境,能否開啟AI應用新時代? )
(背景補充:OKX Ventures投資月報:Crypto+AI給足想像力!已參投 iO.NET、Myshell 多個項目 )
在上一篇文章中,提到本輪加密牛市週期與前兩輪週期相比,缺少足夠有影響力的新商業和新資產敘事。AI 是本輪 Web3 領域少有的新敘事之一,本文筆者將結合今年的熱點 AI 專案 IO.NET,嘗試梳理關於以下 2 個問題的思考:
- AI + Web3 在商業上的必要性
- 分散式算力服務的必要性和挑戰
其次,筆者將梳理 AI 分散式算力的代表專案:IO.NET 專案的關鍵資訊,包括產品邏輯、競品情況和專案背景,並就專案的估值進行推演。
本文關於 AI 和 Web3 結合一節的部分思考,受到了 Delphi Digital 研究員 Michael rinko 所寫的《The Real Merge》的啟發。本文的部分觀點存在對該文章的消化和引述,推薦讀者閱讀原文。
本文為筆者截至發表時的階段性思考,未來可能可能發生改變,且觀點具有極強的主觀性,亦可能存在事實、資料、推理邏輯的錯誤,請勿作為投資參考,歡迎同業的批評和探討。以下為正文部分。
商業邏輯:AI 和 Web3 的結合點
2023:AI 造就的新「奇蹟年」
回看人類發展史,一旦科技實現了突破性進展,從個體日常生活,到各個產業格局,再到整個人類文明,都會跟著發生天翻地覆的變化。
人類歷史中有兩個重要年份,分別是 1666 年和 1905 年,如今它們被稱為科技史上的兩大「奇蹟年」。
1666 年作為奇蹟年,是因為牛頓的科學成果在該年集中式地湧現。這一年,他開闢了光學這個物理分支,創立了微積分這個數學分支,匯出了引力公式這個現代自然科學的基礎定律。這當中無論哪一項都是未來百年人類科學發展的奠基式貢獻,大大加速了整體科學的發展。
第二個奇蹟年是 1905 年,彼時僅僅 26 歲的愛因斯坦在《物理學年鑑》上連續發表 4 篇論文,分別涉及光電效應(為量子力學奠基)、布朗運動(成為分析隨機過程的重要引用)、狹義相對論和質能方程(也就是那個知名公式 E=MC^2)。在後世評價中,這四篇論文每一篇都超過諾貝爾物理學獎的平均水平(愛因斯坦本人也因為光電效應論文獲得了諾貝爾獎),人類文明的歷史程式再一次被大大推進了好幾步。
而剛剛過去的 2023 年,大概率也會因為 ChatGPT,而被稱之為又一個「奇蹟年」。
我們把 2023 年看做人類科技史上的有一個「奇蹟年」,不僅是因為 GPT 在自然語言理解和生成上的巨大進步,更是因為人類從 GPT 的進化中摸清了大語言模型能力增長的規律 —— 即通過擴大模型引數和訓練資料,就能指數級別提升模型的能力 —— 且這一程式短期還看不到瓶頸(只要算力夠用的話)。
該能力遠不至於理解語言和生成對話,還能被廣泛地交叉用於各類科技領域,以大語言模型在生物領域的應用為例:
2018 年,諾貝爾化學獎得主弗朗西斯・阿諾德在頒獎儀式上才說道:「今天我們在實際應用中可以閱讀、寫入和編輯任何 DNA 序列,但我們還無法通過它創作(compose it)。」
僅僅在他講話的 5 年後,2023 年,來自斯坦福大學和矽谷的 AI 創業企業 Salesforce Research 的研究者,在《自然 – 生物技術》發表論文,他們通過基於 GPT3 微調而成的大語言模型,從 0 創造出了全新的 100 萬種蛋白質,並從中尋找到 2 種結構截然不同、卻都具有殺菌能力的蛋白質,有希望成為抗生素之外的細菌對抗方案。也就是說:在 AI 的幫助下,蛋白質「創造」的瓶頸突破了。
而在此前,人工智慧 AlphaFold 演算法在 18 個月內,把地球上幾乎所有的 2.14 億種蛋白質結構都做了預測,這項成果是過往所有人類結構生物學家工作成果的幾百倍。
有了基於 AI 的各類模型,從生物科技、材料科學、藥物研發等硬科技,再到法律、藝術等人文領域,必將迎來翻天覆地的變革,而 2023 正是這一切的元年。
我們都知道,近百年來人類在財富上的創造能力是指數級別增長的,而 AI 技術的快速成熟,必然會進一步加速這一程式。
AI 與 Crypto 的結合
要從本質上理解 AI 與 Crypto 結合的必要性,可以從兩者互補的特性開始。
AI 和 Crypto 特性的互補
AI 有三個屬性:
- 隨機性:AI 具有隨機性,其內容生產的機制背後是一個難以復現、探查的黑盒,因此結果也具有隨機性
- 資源密集:AI 是資源密集型產業,需要大量的能源、晶片、算力
- 類人智慧:AI(很快將)能夠通過圖靈測試,此後,人機難辨 *
※ 2023 年 10 月 30 日,美國加州大學聖迭戈分校的研究小組釋出了關於 GPT-3.5 和 GPT-4.0 的圖靈測試結果(測試報告)。GPT4.0 成績為 41%,距離及格線 50% 僅差 9%,同項目人類測試成績為 63%。
本圖靈測試的含義為有百分之多少的人認為和他聊天的那個物件是真人。如果超過 50%,就說明人群中至少有一半以上的人認為那個交談物件是人,而不是機器,即視作通過圖靈測試。
AI 在為人類創造新的跨越式的生產力的同時,它的這三個屬性也給人類社會帶來的巨大的挑戰,即:
- 如何驗證、控制 AI 的隨機性,讓隨機性成為一種優勢而非缺陷
- 如何滿足 AI 所需要的巨大能源和算力缺口
- 如何分辨人和機器
而 Crypto 和區塊鏈經濟的特性,或許正好是解決 AI 帶來的挑戰的良藥,加密經濟具有以下 3 個特徵:
- 確定性:業務基於區塊鏈、程式碼和智慧合約執行,規則和邊界清晰,什麼輸入就有什麼結果,高度確定性
- 資源配置高效:加密經濟構建了一個龐大的全球自由市場,資源的定價、募集、流轉非常快速,且由於代幣的存在,可以通過激勵加速市場供需的匹配,加速到達臨界點
- 免信任:帳本公開,程式碼開源,人人可便捷驗證,帶來「去信任(trustless)」的系統,而 ZK 技術則避免驗證同時的隱私暴露
接下來通過 3 個例子來說明 AI 和加密經濟的互補性。
例子 A:解決隨機性,基於加密經濟的 AI 代理
AI 代理(AI Agent)即負責基於人類意志,替人類執行工作的人工智慧程式(代表性專案有 Fetch.AI)。假設我們要讓自己的 AI 代理處理一筆金融交易,比如「買入 1000 美元的 BTC」。AI 代理可能面臨兩種情況:
情況一,它要對接傳統金融機構(比如貝萊德),購入 BTC ETF,這裡面臨著大量的 AI 代理和中心化機構的適配問題,比如 KYC、資料審查、登入、身份驗證等等,目前來說還是非常麻煩。
情況二,它基於原生加密經濟執行,情況會變得簡單得多,它會通過 Uniswap 或是某個聚合交易平臺,直接用你的帳戶簽名、下單完成交易,收到 WBTC(或是其他封裝格式的 BTC),整個過程快捷簡單。實際上,這就是各類 Trading BOT 在做的事情,它們實際上已經扮演了一個初級的 AI 代理的角色,只不過工作專注於交易而已。未來各類交易 BOT 隨著 AI 的融入和演化,必然能執行更多複雜的交易意圖。比如:追蹤 100 個鏈上的聰明錢地址,分析它們的交易策略和成功率,用我地址裡的 10% 資金在一週內執行類似交易,並在發現效果不佳時停止,並總結失敗的可能原因。
AI 在區塊鏈的系統中執行會更加良好,本質上是因為加密經濟規則的清晰性,以及系統訪問的無許可。在限定的規則下執行任務,AI 的隨機性帶來的潛在風險也將更小。比如 AI 在棋牌比賽、電子遊戲的表現已經碾壓人類,就是因為棋牌和遊戲是一個規則清晰的封閉沙盒。而 AI 在自動駕駛上的進展會相對緩慢,因為開放的外部環境的挑戰更大,我們也更難容忍 AI 處理問題的隨機性。
例子 B:塑造資源,通過代幣激勵聚集資源
BTC 背後的全球的算力網路,其當前的總算力(Hashrate: 576.70 EH/s)超過了任何一個國家的超級電腦的綜合算力。其發展動力來自於簡單、公平的網路激勵。
除此之外,包括 Mobile 在內的 DePIN 專案們,也正在嘗試通過代幣激勵塑造供需兩端的雙邊市場,實現網路效應。
本文接下來將重點梳理的 IO.NET,則是為了匯聚 AI 算力設計的平臺,希望通過代幣模型,激發出更多的 AI 算力潛力。
例子 C:開源程式碼,引入 ZK,保護隱私的情況下分辨人機
作為 OpenAI 創辦人 Sam Altman 參與的 Web3 專案,Worldcoin 通過硬體裝置 Orb,基於人的虹膜生物特徵,通過 ZK 技術生成專屬且匿名的hash值,用於驗證身份,區別人和機器。今年 3 月初,Web3 藝術專案 Drip 就開始使用 Worldcoin 的 ID,來驗證真人使用者和發放獎勵。
此外,Worldcoin 也在近日開源了其虹膜硬體 Orb 的程式碼,就使用者生物特徵的安全和隱私提供保證。
總體來說,加密經濟由於程式碼和密碼學的確定性、無許可和代幣機制帶來的資源流轉和募集優勢,和基於開原始碼、公開帳本的去信任屬性,已經成為人類社會面臨 AI 挑戰的一個重要的潛在解決方案。
而且其中最迫在眉睫,商業需求最旺盛的挑戰,就是 AI 產品在算力資源上的極度飢渴,圍繞晶片和算力的巨大需求。這也是本輪牛市週期,分散式算力專案的漲勢冠絕整體 AI 賽道的主要原因。
延伸閱讀:Depin + AI 浪潮》3個散戶可參與的GPU挖礦項目,創建去中心化算力網
分散式計算(Decentralized Compute)的商業必要性
AI 需要大量的計算資源,無論是用於訓練模型還是進行推理。
而在大語言模型的訓練實踐中,有一個事實已經得到確認:只要資料引數的規模足夠大,大語言模型就會湧現出一些之前沒有的能力。每一代 GPT 的能力相比上一代的指數型躍遷,背後就是模型訓練的計算量的指數級增長。
DeepMind 和斯坦福大學的研究顯示,不同的大語言模型,在面對不同的任務(運算、波斯語問答、自然語言理解等)時,只要把模型訓練時的模型引數規模加大(對應地,訓練的計算量也加大了),在訓練量達不到 10^22 FLOPs(FLOPs 指每秒浮點運算量,用於衡量計算效能)之前,任何任務的表現都和隨機給出答案是差不多的;而一旦引數規模超越那個規模的臨界值後,任務表現就急劇提升,不論哪個語言模型都是這樣。
也正是在算力上「大力出奇跡」的規律和實踐的驗證,讓 OpenAI 的創辦人 Sam Altman 提出了要募集 7 兆美金,構建一個超過目前台積電 10 倍規模的先進晶片廠(該部分預計花費 1.5 兆),並用剩餘資金用於晶片的生產和模型訓練。
除了 AI 模型的訓練需要算力之外,模型的推理過程本身也需要很大的算力(儘管相比訓練的計算量要小),因此對晶片和算力的飢渴成為了 AI 賽道參與者的常態。
相對於中心化的 AI 算力提供方如 Amazon Web Services、Google Cloud Platform、微軟的 Azure 等,分散式 AI 計算的主要價值主張包括:
- 可訪問性:使用 AWS、GCP 或 Azure 等雲服務獲取算力晶片的訪問許可權通常需要幾周時間,而且流行的 GPU 型號經常無貨。此外為了拿到算力,消費者往往需要跟這些大公司簽訂長期、缺少彈性的合約。而分散式算力平臺可以提供彈性的硬體選擇,有更強的可訪問性。
- 定價低:由於利用的是閒置晶片,再疊加網路協議方對晶片和算力供給方的代幣補貼,分散式算力網路可能可以提供更為低廉的算力。
- 抗審查:目前尖端算力晶片和供應被大型科技公司所壟斷,加上以美國為代表的政府正在加大對 AI 算力服務的審查,AI 算力能夠被分散式、彈性、自由地獲取,逐漸成為一個顯性需求,這也是基於 web3 的算力服務平臺的核心價值主張。
如果說化石能源是工業時代的血液,那算力或將是由 AI 開啟的新數位時代的血液,算力的供應將成為 AI 時代的基礎設施。正如穩定幣成為法幣在 Web3 時代的一個茁壯生長的旁支,分散式的算力市場是否會成為快速成長的 AI 算力市場的一個旁支?
由於這還是一個相當早期的市場,一切都還有待觀察。但是以下幾個因素可能會對分散式算力的敘事或是市場採用起到刺激作用:
- GPU 持續的供需緊張。GPU 的持續供應緊張,或許會推動一些開發者轉向嘗試分散式的算力平臺。
監管擴張。想從大型的雲算力平臺獲取 AI 算力服務,必須經過 KYC 以及層層審查。這反而可能促成分散式 - 算力平臺的採用,尤其是一些受到限制和制裁的地區。
- 代幣價格的刺激。牛市週期代幣價格的上漲,會提高平臺對 GPU 供給端的補貼價值,進而吸引更多供給方進入市場,提高市場的規模,降低消費者的實際購買價格。
但同時,分散式算力平臺的挑戰也相當明顯:
技術和工程難題
- 工作驗證問題:深度學習模型的計算,由於層級化的結構,每層的輸出都作為後一層的輸入,因此驗證計算的有效性需要執行之前的所有工作,無法簡單有效地進行驗證。為了解決這個問題,分散式計算平臺需要開發新的演算法或使用近似驗證技術,這些技術可以提供結果正確性的概率保證,而不是絕對的確定性。
- 平行化難題:分散式算力平臺匯聚的是長尾的晶片供給,也就註定了單個裝置所能提供的算力比較有限,單個晶片供給方几乎短時間獨立完成 AI 模型的訓練或推理任務,所以必須通過並行化的手段來拆解和分配任務,縮短總的完成時間。而平行化又必然面臨任務如何分解(尤其是複雜的深度學習任務)、資料依賴性、裝置之間額外的通訊成本等一系列問題。
- 隱私保護問題:如何保證採購方的資料以及模型不暴露給任務的接收方?
監管合規難題
分散式計算平臺由於其供給和採購雙邊市場的無許可性,一方面可以作為賣點吸引到部分客戶。另一方面則可能隨著 AI 監管規範的完善,成為政府整頓的物件。此外,部分 GPU 的供應商也會擔心自己出租的算力資源,是否被提供給了被制裁的商業或個人。
總的來說,分散式計算平臺的消費者大多是專業的開發者,或是中小型的機構,與購買加密貨幣和 NFT 的加密投資者們不同,這類使用者對於協議所能提供的服務的穩定性、持續性有更高的要求,價格未必是他們決策的主要動機。目前來看,分散式計算平臺們要獲得這類使用者的認可,仍然有較長的路要走。
接下來,我們就一個本輪週期的新分散式算力專案 IO.NET 進行專案資訊的梳理和分析,並基於目前市場上同賽道的 AI 專案和分散式計算專案,測算其上市後可能的估值水平。
分散式 AI 算力平臺:IO.NET
專案定位
IO.NET 是一個去中心化計算網路,其構建了一個圍繞晶片的雙邊市場,供給端是分佈在全球的晶片(GPU 為主,也有 CPU 以及蘋果的 iGPU 等)算力,需求端是希望完成 AI 模型訓練或推理任務的人工智慧工程師。
在 IO.NET 的官網上,它這樣寫道:
Our Mission
Putting together one million GPUs in a DePIN – decentralized physical infrastructure network.
其使命是把百萬數量級的 GPU 整合到它的 DePIN 網路中。
與現有的雲 AI 算力服務商相比,其對外強調的主要賣點在於:
- 彈性組合:AI 工程師可以自由挑選、組合自己所需要的晶片來組成「叢集」,來完成自己的計算任務
- 部署迅速:無需數週的審批和等待(目前 AWS 等中心化廠商的情況),在幾十秒內就可以完成部署,開始任務
- 服務低價:服務的成本比主流廠商低 90%
此外,IO.NET 未來還計劃上線 AI 模型商店等服務。
產品機制和業務資料
產品機制和部署體驗
與亞馬遜雲、Google雲、阿里雲一樣,IO.NET 提供的計算服務叫 IO Cloud。IO Cloud 是一個分散式的、去中心化的晶片網路,能夠執行基於 Python 的機器學習程式碼,執行 AI 和機器學習程式。
IO Cloud 的基本業務模組叫做叢集(Clusters),Clusters 是一個可以自我協調完成計算任務的 GPU 群組,人工智慧工程師可以根據自己的需求來自定義想要的叢集。
IO.NET 的產品介面的使用者友好度很高,如果你要部署屬於自己的晶片叢集,來完成 AI 計算任務,在進入它的 Clusters(叢集)產品頁面後,就可以開始按需配置你要的晶片叢集。
首先你需要選擇自己的任務場景,目前有三個型別可供選擇:
- General(通用型):提供了一個比較通用的環境,適合早期不確定具體資源需求的專案階段。
- Train(訓練型):專為機器學習模型的訓練和微調而設計的叢集。這個選項可以提供更多的 GPU 資源、更高的記憶體容量和 / 或更快的網路連線,以便於處理這些高強度的計算任務。
- Inference(推理型):專為低延遲推理和重負載工作設計的叢集。在機器學習的上下文中,推理指的是使用訓練好的模型來進行預測或分析新資料,並提供回饋。因此,這個選項會專注於優化延遲和吞吐量,以便於支援即時或近即時的資料處理需求。
然後,你需要選擇晶片叢集的供應方,目前 IO.NET 與 Render Network 以及 Filecoin 的礦工網路達成了合作,因此使用者可以選擇 IO.NET 或另外兩個網路的晶片來作為自己計算叢集的供應方,相當於 IO.NET 扮演了一個聚合器的角色(但截至筆者撰文時,Filecon 服務暫時下線中)。值得一提的是,根據頁面顯示,目前 IO.NET 線上可用 GPU 數量為 20 萬 +,而 Render Network 的可用 GPU 數量為 3700+。
再接下來就進入了叢集的晶片硬體選擇環節,目前 IO.NET 列出可供選擇的硬體型別僅有 GPU,不包括 CPU 或是蘋果的 iGPU (M1、M2 等),而 GPU 也主要以 NVIDIA 的產品為主。
在官方列出、且可用的 GPU 硬體選項中,根據筆者測試的當日資料,IO.NET 網路總線上的可用數量的 GPU 數量為 206001 張。其中可用量最多的是 GeForce RTX 4090(45250 張),其次是 GeForce RTX 3090 Ti(30779 張)。
此外,在處理 AI 計算任務如機器學習、深度學習、科學計算上更為高效的 A100-SXM4-80GB 晶片(市場價 15000$+),線上數有 7965 張。
而 NVIDIA 從硬體設計開始就專為 AI 而生的 H100 80GB HBM3 顯示卡(市場價 40000$+),其訓練效能是 A100 的 3.3 倍,推理效能是 A100 的 4.5 倍,實際線上數量為 86 張。
在選定叢集的硬體型別後,使用者還需要選擇叢集的地區、通訊速度、租用的 GPU 數量和時間等引數。
最後,IO.NET 根據綜合的選擇,會為你提供一個帳單,以筆者的叢集配置為例:
- 通用(General)任務場景
- 16 張 A100-SXM4-80GB 晶片
- 最高連線速度(Ultra High Speed)
- 地理位置美國
- 租用時間為 1 周
該總帳單價格為 3311.6$,單張卡的時租單價為 1.232$
而 A100-SXM4-80GB 在亞馬遜雲、Google 雲和微軟 Azure 的單卡時租價格分別為 5.12$、5.07$ 和 3.67$(資料來源:https://cloud-gpus.com/,實際價格會根據合約細節條款產生變化)。
因此僅就價格來說,IO.NET 的晶片算力確實比主流廠商便宜不少,且供給的組合與採購也非常有彈性,操作也很容易上手。
業務情況
供給端情況
截至今年 4 月 4 日,根據官方資料,IO.NET 在供應端的 GPU 總供給為 371027 張,CPU 供給為 42321 張。此外,Render Network 作為其合作伙伴,還有 9997 張 GPU 和 776 張 CPU 接入了網路的供給。
筆者撰文時,IO.NET 接入的 GPU 總量中的 214387 處於線上狀態,線上率達到了 57.8%。來自 Render Network 的 GPU 的線上率則為 45.1%。
以上供應端的資料意味著什麼?
為了進行對比,我們再引入另一個上線時間更久的老牌分散式計算專案 Akash Network 來進行對比。
Akash Network 早在 2020 年就上線了主網,最初主要專注於 CPU 和儲存的分散式服務。2023 年 6 月,其推出了 GPU 服務的測試網,並於同年 9 月上線了 GPU 分散式算力的主網。
根據 Akash 官方資料,其 GPU 網路推出以來,供應端儘管持續增長,但截至目前為止 GPU 總接入數量僅為 365 張。
從 GPU 的供應量來看,IO.NET 要比 Akash Network 高出了好幾個數量級,已經是分散式 GPU 算力賽道最大的供應網路。
需求端情況
不過從需求端來看,IO.NET 依舊處於市場培育的早期階段,目前實際使用 IO.NET 來執行計算任務的總量不多。大部分線上的 GPU 的任務負載量為 0%,只有 A100 PCIe 80GB K8S、RTX A6000 K8S、RTX A4000 K8S、H100 80GB HBM3 四款晶片有在處理任務。且除了 A100 PCIe 80GB K8S 之外,其他三款晶片的負載量均不到 20%。
而官方當日披露的網路壓力值為 0%,意味著大部分晶片供應都處於線上待機狀態。
而在網路費用規模上,IO.NET 已經產生了 586029$ 的服務費用,近一日的費用為 3200$。
以上網路結算費用的規模,無論是總量還是日交易量,均與 Akash 處在同一個數量級,不過 Akash 的大部分網路收入來自於 CPU 的部分,Akash 的 CPU 供應量有 2 萬多張。
此外,IO.NET 還披露了網路處理的 AI 推理任務的業務資料,截至目前其已經處理和驗證的推理任務數量超過 23 萬個, 不過這部分業務量大部分都產生於 IO.NET 所贊助的專案 BC8.AI。
從目前的業務資料來看,IO.NET 的供給端擴張順利,在空投預期和代號「Ignition」的社群活動刺激下,讓其迅速地匯聚起了大量的 AI 晶片算力。而其在需求端的拓展仍處於早期階段,有機需求目前還不足。至於目前需求端的不足,是由於消費端的拓展還未開始,還是由於目前的服務體驗尚不穩定,因此缺少大規模的採用,這點仍需要評估。
不過考慮到 AI 算力的落差短期內較難填補,有大量的 AI 工程師和專案在尋求替代方案,可能會對去中心化的服務商產生興趣,加上 IO.NET 目前尚未開展對需求端的經濟和活動刺激,以及產品體驗的逐漸提升,後續供需兩端的逐漸匹配仍然是值得期待的。
團隊背景和融資情況
團隊情況
IO.NET 的核心團隊成立之初的業務是量化交易,在 2022 年 6 月之前,他們一直專注於為股票和加密資產開發機構級的量化交易系統。出於系統後端對計算能力的需求,團隊開始探索去中心化計算的可能性,並且最終把目光落在了降低 GPU 算力服務的成本這個具體問題上。
- 創辦人 & CEO:Ahmad Shadid
Ahmad Shadid 在 IO.NET 之前一直從事量化和金融工程相關的工作,同時還是以太坊基金的志願者。
- CMO & 首席戰略官:Garrison Yang
Garrison Yang 在今年 3 月才正式加入 IO.NET,他此前是 Avalanche 的戰略和增長 VP,畢業於加州大學聖巴巴拉分校。
- COO:Tory Green
Tory Green 是 io.net 營運長,此前是 Hum Capital 營運長、Fox Mobile Group 企業發展與戰略總監,畢業於斯坦福。
從 IO.NET 的 Linkedin 資訊來看,團隊總部位於美國紐約,在舊金山有分公司,目前團隊人員規模在 50 人以上。
融資情況
IO.NET 截至目前僅披露了一輪融資,即今年 3 月完成的 A 輪估值 10 億美金融資,共募集了 3000 萬美金,由 Hack VC 領投,其他參投方包括 Multicoin Capital、Delphi Digital、Foresight Ventures、Animoca Brands、Continue Capital、Solana Ventures、Aptos、LongHash Ventures、OKX Ventures、Amber Group、SevenX Ventures 和 ArkStream Capital 等。
值得一說的是,或許是因為收到了 Aptos 基金會的投資,原本在 Solana 上進行結算記帳的 BC8.AI 專案,已經轉換到了同樣的高效能 L1 Aptos 上進行。
估值推算
根據此前創辦人兼 CEO Ahmad Shadid 的說法,IO.NET 將在 4 月底推出代幣。
IO.NET 有兩個可以作為估值參考的標的專案:Render Network 和 Akash Network,它們都是代表性的分散式計算專案。
我們可以用兩種方式推演 IO.NET 的市值區間:1. 市銷比,即:市值 / 收入比;2. 市值 / 網路晶片數比。
先來看基於市銷比的估值推演:
從市銷比的角度來看,Akash 可以作為 IO.NET 的估值區間的下限,而 Render 則作為估值的高位定價參考,其 FDV 區間為 16.7 億~59.3 億美金。
但考慮到 IO.NET 專案更新,敘事更熱,加上早期流通市值較小,以及目前更大的供應端規模,其 FDV 超過 Render 的可能性並不小。
再看另一個對比估值的角度,即「市晶比」。
在 AI 算力求大於供的市場背景下,分散式 AI 算力網路最重要的要素是 GPU 供應端的規模,因此我們可以以「市晶比」來橫向對比,用「專案總市值與網路內晶片的數量之比」,來推演 IO.NET 可能的估值區間,供讀者作為一個市值參考。
如果以市晶比來推算 IO.NET 的市值區間,IO.NET 以 Render Network 的市晶比為上限,以 Akash Network 為下限,其 FDV 區間為 206 億~1975 億美金。
相信再看好 IO.NET 專案讀者,都會認為這是一個極度樂觀的市值推算。
而且我們需要考慮到,目前 IO.NET 如此龐大的晶片線上張數,有受到空投預期以及激勵活動的刺激,在專案正式上線後其供應端的實際線上數仍然需要觀察。
因此總體來說,從市銷比的角度進行的估值測算可能更有參考性。
IO.NET 作為疊加了 AI+DePIN+Solana 生態三重光環的專案,其上線後的市值表現究竟如何,讓我們拭目以待。
📍相關報導📍
埋伏聰明錢,提前關注Q2即將發幣的潛力項目:LayerZero、TFM、1intro…
IOSG報告|從AI結合Web3技術堆疊展開infra新敘事