AI“下沉”是 Web3 的機遇嗎?Web3AI 項目與其繼續在通用化賽道裡內卷,不如認真思考怎麼為本地化 AI 浪潮提供基礎設施支持?
只有當 AI 真正「下沉」到每個設備時,去中心化協作才會從概念變成剛需?
作者:Haotian
最近觀察 AI 行業,發現個越來越「下沉」的變化:從原先拼算力集中和「大」模型的主流共識中,演變出了一條偏向本地小模型和邊緣計算的分支。
這一點,從 Apple Intelligence 覆蓋 5 億設備,到微軟推出 Windows 11 專用 3.3 億參數小模型 Mu,再到谷歌 DeepMind 的機器人「脫網」操作等等都能看出來。
會有啥不同呢?雲端 AI 拼的是參數規模和訓練數據,燒錢能力是核心競爭力;本地 AI 拼的是工程優化和場景適配,在保護隱私、可靠性和實用性上會更進一步。(主要通用模型的幻覺問題會嚴重影響垂類場景滲透)
這其實對 web3 AI 會有更大的機會,原來大家拼「通用化」(計算、數據、算法)能力時自然被傳統 Giant 大廠壟斷,套上去中心化的概念就想和谷歌、AWS、OpenAI 等競爭簡直痴人說夢,畢竟沒有資源優勢、技術優勢,也更沒有用戶基礎。
但到了本地化模型 + 邊緣計算的世界,區塊鏈技術服務面臨的形勢可就大為不同了。
當 AI 模型運行在用戶設備上時,如何證明輸出結果沒有被篡改?如何在保護隱私的前提下實現模型協作?這些問題恰恰是區塊鏈技術的強項…
有注意到一些 web3 AI 相關新項目,諸如最近由 Pantera 零投 10M 的 @GradientHQ 推出的數據通信協議 Lattica,來解決中心化 AI 平台的數據壟斷和黑箱問題;@PublicAI 腦電波設備 HeadCap採集真實人類數據,構建「人工驗證層」,已經實現了 14M 的收入;其實,都在嘗試解決本地 AI 的「可信性」問題。
一句話:只有當 AI 真正「下沉」到每個設備時,去中心化協作才會從概念變成剛需?
Web3AI 項目與其繼續在通用化賽道裡內卷,不如認真思考怎麼為本地化 AI 浪潮提供基礎設施支持?
免責聲明:文章中的所有內容僅代表作者的觀點,與本平台無關。用戶不應以本文作為投資決策的參考。
您也可能喜歡
享現貨槓桿每日免息!交易抽取最高 1,000 USDT!
NODEUSDT 現已上架合約交易和交易BOT
HFTUSDT 現已上架合約交易和交易BOT
FRAGUSDT 現已上架合約交易和交易BOT
加密貨幣價格
更多








