跳轉至
AI觀點科技

人工智慧 (AI) 正在引發前所未有的社會變革,而 AI 和 Web3 的融合時刻是否已到來?

目錄

Vitalik Buterin 在今年初發表的《The promise and challenges of crypto AI applications》文章中,首次提出了加密資產和AI 的四大交叉點。隨著區塊鏈技術和 AI的持續發展,兩者交叉領域的應用案例正在增加,其中一些用例更具意義和魯棒性。

而投資機構 ABCDE 曾在《從一級市場視角看待 AICrypto》一文中評價目前市面上的 AI 與 Crypto 結合的項目,多少有些“生硬”或是“粗糙”之感,並沒有發揮出 AI 或是 Crypto 最優的競爭力或是可組合性。

究竟 Web3 與 AI 的結合是否具有真正的發展潛力?這是本份研究報告希望探究的問題。本文將從 AI 技術的基礎概念入手,在此基礎上分析 AI 與 Web3 技術的融合方式、DeAI 賽道的潛在機會、商業模式及生態項目,並進一步總結 DeAI的發展挑戰與未來展望。

目錄

  1. 引言: Web3 和AI的交叉點
    • Vitalik Buterin 提出的四大交叉點
    • DeAI 能否成為新賽道?
  2. 關於 AI 的基礎理解
    • 人工智慧的歷史
    • 什麼是人工智慧?
    • 什麼是機器學習?
    • 什麼是深度學習?
    • Gen AI 與Transformer 模型
    • 小結
  3. AI 與 Web3 如何融合?
    • AI 與Web3 的交叉賦能
      • Web3 對 AI 的賦能:內外部影響
      • AI 對 Web3的賦能:內外部影響
    • 從 Gen AI看 DeAI 的機會
      • 生成式 AI Stack
      • 來自數據的挑戰
      • DeAI 的潛在機會
      • DeAI 值得關注的細分領域
  4. 去中心化算力市場
    • 商業模式:算力租賃的雙邊市場
    • 代表項目: Akash/Gensyn/Together
  5. 去中心化 AI Agent
    • 商業模式: 基於 AI Agent 的開放市場
    • 代表項目: Fetch.AI/SingularityNET/Morpheus/ Bittensor/ Autonolas
  6. ZKML
    • 商業模式: 創建 ML模型推理步驟的零知識證明
    • 代表項目: Modulus Labs/Worldcoin/Giza
  7. 去中心化數據基礎設施
    • 商業模式: 數據資產化、基於 RLHF 的強化學習
    • 代表項目: Ocean/Alaya/Fraction
  8. 風險與挑戰
  9. 未來展望
  10. 參考文獻

引言: Web3 和 AI 的交叉點

在 21 世紀的前十年,人工智慧中的機器學習、自然語言處理和計算機視覺三個領域發展迅猛。進入 21 世紀的第二個十年,人工智慧的發展進入到了一個黃金期。

人工智慧以大數據、深度學習、增強學習為基礎方法,在很多領域取得了重大突破,不僅解決了眾多科研問題,還將數據挖掘、計算機視覺、自然語言處理、機器人、機器學習等技術應用到了更廣泛的領域,比如 AI 與Web3 的結合。

正如,AI 的願景是解放社會生產力,而區塊鏈技術的願景是重構生產關係。那麼,AI 與 Web3 的交叉點在哪裡呢?

Vitalik Buterin 提出的四大交叉點

Vitalik Buterin 在今年年初發表的文章《The promise and challenges of crypto AI applications》中正式回答了加密資產和 AI 之間最富有成效的交叉點在哪裡?這個問題。從表面上看,兩者的協同作用是顯而易見的。加密貨幣的去中心化可以平衡 AI的中心化;AI 需要數據,而區塊鏈擅長存儲和追蹤數據。從更深層看,Vitalik Buterin 認為確實有一些值得探討的應用,但並不多。由此他進一步提出了Crypto 與 AI 結合的四大交叉點,分別是:

  1. AI作為遊戲中的參與者(最高的可行性)
  2. AI作為遊戲界面(潛力很大,但存在風險)
  3. AI作為遊戲規則(需要非常謹慎)
  4. AI作為遊戲目標(長期而有趣)

隨著 Web3 和 AI 技術的持續發展,兩者交叉領域的應用案例正在增加。Vitalik Buterin 認為,那些底層機制基本保持設計不變,但個體參與者變成了 AI 的應用案例,甚至在更微觀層面上有效地運行的機制,是最具有即時前景和最容易實現的交叉點 。

DeAI能否成為新賽道?

如果回顧 web3 的發展歷程,的確 AI 與 Crypto 的結合始終處在一個極其早期的探索階段。可能的原因有:技術發展的限制;兩類技術的可組合性未被發掘;彼此都缺少殺手級的應用,因此沒有碰撞出創新火花。

然而,隨著 ChatGPT發布後,AI 的發展浪潮從現實世界傳導到了加密世界。2023 年和 2024年也可謂是AI 叙事驅動的加密世界大爆發的時期。在一、二級市場裡,紛紛湧現了各種類型的 AI x Crypto 項目。

2024年,EMC 面向全球提出了一個全新概念“DeAI”,代表 Web3 去中心化和人工智慧結合的新領域。本文也將沿用這個詞“DeAI”,作為去中心化人工智慧(Decentralized AI)的縮寫。

投資機構 ABCDE 曾在《從一級市場視角看待 AI Crypto》一文中評價目前市面上的 AI與 Crypto 結合的項目“多少有些生硬或是粗糙之感,並沒有發揮出 AI或是 Crypto 最優的競爭力或是可組合性” 。

那麼,究竟 DeAI 的發展模式有哪些?能否成為下一個具有增長潛力的新賽道?是否兩者的結合現階段比較“生硬”?這將是本文希望探尋的方向。

關於 AI 的基礎理解

在研究 DeAI 的賽道之前,我們首先需要對 AI 的技術積累與發展形成初步理解。

人工智慧的歷史

人工智慧(Artificial Intelligence,簡稱 AI) 理論隨著數字計算機的出現而應運而生。早期人工智慧研究的關鍵人物是英國數學家艾倫·圖靈。他於 1950年提出了著名的圖靈測試(Turing Test)實驗,即假設如果一台電腦的回答內容可以誘使一個問詢者相信它是一個人而非機器,那麼從定義上來講這台電腦是“智能”的。以這個實驗為衡量尺度並以“圖靈機”作為媒介,圖靈開創了人工智慧的研究領域。

人工智慧試圖模擬人類行為和思維,是一個最多元融合的學科,然而,其發展也經歷了起伏跌宕:

  1. 人工智慧的誕生(1943-1956)
  2. 通用搜索機制局限導致的回落期(1966-1970)
  3. 以專家系統為代表的基於規則學習的崛起期(1969-1986)
  4. 神經網絡聯結主義的回歸期(1986-1995)
  5. 概率推理和機器學習的復興期(1987-現在)
  6. 大數據驅動的突破期(2006-現在)
  7. 深度學習引領的 ABC新時期(2011-現在)(A指AI,B指 Big Data,C指 Cloud Computing)

正是由於 AI的技術發展到達了新的階段,進一步打開了 AI與 Crypto 相融合的潛力。

什麼是人工智慧?


人工智慧(AI),是對從環境中接收感知並執行動作的智能體(Intelligent Agent)的研究。可以簡單理解為,人工智慧專注於研究和構建“做正確的事情”的“智能體”。

智能體(其中 Agent 來自拉丁語 Agere,意為“做”),是指在環境中感知和行動的事物。每個智能體需要實現個將感知序列映射為動作的函數。做“正確的事情”,是指人們提供給智能體一個目標定義。由於這個通用範式非常普遍,通常也被稱之為標準模型(Standard Model)。迄今為止,幾乎所有的人工智慧研究都是基於標準模型下進行。

人們偶爾會把“人工智慧”和“機器學習”兩個術語混淆。事實上,機器學習是人工智慧的子領域。有些人工智慧系統使用機器學習方法獲得能力,有些則不然。

什麼是機器學習?


如果一個智能體通過對世界進行觀測來提高它的性能,可稱其為智能體學習。當智能體是一台電腦時,可以稱之為機器學習(Machine Learning,簡稱 ML),即一台電腦基於觀測到的一些數據而構建一個模型,並將這個模型在基於一定假設下求解問題。

機器學習專注於開發演算法和統計模型,傳統的演算法模型有決策樹、隨機森林、樸素貝葉斯、邏輯回歸等演算法,隨後發展形成的演算法模型是基於人工神經網絡的機器學習演算法,可用於構造一個非常複雜的網絡。

神經網絡演算法思想不複雜,但其效果只有在網絡規模達到一定程度之後才會體現。一旦網絡形成規模後,就會對算力和數據的要求非常高。這也是為什麼在 21 世紀之前這類演算法無法獲得有效的發展。

ML模型通常有三部分組成:

  • 訓練數據:用於訓練 ML演算法以進行預測或分類新數據的一組輸入數據。訓練數據可以有多種形式,如圖像、文本、音頻、數值數據或這些形式的組合。
  • 模型架構:機器學習模型的整體結構或設計。它定義了層的類型和數量、激活函數以及節點或神經元之間的連接。架構的選擇取決於具體的問題和所使用的數據。
  • 模型參數:模型在訓練過程中學習的用於進行預測的數值或權重。這些值通過優化演算法迭代調整,以最小化預測結果與實際結果之間的誤差。

ML模型的生產和部署分為兩個階段:

  • 訓練階段:在訓練過程中,模型會接觸帶有標籤的數據集,並調整其參數以最小化預測結果與實際結果之間的誤差。訓練過程通常涉及多個迭代或周期,模型的準確性通過單獨的驗證集進行評估。
  • 推理階段:推理階段是指使用訓練好的機器學習模型對新的、未見過的數據進行預測。模型接收輸入數據,並應用已學習的參數生成輸出,例如分類或迴歸預測。

因此,訓練階段是關鍵,其對算力和數據的需求要遠遠超過推理階段。

什麼是深度學習?


深度學習(Deep Learning)是機器學習中一系列技術的組合,也是機器學習最前沿的領域。"深度”的含義是指電路通常被設計成多層(Layer),意味著從輸入到輸出的計算路徑包含較多計算步。

深度學習促進了人工智慧技術產生的革命性進展,特別是給電腦視覺、語音識別、自然語言處理、棋類遊戲以及某些科學領域帶來了顛覆性突破。深度學習同時驅動了新的機器學習範式產生,比如生成對抗學習等;並使強化學習和因果學習得以“復興”,展示出了更強大的潛力。

深度學習的經典演算法網絡,比如卷積神經網絡(Convolutional Neural Networks,簡稱 CNNs)特別適用於圖像處理和其他具有網絡拓撲結構的數據處理任務;循環神經網絡(Recurrent Neural Network,簡稱 RNN)對於包括語言建模和機器翻譯在內的序列處理任務很有效,生成式對抗網絡(Generative Adversarial Network,簡稱GAN)基於對抗演算法可促進模型生成更高質量的輸出,等等。

生成式 AI與Transformer 模型


生成式 AI(Generative Artificial Intelligence,簡稱 Gen AI)依賴於深度學習模型,即模擬人腦學習和決策過程的演算法。這些模型的工作原理是識別大量數據中的模式和關係對其進行編碼,然後使用這些信息來理解用戶提出的自然語言請求和問題,並形成相關的新內容進行回應。

生成式 AI在多數情況下分三個階段運行:

  • 訓練:創建基礎模型(如為文本生成而創建的大語言模型 LLM)作為訓練基礎,
  • 微調:針對特定的應用程序定制基礎模型;
  • 生成、評估和再調整:通過評估輸出結果,提高質量和準確性。

同樣地,訓練是一個計算密集型、耗時且昂貴的訓練流程,需要數千個集群圖形處理單元(GPU)和數周的處理時間,所有這些將花費數百萬美元。微調過程涉及向模型餵送特定於內容生成應用程序的標記數據,這是一項勞動密集型工作。開發人員通常會將任務外包給擁有人量數據標記人員團隊的公司。生成、評估和再調整過程是由開發人員和用戶不斷評估生成式 AI應用程序輸出,並做進一步模型調整,以提升準確性和相關性。

Transformer 架構是當今最重要的基礎模型和生成式 AI解決方案背後的深度學習模型架構。2017 年由谷歌發布,ChatGPT 正是建立在該架構之上。目前 Transformer 架構也是幾乎所有 AI大模型的基礎。Transformer 架構的核心在於自注意力機制與位置編碼。

  • 自注意力機制:可用於計算句子中每個單詞或字的權重,因為這些單詞或字與句子中的其他每個單詞或字均相關,因此該模型可預測可能會依次使用的單詞或字。隨著時間的推移,這種理解便會隨著模型通過大量數據進行訓練而逐漸加深。如此一來,機器學習模型便可根據單詞或字在語言中的典型使用方式的相關統計概率來“學習"語法規則。
  • 位置編碼:不按每個單詞或字在句子中出現的順序進行編碼,而是為每個單詞或字分配一個唯一編號。此方法可提供有關序列中每個標記(即,輸入的組成部分,例如 NLP 中的單詞或子詞片段)的位置的信息,以便該模型能考慮該序列的序列信息。

Transformer 可並行處理輸入序列,因此在訓練和推理方面效率極高,因為人們無法通過單純增加 GPU 來加快處理速度。

小結


本節主要是對於人工智慧的概念進行掃盲,有助於發現 AI 與 Web3 結合的價值點。小結要點如下:

1.人工智慧研究是以智能體設計為核心而開展的科學。

2.從 ML到 Gen AI,AI 模型的訓練階段都是一個高度計算密集型、耗時且昂貴的過程。

3.ML經訓練階段後,ML推理階段的意義在於確保模型在新的、未見過的數據上表現良好,而不僅僅是它訓練過的數據。對於閉源模型而言,具有一定的推理可驗證性和透明度尤為重要,可以確保不存在偏見性。

4.由於生成式 AI 的突破性發展,刺激了巨頭公司、初創公司及研究團隊在該領域的競爭。由此進一步加劇了對 GPU 算力資源的高需求性。因此,面向 AI模型訓練的專有分佈式算力網絡正在湧現。

5.模型微調階段對標記數據的外包行為,存在著通過去中心化方式和激勵機制替代的可行性。

AI與 Web3 如何融合?


在引言裡,我們列舉了 Vitalik Buterin 提出的四個類型交叉點,而本章節將從更宏觀地層面去分析 AI與 Web3的融合方式。

AI與 Web3 的交叉賦能


AI與 Web3 作為兩個新興技術,其賦能方式和影響程度是相互的、多元化的。

從賦能方式上,可以分為:1)Web3 對AI的賦能;以及2)AI對 Web3 的賦能。如何區分“誰對誰”進行賦能?主要分析項目的核心商業模式是基於哪一項技術進行構建。比如對於一個 AI項目而言,通過引入 Token 經濟模型來激勵生態參與者貢獻,那麼可把這類型項目視為是 Web3 對 AI的賦能,因為商業核心仍然是 AI,而Web3 是輔助手段。比如對於一個 Web3 遊戲而言,融合了 AI驅動的非玩家角色(NPC)將根據玩家的行為和遊戲內環境自主適應並定制自己的反應,用於增強沉浸式體驗。那麼這類項目可以視為 AI對 Web3 的賦能。

從影響程度上,可以分為:1)內部影響;以及2)外部影響。如何區分是內部還是外部影響?核心在於評估影響範圍是否對技術堆棧(Stack)的內部結構產生了改造。如果發生了內部架構的改造,則可視為內部影響;反之,則為外部影響。對於一個技術堆棧而言,其內在的各組成部分是相互關聯的,正是其內在的組合性或組合方式決定了該技術堆棧的特性。如果改變了技術堆棧的組合方式,相當於改變了技術可實現的功能。如果引入新的技術到堆棧中,甚至可以創造新的技術可能性。

那麼接下去,將分別從賦能方式、影響程度兩個維度來做詳細分析。

Web3 對 AI 的賦能:內外部影響


Web3 對 AI 技術的賦能是目前市場主流的探索方向。AI 技術的核心組成要素為:數據、演算法、算力。這三類要素各自存在發展的痛點,比如可用性數據的短缺、演算法難以突破,以及算力供不應求等。目前越來越多的項目試圖通過 Web3 技術來緩解 AI 面臨的發展難題。

值得關注的嘗試有:利用加密技術對數據隱私保護和安全共享方面的探索;構建分佈式專用算力網絡服務 AI模型訓練的探索;搭建分佈式的 AI智能體交易市場的探索;以及去中心化數據集的探索。

從影響程度上,Web3 對AI的支持程度主要體現在外部影響,即主要通過外部引入激勵機制、數字資產化手段、建立自由交易市場等金融手段來激活 AI發展的生產要素。

Web3 對AI 產生內外部影響示例,圖源:AI x Crypto Primer

內部影響:由於具有深度技術集成,通常比外部影響具備更多的技術難度。例如,如果想通過引入完全同態加密(FHE)或零知識證明(ZKPs)來修改 AI技術堆棧,通常需要具備密碼學和人工智慧雙重專業知識的開發者。很少有人具備這種交叉領域的專業知識。這類項目有:Privasea 通過 FHE 來確保用戶數據的隱私性和促進AI模型使用;Modulus Labs 通過 ZK 技術提供鏈上 LLM 模型;等等。

外部影響:通常涉及較少的技術複雜性。例如,為AIAgent 添加加密支付功能,並不需要改動原有的架構體系,更多是基於原有技術架構,再增加經濟模型層。這類項目有:SingularityNET 為AIAgent 搭建了共享經濟市場;Morpheus 構建的激勵開源的個人通用人工智慧(Smart Agent)的點對點網絡;等等。

AI對Web3 的賦能:內外部影響


目前 AI 技術對 Web3 的賦能場景上相對點狀式的,即主要聚焦於某些特定的應用場景進行了結合。在 Web3 中使用 AI 的核心目的在於提高效率,或避免人類行為的弱點。比如,成熟的 MEV(最大化可提取價值)套利機器人的使用,以及在不同交易平台或不同市場之間對套利機器人的使用,等等。

從影響程度上,AI對 Web3 的外部影響相對直接和容易;AI對 Web3 的內部影響也有不少探索案例。

內部影響:在 Web3 技術堆棧內使用 AI 技術。這相當於將 AI 部署在鏈上,並直接與加密堆棧內的組件交互。例如,一個治理 DAO 的鏈上 AI Agent;將 AI 引入鏈上使智能合約可以根據動態鏈上數據做出決策或預測;或者開源錢包內嵌入一個 AI 助手;等等。這一點類似於 Vitalik 提到的將 AI作為遊戲規則(需要非常謹慎)。如果AI 模型是閉源的,其依然是中心化方式由項目方運行;如果 AI 模型是開源的,可能會遭遇攻擊者對模型的惡意訓練。

外部影響:AI是外部於 web3 技術堆棧。AI通常作為一個鏈下的工具,來提升 Web3 場景的工作效率,比如利用 AI來編寫智能合約或對智能合約進行審計等。

總體上,目前市場上對 DeAI 的關注方向,更多是聚焦在“Web3 賦能 AI”的融合方向上。

從 Gen AI看 DeAI的機會


上文框架性地介紹了 AI與 Web3 的交叉賦能方式,而 ChatGPT 引發的生成式 AI 的浪潮,不得不使我們更進一步研究生成式 AI 與 Web3 融合的機會點。

生成式 AI Stack


參考 a16z 繪製的 Gen AI 技術堆棧圖,主要分為三層:

  • 應用層:集成生成式 AI 模型到面向終端用戶產品的應用程序,這些應用程序或運行自己的模型(“端到端應用程序”),或依賴於第三方 API。
  • 模型層:支持 AI 類產品的模型,這些模型可以作為專有 API 提供,也可以作為開源檢查點提供(後者需要託管解決方案)
  • 基礎層:基礎設施供應商(即雲平台和硬件製造商),它們負責運行生成式 AI模型的訓練和推理工作負載。
生成式 AI 技術堆棧,圖源:a16z

在現實世界裡,截止目前為止,基礎設施供應商可以算是整個市場的贏家,佔據了流入 Gen AI 技術堆棧的大部分資金。應用程序公司的營收增長較快,但是往往存在留存難、同質化競爭以及毛利率不高的問題,大多數模型提供商雖然是整個技術堆棧的核心,但尚未實現大規模的商業規模。這意味著,創造市場最大價值的公司尚未抓住大部分價值果實。

基礎設施供應商:大規模計算是生成式AI的命脈。因此,生成式AI市場的大部分資金流向了基礎設施公司。雲服務廠商目前處於寡頭壟斷局面,AWS、GCP 和Azure 佔據了主導位置。而這些雲服務商每年需要資本支出超 1000 億美元,用於採購算力硬件,以確保持續的競爭優勢。硬件提供商同樣是行業的贏家。英偉達 2023 財年第三季度數據中心 GPU 收入為 38 億美元,其中很大一部分來自於生成式 AI 的發展。

模型提供商:閉源模型提供商 OpenAI還未形成殺手級的生態應用,不過市場對其提供的專用 API的需求正在增長。而以開源形式發布的模型(如 StableDiffusion)可以由任何人託管,託管服務正在建立模型生產者和消費者之間的橋樑,但目前還未形成很強的商業變現。

應用程序公司:應用程序公司需要將模型產品適配到終端客戶的應用場景,核心成本在於模型微調和推理成本。這是一個充滿競爭的市場,應用程序不存在明顯壁壘,而且差異化程度不會很高。這類公司通常會以小團體開發人員構成,對市場具有敏感性,會隨著客戶需求以及技術發展更換模型提供商。

總體上,從生成式 AI的商業生態來看,基礎設施供應商已經形成了寡頭壟斷的暴利局面,這是去中心化方式變革生產關係且獲得產業價值的重要入口;其次,應用程序公司由於門檻低、競爭激烈,以及同質化嚴重,可以借助數字資產化的手段來實現知識保護和授權變現,並激勵更多的創新;最後,模型提供商處於資本和技術密集投入的階段,當前不利於進行去中心化方式變革,相反去中心化的託管服務或許是一個潛在的切入點。

來自數據的挑戰


生成式 AI需要進行大量的訓練,使用海量的數據來提高模型的準確性和泛化能力。所使用的數據類型有:標籤數據、上下文數據、模擬數據、用戶生成數據。除了數據類型外,還需要注意數據的相對準確性和安全性,通常需要採取相應的措施:數據清洗、數據驗證、數據加密、數據備份。

首先,數據的篩選和清洗是一個耗時耗力的過程,需要投入大量的人力成本。由於數據的來源和類型繁多,不可能對每一條數據進行詳細的核查和驗證,也不可能消除所有的噪聲和錯誤。如果篩選過於嚴格,無疑會造成巨大的數據信息損失。

其次,可用性數據面臨枯竭。像 GPT-3.5和 GPT-4這樣的模型,主要使用的是來自信息網絡上可用的所有數據。一方面由用戶生成的可用數據面臨枯竭,涉及用戶隱私的數據又難以公開共享;另一方面當前很多網絡內容由模型生成,這意味著GPT-5及後代的模型將使用 GPT-4生成的數據進行訓練。使用合成數據會導致什麼後果?尚無絕對定論,但是很可能會導致生成模型出現不可逆的缺陷。因此,由真實人類產生的數據價值會越來越高,獲取成本也會越來越大。

再次,如何應對對抗性攻擊的數據威脅?比如“數據中毒攻擊”,通過添加擾動來破壞訓練數據,從而導致不正確的輸出。"對抗性攻擊”,這是對合法輸入數據的修改,目的是欺騙模型,通常使用專門設計的“噪音”來引起錯誤分類。

DeAI 的潛在機會


不可否認的是,2024年加密市場興起的 AI 叙事熱潮,離不開生成式AI 帶來的現實世界狂熱情緒的推動,由此產生的影響是,加密世界的各類型項目都在加速進場DeAI 賽道。

2024第一季度加密市場表現情況,圖源:Crypto x AI-Going Down the Rabbit Hole

綜合前文的分析,以及 Gen AI的商業生態情況,DeAI賽道值得關注的機會點有:
去中心化算力基礎設施:緩解 GPU 等計算資源稀缺與昂貴的問題。
開放的 AI 智能體市場:圍繞 AI智能體形成的交易市場,促進創新用例的發展。
可驗證機器學習模型:由此催生出的 zkML細分領域。
基於隱私保護下的數據共享和數據集創建。
通過人類反饋 (RLHF)來激勵強化學習。

DeAI 值得關注的細分領域


下文僅重點分析 DeAI值得關注的幾個細分領域,並不能完全窮盡 DeAI 中湧現的各個發展類型。

去中心化算力市場


商業模式:算力租賃的雙邊市場


去中心化的計算網絡(以及用於訓練和推理的專項計算網絡)是目前觀察下來 DeAI賽道上最活躍和發展最快的領域。這與現實世界的基礎設施供應商截取了 AI產業鏈的豐盛果實相一致。伴隨著 GPU 等算力資源短缺的狀態持續,有著算力資源硬件設備的廠商紛紛入局這個領域。

去中心化算力市場,本質上是利用 Web3 技術將網格計算的理念擴展到了一個具有經濟激勵、無需信任的環境之中。通過激勵 CPU 和 GPU 等資源提供方將閒置的算力貢獻到去中心化網絡中,從而形成有一定規模的去中心化算力服務市場;並連接算力資源的需求方(如模型提供商),以更低的成本、更靈活的方式,為其提供算力服務資源。去中心化算力市場,也是對中心化壟斷的雲服務供應商的一個挑戰。

去中心化算力市場根據其服務的類型可進一步分為:通用型和專用型。通用計算網絡像分散的雲一樣運行,為各種應用程序提供計算資源。專用型計算網絡主要為特定用途的計算網絡,針對特定用例量身定制,例如,Render Network是壹個專注於渲染工作負載的專用計算網絡;Gensyn 是一個專注於 ML 模型訓練的專用計算網絡;而 io.net 是通用計算網絡的一個示例。

對於 DeAI而言,在去中心化基礎設施上訓練模型面臨的一個重要挑戰是大規模算力、帶寬限制和使用來自全球不同供應商的異構硬件導致的高延遲性,因此,一個專用型的 AI 計算網絡比通用型的計算網絡能提供更適配AI的功能。目前集中式訓練 ML模型依然是最為高效和穩定的項目,但是這對項目方的資本實力提出了一個非常高的要求。

代表項目: Akash/Gensyn/Together


Akash Network 屬於通用計算網絡,但是其中也可以部署 ML模型進行推理或利用網絡來渲染工作負載。Akash Network,是壹個開放網絡,致力於安全高效地買賣計算資源。它將自己定位為去中心化、開源的點對點市場。該網絡基於Cosmos 鏈上運行。通過為雲計算資源提供更靈活、安全和更具成本效益的模型,來挑戰傳統雲服務模式。

Gensyn是一個分佈式硬件配置網絡,是用於訓練 ML模型的專用計算網絡。通過將複雜的機器學習任務分解成多個子任務,借助參與者的計算資源,實現高度並行化的計算。通過智能合約自動化任務分配、驗證和獎勵,Gensyn為機器學習計算提供了一個種相對高效、自主的解決方案,具體來說,Gensyn 設計了一個基於梯度下降的概率審計系統,並使用模型檢查點來使去中心化的 GPU 網絡能夠為全尺寸模型的訓練提供服務。Gensyn 希望確保當節點下載和訓練模型的一部分時,他們可以誠實地更新模型。Gensyn 展示了零知識證明和 ML模型訓練階段結合的可能性。

Together AI 致力於為生成式 AI構建最快的雲服務平台。不僅提供 GPU(Nvidia A100或 H100)集群服務,以更快、更經濟的方式提供模型推理服務。同時,Together 可以允許用戶基於私有數據來定制化微調模型,生成屬於用戶專屬的 AI 模型。

去中心化 AI Agent


商業模式:基於 AIAgent 的開放市場


大型語言模型(LLM)的興起催生了諸多自主 AI Agent 的繁榮。這些 Agent 利用 LLM 提升其多功能性,使其能夠自主處理各種任務,並做出明智的決策和預測。在加密領域,AI Agent 逐漸展露頭角,早期實例如基於以太坊構建的 Dawn Wallet,Dawn Wallet是一款智能加密錢包,使用 AI Agent 為用戶提供智能個人助理,能夠幫助用戶更方便地發送交易、與協議交互並提供實時鏈上洞見。

當前,以 AutoGPT為代表的開源模型,向我們展示了多個專業化 AI Agent 共同協作的重要性,用戶在最初輸入他們想要的目標和結果;隨後,Auto-GPT 的核心能力是將一個大的任務分解為各種子任務。這些子任務依次連接並順序執行,從而產生用戶最初設定的更大結果。因此,由於AI Agent 的功能日益複雜和更加專業化,一個互相協作的 AI Agent 開放市場呼之欲出。

而這個開放市場與去中心化網絡特性天然吻合。基於無需信任的環境之下,通過加密經濟建立 AI Agent 的租用體系和支付體系,還有通過將 AI Agent 生成對應的NFT在開放市場交易,實現 AI Agent 的資產化。通過自由市場交易來促進 AIAgent 的流動,增加單個 Agent 被構建成具有可組合性的複雜應用程序的可能性。

由於智能合約無法管理複雜的邏輯,AI Agent多數在鏈下實例化,因此,一旦計算完成,需要有一種安全地在鏈上進行通信的方法。現階段基於 AI Agent 創建和採用的開放市場,通常包含三個核心要素:

  • 圍繞 Agents 的系統框架:如Fetch.AI的 uAgents、Autonolas Protocol的 Open Autonomy;主要為開發人員提供工具和軟件包,方便輕鬆創建 Agent。
  • 運行 Agents 的鏈下網絡:這裡包括鏈下的去中心化存儲服務,也包括運行 Agent過程中的大量計算。目前存在兩種主要的去中心化方法來實現,一是將計算任務分配到多個節點,然後採用共識機制來確保計算正確執行;二是利用ZK協處理器(ZK Coprocessor),即單個操作員進行計算,然後生成證明以驗證作業是否準確執行。
  • 錨定 Agent 的鏈上協議:鏈上協議包含 Agent 註冊表與鏈下 Agent對應;以及配套的經濟激勵機制促使運營者維護分佈式網絡的運行

代表項目:Fetch.AI/SingularityNET/Morpheus/ Bittensor/ Autonolas


Fetch.Al致力於構建 Multi-Agent 的移動服務及智能體元宇宙“Agentverse”,打造形成開放訪問、Token 化、去中心化的機器學習網絡,使智能體基礎設施成為AI經濟引擎。Fetch.ai提出了"uAgents”框架。使用這個開源框架,開發者能夠創建智能、自主的 Agent,並加入一個由眾多 Agents 組成的去中心化網絡,Agents 只執行開發者指定的任務,這些任務可以通過為特定用例和場景編寫可定制的行為來精確描述。在 Agentverse 裡,進一步區分為 Public Agent 和Private Agent,由此允許在數據保護方面採取更靈活的方法,同時使代理能夠高效地進行交互。

SingularityNET是壹個基於區塊鏈的框架,旨在滿足 AIAgents 在相互交互以及與外部客戶交互時的需求。SingularityNET 的核心是一系列智能合約模板,AIAgents可以用來請求完成 A 工作、交換數據,以及提供 AI工作的結果。任何人都可以插入一個 AIAgent,只要它根據 SingularityNET API 共享信息,並根據SingularityNET 的經濟邏輯接受/支付。

Morpheus AI正在構建首個真正去中心化的點對點個人Smart Agent 網絡,以實現 AI的全民普及。這個去中心化網絡使任何人都能連接並訪問他們的個人 AIAgent,以進行加密交易、執行智能合約、使用 DeFi服務,並以無許可的方式利用 AI的廣泛功能。本質上,Morpheus 網絡允許普通用戶操作他們自己的 AIAgent,與其交流,並讓其根據用戶的需求和偏好執行任務。這一發展類似於 1990 年代谷歌搜索引向公眾開放互聯網的方式,但對象是人工智慧Agent。

Bitensor協議是一個去中心化的機器學習協議,可以在網絡參與者之間交換機器學習能力,它促進了機器學習模型和服務通過點對點的方式共享和協作Bitensor 協議建立了一個將機器智慧轉化為可交易商品的市場,這個機器智慧就是平常我們所說的演算法模型。Bitensor 可以視作平台方,為演算法模型的供需方搭建交易橋樑。同時,Bitensor也是一個挖礦網絡,類似於比特幣,它提供對機器學習模型的去中心化網絡的 Censorship resistance(意指避免節點對交易進行審查)訪問。Bitensor通過基於TAO Token 的經濟機制來鼓勵參與和貢獻,礦工和驗證者是核心角色,他們提供計算資源、做出準確預測以及對網絡做出其他有價值貢獻而獲得 Token 獎勵。Bitensor的共識機制旨在獎勵網絡中有價值的節點。這種激勵機制採

用了博弈論的打分方法,包括使用 Shapley value 來評估網絡內模型的性能和可靠性。shapley Value 是合作博弈論中的一個概念,它根據每個模型對整體預測準確性和集體智慧的邊際貢獻來賦值,它考慮到網絡的協作性質,即模型之間進行交互並交換信息以提高整體性能。Shapley value 通過評估每個模型如何增強整體模型集合的準確性和洞見來捕捉其重要性。

Autonolas protocol提出的 Open Autonomy,是一個用於創建多代理服務的框架,如下圖所示。Agent 服務是一種鏈下自知服務,作為多代理系統(MultiAgent service)運行,並通過加密經濟機制在鏈上實現安全保障。其中,Agent service 由多個 Agent 組成,其中的 Agent 數量由服務者所定義。運營者(Operator)擁有 Agent 運行基礎設施的實體或個人。每個運營者管理一個Agent實例和一個共識裝置節點。Agent:聚合運行時和功能以執行服務的軟件單元,每個 Agent 由多個實現不同功能的組件組成,例如幫助 Agent 理解的通信協議。FSM 應用: Agent 內部的核心組件,定義了服務的業務邏輯。FSM 應用通過共識裝置在不同 Agent 之間自動複製狀態和轉換,確保服務執行流程、輸入和輸出在所有 Agent之間同步,創建了一個具有共享狀態且容錯的分佈式(去中心化)應用。共識裝置:使 Agent 能同步服務狀態並就某些重要決策達成共識的基礎設施,這裡提到的共識裝置包括共識節點+共識網絡的集合。代理服務多簽安全:基於智能合約的多重簽名,要求在執行任何交易前必須有一定數量的代理簽名,以此確保服務的安全。

基於 Agent Service 的去中心化開放框架,圖源:Autonolas Develop Documentation

ZKML


商業模式:創建 ML模型推理步驟的零知識證明

零知識機器學習(Zero Knowledge Machine Learning,簡稱 ZKML)結合了注重隱私的密碼學和先進的機器學習。利用零知識證明,可確保在不披露任何敏感數據的情況下驗證機器學習過程。從本質上講,ZKML可以在保護機密信息的同時,實現機器學習輸入的隱私安全性和推理過程可驗證。這在醫療保健和金融等行業尤為重要,因為這些行業對隱私要求極高。它允許在不危及個人隱私的情況下實施人工智慧工具。

在ZKML提出之前,計算網絡已採用各種機制來確保計算作業的正確執行。這些機制包括信譽模型、權益換取訪問模型和可信執行環境(TEE)。但是,每種方法都有其局限性。信譽模型和權益換取訪問模型仍然需要一定程度的信任,而TEE則在硬件層面引入了潛在的攻擊媒介。ZKML利用零知識證明(ZKP)來驗證機器學習的計算完整性,可以一定程度上規避上述局限性。

ZKML目前正處於早期發展階段,且主要應用在將零知識證明納入模型推理階段。這對於驗證 GPT-4或 DAL-E2等人工智慧模型的輸出結果尤其有效,而且不會暴露敏感的輸入數據。總體上,ZKML的主要價值有:

AI 模型上鏈:讓 AI 模型推理證明上鏈,方便智能合約使用 AI 來進行決策。ZKML 可以證明計算的正確性。例如,一個在線交易機器人可以使用 ZKML 證明某些功能的正確執行。

隱私保護型 ML: ZKP可以實現訓練或推理模型而無需向模型創建者披露敏感數據。此功能在醫療保健和金融等受監管行業尤其重要,因為這些行業的數據保密性至關重要。

可驗證的 ML: ZKP可用於驗證模型是否在特定數據集上進行訓練,或是否使用特定模型進行預測,此功能在 ML-as-a-Service 場景中非常有用,因為專有模型可能只想隱藏在 API背後。使用 ZKML,服務提供商將能夠提供推論源自特定模型的證據。

關於隱私保護和驗證推理,還可進一步分為四種場景:

  • 私有數據+公共模型:模型消費者希望輸入數據保密,不讓模型提供者知曉。
  • 公開數據+私有模型:ML-as-a-Service的一個常見問題,模型提供者希望隱藏其參數或權重來保護其知識產權,而模型使用者則希望在對抗環境中驗證生成的推理是否確實來自指定模型。
  • 私有數據+私有模型:當用於推理的數據高度敏感時,且模型本身需要保護知識產權,就會出現這種情況。此時還可以靈活使用多方安全計算(MPC)或全同態加密(FHE)技術來滿足具體場景。
  • 公開數據+公共模型:當模型與數據都是公開的情況下,ZKML的作用則是將鏈下計算壓縮並驗證到鏈上環境。對於較大的模型,驗證推理的簡潔性(ZKP)比重新運行模型本身更具有成本效益。

代表項目:Modulus Labs/Worldcoin/Giza


Modulus Labs 使用零知識證明來有效檢查 AI 提供商是否篡改了他們的演算法,從而為 Web3 應用程序更可信地融入AI 模型。在應用程序方面,Modulus labs 和Upshot合作,使用 AI提供準確、及時的 NFT 價格;Modulus Labs 開展的項目 RockyBot(一種鏈上交易機器人),讓人類玩家訓練 AI 相互對戰,零知識證明使得玩家能夠相信對手確實按照他們所說的方式進行了訓練;ModulusLab的另一個項目是 Leelav.The World(一種國際象棋遊戲,全人類與經過驗證的 Leela國際象棋引擎鏈上實例對戰)。通過這幾個項目充分展示ZKML的用例。

Worldcoin 正在應用 ZKML來嘗試制定隱私保護人格證明協議。Worldcoin 使用定制硬件來處理插入其 Semaphore 實現的高分辨率虹膜掃描。然後使用它來執行有用的操作,例如成員資格證明和投票。他們目前使用帶有安全區域的受信任運行環境來驗證相機簽名的虹膜掃描,但他們的最終目標是使用 ZKP 來證明神經網絡的正確推理,以實現加密級安全保障。

Giza 致力於在 Web3 世界提供可靠的、可擴展和易用的 AI 解決方案。具體服務內容包括1)允許開發者創建 AIAgent 並部署在智能合約中;2)將 AI 模型轉換成 ZKML模型;3)部署一個可驗證的推理端點;4)訪問用於機器學習的區塊鏈數據集。它使用的技術堆棧包括用於表示機器學習模型的 ONNX格式、用於將這些模型轉換為 Cairo 程序格式的 Giza Transpiler、用於可驗證和確定性的方式執行模型的 ONNX Cairo Runtime,以及用於在鏈上部署和執行模型的 Giza 模型智能合約,通過採用這種將 ML連接到 Web3 的設計模式,Giza 實現了經過驗證的推理與鏈上應

用程序的可擴展集成。ML模型被轉換為 ZK電路,使其預測能夠與有條件的鏈上應用程序集成,前提是證明驗證。這允許在鏈下對 ML模型進行高性能計算,並在信任最小化的情況下執行鏈上應用程序。 形象的稱為"鏈下思考,鏈上行動”。

去中心化數據基礎設施


商業模式:數據資產化、基於 RLHF 的強化學習


去中心化數據基礎設施,核心是圍繞數據資產化在做文章。

其中一個數據資產化的方式,是構建一個數據市場。數據所有者可以在數據市場發布數據集並將其列出以供出售。基於區塊鏈之上,數據共享可以在無需第三方監督的環境下,實現點對點方式的執行。這確保所有者在出售前對其資產保留完全所有權和控制權。這個市場和數據共享是通過標記化實現,但是,標記化的不是數據本身,而是對數據的訪問。

另外一個值得關注的發展模式,是構建去中心化標註服務。數據資產化的價值下沉到“數據收集”這個環節,收集到的數據在喂養給 AI前還需要做一定的加工,這就是數據標註的環節。這個環節在引入去中心化之前,多是以中心化機構通過人力密集型方式來進行。只要數據標註具有一定規則和標準,就可以將這個環節以眾包的方式交給更多的人來完成。這個環節天然地與 Web3 相吻合。通過 Token 經濟模型激勵,把勞動力標註的工作讓渡給社區,形成類似於"標註-To-earn" 的模式。

由“人類數據標註行為"可進一步研究基於人類反饋的強化學習。強化學習人類反饋(Reinforcement Learning from Human Feedback,簡稱 RLHF)是一種在訓練過程中結合人類反饋對模型進行強化學習的技術。通過人類標註數據訓練得到"獎勵模型(Reward Model)”。有了獎勵函數之後,再使用一般的強化學習方法去找出最優策略/動作。人類反饋最常見的收集方式是要求人類對 Agent行為進行信好排序,隨後可以通過特定方式利用排序結果對輸出進行評分。RLHF擅長調整模型並減少有害、不準確或有偏見的輸出。OpenAI正是利用 RLHF 來微調 GPT-3 並開發 ChatGPT,在 Web3 世界裡,通過 Token 激勵有可能會促進 RLHF 的可擴展性,當然,雖然加密網絡在大規模激勵和協調行動方面表現出色,但 Token激勵的 RLHF 面臨著一些挑戰。首先,它需要參與者願意接受加密貨幣支付作為獎勵,這可能會限制符合條件的個人數量。其次,確保系統不易受到機器人操縱並保持獎勵分配反饋的準確性是持續關注的問題。

代表項目:Ocean/Alaya/Fraction


Ocean Protocol是壹個將數據服務接入加密生態系統的通道,使用數據 NFT 和數據 Token,數據 NFT 代表數據服務的版權;數據 Token 用於訪問該服務。Ocean Market 是一個開源的社區數據市場。Ocean的 "Compute-to-data"功能提供了對私人數據的計算訪問權限,而這些數據從未離開數據所有者的環境。Ocean提供的市場能夠在保護隱私的同時實現私人數據的資產化和Token 化。社區驅動的 OceanDAO 為軟件開發、推廣等提供資金支持。veOCEAN 是一種鎖定 OCEAN以便在 OceanDAO 中投票並賺取生態系統獎勵的手段。VeOCEAN 持有者可以被動賺取獎勵,但通過將 veOCEAN 分配給數據消費量(DCV)高的數據資產,可以賺取更多獎勵。此外,Ocean還推出了數據耕種計劃,用於激勵數據供應。總體上,OceanProtocol的意義在於: 1)鼓勵數據共享和資產化; 2)允許個人或實體安全地共享敏感數據; 3)通過創建有流動性的數據市場來實現更好的價格發現。

Alaya AI是壹個開放、可組合的 Web3 數據採樣和自動標記AI平台,旨在通過遊戲化體驗和 Web3 激勵來滿足日益增長的AI訓練數據需求,其特點是: 1)為個人用戶和小型人工智能初創企業/開發商提供開放數據訪問和自定義數據請求;2)通過在 Alaya AI的自動標記 AI模型中質押 $AGT 來分配收入,以激勵模型開發和部署; 3)可組合的平台結構,支持自定義數據請求,並為其他 Web3項目(在兼容的鏈/格式上)提供用戶指定的自定義 Token 獎勵。Alaya 由三層基礎設施組成(交互層、優化層、智能建模層)提供一個自動化的 AI 數據採樣和自動標記平台,同時最大程度地降低隱私風險。交互層:用戶可以通過電子郵件驗證或錢包連接直接訪問平台,以貢獻AI訓練數據並通過交互層獲得名種 Token+NFT 獎勵的組合。優化層:通過應用“高斯近似和粒子群優化演算法”(該演算法在高計算代價複雜工程優化問題的求解上具有良好的應用前景)自動驗證數據質量,使 Alaya AI能夠以更高的效率和更低的成本提供卓越的數據質量。通過龐大面多樣化的用戶社區、有針對性的採樣演算法和人機協同(HITL)輔助預處理模型微調,採樣偏差也被最小化。智能建模層:通過結合進化計算和 RLHF/HITL 迭代為動態自動標記人工智慧模型提供基礎設施。通過在相應的數據模型質押池中質押 AGT Token,社區治理可以對新的 AI 自動標記模型開發進行投票。用戶將根據模型性能從他們所質押的各個自動標記模型產生的收入中按比例獲得額外獎勵。

Fraction AI:通過提供高質量的人工生成數據來簡化人工智慧模型訓練,整合加密貨幣機制的效率,從而在多個領域實現更有效、更具成本效益的人工智慧開發。Fraction AI 相當於打造 AI 數據層的L2,專門為訓練 AI模型提供標記數據服務。Fraction AI提出了創建“永久數據集”的概念,相比於 Web2 數據集其優勢在於: 1)無需許可的數據集創建; 2)為用戶選擇的數據集進行質押和賺取收益; 3)用戶可以自由地向AI Agent 貢獻數據並獲得獎勵; 4)任何人都可以購買數據許可證,從而獲得訪問數據權限。數據集質量的保證通過聲譽機制來實現。所有貢獻者和驗證者(Agent 和人類)對每個永久數據集都有單獨的鏈上聲譽分數,聲譽值從0到1,隨著

任務完成質量會上升或下降,以此影響貢獻和驗證獎勵。數據集的每個貢獻都需要驗證,將分別經過 AI 驗證者和人工驗證者。對於每個貢獻,都有多個驗證者進行可靠性保證。

風險與挑戰


無論是 AI 還是 Web3,兩項技術發展與應用都屬於新興領域。而 AI 與 Web3 的結合更處於早期。其面臨的風險與挑戰是巨大的,以下是值得探討的風險點。

1.Web3 對 AI 賦能的局限性。從外部影響來看,Web3 的主要價值在於引入經濟激勵機制,以及通過將數據或模型資產化從而實現開放的交易市場建立。Web3 加密用戶數量有限,其開放市場與激勵機制的輻射範圍非常有限。而 AI 模型訓練對數據、算力等方面的需求都是巨大的。從內部影響看,引入零知識證明技術來實現模型的可驗證性,具有長遠的意義,但是該領域的發展存在一些核心挑戰。比如如何以最小的精度損失進行量化(量化是將浮點數表示為定點數的過程,這在處理 ZK電路算術時是必須的);比如隨著模型大小的增長,RAM 消耗和證明生成時間會迅速增加,這對硬件提供了更高的要求;比如如何來處理對抗性攻擊,等等。

2.成本優勢是否具有吸引力?類似去中心化算力網絡等 DePIN 項目,其區別於 Web2 世界的主要優勢來自以去中心化方式聚合數字服務能力具有更低的成本,有助於為創業團隊提供更經濟實惠的硬件設施或數字服務。如果當市場上 GPU、TPU 等算力資源供應得到有效緩解,需求側將迅速減弱,那麼去中心化算力網絡存在的價值就會削弱,而成本優勢就會更加衰弱。

3.AI與密碼學結合的效率與成本問題。無論是利用零知識證明技術還是 FHE 技術,執行隱私計算任務都會比明文執行效率低很多。由於 AI本身對計算需求的要求非常高,加入密碼學來執行 AI計算任務是否具有實際有效的落地性。AI 計算本身的成本非常昂貴,如果包裹一層密碼學技術,其成本升級也將是巨大的。

  1. AI 的深度造假問題,這是 AI 領域長期存在的風險。AI的普及導致了深度造假的日趨普遍。OpenAI的視頻生成模型 Sora 其視頻真偽已經用肉眼很難辨別真偽。那麼在 Web3 與 AI 交叉賦能的場景裡,如何預防 AI 伪造的風險?比如在數據貢獻的場景裡,不排除會有 AI生成數據來騙取 Token 獎勵的可能性,如何證明貢獻者是人而非機器?
  2. AI 模型訓練中的通信瓶頸,在 AI 模型訓練過程中,由於模型的參數數量巨大,通信瓶頸問題無法忽視。在數據傳輸過程中,會存在各個節點的頻繁交換模型參數和梯度信息,這會消耗大量的網絡帶寬,產生比較大的通信開銷。同時,訓練節點需要協同工作以保證訓練的正確進行,各節點的同步問題會對訓練結果產生影響。此外,各節點的模型參數需要保持一致,這需要各節點頻繁的數據校驗和同步操作,導致大量的通信開銷。

未來展望


雖然AI與Web3 的融合還非常早期,兩者結合的方式多以外部疊加影響的方式為主。真正從技術架構內部進行融合並產生真正的商業價值的 DeAI項目,還需要依賴更多的兼具 AI與 Web3 知識的優秀人才參與。目前來看,AI行業價值創造的核心在於模型層。而集中式的 AI模型訓練的效率優勢遠遠優於去中心化方式的成本優勢,或者說,AI 現階段發展更需要資本密集型和技術密集型的投入來推動行業的創新與發展,需要“集中力量辦大事"。

但是隨著 web3 和 AI 的不斷發展,兩者交叉融合的領域一定會不斷加強與豐富,產生有真實價值的商業場景。而對於 web3 數字世界而言,AI Agent 與智能合約的交互將是發展的趨勢。在執行人類意圖的環境之下,兩者結合勢必將更高效地為這個數字世界服務。期待更多 DeAI用例的湧現!

參考文獻

  1. The promise and challenges of crypto AI applications - Vitalik Buterin
  2. 從一級市場視角看待 AICrypto - ABCDE
  3. 《人工智慧--現代方法》第四版,作者:斯圖爾特·羅素; 彼得·諾維格著
  4. zkML: Evolving the Intelligence of Smart Contracts Through Zero-Knowledge Cryptography -1k(x
  5. 什麼是生成式 AI?-IBM
  6. 什麼是轉換器模型?-IBM
  7. AI x Crypto Primer
  8. Who owns the generative AI platform- a16z
  9. Crypto x AI - Going Down the Rabbit Hole
  10. Unlocking the Potential of AI Agents in Crypto - Messari
  11. Growing Synergies in AI and Crypto - Messari
  12. The Convergence of AI and Web 3: Opportunities and Challenges - Medium

最新