AI與加密貨幣:從歷史到產業鏈的全面解析

AI x Crypto:從零到巔峯

引言

近期AI行業的發展被一些人視爲第四次工業革命。大模型的出現顯著提升了各行各業的效率,波士頓諮詢認爲GPT爲美國提升了約20%的工作效率。同時大模型帶來的泛化能力被認爲是新的軟件設計範式,過去的軟件設計是精確的代碼,現在則是更泛化的大模型框架嵌入到軟件中,這些軟件能具備更好的表現和支持更廣泛模態的輸入與輸出。深度學習技術確實爲AI行業帶來了第四次繁榮,這股風潮也影響到了加密貨幣行業。

在本報告中,我們將詳細探討AI行業的發展歷史、技術分類,以及深度學習技術的發明對行業的影響。然後深入分析深度學習中GPU、雲計算、數據源、邊緣設備等產業鏈上下遊,以及其發展現狀與趨勢。之後我們從本質上詳細探討了加密貨幣與AI行業的關係,對加密貨幣相關的AI產業鏈格局進行了梳理。

新人科普丨AI x Crypto:從零到巔峯

AI行業的發展歷史

AI行業從20世紀50年代起步,爲了實現人工智能的願景,學術界和工業界在不同時代不同學科背景的情況下,發展出了多種實現人工智能的流派。

現代人工智能技術主要使用"機器學習"這一術語,該技術的理念是讓機器依靠數據在任務中反復迭代以改善系統的性能。主要步驟是將數據送到算法中,使用此數據訓練模型,測試部署模型,使用模型以完成自動化的預測任務。

目前機器學習有三大主要流派,分別是聯結主義、符號主義和行爲主義,分別模仿人類的神經系統、思維、行爲。

目前以神經網路爲代表的聯結主義佔據上風(也被稱爲深度學習),主要原因是這種架構有一個輸入層一個輸出層,但是有多個隱藏層,一旦層數以及神經元(參數)的數量變得足夠多,那麼就有足夠的機會擬合復雜的通用型任務。通過數據輸入,可以一直調整神經元的參數,那麼最後經歷過多次數據,該神經元就會達到一個最佳的狀態(參數),這也就是所謂的大力出奇跡,而這也是其"深度"兩字的由來——足夠多的層數和神經元。

舉個例子,可以簡單理解就是構造了一個函數,該函數我們輸入X=2時,Y=3;X=3時,Y=5,如果想要這個函數應對所有的X,那麼就需要一直添加這個函數的度及其參數,比如我此時可以構造滿足這個條件的函數爲Y = 2X -1 ,但是如果有一個數據爲X=2,Y=11時,就需要重構一個適合這三個數據點的函數,使用GPU進行暴力破解發現Y = X2 -3X +5,比較合適,但是不需要完全和數據重合,只需要遵守平衡,大致相似的輸出即可。這裏面X2以及X、X0都是代表不同的神經元,而1、-3、5就是其參數。

此時如果我們輸入大量的數據到神經網路中時,我們可以增加神經元、迭代參數來擬合新的數據。這樣就能擬合所有的數據。

而基於神經網路的深度學習技術,也有多個技術迭代與演進,分別如最早期的神經網路,前饋神經網路、RNN、CNN、GAN最後演進到現代大模型如GPT等使用的Transformer技術,Transformer技術只是神經網路的一個演進方向,多加了一個轉換器(Transformer),用於把所有模態(如音頻,視頻,圖片等)的數據編碼成對應的數值來表示。然後再輸入到神經網路中,這樣神經網路就能擬合任何類型的數據,也就是實現多模態。

AI發展經歷了三次技術浪潮,第一次浪潮是20世紀60年代,是AI技術提出的十年後,這次浪潮是符號主義技術發展引起的,該技術解決了通用的自然語言處理以及人機對話的問題。同時期,專家系統誕生,這個是斯坦福大學在美國國家航天局的督促下完成的DENRAL專家系統,該系統具備非常強的化學知識,通過問題進行推斷以生成和化學專家一樣的答案,這個化學專家系統可以被視爲化學知識庫以及推斷系統的結合。

在專家系統之後,20世紀90年代以色列裔的美國科學家和哲學家朱迪亞·珀爾(Judea Pearl)提出了貝葉斯網路,該網路也被稱爲信念網路。同時期,Brooks提出了基於行爲的機器人學,標志着行爲主義的誕生。

1997年,IBM深藍"Blue"以3.5:2.5戰勝了國際象棋冠軍卡斯帕羅夫(Kasparov),這場勝利被視爲人工智能的一個裏程碑,AI技術迎來了第二次發展的高潮。

第三次AI技術浪潮發生在2006年。深度學習三巨頭Yann LeCun 、Geoffrey Hinton 以及Yoshua Bengio提出了深度學習的概念,一種以人工神經網路爲架構,對資料進行表徵學習的算法。之後深度學習的算法逐漸演進,從RNN、GAN到Transformer以及Stable Diffusion,這兩個算法共同塑造了這第三次技術浪潮,而這也是聯結主義的鼎盛時期。

許多標志性的事件也伴隨着深度學習技術的探索與演進逐漸湧現,包括:

  • 2011年,IBM 的沃森(Watson)在《危險邊緣》(Jeopardy)回答測驗節目中戰勝人類、獲得冠軍。

  • 2014年,Goodfellow提出GAN(生成式對抗網路,Generative Adversarial Network),通過讓兩個神經網路相互博弈的方式進行學習,能夠生成以假亂真的照片。同時Goodfellow還寫了一本書籍《Deep Learning》,稱爲花書,是深度學習領域重要入門書籍之一。

  • 2015年,Hinton等人在《自然》雜志提出深度學習算法,該深度學習方法的提出,立即在學術圈以及工業界引起巨大反響。

  • 2015年,OpenAI創建,Musk、YC總裁Altman、天使投資人彼得·泰爾(Peter Thiel)等人宣布共同注資10億美元。

  • 2016年,基於深度學習技術的AlphaGo與圍棋世界冠軍、職業九段棋手李世石進行圍棋人機大戰,以4比1的總比分獲勝。

  • 2017年,中國香港的漢森機器人技術公司(Hanson Robotics)開發的類人機器人索菲亞,其稱爲歷史上首個獲得一等公民身分的機器人,具備豐富的面部表情以及人類語言理解能力。

  • 2017年,在人工智能領域有豐富人才、技術儲備的Google發布論文《Attention is all you need》提出Transformer算法,大規模語言模型開始出現。

  • 2018年,OpenAI 發布了基於Transformer算法構建的GPT(Generative Pre-trained Transformer),這是當時最大的語言模型之一。

  • 2018年,Google團隊Deepmind發布基於深度學習的AlphaGo,能夠進行蛋白質的結構預測,被視爲人工智能領域的巨大進步性標志。

  • 2019年,OpenAI發布GPT-2,該模型具備15億個參數。

  • 2020年,OpenAI開發的GPT-3,具有1,750億個參數,比以前的版本GPT-2高100倍,該模型使用了570GB的文本來訓練,可以在多個NLP(自然語言處理)任務(答題、翻譯、寫文章)上達到最先進的性能。

  • 2021年,OpenAI發布GPT-4,該模型具備1.76萬億個參數,是GPT-3的10倍。

  • 2023年1月基於GPT-4模型的ChatGPT應用程序推出,3月ChatGPT達到一億用戶,成爲歷史最快達到一億用戶的應用程序。

  • 2024年,OpenAI推出GPT-4 omni。

注:由於人工智能的論文很多、流派很多、技術演變不一,因此在這裏主要是跟隨深度學習或者聯結主義的發展歷史,其它流派和技術仍然處於高速發展的過程中。

新人科普丨AI x Crypto:從零到巔峯

深度學習產業鏈

當前大模型語言使用的都是基於神經網路的深度學習方法。以GPT爲首的大模型造就了一波人工智能的熱潮,大量的玩家湧入這個賽道,我們也發現市場對於數據、算力的需求大量迸發,因此在報告的這一部分,我們主要是探索深度學習算法的產業鏈,在深度學習算法主導的AI行業,其上下遊是如何組成的,而上下遊的現狀與供需關係、未來發展又是如何。

首先我們需要明晰的是,在進行基於Transformer技術的GPT爲首的LLMs(大模型)訓練時,一共分爲三個步驟。

在訓練之前,因爲是基於Transformer,因此轉換器需要將文本輸入轉化爲數值,這個過程被稱爲"Tokenization",之後這些數值被稱爲Token。在一般的經驗法則下,一個英文單詞或者字符可以粗略視作一個Token,而每個漢字可以被粗略視爲兩個Token。這個也是GPT計價使用的基本單位。

第一步,預訓練。通過給輸入層足夠多的數據對,類似於報告第一部分所舉例的(X,Y),來尋找該模型下各個神經元最佳的參數,這個時侯需要大量的數據,而這個過程也是最耗費算力的過程,因爲要反復迭代神經元嘗試各種參數。一批數據對訓練完成之後,一般會使用同一批數據進行二次訓練以迭代參數。

第二步,微調。微調是給予一批量較少,但是質量非常高的數據,來訓練,這樣的改變就會讓模型的輸出有更高的質量,因爲預訓練需要大量數據,但是很多數據可能存在錯誤或者低質量。微調步驟能夠通過優質數據提升模型的品質。

第三步,強化學習。首先會建立一個全新的模型,我們稱其爲"獎勵模型",這個模型目的非常簡單,就是對輸出的結果進行排序,因此實現這個模型會比較簡單,因爲業務場景比較垂直。之後用這個模型來判定我們大模型的輸出是否是高質量的,這樣就可以用一個獎勵模型來自動迭代大模型的參數。(但是有時候也需要人爲參與來評判模型的輸出質量)

簡而言之,在大模型的訓練過程中,預訓練對數據的量有非常高的要求,所需要耗費的GPU算力也是最多的,而微調需要更加高質量的數據來改進參數,強化學習可以通過一個獎勵模型來反復迭代參數以輸出更高質量的結果。

在訓練的過程中,參數越多那麼其泛化能力的天花板就越高,比如我們以函數舉例的例子裏,Y = aX + b,那麼實際上有兩個神經元 X以及X0,因此參數如何變化,其能夠擬合的數據都極其有限,因爲其本質仍然是一條直線。如果神經元越多,那麼就能迭代更多的參數,那麼就能擬合更多的數據,這就是爲什麼大模型大力出奇跡的原因,並且這也是爲什麼通俗取名大模型的原因,本質就是巨量的神經元以及參數、巨量的數據,同時需要巨量的算力。

因此,影響大模型表現主要由三個方面決定,參數數量、數據量與質量、算力,這三個共同影響了大模型的結果質量和泛化能力。我們假設參數數量爲p,數據量爲n(以Token數量進行計算),那麼我們能夠通過一般的經驗法則計算所需的計算量,這樣就可以預估我們需要大致購買的算力情況以及訓練時間。

算力一般以Fl

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 讚賞
  • 6
  • 分享
留言
0/400
夹子检测者vip
· 2小時前
还行,回国摆地摊算了
回復0
GasGasGasBrovip
· 13小時前
本升级杀疯了
回復0
FUDwatchervip
· 15小時前
啊?AI又来蹭热度了
回復0
PumpBeforeRugvip
· 15小時前
效率提升20 咋没感觉到啊
回復0
StealthMoonvip
· 15小時前
AI牛归牛 账号欠费
回復0
链游评鉴家vip
· 15小時前
能效提升20%有数据来源吗
回復0
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)