模塊化區塊鏈 — 以太坊成為「世界電腦」的工程化方案
以太坊的模塊化架構設計主要分為四層:執行層、結算層、共識層、數據可用性層。目前很多情況下,行業內也會把執行層和結算層統一稱執行層,共識層和數據可用性層統一稱為共識層。 區塊鏈的模塊化趨勢 站在2022年的當下看Crypto的發展趨勢,在這個時候去做一個L1新公鏈難免有點牽強,模塊化區塊鏈的叙事不可忽視。 The Merge之後,Ethereum的發展路線越來越傾向於模塊化區塊鏈(Modular Blockchain)的方向。模塊化區塊鏈與單片區塊鏈(Monolithic Blockchain)的區別主要在於:單片區塊鏈在一個基礎共識層同時實現執行、結算、共識和數據可用性四個功能,而模塊化區塊鏈則分為多個模塊負責這些功能實現。事實上,並非只有以太坊在規劃模塊化的架構:最早提出模塊化區塊鏈思路的Celestia正基於Cosmos生態為Rollups搭建一個數據可用性層;Tezos也正在擁抱以Rollup為中心的路線圖;NEAR也正在對數據可用性分片進行設計。本文主要討論以太坊的模塊化趨勢。以太坊的擁堵現狀,已經反映了單片區塊鏈的弊端──可擴展性差、不可定制、費用高。單片區塊鏈的問題在於:在共識層必須執行許多不同的任務,並且僅針對其中一項功能進行優化無法有效提高區塊鏈的性能。形象地說,單片區塊鏈就像一個由4塊木板構成的木桶,它的容量(性能)取決於最短的那根,只要有一個屬性短板整體性能就有短板,而「區塊鏈不可能三角」又限制了所有屬性同時實現極致發展的可能,所以單純地基於單片區塊鏈的思路做擴容是無法解決以太坊的困境的。模塊化混合擴容:layer1(data sharding)+layer2(rollups) 實際上模塊化區塊鏈本質上是一種混合擴容的方案。在第六屆區塊鏈全球峰會上,Vitalik的演講主題是《以太坊第二層協議生態的崛起》,會上Vitalik認為以太坊生態系統中不單純是Layer1擴容或者Layer2擴容,採取的是混合擴容的方式。而模塊化區塊鏈的本質就類似layer1和layer2混合擴容。   以太坊的模塊化架構 以太坊的模塊化架構設計主要分為四層:執行層、結算層、共識層、數據可用性層。目前很多情況下,行業內也會把執行層和結算層統一稱執行層,共識層和數據可用性層統一稱為共識層。執行層(Execution Layer):負責處理鏈上交易、執行鏈上訂單並驗證轉帳和智能合約的執行,主要將以Rollup為主。模塊化區塊鏈發展到一定階段後,用戶通常是基於執行層與區塊鏈進行交互,包括簽名交易、部署智能合約以及轉移資產等。執行層解決了區塊鏈的可擴展性。結算層(Settlement Layer):結算層用於驗證Rollup等執行層的執行結果以及解決爭議,並結算出狀態承諾。 共識層(Consensus Layer):共識層通過全節點網絡下載和執行區塊的內容,就狀態轉換的有效性達成共識,從而提供排序和最終確定性,並以PoS機制驗證出塊。 數據可用性層(Data Availability Layer):保證交易數據可以被使用(保證存儲且可驗證與可用)。需要將驗證狀態轉換有效性所需的數據發布並存儲在這一層,一旦遭遇惡意區塊提議者扣留交易數據的事件,數據可用性層的數據可用作驗證。 在The Merge後可預見的短中期階段,以太坊的結算層、共識層和數據可用性層是統一的。未來的Danksharding將會把以太坊L1的數據分片(Data Sharding)轉變為數據可用性引擎、信標鏈作為共識層、原來的以太坊主網成為一個執行層,更多的執行層則是L2的Rollups。此外,在目前L2的基礎上,行業裏已經開始探索定制化的L3也將是執行層的擴展。 如果說當下的以太坊還只是理論性「世界計算機」,那麼模塊化區塊鏈則是以太坊成為「世界計算機」的工程化方案。   以太坊接下來的規劃 眾所周知,The Merge是關於從PoW轉換為PoS,Beacon Chain和原以太坊主鏈合併。The Merge之外,以太坊其實還同時並行推進着The Surge、The Verge、The Purge、The Splurge。這些升級的推出順序尚不確定,因為它們是相互獨立、平行進行的。The Surge是關於引入分片,屆時將允許以太坊網絡通過分片來實現大規模擴展。 The Verge是關於Verkle Trees,以幫助優化以太坊上的存儲並幫助減少節點大小。這次升級將致力於通過Verkle Trees優化存儲,這是一種數學證明,是Merkle Trees的升級。通過減少驗證者需要在其電腦上存儲的數據量來運行操作,節點規模將縮小,並允許更多用戶成為驗證者。這將進一步使網絡去中心化,提高安全性。 The Purge將減少驗證者所需的硬盤空間,因為消除了歷史數據和技術債務。這意味着存儲簡化,從而減少網絡擁堵。 The Splurge是對以太坊網絡的一系列微調,包含各種較小的升級,讓以太坊網絡更絲滑。Vitalik表示,以太坊在完成以上5個關鍵階段後可以實現10萬TPS,真正成為他當初設想的「世界計算機」。 以上五個並行的關鍵階段的命名雖然押韻,但可能還是挺難理解以太坊在未來三四年的具體規劃。如果把其中的更關鍵更具體的升級事件拎出來講,也許更能看清以太坊的模塊化趨勢:   1. Proto-danksharding(EIP-4844) Proto-danksharding是一個提議,用於實現構成完整Danksharding規範的大部分邏輯和基礎規則(例如:交易格式、驗證規則等),但這個階段尚未實現任何分片。在Proto-danksharding階段,所有驗證者和用戶仍然必須直接驗證完整數據的可用性。 Proto-danksharding引入的主要特徵是新的交易類型,稱為「攜帶blob的交易」。攜帶blob的事務類似於常規事務,主要區別是它還攜帶一個稱為blob的額外數據。Blob大概128kb,比類似大小的Calldata便宜很多。但是EVM執行無法訪問blob數據,EVM只能查看對blob的承諾。 目前以太坊的區塊大小是由Gas容量決定,在EIP-4844實施後Blob的數量將會成為決定區塊大小的另一個維度。Blob是一種二元數據結構,大小約為128kb,以太坊區塊對每個區塊中可以容納的Blob做了限制,目標Blob數量是8個,最大可以為16個,因此每個區塊將額外增加1-2MB(128*8-128*16)的存儲空間。 Blob主要用於存儲Layer2的數據,在此之前Layer2數據的存儲是通過Calldata實現的。在引入Blob後,區塊內可用於存儲的空間將得到大幅增加。但由於Blob數據較大,如果每個區塊額外增加1MB的Blob數據,那麼以太坊區塊鏈一個月就會多出數TB的數據,為了解決數據量快速增加的問題,這些Blob數據將會採取離線存儲的方式,而且30天後會自動删除。 由於Blob的數據沒有與現有以太坊交易的Gas使用量競爭,因此仍然可以獲得很顯著的擴容效果。如果要比較簡單地理解Proto-Danksharding的這個EIP-4844提議,可以理解為──以太坊layer1在保持1MB的區塊大小的基礎上,通過採取30天短期、離線存儲的方式以Blob這種形式來存儲Layer2的數據,以此實現擴容效果。 2、Danksharding Danksharding是為以太坊提出的新分片設計。以前計劃的分片是狀態分片(State Sharding),後來決定以Rollups為中心的路線圖,實施layer1(data sharding)+layer2(rollups)模塊化混合擴容方案後,實施的是數據分片(Data Sharding)。數據分片本質上是模塊化區塊鏈的思路,將以太坊分成多個數據分片,每個數據分片連接一個或多個Rollup,Rollup作為執行層,以太坊作為共識層和數據可用性層。 Danksharding引入的核心機制主要:PBS和DAS。 PBS(Proposer builder separation)是指構建區塊時區塊提議者(Proposer)和區塊構建者(builder)分離。由Proposer提議區塊,Builder競拍交易的排序權並計算區塊頭,Proposer根據Builder的計算結果打包交易並將區塊頭寫入區塊完成出塊。在PBS之前的區塊提議者(Merge前是Miner,Merge後是Validator)可以通過查看mempool中有哪些交易並採取一些策略來獲得MEV的機會以最大化他們的挖礦收益。引入PBS機制後,這種角色分離機制結合Builder排序權的競拍機制可以一定程度上解決MEV問題,最後的MEV收益相當於會被全網驗證者共享。除此之外,PBS還有助於解決分片與信標鏈的同步問題、以太坊網絡的抗審查問題等。 DAS(數據可用性抽樣,Data Availability Sampling)是解決區塊鏈狀態爆炸的有效方法。讓驗證節點檢查區塊可用性,通過使用DAS檢查,輕客戶端可以通過僅下載一些隨機選擇的塊來驗證一個塊是否已發布。由於DAS可以對區塊數據做並行化驗證,所以未來數據分片(Data Sharding)的數量即使很多,也不會增加單個驗證節點的負擔,反而會刺激更多驗證節點加入,從而保證驗證節點的充分去中心化。 最終,Danksharding能夠通過PBS實現以太坊的中心化出塊,通過DAS實現去中心化驗證,並且具備一定程度的抗審查性,從而確保以太坊成為可擴展的共識層和數據可用性層,並且能夠承接住執行層的更多Rollups。(PS:中心化出塊、去中心化驗證也是Vitalik在Endgame中提出的對以太坊未來發展的構想。)   總結 我其實一直覺得以太坊創始團隊是很有情懷的,有很多細節讓我覺得他們會不忘初心、砥砺前行。 在以太坊歷次升級中,有三個升級讓我印象深刻,分別是:437萬區塊高度的拜佔庭硬分叉、728萬區塊高度的君士坦丁堡硬分叉、906.9萬區塊高度的伊斯坦布爾網絡升級。 很有意思的是,拜佔庭、君士坦丁堡和伊斯坦布爾是同一個城市。這個城市橫跨歐亞,北瀕金角灣、南臨馬爾馬拉海、東與小亞西亞半島隔海相望、只有西邊與陸地相連。拿破侖曾對這座城市慷慨陳詞:「如果世界是一個國家,他的首都一定是伊斯坦布爾」。這座古城因為以太坊的緣故,與區塊鏈世界構建了微妙的聯系,這三次升級的命名也傳遞了一種訊息──以太坊始終如一。 也許以太坊的模塊化區塊鏈之路不會走得那麼快,但可以確定的是,無論大主題的The Merge、The Surge、The Verge、The Purge、The Splurge等旨在實現10萬TPS的五階段,還是具體的關鍵升級Proto-danksharding、Danksharding,最終目的都是要推動以太坊實現「世界計算機」的初衷。   轉載連結:https://www.chaincatcher.com/article/2080008 本文章挑選自鏈捕手 以太坊 2.0 動態與研究   本網站所有非原創(轉載)文章版權歸原作者所有 特別說明:轉載文章會進行二次編輯以符合文章寫作需求,望作者包涵   延伸閱讀: 【新手懶人包】區塊鏈是甚麼?一文看懂區塊鏈演化、應用、常見術語 【新手懶人包】元宇宙是甚麼?剖析元宇宙的構成、未來商機和應用 【新手懶人包】 NFT 是甚麼?整合 NFT 科普、平台比較、製作方法 【新手懶人包】 GameFi 是甚麼?一文認識 GameFi 原理、運作方式、熱門NFT遊戲
Allen -
從下一代數據中心的角度,談談為何 Web3 終將到來
治理時間太長,開發時間太少,價格聲音太多。太累了,全部退還。」這樣的一句解散宣言,透露了團隊成員的許多委屈和無奈。 1.甚麼是數據中心? 數據中心(Data Center),起源於20世紀40年代的巨型計算機房,以埃尼阿克這樣的最早面世的計算機為代表,早期的計算機系統,操作和維護起來很複雜,需要一個特殊的操作環境,連接所有組件需要許多電線和電纜,數據中心就是用來容納和組織這些組件的空間。 圖:最早的計算機埃尼阿克(ENIAC)來源:維基百科 在20世紀80年代,用戶可以在各個地方部署計算機,當時對操作的要求還並不複雜,但是,隨着信息技術 (IT) 運營的複雜度增加,大家意識到需要對 IT 資源進行控制。「數據中心」,適用於專門設計的計算機房。 1980年代的數據中心長這樣 盡管2000年前後處於互聯網泡沫時期,很多公司倒閉,但是這段時間也給數據中心的發展和普及創造了機會,因為很多中小互聯網創業公司也需要快速的互聯網連接和不間斷的操作來部署系統,但是對於資源有限的小公司來說,安裝大型互聯網數據中心是很不實際的,因此許多公司開始建造非常大的設施,也就是IDC(Internet Data Center,互聯網數據中心) IDC長啥樣? IDC的發展經歷了三個不同階段: 第一代的數據中心只提供場地、帶寬等基礎托管服務; 第二代的數據中心則是以增值服務和電子商務作為其服務的核心; 第三代的數據中心能夠提供融合的托管服務,可以實時地將互聯網信息、電話信息、傳真信息等集成在一起,再以客戶最容易接受的方式提供給客戶,這樣,第三代的數據中心其實變成了一個網絡服務中心。 2.數據中心的叠代 那麼,從最早的機房時代再到今天常見的行業雲,數據中心都經歷過哪幾次叠代? 數據中心1.0時代,基本就是物理意義上的數據中心,也就是1990年代至2006年的機房時代,包含了大型計算機,小型計算機以及今天意義上的x86通用計算機,基本上就是電信企業面向大型企業提供的機房,包括場地、電源、網絡、通信設備等基礎電信資源和設施的托管和線路維護服務。 數據中心2.0時代,互聯網走向民用,網站數量激增,服務器、主機、出口帶寬等設備與資源集中放置與維護需求激增,主機托管、網站托管等商業模式出現,再到後來IDC服務商出現,他們圍繞主機托管提供數據存儲管理、安全管理、網絡互連、出口帶寬網絡服務等等,這一階段的數據中心由互聯網企業自行搭建或者租賃,存在建設與維護成本高、難以隨業務發展而靈活擴展諸多問題,雲計算應運而生。2007至2013的通用計算雲時代,這一時期主要的特徵是商業模式構建以租戶為中心,不論是物理機的服務器托管服務還是雲計算的虛擬機租用模式。 數據中心3.0時代,2014至2021的行業雲時代,雲服務提供商成為主流,而其中高價值的行業雲誕生,數據中心的規模空前,而這也意味着計算和數據的高度的集中化。早在1961年就有人預料到計算會成為公共服務,1990年代網格計算(Grid Computing)與雲計算(Cloud Computing)等概念就已先後出現,不過直到本世紀初亞馬遜AWS才真正拉開雲計算的序幕,計算真正成為所見即所得的公共服務,數據中心從分散在各地的「小電站」逐步走向集中式的「大電廠」,一般都是科技巨頭搭建的大型化、虛擬化、綜合化數據中心,通過對存儲與計算能力虛擬化,變為一種按需使用的計算力,對於使用者來說,集中規模化降低了成本,同時具備了靈活拓展能力。 數據中心的歷史,最早可以追溯到20世紀40年代中期,當時最早用於軍事的計算機房容納了大型軍用機器,用來處理特定的數據任務。到了20世紀60年代,有了大型計算機的誕生,IBM公司為大型公司和政府機構部署了專用大型機房,但是,由於使用需求的增長,需要獨立的建築承載這些大型計算機,這就是最早一批數據中心的誕生。 直到20世紀80年代,個人電腦(PC)橫空出世,電腦需要與遠程服務器聯網,這樣才可以訪問大型數據文件。到20世紀90年代,也就是互聯網(Web1.0)開始廣泛普及時,互聯網交換中心(IX)大樓已逐步在主要國際城市興起,以滿足萬維網的需求。這些IX大樓,也是是當時最重要的數據中心,很多人提供服務,很多還在使用。 甚麼是互聯網交換中心(Internet Exchange Point)? 主要是指是不同電信運營商之間為連通各自網絡而建立的集中交換平台,互聯網交換中心在國外簡稱IX或IXP,一般由第三方中立運營,是 互聯網的重要基礎設施。 參考資料:數據中心進化史:從本地機房到IDC到雲再到智算中心 -創事記-2020 3.為甚麼數據中心會叠代? 從網站托管需求開始出現的數據中心發展 隨着互聯網使用的增長,數據中心數量開始急劇上升,因為2000年前後,各種規模的公司都熱衷於在互聯網上建立自己的網站,這時的數據中心,可以為這些公司的網站提供托管服務,並且提供遠程服務器以保持它的運行。由於這個時候的互聯網數據中心有着大量的服務器和來自不同電話公司和網絡運營商的電纜,一旦網站出現任何技術問題,數據中心運營商可以馬上更換服務器或切換連接,以保持其正常運行。 這是互聯網數據中心主要的需求所在,也是商業模式和用戶選擇它們的理由。 當時,很多組織或者公司會將自己的數據業務遷移到數據中心,這種方式被稱為主機托管,也就是說,企業要麼將自己的服務器放在供應商的數據中心,要麼從供應商那裏租用服務器空間,用於遠程運行和訪問一些應用程序,例如電子郵件、數據存儲或備份。 雲服務與數據中心 不過,在過去的十年左右,雲服務大廠頻頻出現,無論是微軟、谷歌、亞馬遜、IBM、甲骨文、SAP、Salesforce、阿裏雲,還是其他許多公司,雲服務的市場,最初是由亞馬遜網絡服務啓動的,該公司圍繞 "基礎設施即服務(IaaS)"為企業提供托管解決方案。IaaS允許公司通過雲計算靈活地訪問由AWS等供應商擁有的遠程服務器,並根據其業務數據處理和管理需要,按需使用(也就是說,企業可以隨時點外賣,由專業服務商處理這些業務)。 還有一種說法是,AWS提供IaaS,主要是因為亞馬遜有着快速增長的電子商務業務,而這些業務可以為市場其他主體提供多餘的雲服務器容量,而事實並不是這樣,AWS的出現,是亞馬遜可以向任何有需求的人或機構提供IaaS而專門建立的業務,IaaS允許初創公司和小公司與大型機構競爭,因為大型機構通常擁有更廣泛的計算能力供其支配,有了雲服務,小公司也可以直接採購成熟的業務,不需要自己建設團隊(自己建設團隊,構建計算能力的成本對於小公司是非常高的) 需求和增長是如何發生的? 當很多公司開始通過雲計算遠程訪問部分或大部分關鍵的商業軟件應用程序,而不是在位於自己機房的服務器上部署和管理這些應用時,雲計算數據中心的增速就開始了。 為甚麼會有這種變化? 成本和效率,永遠是商業公司需要考慮的。 有了雲服務,無論是何種規模的公司,都可以根據業務需求,選擇合適的使用規模,從而降低軟件的成本。這比在公司內部服務器上永久安裝一些功能豐富的軟件的成本要低很多。 由於雲服務的需求急劇增加,因此,為托管這些服務而建造的數據中心的規模和數量也會增加。這樣的數據中心就是超大規模的數據中心,通常這種設施由雲服務提供商和其他公司所有,建造這些設施是為了向提供這些服務的家喻戶曉的公司使用空間。2020年第二季度末,如微軟、谷歌和亞馬遜運營的全球大型數據中心總數已增加到541個,比2015年中期的數字增加了一倍多 總結一下: 1980--2000年這段區間內,互聯網剛出現,大型機和小型機是主流,但其成本非常高昂,運行的UNIX系統也成本高昂,並且,通用計算機x86性能尚且無法滿足很多業務需求,但是隨着通用計算機真正成為下一個時代的趨勢,降本增效成為了所有企業的剛性需求。 2000年到現在,2006年AWS成立是一個開始,之後行業逐步認可了公有雲作為基礎設施的存在,特別是在2013/2014年,AWS拿很多大客戶的單子,我們可以這麼理解,在早年間使用公有雲的確成本低廉,成本優勢巨大,但在2015之後公有雲的成本優勢也在不斷減少,即使按照整體成本(服務器+租用機櫃+運維人員工資+開發團隊協同等因素)目前公有雲成本並不佔優勢,於是出現了很多大廠開始自建雲的趨勢。 那麼,下一代數據中心長甚麼樣?和Web3有甚麼關系?為甚麼會出現新的第四代數據中心?背後的原因何在? 4.Web3與下一代(第4代)數據中心 首先,我們認為下一代數據中心一定會與目前的數據中心不同,這是業務進化和底層技術的叠代所造成的必然。 其次,下一代數據中心,會呈現分布式(邦聯化)和去中心化的形態。 為甚麼這麼判斷? 我們先從業務角度來看,這塊分為兩部分:一是傳統業務,二是Web3業務。 首先,如果從傳統業務來看,Service Mesh的發展,給很多業務帶來了分布式的呈現。自從幾十年前第一次引入分布式系統這個概念以來,出現了很多原來根本想象不到的分布式系統使用案例,行業的需求特推動着前進的步伐,分布式系統的組成從幾個大型的中央電腦發展成為數以千計的小型服務。具體是怎麼回事呢? 當電腦第一次聯網,由於人們首先想到的是讓兩台或多台電腦相互通訊,因此,大家構思出了如下圖的邏輯。 互相之間可以通訊的兩個服務可以滿足最終用戶的一些需求,讓我們把這個圖再詳細一點,添加一些網絡協議棧組件: 上述這個修改過的模型自20世紀50年代以來一直使用至今。一開始,計算機很稀少,也很昂貴,所以兩個節點之間的每個環節都被精心制作和維護。隨着計算機變得越來越便宜,連接的數量和數據量大幅增加。隨着人們越來越依賴網絡系統,工程師們需要保證他們構建的軟件能夠達到用戶所要求的服務質量。當然,還有許多問題急需解決以達到用戶要求的服務質量水平。人們需要找到解決方案讓機器互相發現、通過同一條線路同時處理多個連接、允許機器在非直連的情況下互相通信、通過網絡對數據包進行路由、加密流量等等。 在這其中,有一種叫做流量控制的東西,下面我們以此為例。流量控制是一種防止一台服務器發送的數據包超過下遊服務器可以承受上限的機制。這是必要的,因為在一個聯網的系統中,你至少有兩個不同的、獨立的計算機,彼此之間互不了解。計算機A以給定的速率向計算機B發送字節,但不能保證B可以連續地以足夠快的速度來處理接收到的字節。例如,B可能正在忙於並行運行其他任務,或者數據包可能無序到達,並且B可能被阻塞以等待本應該第一個到達的數據包。這意味着A不僅不知道B的預期性能,而且還可能讓事情變得更糟,因為這可能會讓B過載,B現在必須對所有這些傳入的數據包進行排隊處理。 一段時間以來,大家寄希望於建立網絡服務和應用程序的開發者能夠通過編寫代碼來解決上面提出的挑戰。在我們的這個流程控制示例中,應用程序本身必須包含某種邏輯來確保服務不會因為數據包而過載。在我們的抽象示意圖中,它是這樣的: 幸運的是,技術的發展日新月異,隨着像TCP/IP這樣的標準的橫空出世,流量控制和許多其他問題的解決方案被融入進了網絡協議棧本身。這意味着這些流量控制代碼仍然存在,但已經從應用程序轉移到了操作系統提供的底層網絡層中。 這個模型相當地成功。幾乎任何一個組織都能夠使用商業操作系統附帶的TCP/IP協議棧來驅動他們的業務,即使有高性能和高可靠性的要求。 當第一次使用微服務 多年以來,計算機變得越來越便宜,並且到處可見,而上面提到的網絡協議棧已被證明是用於可靠連接系統的事實上的工具集。隨着節點和穩定連接的數量越來越多,行業中出現了各種各樣的網絡系統,從細粒度的分布式代理和對象到由較大但重分布式組件組成的面向服務的架構。 不過,為了處理更複雜的問題,需要轉向更加分散的系統(我們通常所說的微服務架構),這在可操作性方面提出了新的要求。下面則列出了一個必須要處理的東西: ①計算資源的快速提供②基本的監控③快速部署④易於擴展的存儲⑤可輕松訪問邊緣⑥認證與授權⑦標準化的RPC 因此,盡管數十年前開發的TCP/IP協議棧和通用網絡模型仍然是計算機之間相互通訊的有力工具,但更複雜的架構引入了另一個層面的要求,這再次需要由在這方面工作的工程師來實現。例如,對於服務發現和斷路器,這兩種技術已用於解決上面列出的幾個彈性和分布式問題。 歷史往往會重演,第一批基於微服務構建的系統遵循了與前幾代聯網計算機類似的策略。這意味着落實上述需求的責任落在了編寫服務的工程師身上。 服務發現是在滿足給定查詢條件的情況下自動查找服務實例的過程,例如,一個名叫Teams的服務需要找到一個名為Players的服務實例,其中該實例的environment屬性設置為production。你將調用一些服務發現進程,它們會返回一個滿足條件的服務列表。對於更集中的架構而言,這是一個非常簡單的任務,可以通常使用DNS、負載均衡器和一些端口號的約定(例如,所有服務將HTTP服務器綁定到8080端口)來實現。而在更分散的環境中,任務開始變得越來越複雜,以前可以通過盲目信任DNS來查找依賴關系的服務現在必須要處理諸如客戶端負載均衡、多種不同環境、地理位置上分散的服務器等問題。如果之前只需要一行代碼來解析主機名,那麼現在你的服務則需要很多行代碼來處理由分布式引入的各種問題。 斷路器背後的基本思路非常簡單。將一個受保護的函數調用包含在用於監視故障的斷路器對象中。一旦故障達到一定閾值,則斷路器跳閘,並且對斷路器的所有後續調用都將返回錯誤,並完全不接受對受保護函數的調用。通常,如果斷路器發生跳閘,你還需要某種監控警報。 這些都是非常簡單的設備,它們能為服務之間的交互提供更多的可靠性。然而,跟其他的東西一樣,隨着分布式水平的提高,它們也會變得越來越複雜。系統發生錯誤的概率隨着分布式水平的提高呈指數級增長,因此即使簡單的事情,如「如果斷路器跳閘,則監控警報」,也就不那麼簡單了。一個組件中的一個故障可能會在許多客戶端和客戶端的客戶端上產生連鎖反應,從而觸發數千個電路同時跳閘。而且,以前可能只需幾行代碼就能處理某個問題,而現在需要編寫大量的代碼才能處理這些只存在於這個新世界的問題。 事實上,上面舉的兩個例子可能很難正確實現,這也是大型複雜庫,如Twitter的Finagle和Facebook的Proxygen,深受歡迎的原因,它們能避免在每個服務中重寫相同的邏輯。 大多數採用微服務架構的組織都遵循了上面提到的那個模型,如Netflix、Twitter和SoundCloud。隨着系統中服務數量的增加,他們發現了這種方法存在着各種弊端。即使是使用像Finagle這樣的庫,項目團隊仍然需要投入大量的時間來將這個庫與系統的其他部分結合起來,這是一個代價非常高的難題。有時,代價很容易看到,因為工程師被分配到了專門構建工具的團隊中,但是更多的時候,這種代價是看不見的,因為它表現為在產品研發上需要花費更多的時間。 第二個問題是,上面的設置限制了可用於微服務的工具、運行和語言。用於微服務的庫通常是為特定平台編寫的,無論是編程語言還是像JVM這樣的運行時。如果開發團隊使用了庫不支持的平台,那麼通常需要將代碼移植到新的平台。這浪費了本來就很短的工程時間。工程師沒辦法再把重點放在核心業務和產品上,而是不得不花時間來構建工具和基礎架構。那就是為甚麼一些像SoundCloud和DigitalOcean這樣的中型企業認為其內部服務只需支持一個平台,分別是Scala或者Go。 這個模型最後一個值得討論的問題是管理方面的問題。庫模型可能對解決微服務架構需求所需功能的實現進行抽象,但它本身仍然是需要維護的組件。必須要確保數千個服務實例所使用的庫的版本是相同的或至少是兼容的,並且每次更新都意味着要集成、測試和重新部署所有服務,即使服務本身沒有任何改變。 下一個邏輯 類似於我們在網絡協議棧中看到的那樣,大規模分布式服務所需的功能應該放到底層的平台中。 人們使用高級協議(如HTTP)編寫非常複雜的應用程序和服務,甚至無需考慮TCP是如何控制網絡上的數據包的。這種情況就是微服務所需要的,那些從事服務開發工作的工程師可以專注於業務邏輯的開發,從而避免浪費時間去編寫自己的服務基礎設施代碼或管理整個系統的庫和框架。將這個想法結合到我們的圖表中,我們可以得到如下所示的內容: 通過改變網絡協議棧來添加這個層並不是一個可行的任務。許多人的解決方案是通過一組代理來實現。這個的想法是,服務不會直接連接到它的下遊,而是讓所有的流量都將通過一個小小的軟件來透明地添加所需功能。 在這個領域第一個有記載的進步使用了邊三輪(sidecars)這個概念。「邊三輪」是一個輔助進程,它與主應用程序一起運行,並為其提供額外的功能。在2013年,Airbnb寫了一篇有關Synapse和Nerve的文章,這是「邊三輪」的一個開源實現。一年後,Netflix推出了Prana,專門用於讓非JVM應用程序從他們的NetflixOSS生態系統中受益。在SoundCloud,我們構建了可以讓遺留的Ruby程序使用我們為JVM微服務構建的基礎設施的「邊三輪」: 雖然有這麼幾個開源的代理實現,但它們往往被設計為需要與特定的基礎架構組件配合使用。例如,在服務發現方面,Airbnb的Nerve和Synapse假設了服務是在Zookeeper中註冊,而對於Prana,則應該使用Netflix自己的Eureka服務註冊表 。隨着微服務架構的日益普及,我們最近看到了一波新的代理浪潮,它們足以靈活地適應不同的基礎設施組件和偏好。這個領域中第一個廣為人知的系統是Linkerd,它由Buoyant創建出來,源於他們的工程師先前在Twitter微服務平台上的工作。很快,Lyft的工程團隊宣布了Envoy的發布,它遵循了類似的原則。 Service Mesh 在這種模式中,每個服務都配備了一個代理「邊三輪」。由於這些服務只能通過代理「邊三輪」進行通信,我們最終會得到類似於下圖的部署方案: 甚麼是Service Mesh? 服務網格是用於處理服務到服務通信的專用基礎設施層。它負責通過複雜的服務拓撲來可靠地傳遞請求。實際上,服務網格通常被實現為與應用程序代碼一起部署的輕量級網絡代理矩陣,並且它不會被應用程序所感知。這個定義最強大的地方可能就在於它不再把代理看作是孤立的組件,並承認它們本身就是一個有價值的網絡。 隨着微服務部署被遷移到更為複雜的運行時中去,如Kubernetes和Mesos,人們開始使用一些平台上的工具來實現網格網絡這一想法。他們實現的網絡正從互相之間隔離的獨立代理,轉移到一個合適的並且有點集中的控制面上來。 來看看這個鳥瞰圖,實際的服務流量仍然直接從代理流向代理,但是控制面知道每個代理實例。控制面使得代理能夠實現諸如訪問控制和度量收集這樣的功能,但這需要它們之間進行合作: 完全理解服務網格在更大規模系統中的影響還為時尚早,但這種架構已經凸顯出兩大優勢。首先,不必編寫針對微服務架構的定制化軟件,即可讓許多小公司擁有以前只有大型企業才能擁有的功能,從而創建出各種有趣的案例。第二,這種架構可以讓我們最終實現使用最佳工具或語言進行工作的夢想,並且不必擔心每個平台的庫和模式的可用性。 總結一下:隨着Service Mesh的發展,傳統業務的一部分確實會向着分布式的趨勢發展。 本段參考資料:原文:Pattern: Service Mesh,來源,騰訊開發者(作者/Phil Calçado,翻譯/雁驚寒,責編/魏偉 ) 其次,如果從Web3的業務來看,與Web2.0不同,Web3的業務和基礎設施綁定的很深,Web3也有分布式數據中心的需求。特別是在以太坊轉為PoS之後,不需要所有的節點去達成共識,而是PoS中的超級節點進行投票,PoW模式下,所有節點都可以參與驗證,但 PoS的場景則只有被選出的超級節點可以成為驗證節點,這些超級節點通常是運行着GNU/Linux。每一次驗證需要超過2/3的機器的節點都要參與投票,才能夠通過,假設某項業務全球有幾十個超級節點,一個節點放到德國的Hetzner數據中心,一個在法國節點放到OVH數據中心,然後日本的節點又是一個當地機房進行托管。 如何保證這些服務器本身的運行狀態是可信的,比如沒有遭到機房管理人員或者其他Evil Maid(邪惡女仆)的篡改,如果能做到這點那web3超級節點的物理服務器可以被扔進這個星球上任何一個數據中心並且放心大膽的運行,畢竟驗證服務器是關系到錢的組件。另外一方面,不同超級節點之間可以使用邦聯化協議或者跨鏈橋的方式進行通信。 然後,我們從商業需求、社會文化、和目前看到的一些蹟象來解釋為甚麼下一代數據中心會呈現分布式: ①首先是企業降低成本的需求。很多知名企業開始嘗試自建雲,這種自建模式本身就算分布式的呈現。原因主要在於,目前公有雲成本極其高,而自建雲會顯著降低成本。一個典型的案例就是Dropbox。Dropbox 通過構建自己的技術基礎設施,在兩年內節省運營成本近 7500 萬美元。從 2015 年開始,Dropbox 開始將其文件存儲服務的用戶從 AWS 的S3 存儲服務轉移到自己定制設計的基礎設施和軟件上,從 2015 年到 2016 年,這個項目,讓Dropbox 節省了 3950 萬美元,將「我們的第三方數據中心服務提供商」的支出減少了 9250 萬美元,2017年,它比2016年的數字額外節省了3510萬美元的運營成本。 注意,早期的Dropbox由於使用了亞馬遜網絡服務,構建起了龐大的用戶群和品牌形象。盡管許多公司仍然樂於向AWS支付管理其基礎設施的費用,但是,這種依賴知名雲廠商的情況會一直存在嗎?一旦初創公司變成擁有數億用戶的大公司,並且他們已經非常了解計算需求,那麼建立完全按照這些需求設計的計算基礎設施可能會更有效率。經過多年的實踐,Dropbox於2016年第四季度完成了所謂的「基礎設施優化」項目。 Dropbox管理層是這麼說的,「我們的基礎設施優化降低了單位成本,並幫助限制了資本支出和相關折舊。結合我們的付費用戶群的同期增長,我們經歷了收入成本的降低,毛利率的增加,以及我們在所呈現期間自由現金流的改善。 那麼,如果Dropbox選擇自建基礎設施,這會不會成為行業內的一種趨勢? 其次,從技術的底層來看,數據中心的進化和摩爾定律有一定關聯度,也就是說,芯片性能在持續提升並且價格下降還可以不斷下降。但是,我們也發現,摩爾定律過去10年對於性能的增速明顯在下降,AMD EPYC3造就了單節點性能的一個高峰,原因除了AMD的微架構優化不錯外也和用了TSMC的5nm工藝有關,這會成為一個通用計算的一個岔路口。為甚麼這麼說,首先, EPYC3的微架構優化不錯且制程也使用了較先進的5nm工藝,基於矽的通用計算往後性能提升會極其有限。其次,EPYC3成本上優勢巨大,不光是對比Intel也包括arm64平台。AMD EPYC3把單計算節點(服務器)性能推上了一個高峰,之前需要4-7個機架才能達到的性能,0xide的服務器一個機架就可以達成,這對於Web3的數據中心來說,會極大的降低運維成本。 第三,就如同BTC出現是為了反抗金融危機之後的傳統金融系統,數據中心也是一樣。人類長期經歷了數據和業務集中化的年代,對業務的反壟斷和去中心化有着天然的需求。正所謂天下話說天下大勢,分久必合,合久必分,Web1.0時代本來是去中心化的,但到了2.0的年代實際上就是少數的壟斷性科技企業通過使用普通用戶的數據得到了了巨額利潤,Web3想解決的也是這個方面的問題,而第四代數據中心由於單點芯片技術能達到的程度,原來需要10個機櫃的性能,現在可能2個就搞定了,這樣的話,從技術上去支撐聯邦化數據中心的業務可以說是神助攻。 第四,目前移動數據中心逐漸發展成熟,可以成為Web3數據中心業務的擴充。如下圖,我們發現DC-ITRoom機架和集裝箱用量在不斷增大,DC-ITRoom機架和集裝箱是啥呢?其實就算是移動化的數據中心,如果做一個大的活動,活動對數據有要求,就可以使用這種集裝箱式的可移動數據中心。那它和Web3的關系何在?在PoW的時代,其實就算在證明誰的算力大,那麼這種移動化的數據中心可以直接靠數量堆上去給Web3的節點驗證提供算力。 5.Web3、區塊鏈特性與下一代數據中心 不過,我們在理解下一代數據中心時,也要結合區塊鏈的固有特性去考慮。 已知常識是,區塊鏈具備不可能三角,這個不可能三角指的是,去中心化、安全、可擴展性這三者是無法同時滿足的,也就是說,任何系統的設計只能滿足其中兩個。比如極端的去中心化方案BTC(比特幣)和XMR(門羅)都是以犧牲可擴展性為代價的,這導致BTC/XMR技術架構無法提供更複雜的業務,所以對於這類似這兩種方案的業務來說,Layer 2的存在是必然的,因為需要支持更複雜的業務。 為甚麼說BTC和XMR的設計都是極端去中心化的?因為這兩種區塊鏈,首先它們的業務非常簡單且單一,比如XMR/BTC都是記賬和轉帳功能 ;其次,每個節點都可以成為驗證方,那也就意味着全網數據都可以保存在每個節點上。 但是,Layer 2對於安全主要有幾個方面的挑戰: 首先,安全和可擴展性對於去中心化系統也至關重要,超級節點的引入會增加系統安全的風險。舉個例子,PoW的模式下,以前需要搞定幾萬個節點才能發起攻擊比如51%。但PoS時代,超級節點的誕生讓需要掌控節點數量大大降低,安全存在的隱患也就更大。 其次,跨鏈協議實現中存在缺陷。這個缺陷要怎麼理解?其實就是目前例如跨鏈橋的實現中存在bug,比如A到B鏈經過跨連橋C,但C在沒有完成A和B的檢查就把transaction放行,那就可能被攻擊者利用去進行無限制轉帳。 第三,就是供應鏈安全。主要包括開發人員是否會植入後門以及build基礎設施的需要安全加固等考考量因素。 不過,如果犧牲一部分去中心化的特性,採用邦聯化的架構,那這個三角就可以成為可能(也就是可以滿足可擴展性和安全的特性)我們認為,Scalability和Security是不能犧牲的,因為一旦這麼做了,複雜業務也無法開展。不過,如果用分布式\邦聯化替代100 %的完全去中心化,就會導致技術架構轉變。因為完全去中心化指的是每個節點都有驗證的權利,那即使某幾個節點被攻擊,也只是錢包安全的問題。但如果是PoS選出超級節點成為validator的節點受了攻擊問題那嚴重性就非常高了。 6. 分布式Web3數據中心應用實例 那麼,倘若第四代數據中心真正到來,應用場景又是怎樣的呢? 這裏我們舉一個應用場景: 如圖所示,A為農業小鎮,B為金融小鎮,C為礦業小鎮,D為工廠小鎮,藍色橢圓代表業務節點,綠色橢圓代表邦聯化的服務器,這四個小鎮是互相聯系的,使用分布式/邦聯化的數據中心架構。 首先,小鎮數據中心裏的各個業務節點,可以根據具體業務需求跟其他小鎮的業務節點進行交互,這種呈現,實質上在極端去中心化和效率之間得到了平衡(PoS就是極端去中心化和效率之間進行平衡的代表這個平衡,因為PoW無法承載複雜的業務)。這也是我們所認為的下一代互聯網(Web3)的主流形態之一。 第二,在分布式賬本(區塊鏈)的上下文中,邦聯化服務器有點類似於超級節點,這種節點需要把自身的安全等級公開,比如Security Chain的設計中,是把安全防護等級和日志公布在區塊鏈上。 第三,四個小鎮使用了第四代數據中心的架構,服務器單節點都具備高性能特徵(比如搭載AMD EPYC3的服務器每個機櫃可提供超過4000個CPU核),這讓原本需要10個機櫃的運算能力現在大概只需要2個。 第四, 四個小鎮使用的服務器固件是開源實現,開源雖然不能直接保證安全,但其可審計性可以降低後門的風險。 第五,四個小鎮的用戶如果把服務器部署在自己的家裏,那麼安全性會有保證,至少Evil Maid的攻擊風險會降低,但如果要讓用戶任意的把物理服務器放置在4個小鎮的任意數據中心中的話,那就需要硬件級別的安全特性,以保證用戶可以隨時通過遠程證明進行驗證自己的機器是否處於「預期」的運行狀態。 7.關於未來趨勢的判斷 首先,目前的技術進程已經逐步滿足當年早期0ldsk00l黑客和密碼朋克對未來互聯網烏托邦式的構想,因為無論是密碼朋克宣言,自由軟件運動,到後期的開源軟件和開源硬件商業化和加密貨幣,這些技術和思想也逐步開始加速了Web3時代的發展。 其次,近期ETH合併,也代表嘗試用主鏈+layer 2方式構建複雜業務時代的結束,在此我們從技術和生態的角度,大膽的預測一下未來可能面臨的機遇和挑戰: ①ETH的主鏈和layer 2的邊界會變得模糊,或者需要重新定位。 ②如果BTC能繼續保持在人們心中的黃金共識,那BTC會承載大部分PoW的工作,如果共識把隱私納入考量部分算力會轉向XMR/ZEC。 ③承載複雜業務的Web3顯然逐步走向了邦聯化,而非完全的去中心化的路線,任何形式的超級節點會以幾種方式存在: (1) 當前的主流是跨鏈橋。 (2)邦聯化標準協議的出現,因為需要協調眾多的玩家生態,從傳統的邦聯化系統比如email或者XMPP可以看到這種模式在一定程度上會導致發展緩慢。 (3)打造JIT解釋器或者LLVM IR重構跨鏈協議以降低生態的開發成本。 (4)有不少同學都預測未來一定會把大量的超級節點從公有雲(主要是AWS)轉移到數據中心,這樣可以規避一定程度的安全風險,但依然面臨大量的來自基礎架構的安全風險,比如OS(操作系統層面)和below-OS(操作系統以下的層面)。 (5)基於ETH的生態會更多元化,而下一代數據中心會成為一大助力,讓我們拭目以待。 轉載連結:https://www.chaincatcher.com/article/2079897本文章挑選自鏈捕手硬核觀點 本網站所有非原創(轉載)文章版權歸原作者所有 特別說明:轉載文章會進行二次編輯以符合文章寫作需求,望作者包涵 延伸閱讀: 【新手懶人包】區塊鏈是甚麼?一文看懂區塊鏈演化、應用、常見術語 【新手懶人包】元宇宙是甚麼?剖析元宇宙的構成、未來商機和應用 【新手懶人包】 NFT 是甚麼?整合 NFT 科普、平台比較、製作方法 【新手懶人包】 GameFi 是甚麼?一文認識 GameFi 原理、運作方式、熱門NFT遊戲
Allen -
對話亞洲20家加密投資機構:當前以觀望為主,重點關注ZK、新公鏈和中間件
作者:火幣研究院原文:《20家投資機構告訴你,未來的機會在哪裡》 摘要 加密市場進入熊市已經成為了所有投資者和從業者的共識。而冬天正是為春天的播種做準備的時候。未來會結出什麼果實,當然要問播種的人。Huobi Research訪談了20餘家具有代表性的全球優秀投資機構,希望以它們的發展現狀、投資理念和布局方向作為樣本,了解到投資機構對於行業現狀和趨勢的判斷,並發現具有潛力的賽道。 在訪談中我們了解到,大部分投資機構傾向於多看少動。他們更關注基建類項目,其中ZK、新公鏈和中間件最受關注。應用類項目方面,DeFi、Game、社交排名前三。其中DeFi是機構最看好的方向,遊戲和社交的爭議非常大。 機構們關注的重點領域和邏輯如下: - ZK是下個周期潛在的核心驅動力之一,具備長線價值。它占據了以太坊擴容和隱私計算這2個核心級彆的敘事。ZK加速網絡和礦業是機構們布局的重點,因為它具有穩定的博弈結構。 - 機構們更多是戰略配置性地關注新公鏈,而並非已經看到了確定性的機會。他們對近一批新公鏈中出現的兩個創新點,Move編程語言和並行化處理技術表示很關注,並認為它們的價值可能會超越某個公鏈本身。 - 中間件的受關注程度僅次於zk和新公鏈。受關注較多的是去中心化身份、數據協議和錢包。 - 機構們傾向於持續關注DeFi,但整體保持觀望態度。對現有的DeFi協議來說,擁有穩定現金流和不依賴補貼的才可能再次爆發。對新興DeFi協議來說,機構們目前更關注在傳統領域裡業務相對成熟但鏈上競爭對手較少的協議,從品類來看大多屬於衍生品方向。 - 社交的爭議主要在:大家都認同社交是必要的需求,也具有極高的上限。但不少機構都認為現有的SocialFi項目尚處於發展早期,模式尚不清晰且沒有形成可持續範式。若僅依靠代幣經濟和對Web2社交進行包裝改造,則難以從傳統巨頭手中獲取用戶。 遊戲的爭議主要在:一方面很多機構認可遊戲最能吸引增量用戶,另一方面有機構認為目前鏈遊的模式是不可持續的。 我們認為,未來比較有潛力的行業是基礎設施類,包括ZK、新公鏈、中間件。而應用端不確定性較大,DeFi相對是勝率較高的,潛在方向在衍生品領域。社交由於需要的前置條件還不完備,距離爆發還有一段時間。遊戲具有增長機會,有更優秀經濟模型的遊戲機會更大。 1.投資業務現狀 首先我們觀察全球加密市場投資業務現狀。根據Odaily和PANews報道的公開信息統計,2022 年第二季度全球加密市場共發生 511 起投融資事件(不含基金募資及並購),已披露總金額為 127.1 億美元。在所有融資事件中,融資規模超過 1 億美元以上的交易數量達到 28 筆。 與今年第一季度做對比。今年Q1全球加密市場共發生 461 起投融資事件,已披露總金額為 92 億美元。儘管在Q2加密二級市場環境更加惡化,但是投融資活動卻有了回暖的跡象。投融資活動的數量環比上升了11%,金額環比上升了38%。 不過如果以月為單位來看,我們卻感受到了一絲涼意。從4月到7月,投融資活動的數量和金額在單調下降。4個月間投融資總金額下降了近70%,數量下降了16%。投融資市場冷清的狀態基本與我們訪談的投資人的心理狀態相符。 造成季度與月度的背離現象的原因可能是二級市場從1月到3月出現了反彈,帶動了投融資市場,融資消息多在4月被披露出來。而Terra和3AC的崩盤嚴重打擊了市場信心,導致投資人更加謹慎,所以5月到7月投融資的數量和金額都在下降。 下面回顧一下投資機構在之前關注什麼領域。如下圖所示,在Q2,全球加密投資機構最關注的領域為GameFi 和NFT。遊戲、遊戲相關的基礎設施和及技術解決方案共獲得了 82 筆融資,在數量上排名第一,占融資總數量的 16%。GameFi領域的融資金額同樣遙遙領先,高達 29.96 億美元,占全行業融資總額的 23.5%。NFT 領域共獲得 67 筆融資,數量上位列第二。DeFi以50筆融資數量排在第四位。以L1、L2、礦業、隱私、身份等為代表的基礎設施領域成為了“長尾領域”,它們獲取的投資筆數均在10筆左右。 隨著加密行業的變化,2個月後加密投資機構的關注重點發生了明顯的變化。讓我們看看受訪機構怎麼說。 Huobi Research本次投資機構調研總計訪談了20餘家投資機構,包括crypto native頭部投資機構、傳統投資機構的crypto部門、crypto集團公司(如交易所、錢包、資管等)的投資部門、投資孵化類企業、以及專注特定賽道投資機構等。我們希望通過多樣化的訪談樣本獲取更加全面和真實的認知。本次訪談中,我們主要和各投資機構交流了大家對各賽道現狀和前景的分析,投資邏輯和投資策略等。希望能為讀者深度理解加密貨幣行業提供一點指引。 2.賽道潛力排行和投資邏輯 我們彙總了參與訪談的投資機構關注的領域,按照提及的頻次排序,如下圖所示。圖中有些領域之間存在包含關係,我們在後文中會根據每個領域的具體內容來分析,這裡先給大家一個直觀的印象。 各機構重點關注的領域可以分為2大類,基礎設施類和應用類。整體看來大家更關注基建類項目。Infra的提及頻次是最高的,其中2根主線是ZK和新公鏈,像中間件,數據,預言機,DID等領域也明顯帶有基建的成分。應用類項目方面,DeFi、GameFi、社交排名前三。儘管DeFi已經冷清了一段時間了,但它仍然是機構最看好的方向。相比之下Game和社交的爭議非常大,有的機構力挺,有的明顯不看好。下面我們逐個分析,看看機構們為什麼會關注這些領域。 2.1 基礎設施 調研結果顯示,各家機構對基礎設施的關注程度明顯高於應用類。部分機構沒有明確提出“Infra”這個詞,但是他們的關注點還是落在了如ZK、新公鏈領域。本文為了討論方便,將零知識證明、新公鏈、中間件、DID、數據、模塊化等領域都歸類到基礎設施中。 為什麼重視基礎設施 更關注基礎設施的主要原因主要有2點:第一點是要順應行業發展周期,第二點是要為Web3的新敘事做準備。 第一,順應行業發展的周期。這裡說的周期,不是一般的牛熊周期,而是基礎設施與應用的板塊輪動周期。 IOSG Ventures 用“牛頓擺”的規律來總結這種現象。他們認為新興的科技領域要想鋪開應用首先需要底層基礎設施做技術支撐,當基礎設施發展到達一定水平時,其性能才能夠支撐一部分早期應用發芽(比如沒有以太坊智能合約就沒有最早的DeFi應用)。而應用的成長和繁榮又需要更強性能的基礎設施和更複雜技術中間件或細分領域的應用基建的提升,它反向撞擊並推動了基礎設施的進一步迭代(比如:更複雜的DeFi二層協議需要更強性能的支撐反向推動Rollup發展,目前的crypto GameFi,SocialFi也都處於早期需要各自細分領域的專用基礎設施),這種反複循環的完全彈性碰撞就像一座牛頓擺。根據這個規律,會先有胖協議瘦應用的現象,也就是協議會先大規模捕獲代幣價值。在投資實踐中,IOSG曆經五年耕耘協議層和Infra基礎設施的投資,在Layer1投資了Cosmos/DoT Near Avalabs等平台,在Layer2投資了Starkware和Arbitrum,還有中間件投資了大量原生的開發者協議。當Infra趨近穩定和成熟時,IOSG轉向胖應用的投資策略,開始捕獲DeFi和遊戲社交的獨角獸(包括metamask和1inch/Project Galaxy和/Cyberconnect/Bigtime Studio和illuvium等)。 Bixin Ventures認為,當前應用層出來的創新性強的產品不多,一些熱炒的概念還沒落地,沒有到投資的時機。這時適合投資基礎設施,期待它們在下一輪牛市中率先啟動。相比押注應用類項目,這是勝率[1]更高的布局方式。而且基礎設施類項目的賠率也很高,還能承接住更大的資金。Matrix Partners提出了“8020規律”,作為實際的工作指南。在熊市中用80%的精力研究Infra,用20%的精力研究應用類項目,而在牛市中將這個比例調整顛倒過來。 第二,為Web3的新敘事做準備。當前互聯網領域最宏大的敘事就是Web3,很多傳統互聯網巨頭如Amazon、Google、Meta、ByteDance、Baidu等都在積極探索和布局。一種說法認為Web3是基於區塊鏈技術的新一代互聯網生態係統。當然這個互聯網係統服務的用戶不可能隻是幾百萬人,而是10億級彆。而目前區塊鏈的基礎設施遠遠不足以服務如此龐大的用戶,所以必須要持續地進行升級和改造。 在如何判斷Infra的價值方面,Cobo Ventures和Foresight Ventures提出,基礎設施是一個偏向技術的領域,需要關注技術的先進性和成熟度,要有低成本、高效、安全的方案。更需要關注開發者生態的活躍程度和用戶的認可程度,這樣才能創造出實際的價值。 下面分彆討論各家機構對於基礎設施裡幾個重點領域的看法和判斷邏輯。 2.1.1 零知識證明 零知識證明(ZK)是各家機構在技術設施中關注最多的領域。它主要包括ZK Rollup和它的加速網絡。 ZK的地位 我們先做2個橫向的對比,看看ZK在機構心中的地位。 第一,在Layer 2領域內部,ZK成了Layer 2的代名詞,被看好程度明顯高於OP。目前Layer 2的主流技術是Rollup,Rollup又包含2條技術路線,分彆是Optimistic Rollup和ZK Rollup。在訪談中,幾乎所有提到ZK和Layer 2的機構都隻看好ZK Rollup技術路線,而不看好各方面數據都明顯領先的OP Rollup。不止一家機構認為OP可以用中短期應用的邏輯來看,長線看不具備強價值。而ZK之於密碼學,等於機器學習之於AI,它占據著核心地位,是行業最頂級的敘事之一。 第二,在公鏈競爭格局中,機構對ZK看好程度略高於新公鏈。原因是ZK,或者說它代言的Layer 2代表了以太坊的擴容方向,在現階段機構相對更看好以太坊。JDAC Capital認為以太坊在未來會變成一個結算協議,使用這個協議的對象可能會擴大,甚至是傳統的互聯網也可以用公鏈進行結算。以太坊的資產屬性高,網絡價值共識高,那麼在以太坊上做結算,受信任的程度也就更高,資產的價值會更被認可。 布局ZK的邏輯 看好ZK的原因,除了比較優勢以外,更需要深入去看它本身的價值。Zonff Partners明確提出,ZK是下個周期潛在的4大核心驅動力之一,具備長線價值。它占據了2個核心級彆的敘事,即以太坊擴容和隱私計算。可能ZK Proof之於密碼學和區塊鏈,會有機器學習之於人工智能的定位。尤其是在以太坊擴容領域,它已經具備了賽道上下遊的結構性,比如開發者、計算設備提供商、節點服務、應用需求、用戶需求等。結構穩定的賽道一方面比較適合機構類型的資金布局;另外一方面是發展預期穩定,不完全依賴宏觀或是某個熱點事件,項目或者創業者進入過程中較容易產生正向反饋。 第一,ZK Rollup在以太坊擴容中會有更大的作用,目前它的能力沒有完全發揮出來。提升性能不必多說,ZK還能夠解決區塊鏈輕量化的問題。因為全節點都要存大量數據,一般的運營者難以承載,從而加重了中心化程度。ZK Rollup需要上傳到鏈上的數據量更小,有助於緩解節點的存儲壓力。鏈上生態越繁榮,對輕量化的需求就越大,ZK Rollup也就能獲得更大的發展空間。當然交易原始數據還是要存的,這就是模塊化公鏈中的數據可用性層的用武之地。 第二,ZK有希望解決更多與隱私保護相關的問題。之前DeFi和NFT還沒有興起,沒有這麼多鏈上數據,隱私的重要性還彰顯不出來。沒有可保護的東西,也不知道怎麼保護,更多講的是概念。而DeFi出現後隱私就變得更重要。沒有理由要求所有人都公開鏈上數據,尤其是對於大戶和機構來說,他們的鏈上操作可能包含著巨大的經濟利益。但是目前的數據分析工具放大了區塊鏈公開透明的特性,對他們產生了一些困擾。所以隱私的需求是真實存在的,是有確定性的。而且隨著鏈上數據越來越多,隱私的需求也越來越大。不過現在沒有更好的保護隱私的辦法。除了ZK以外,同態加密、MPC也有機會。 基於以上邏輯,多家機構認為ZK Rollup是Layer2中最好的解決方案。又因為以太坊基金會本身也看中ZK技術,且目前沒有看到同樣先進的方案,所以布局它的底層是必要的。 ZK的重點布局方向 Zonff Partners、JDAC Capital和Hashkey Capital都明確地提到了正在關注ZK加速網絡和礦業。ZK Rollup產生證明時需要較大的計算量,所以需要通過硬件來加速,具備真實的需求。再考慮到上文所說的ZK在整個生態中的地位,ZK礦業還是一個長期的需求。 機構們更加看中的是ZK礦業的在整個產業結構的位置。 ZK的產業鏈比較類似於比特幣礦業,產業鏈上遊有芯片廠商、礦機廠商、節點、礦池,下遊有開發者和各類應用,整體上有穩定的博弈結構。目前ZK礦業的上遊如Scroll,zkSync,Starknet,Aztec,Polygon等各家技術路線比較分散,這不利於機構重倉,因為選擇到高性價比的標的難度很大。投資這些基礎設施有風險成分,甚至是有賭博的成分在。而下遊在經曆過DeFi之夏和遊戲的爆發後,當下時間點沒有明顯的應用端的方向,且應用賽道內部是競爭極度激烈的。機構同樣面臨選擇的困難,先要押對賽道,還要在賽道內押對選手,這可不是一件概率很高的事情。而ZK礦業就處在這二者的中間,存在著結構性的機會。當上遊(各家技術路線)很分散,下遊(各類應用)也很分散的時候,中間就會存在能獲得穩定收益的結構性機會。這就是加速網絡和礦業能夠獲得發展的邏輯,就像給淘金者賣礦泉水和牛仔褲一樣。 不過ZK硬件行業很難獲得像比特幣礦業那樣的市場規模。第一是需要看ZK底層協議是否開放去中心化的證明即挖礦,采用中心化的方式做也可以。第二點更重要,ZK礦業受限於zk項目的規模,也就是未來ZK上能夠承載多少資金體量。未來如果這一點有大的突破,ZK礦業的天花板也可以很高。 ZK崛起對其他賽道的影響 最後看一看ZK的崛起與其他賽道的相互影響。 首先,ZK會增強以太坊的競爭力。JDAC認為以太坊的技術方案和社區建設的水平是其他L1不能比的,其他的用了EVM也很難打破它的統治。一旦ZK成熟,會進一步加固以太坊的地位。這裡我們先不過早下結論,不過可以做出這樣的猜測,ZK的發展將大大增強以太坊的競爭力,公鏈的鐵王座沒有那麼容易易主。在去年行情好的時候,以太坊的Layer 2沒有得到大規模采用,其他新公鏈的手續費已經可以忽略不計了,以太坊也還能占據60%以上的TVL。那麼若以太坊與其他公鏈縮小了性能的差距,且保持高度的去中心化程度,我們有理由相信它的地位會進一步增強。 第二,ZK會擴大對DA層的需求。上文說ZK Rollup雖然需要上傳到鏈上的數據少,但也還是要上傳的原始數據的。DA層負責存儲這些原始交易數據並保證它們的可用性。從這個角度看,可以說它是ZK的一個上遊產業,ZK的繁榮也會帶動DA層的繁榮。筆者之前的文章《How the Data Availability Layer can shape the future of blockchain》曾做過一個簡單的測算,若Rollup獲得更大發展,出現了“Rolluop-centric“的局面,再伴隨ETH價格重新走高,DA層的年收入有望達到20億美元。 第三,ZK的崛起對數據分析工具的影響可能不大。目前看來ZK Rollup仍然專注於擴容,關注隱私的項目也有,但不是主流。隱私是一個長期存在但不特彆受到關注的領域,在傳統互聯網中也是如此。保護隱私需要成本,如果成本不夠低,會勸退一部分中小用戶,降低網絡效用。更多人還是更在意方便和便宜,所以筆者認為ZK的發展在短時間內還不足以動搖數據分析工具的生存基礎,二者都能繼續發展。 第四,ZK的發展可能會催生新的應用類項目。ZK Rollup需要上傳的數據量很小,這意味著應用可以設計出更複雜的業務邏輯。也許出現一些與現在不一樣的應用項目,比如業務邏輯更複雜的DeFi類項目,Layer 2的殺手級應用也很可能會出現在ZK Rollup中。不過這需要一個前提條件,就是通用ZKEVM的成熟。 2.1.2 新公鏈 新公鏈的受關注程度也很高,但是投資機構們對它的討論比零知識證明少得多。很多是戰略配置性地關注,而並非已經看到了確定性的機會。 布局新公鏈的邏輯 公鏈是區塊鏈投資中長盛不衰的主流賽道,天花板非常高。每一批新公鏈崛起的浪潮中,都包含著一定程度的發展範式的轉移,比如共識機製從POW到POS的轉變,推動了行業的長期發展。這其中有巨大的機會,如果打破了不可能三角,甚至能夠顛覆現在的邏輯和以太坊的地位。不過顛覆性的機會不會很多。因為大的範式轉移很難出現,它對創新要求很高,需要10倍好於現在的方案。不止一家機構表示,暫時還沒有項目能達到這個程度。不過未來公鏈格局大概率還會保持多鏈並存的格局,新公鏈不一定要占據很大的市場份額才算成功。隻要能有一定用戶和資沉,在牛市中也有市值增長的機會,從投資角度上看是不錯的選擇。 在判斷和選擇項目時,幾家風投機構都提出了要正確看待性能。首先,性能本身不重要,性能的對比才重要。每一代新公鏈都要提到性能提升,它們的比較對象都是以太坊。但是以太坊本身也在提升性能,當Layer2獲得更多采用後,用戶可能難以察覺公鏈之間性能的差距,或者這個差距不足以對用戶產生吸引。其次,實際性能比實驗室性能更重要。Aptos聲稱的16萬TPS是實驗室數據,而且需要檢測交易之間的相關性,才能更好地發揮並發的能力,實際性能還有待觀察。Solana聲稱6.5萬TPS,但是它卻大規模宕機過4次,性能不夠穩定。 新公鏈的亮點 雖然沒有特彆心動的項目,HashKey、NGC Ventures對近一批新公鏈中出現的兩個創新點表示很關注。第一是熱門公鏈項目Aptos、Sui使用的Move編程語言。第二是並行化處理技術。它們的價值可能會不局限在某一個公鏈本身,而是會對行業產生更大的影響。 Move語言是一個亮點,它的價值可能比幾個明星新公鏈還大。Move提出了面向資源編程的理念,抽象出了一種叫做”資源“的東西。用戶可以方便的定義出任何類型的資源(比如我們常見的加密資產就是一種不可複製、不可毀滅的資源),還可以定義這個資源可以被如何操作。這讓它有了以下特性。第一,Move 編程語言的安全性更高。它通過資源定義與控製權限分離、靜態類型、泛型、模塊係統、形式化驗證等特性使得智能合約語言更適合其面向資產的場景,從智能合約層面保障數字資產的安全。第二,Move可以幫助開發者將注意力轉移至其他更應該被關注的地方,比如編寫正確的業務邏輯,實現正確的訪問控製策略等。第三,Move語言的智能合約的可組合性更強。這可以節省合約占用的區塊空間,並讓優化升級變得更容易。第四,Move的門檻比Solidity更低。而且還會有底層編譯器,進一步降低開發門檻。基於Move的新公鏈如果發展不如人意,可以把它們視為對未來的開發者再做了一輪科普。如果成功了,會帶來一種全新的編程方式。所以從這個角度看,Move的價值比基於它的公鏈的價值更大。 並行化處理是另一個大的亮點,它可能是底層改進的趨勢。目前以太坊的交易是串行處理的,所有交易都需要用EVM的單核CPU處理。並行化交易的思路是不再采用線性處理的方式,而是采用更加並行的方式做,比如Aptos利用16核CPU開多個線程同時處理不相關的交易來提升TPS。分片技術其實是並行處理的典型,但更多的是在架構層面的並行化設計,此處講的並行化處理是指程序處理時對進程或線程的並行化,更貼近於係統底層。在未來並行化有可能成為公鏈的標配,所有公鏈都或多或少帶有這種特性。這種轉變類似於在18–19年之後的公鏈都采用了POS共識機製,而普遍的放棄了POW機製。 2.1.3 中間件 中間件的受關注程度僅次於ZK和新公鏈。中間件一般是指為應用程序提供通用服務和功能的軟件,數據管理、應用程序服務、消息傳遞、身份驗證和 API 管理通常都由中間件處理。它的作用是是連接基礎設施和應用程序,為討論方便,本文先將其歸類到基礎設施類中。 由於中間件具有基礎設施的屬性,若有較多應用采用,會吸引其他應用跟隨,進而形成一種不成文的標準。所以它的網絡效應非常強,容易出現贏者通吃的局面。投資機構對於這樣的領域自然是不會放過。他們關注較多的是去中心化身份、數據協議和錢包。 去中心化身份(DID)是用戶可以擁有和控製的互聯網地址,對於很多Web3應用來說是一種基礎設施。目前的區塊鏈網絡中用戶已經擁有了對資產的所有權,不過用戶在虛擬生活中的身份還沒有建立起來。就像去中心化世界中的資產可以跨越應用的邊際自由流動一樣,用戶本身也應該有這樣的能力,這就需要有一個屬於用戶的、能夠表示用戶身份。有了身份,社交類應用、其他Web3非金融類應用還有部分DeFi的新業務才能夠得以開展。比如當用戶使用社交類應用時,他們可以用使用過某個DeFi協議、參加過DAO的治理、玩過某個遊戲證明自己是什麼人,從而找到更誌同道合的朋友。然而,投資機構們也關注協議能否產生可持續性的收入。這一點目前還沒有看到,大多數DID協議都是通過質押和流動性挖礦來獲得收入,這是不健康的。在長期看來,如果具備一定的用戶群體,就可以通過服務費的方式來實現盈利。這中間會有較長的建設周期,項目團隊必須要堅持長期主義。 在數據協議方面,準確的隱私界定和快速的響應是投資機構最看重的特性。EVG表示,目前他們幾乎沒有看到任何協議能做到清楚地定義哪種類型的數據應該歸私人所有,哪種類型的數據應該向公眾開放。例如,一般情況身份信息應該被列為機密,然而對於某些特定的數據,它們是否應該由協議擁有,並讓其他人檢索和審查呢。這中間需要掌握住一個微妙的平衡,解決了這個問題的數據協議很可能會成為贏家。另一個方向是快速和高頻率的響應,這是因為許多對衝基金需要快速的數據支持來做出反應。對於像Dune和Graph這樣的協議來說,它們已經很棒了,但也需要具有更高的時效性。 對於像錢包這樣的中間件,擴大受眾是關鍵問題。大多數圈外用戶沒有使用過加密錢包,錢包甚至是他們進入加密世界的障礙。而StepN做出了一個很好的示範,它將Web3錢包整合到產品本身,在注冊賬號的時候就引導圈外用戶創建錢包,給了用戶無縫的錢包初體驗。這一點對於錢包本身來說也是一個新思路,通過與面向消費者的dapp深度結合來實現無感獲取增量用戶。 2.2DeFi DeFi作為應用層的先起之秀,自然引起相當多的討論。不過,除了AMM算法以外,DeFi並沒有更多機製上的創新,套娃式的創新並不能在市場上激起太多水花。因此,與公鏈一樣,機構們傾向於持續關注DeFi,但整體保持觀望態度。 布局DeFi的邏輯 區塊鏈自誕生以來便與金融保持緊密聯係,隨著智能合約的引進,DeFi逐漸展示出強大的金融創新活力,吸引了大批的資金。同時,DeFi憑借自身可組合和無需準入的特性,很好地解決了傳統金融中較高準入門檻、中心化風險和高資金體量等用戶痛點,各方在區塊鏈上公開透明地進行交易,不存在私自挪用資產的情況,任何人也可以根據鏈上流動性和頭寸進行對應的操作。智能合約為特定的金融工具和協議應該如何行動提供了自動化的規則,由代碼執行和管理,不會偏袒任何一位投資者。在CeFi機構頻頻暴雷後,DeFi的優勢尤為凸顯。 發展路徑 自AMM橫空出世以來,當前的DeFi市場發展得已較為成熟,不僅賽道多樣,生態項目也相對齊備,一些大而全的基礎設施已經形成了明顯的頭部效應,如DEX、借貸等。Nothing Research、Matrix等機構們對未來DeFi整體走勢有一些基本判斷: 1. 對現有的DeFi協議來說,更多需要考慮的是如何順利度過本輪熊市。回顧DeFi的崛起之路,項目補貼是刺激生態擴張的重要手段,依托好的敘事來賺取市場紅利。但是這絕非長久生存之道。熊市裡,那些擁有穩定現金流和慢慢脫離補貼的項目才可能迎接未來的再次爆發。另一方面,很多協議很好用,但是代幣卻沒能捕獲生態的價值。這造成了代幣價格疲軟,也反過來影響了協議的進一步發展。所以能在代幣經濟學上做出優化的現有協議有望實現二次增長。 2. 對新起DeFi協議來說,當前DeFi各個賽道都相對飽和,在大環境出現顛覆性的創新前,很難找到發展新大陸。所以,機構們目前關注的是在傳統領域裡業務相對成熟但鏈上競爭對手較少的DeFi協議,從品類來看大多屬於衍生品方向。目前一些衍生品協議的模型還算不錯,不過市場還沒被教育到位。除了讓用戶在大的上漲行情中自我學習以外,更需要依靠協議自身的運營能力來獲取增量用戶。 2.3社交 社交賽道一向是值得關注的熱點話題,但眾機構對該賽道的看法及判斷卻有很大不同。 布局社交的邏輯 一方面,各機構在針對社交存在意義的討論上基本能達成共識,即社交是人類的基礎需求,也是人在生產及其它社會活動中發生的相互聯係和價值的交流和交換的必要行為。Web3社交是未來大勢,發展上限非常高。Cobo Ventures認為在 Web 3.0 時代的社交平台,人們將擁有對自己社交數據的絕對掌控權。SocialFi 產品是在 Web 3.0 底層基礎建設的基礎上,從人們對去中心化的社交和金融的需求出發,將兩個需求融合在一起的產品類彆。它可打破平台壟斷、消除單點風險,在全球數字經濟係統的浪潮中創造全新業務模式和產品類彆。 另一方面,機構分歧點則主要落在中短期落地期望上。Huobi Incubator認為現有的SocialFi項目尚處於發展早期,沒有形成可持續範式,未來模式尚不清晰。更關鍵的是,若SocialFi僅依靠代幣經濟和對Web2社交進行包裝改造注定是難以打開傳統社交巨頭用戶缺口的,需要更多地挖掘Web3原生的用戶特點與用戶需求。從這些角度看,SocialFi成為下一波引領牛市爆發點的條件還不足備。 發展路徑 通過多家訪談後,我們總結歸納了社交賽道的發展路徑,利用區塊鏈技術和tokenomics來賦能社交的協議有以下方向: 第一,區塊鏈+社交,改進Web2社交的弊端 一些社交項目的核心思路是想要顛覆傳統社交巨頭的壟斷,想要利用區塊鏈的特性來做出改變,主要體現在以下幾個方面: 1. 數據自主權。在傳統社交平台裡,用戶隻是數據參與或使用者,區塊鏈能夠實現將數據上鏈,讓用戶自己控製數據; 2. 數據共享。Web2世界裡存在信息孤島,各個平台之間的數據不互通; 3. 數據隱私。與傳統Web2中用戶被動的承受隱私泄露風險不同,區塊鏈中的信息雖然是可以公開訪問的,但用戶也可以根據需求輔以加密技術對鏈上地址等數據進行隱私保護,控製公開程度。 在經濟係統方面,區塊鏈社交項目通過發布平台代幣來獎勵用戶是順理成章的事。引入代幣經濟後,用戶與平台的利益關係也會相應地發生變化,與平台的綁定關係也會更深,如果用戶在平台中參與和付出得更多,不僅能在token數量上獲得獎賞,單個token的價值也會隨之上升。同時,為了提供更多經濟激勵,一些“X2Earn”或內容創作挖礦的模式也給社交帶來了新的思路,引領了短暫的SocialFi熱潮。 代幣經濟能夠幫助區塊鏈社交類項目在早期冷啟動時給到一定的支持,但如何讓更多用戶在平台上產生真實的社交需求並進行生產創作,並非依靠單純的代幣經濟就能解決。 SocialFi裡面臨的更大的困難是: 1. 用戶基數小。鑒於Web3社交用戶群體本就相對較少,僅利用代幣實現Web2流量轉換的效果不理想; 2. 代幣經濟反噬。token本身代表的利益關係是帶有時間性質的。通過現金發放的獎勵具有及時性,但token的價值會隨時間持續變化,當代幣價值下跌時,用戶能夠獲取到的激勵也在不斷縮水,加劇項目基本面的惡化; 3. 鏈上用戶畫像模糊。由於大多數SocialFi項目更聚焦“Fi”,即項目的金融屬性,吸引來了一大批交易投機黨,一旦無利可圖便迅速離去,導致平台對鏈上社交用戶的認識不足,無法捕獲真實需求; 4. 基礎設施不足。目前底層基礎設施無法支撐複雜、需要大量數據的SocialFi應用。 第二,Web3社交的探索 各個項目的聚焦點逐漸有所轉變,開始更加注重Web3用戶本身,完善底層基於各自的Web3身份做出信息傳遞和關係建立。 · Web3身份 行穩致遠的前提是穩固的基礎設施,越來越多的項目在探索打造Web3身份,刻畫真實社交需求的用戶群體。身份圖譜的建立包含兩個方面: 1. 數據解析。傳統社交產品需要從零建立用戶習慣;但Web3鏈上數據屬於公共資源,任何人都可以利用現有的數據(如交易數據、表彰身份或個人品位的NFT)來刻畫用戶形象,建立可標識身份; 2. 身份聚合。數據解析是無門檻的,任何項目都可以在此基礎上利用身份數據開發產品。但是,若能夠讓用戶進行多鏈、多地址乃至鏈下的信息主動聚合,從而進行更精準、更立體的形象刻畫,才是項目持續發展的源動力。 · 信息傳遞 信息傳遞分兩種情況: 1. 非定向的信息傳遞。主要依靠社交媒體的形態,通過發布內容(文、圖、視頻)吸引他人的關注和交流; 2. 定向的信息傳遞。例如和指定的一個地址或者一類地址發送消息,主要場景為:NFT場外交易,黑客交涉,項目空投。 · 關係建立 當觸達個人後,便要和對方建立起社交關係,包括強關係、弱關係和臨時關係。Web2應用通過平台聯係用戶,弱聯係難以變現;而Web3引入代幣,加強了社交行為背後的經濟屬性,弱聯係通過交易實現更強的綁定。 總的來看,社交經曆了早期探索和SocialFi的狂熱後,已經慢慢摸索出可持續發展的路徑。未來,隨著社交數據、網絡關係等基礎設施的不斷完備,社交的真實需求慢慢被挖掘,Web3社交也就指日可待了。 2.4 遊戲 從需求角度上看,遊戲與社交極為類似,都屬於生活常見的應用賽道;不同的是,2021年以Axie為首的遊戲浪潮已經證明遊戲可以走出自己的Alpha的同時,也能憑借代幣打金和賺錢效應等在二級上收獲足夠溢價。但是,好景不長,隨著頭部項目的逐步降溫,一些唱空GameFi的論調也越來越多,GameFi也常常處於風口浪尖上。從本次調研上看,GameFi同樣充滿爭議。 布局遊戲的邏輯 在遊戲為何要上鏈問題的討論上,大多數機構都可以尋得共識。對此Animoca Brands和Huobi Ventures做了詳細的論述,我們總結如下: 1. 區塊鏈+遊戲能夠實現玩家所有權的歸還,可以讓遊戲更好地建立去中心化信任機製以及資產可傳遞性,把遊戲變得更可持續。 2. 遊戲容易衍生各種交易場景。傳統網遊、端遊中的打金和自由市場早已存在,不論是場內還是場外的市場,均已發展出成熟的調節機製和設計邏輯,遊戲內也存在道具流轉、金幣流轉的需求。隻不過二級交易市場在傳統遊戲中還不太普遍,主要是因為公司禁止,在這方面的用戶體驗其實並不好。區塊鏈技術改變了這點,它會讓遊戲公司和用戶都受益。現在公司主要賺的是賣皮膚的錢,而遊戲的二級市場同樣擁有巨大的空間,遊戲公司可以通過收取交易稅來獲得持續收入。玩家擁有了更大的自由度,可以創造和體驗更多玩法,就會增強對遊戲的黏性,提升遊戲的價值,也會更願意為遊戲付費。 3. 遊戲內獨特資產的多元目的(交易、投機、收藏)與NFT有比較高的契合。一些遊戲內的道具是獨一無二的,同時這些道具也有稀有度與功能上的差異。NFT化是順理成章的事情。 4. 遊戲可以作為L1的流量入口和L2的試驗田。GameFi被視為交易最為活躍的、目前為止最接近於實體應用的賽道。2021年,GameFi對公鏈的作用開始引起重視,而以太坊的TPS並不能滿足遊戲場景裡的即使計算的要求,一些高性能公鏈開始尋求新的機會;對L2來說,目前缺少一些注重快速交割、活躍度高的現金牛,而遊戲恰好與之契合,未來兩者或許能相互成就。 從上面這些角度看,遊戲是極具長線投資價值的。不過,現有的GameFi發展模式也引來了一些質疑聲,最大的問題就是遊戲的可持續性。當前的GameFi大多屬於一波流,短平快的Play to Earn模式可以迅速吸引一大批資金湧入,加上fomo情緒的推動GameFi往往能在早期出現爆發式增長。但從長期來看,大多GameFi的經濟博弈結構是不健康的,甚至可以說是龐氏騙局。當遊戲的新鮮感慢慢消散後,GameFi常常表現為後繼不足,難以吸引到增量用戶。而經濟結構的不平衡又驅使先前吃到紅利的人慢慢從遊戲係統中抽離出來,引發遊戲資產經濟價值的下跌,加速GameFi的死亡。遊戲死亡了,基於它的資產也就死亡了,不管資產是在區塊鏈上還是在中心化服務器上都一樣。 想要破解這個難題,有2種方法。第一種是讓遊戲更好玩,並且保持很好玩。第二種是讓經濟結構更健康,讓玩家之間因為遊戲的勝負或者在遊戲中的分工不同而產生相對穩定的博弈關係。不能是依靠增長解決一切問題,讓新入場的玩家接盤。這兩種方法需要至少有一種奏效,基於遊戲的資產才能擁有具備長期價值的基礎,它的價值共識和交易邏輯也才成為了可能。 GameFi發展路徑 以馬斯洛的需求層次理論來說,人類一般先滿足基本的生理需求和安全需求,再去追尋更高等級的需求,如社會關係、尊重、自我實現等。從這點上看,遊戲屬於較高等級的需求,在區塊鏈世界裡處於發展相當早期的賽道。具體來說,以太坊的曆史不過10年,應用的爆發從2020年的DeFi Summer開始,1年後以Axie為代表的GameFi緊隨其後。牛市的蓬勃使得GameFi的發展有些超前,一級市場需要新的敘事,二級市場需要新的玩法,市場行情倒逼了GameFi的快速崛起。隨著市場的逐步降溫,我們得以重新審視遊戲賽道,其中雖有不足,但從長期價值上看,遊戲仍被視作建立在基礎設施上的殺手級應用的抓手,仍有不少機會孕育其中。 1. 從遊戲團隊看機會 第一,Web2的傳統遊戲大廠。傳統Web2公司尋求轉型並積極擁抱Web3的消息已屢見不鮮,遊戲領域自然也不例外。通常來說,這類深耕多年的遊戲廠商擁有豐厚的遊戲開發經驗和資源,無論在遊戲發行、上線運營、項目營收、廣告投放等各個渠道都自成體係,即使是同時開發和運維多個遊戲產品也不成問題。因此,這類遊戲廠商進入GameFi賽道可能開發的不止一款遊戲,而是一係列遊戲矩陣,利用現有的用戶基數逐步實現用戶轉化,進而為生態注入更多的增量用戶。可以肯定的是,這種轉換帶來的用戶增量雖然是最有效的,但是開發和運營過程相對緩慢,要求遊戲廠商長期布局。 第二,crypto native遊戲廠商。相對地,也會有一些原生加密行業的團隊選擇開發鏈遊。然而,遊戲開發是有相當程度的參與門檻的。即便團隊中能夠引入Web2遊戲大廠的人才,在失去了原有大廠的運營和渠道後,他們也難以在遊戲性上複製過去的成功。於是,一些遊戲團隊開始改變思路,試圖從代幣經濟模型上尋求破局之路。好的經濟模型一定是充滿博弈的,使得玩家在付出的同時從他人獲得收益,而不是一味的薅項目方羊毛。Foresight Ventures提出,對於GameFi來說,經濟模型才是1,遊戲性是0。原生廠商不可能跟傳統遊戲比拚遊戲性,有個好的經濟模型才是第一位的。 2. 從遊戲模式看機會 無論是以Axie為代表的P2E模式,還是以StepN為代表的X2E模式的擴大意義的GameFi,其實都可以被看作是泛DeFi產品。因為這類項目的主要創新集中在tokenomics,並非遊戲玩法上。P2E和X2E模式本質上隻是多了幾個步驟的流動性挖礦,是新型的代幣分發機製,不具備核心競爭力。更何況上文說過,目前的代幣經濟學模型還不那麼健康。未來,GameFi的價值來源一定是遊戲的可玩性和更多crypto native上的模式創新。SevenX認為有3種類型的遊戲最有可能率先突破:第一是簡單的遊戲,用低門檻擴大玩家數量;第二是競技性強的遊戲,讓玩家在“與人奮鬥,其樂無窮”中長期留存;第三是經濟模型更優化,能讓一部分玩家能穩定賺到錢的遊戲,實現遊戲生態係統的內生循環。 總的來說,從投資角度來看,GameFi一級投資的風險更大。傳統Web2遊戲領域中,任何一款遊戲開發和上線前,廠家都會做大量的市場調研與測試,耗費的人力、物力、財力等成本對crypto行業來說是無法承受的,尤其在時間上。因為這個行業周期性太強,賺錢機會往往和市場整體行情掛鉤。如果GameFi要兼顧遊戲的可玩性,那一定是需要很強很專業的團隊,開發周期自然就延長了。所以,這種矛盾性往往意味著投資風險和籌碼的增加。 反過來,加密市場內的投資機構通常尋求相對快速的變現能力,這種趨勢會倒逼GameFi團隊做出利於短期價值的事情。所以,目前一些聲稱要開發1–2年的GameFi在加密行業內現狀並不好。 除此之外,從遊戲本身來看,任何遊戲都是有壽命的。一款遊戲的類型從最開始就確定了,更新迭代的難度相對較高,投資GameFi更像一錘子買賣。因此,在遊戲解決上述問題前,各機構在遊戲項目上出手較為謹慎,傾向於多看少動。 3.未來的機會在哪裡 分析了這麼多領域,我們不禁會思考,下一輪牛市中什麼樣的項目會爆發,會誕生在哪個領域。又該采取什麼樣的策略才能抓住這些機會呢。我們做一點預測,不構成投資建議。 基礎設施的預判和策略 從板塊輪動的周期規律來看,加密市場的下一個主角很可能是(其實現在就已經是)基礎設施。 ZK礦業是勝率和賠率都較高的好機會。類比比特幣礦業,ZK礦業的集中度不會很高,回報會相對穩定。它的市場想象空間很大,儘管目前技術路線(GPU/FGPA/ASIC)不確定,但是前兩者的殘值都較高,容錯率高。ZK Rollup平台有兩個相對頭部項目StarkNet和zkSync,但行業的競爭格局還沒有完全確定。這裡也是蘊含著巨大的機會,從技術實力和融資情況看,還是最看好兩個頭部項目。但目前StarkWare估值較高,可能有風險。 新公鏈處於群雄並起的狀態,這是勝率不高但是賠率非常高的賽道。目前它們還在早期,疊加上市場整體低迷,所以還不到爆發的時間。投資者有相對較長的時間來研究它們的創新點,深入到社區中,一同見證生態建設的進程。公鏈的價值有一大半來自生態,當看到某個公鏈上有幾個優質項目甚至是特色項目後,押注它的勝率會更大。 中間件與新公鏈類似,同樣是勝率不高賠率高的行業。它更需要關注上下遊的合作。對於中間件來說,龍頭項目的優勢會更具有持續性,需保持關注。在行業競爭格局沒有明晰前,可以采用指數化的方式配置,不宜單獨押注某個項目。 應用的預判和策略 DeFi在下個牛市仍然有巨大的增長機會。DeFi也是賠率高但勝率低的領域。目前由於行情低迷,DeFi會暫時進入蟄伏期。部分藍籌項目有可能穿越牛熊,它們的第二增長曲線需要在公鏈性能提升的基礎上疊加機製創新或業務範圍擴展。DeFi創新的重點可能集中在Layer 2上或者新公鏈上的衍生品領域。在衍生品領域中,永續合約交易量占比仍遠遠低於CEX,這裡還存在發展空間。伴隨著行情持續回暖和走高,無抵押/不足額抵押借貸和算法穩定幣的需求和敘事是長期存在的,它們可能會有增長的機會。不過經曆了UST和3AC的崩盤後,這兩個領域需要進化。DeFi的增長潛力大,行業集中度高,應該把關注的重點放在龍頭項目上。 社交的賠率奇高,但是勝率很低。它的發展需要有鏈上身份和公鏈性能提升做基礎,還需要有更多的應用場景。所以它可能是啟動較晚的領域。照搬現有模式很難有突破性的優勢,無法與傳統社交巨頭競爭。基於區塊鏈的社交也並非一無是處,在這幾個方面可能會有機會。第一,滿足鏈上的原生需求,比如精準信息傳遞和社群建設。第二,利用代幣經濟解決實際社交的真實需求,比如社交中的信任問題。 遊戲的賠率很高,勝率比社交高,它是一個容得下很多中小型項目的賽道。隨著更多大廠入局,會有更多增量用戶入場,帶來賽道整體的增長。所以遊戲是下一個牛市很有可能爆發的領域。好玩不一定是鏈遊最重要的屬性,P2E的敘事一定還會卷土重來,尤其是在行情的上升階段,經濟模型更優秀的遊戲可能會獲得更大的成功。想要有相對長期的發展,一個具備穩定博弈結構的經濟模型是必不可少的。 感謝配合調研的20餘家投資機構對本文的建議及啟發,以下是機構名單(按字母順序排序,不願透露名稱的機構未列出): [1]文中使用“勝率”和“賠率”這兩個詞衡量投資的性價比。勝率指投資獲得正收益的概率,即有多大可能性賺到錢。賠率指如果某筆投資產生了正收益,它的收益有多豐厚。    
PA薦讀 -
zkSync 2.0:動態費用裡程碑完成與展望未來
作者:水多多 | zkSync來源:《zkSync 2.0 更新:動態費用裡程碑完成》 在公開路線圖發布不到一個月後,我們完成了邁向主網的另一個重要裡程碑。動態費用裡程碑包括新的費用模型、向帳戶抽象添加付款主管支持的更新以及 EIP-1559 支持。它也讓我們離實現 zkSync 擴展以太坊價值和安全性的使命更近了一步。 動態費用 確保網絡可以運行所需費用:運行 L2 協議的成本很高,交易費用必須涵蓋這些成本。雖然我們必須收取足夠的費用來支付費用,但我們的目標是儘可能降低費用。這意味著,在為交易收取“X ETH ”的簡單事實背後,需要監控和分析以確保建議的費用確實是最優的。 我們還希望用戶控製他們同意支付的費用。與以太坊不同,交易成本的很大一部分代表了我們需要在 L1 上發布以保證數據可用性的數據量。這個價格成分取決於 L1 上的 gas 價格。運營商根據 gas 價格計算費用,zkSync 2.0 上的同一筆交易可能會根據以太坊上的活躍程度而產生不同的費用。 - 這意味著交易費用是根據兩個值計算的: - 處理交易並為其生成證明所需的計算量; 完成交易所需的 L1 氣體量。目標是允許用戶控製這兩個組件。 為了與以太坊上使用的術語“gas”區分開來,我們使用術語“erg”。該術語的靈感來自物理學,其中“erg”是“功”的量度。 每個交易成本都由幾個參數定義。一些參數接近以太坊上的參數:[ergsLimit] 和 [ergPrice]。還有一個參數 [ergsPerPubdataByte],它限製發送到 L1 的每個字節的調用數據將花費多少 erg。最後一個參數允許用戶同意某個 gas 價格,例如,確保在 L1 上的 gas 價格飆升期間不會執行交易。 有了這些部分,交易費用將根據所需的預期係統資源進行估算,並針對實際使用的資源收取費用。這種收費模式隻是初步實施,應該會有所改進。從現在開始,我們將在實時環境中積極監控係統,對其進行調整,並聽取您的反饋。 我們已經為即將到來的裡程碑進行了一些修改,這將使我們能夠提供卓越的 UX 和 DevEx,同時保持儘可能低的費用。 Paymasters 支持 zkSync 1.0 原生支持用於支付費用的 ERC-20 代幣,zkSync 2.0 最初衍生出相同的功能。然而,我們決定有更好的東西:“付款人”。 受到 EIP-4337(由 Vitalik 解釋)的極大啟發,我們的 paymasters 版本為開發人員提供了一個工具集,用於構建處理費用支付的新機製。它可用於多種用途。第一個也是主要用途是能夠以 ERC-20 代幣支付費用,但不限於此。例如,想象一個 dApp 補貼您的交易以使其更便宜(或完全免費)。該係統非常靈活,允許開發人員完全控製支付流程。 此功能還使得對 ERC-20 令牌的原生支持變得多餘。用戶會注意到,他們最初需要 ETH 來支付某些 dApp 的費用,但隨著開發人員將他們的應用程序從使用費用代幣轉換為付款人,用戶將能夠使用其他代幣來支付費用。請參閱zkSync 2.0 文檔以了解如何執行此操作並構建您自己的付款人。 這是 zkSync 上帳戶抽象支持的一大改進,而且不是最後一次。在接下來的幾個月中,我們將繼續完善界面並部署改進。 重要提示:為了激勵 zkSync 基礎設施的多樣性,我們的主網不會配備“默認”付款人。這確保了每個人都是平等的,並且在網絡中沒有被認為具有特權的實體。 EIP-1559 支持 EIP-1559成為以太坊交易的新標準,現在它在 zkSync 2.0 測試網上得到支持。 雖然您可以發送 EIP-1559 交易,但 zkSync 的細節與以太坊不同。例如,所有交易均以先到先得的方式處理,因此無需支付優先費用或小費。目前,EIP-1559 事務隻是一種格式,而不是協議邏輯中的新功能層。 但是,我們計劃在 EIP-1559 上構建幾個功能。更多信息將在即將發布的版本中分享。 其他一切 加入此版本的其他更新包括: - 現在支持Vyper 編程語言。請參閱示例以了解。 - Hardhat 編譯器插件現在能夠下載編譯器二進製文件而不是 Docker 映像。 - zkEVM 兼容性改進:我們積極聽取您對智能合約行為問題的反饋,我們的 VM 現在更符合以太坊的行為。 如果您在我們此次重置更新後遇到交易問題(待處理交易等),請重置您的 Metamask 錢包。如果這不能解決您的問題,請加入我們的Discord或發送電子郵件至support@zksync.io。 展望未來 我們有望在 59 天內啟動主網。請繼續關注下一個激動人心的版本。 同時,通過加入我們的測試網: v2.zksync.io,移植或啟動您的項目到 zkSync 2.0 。
PA薦讀 -
一文讀懂StarkNet零知識遞歸證明—STARK
原文:《Recursive STARKs》 byStarkWare 核心工程師 Gidi Kaempfer 翻譯:「StarkNet 中文」社區 概要 - 遞歸證明上線主網,用一個證明來擴展 StarkEx 應用程序和 StarkNet - 遞歸證明提升擴展性,降低成本和延遲(鮮有的擴展性和延遲同步發展,而沒有取舍) - 遞歸證明為 L3 和其他妙用創造了條件 - 來看看遞歸證明的博文吧,超酷的 😉 倍數擴展! 由 Cairo 通用計算提供支持的遞歸證明現已投入生產。這標誌著 STARK 對 L2 擴展能力的重大提升。單一證明寫入以太坊的交易數量可快速成倍增加。 迄今為止,STARK 證明通過將數萬甚至數十萬個交易「彙總」成單一證明寫入以太坊來實現擴展。通過遞歸,許多這樣的證明可以「彙總」成一個單一證明。 這種方法現已應用於眾多基於 Cairo 的應用程序:在 StarkWare 的 SaaS 擴展引擎 StarkEx 和無需許可的 Rollup StarkNet 上運行的應用程序 。 迄今發展曆程 自 2020 年 3 月主網上線首個證明產生以來,STARK 證明至今經曆了不同發展階段。 STARK 擴展 2020 年 6 月,第一個 STARK 擴展解決方案StarkEx在以太坊主網部署。StarkEx 有一個證明器可以在鏈下執行大型計算,生成一個 STARK 證明表示交易準確性,還有一個驗證器在鏈上驗證證明的準確性。第一次部署由 StarkWare 工程師從零開始親自操刀,因此 StarkEx 的功能極大受限。最終我們決定,需要一種支持證明通用計算的編程語言。這樣,Cairo 便應運而生。 Cairo 編程語言 2020 年夏天,Cairo首次亮相以太坊主網。Cairo 即 CPU 代數中間代碼(CPU Algebraic Intermediate Representation [AIR]),內含一個用於驗證相應「CPU」指令集的單一 AIR。Cairo 為更複雜的業務邏輯、任意可計算命題(computational statements)打開了編碼證明的大門,而且更快、更安全。一個 Cairo 程序可以證明相應應用程序的執行邏輯。但一個 Cairo 程序也可以集合多個此類應用程序,這就是 SHARP。 SHARP SHARP 即共享證明器 (SHARed ProSver),可以聚合幾個獨立應用程序的交易,並在一個單一的 STARK 證明中證明。應用程序可以組合不同批量交易,更快填滿 STARK 證明的容量。交易處理速度和延遲都有所提高。遞歸證明是下一代前沿技術,不僅適用於一些硬編碼邏輯,而且適用於通用計算。 要了解遞歸證明的全部優勢,有必要進一步了解 SHARP 迄今為止是如何執行(非遞歸)證明的。圖 1 描繪了一個典型的非遞歸流程: 圖 1:典型非遞歸證明流程 在這個流程中,命題逐漸到達。容量(或時間)達到一定閾值時,會生成一個大型組合命題 (Train)。隻有在收到所有單獨命題後,才能證明此組合命題。此證明需要很長時間(大約是單獨證明每個命題所需的時間總和)。 證明極其龐大的命題最終會受到內存等可用計算資源的限製。在遞歸之前,這實際上是限製 STARK 證明可擴展性的一大障礙。 什麼是遞歸證明? 通過 STARK 證明,證實命題所花費的時間與執行命題所花費的時間大致呈線性關係。此外,如果證明一個命題需要的時間為 T,那麼驗證證明所需要的時間大約為 log(T) ,這通常被稱為「對數壓縮」。換句話說,使用 STARK 讓用戶在驗證命題上的時間要比計算命題的時間少得多。 Cairo允許表達通用計算命題,這些命題可以經 STARK 證明所證實,再經相應的 STARK 驗證器驗證。 這就是執行遞歸的機會所在:就像可以寫一個 Cairo 程序來證明成千上萬的交易正確性,也可以寫一個 Cairo 程序來驗證多個 STARK 證明。可以生成一個證明來驗證多個「上遊」證明的有效性。這就是我們所說的遞歸證明。 由於對數壓縮和證明時間大致呈線性關係,證實 STARK 證明所需的時間相對較短(不久的將來預計隻需要幾分鐘)。 在實現遞歸時,SHARP 可以一收到命題就可以對其進行驗證。證明可以各種模式反複地合並成遞歸證明,直到在某個點上,產生的證明提交給鏈上驗證者合約。圖 2 就是典型的遞歸證明模式: 圖 2:典型遞歸證明流程 在本例中,有四個命題發送給 SHARP(可能源自四個不同應用)。這些命題各自平行證明。然後,每一對證明都由一個遞歸驗證器命題(驗證 STARK 證明的 Cairo 程序)來驗證,由此產生一個證明。這一命題證實有兩個證明經過驗證。接下來,通過遞歸驗證器命題再次合並這兩個證明。這就產生了一個證明,證實所有四個原始命題。此證明最終可以提交到鏈上,由 Solidity 驗證器智能合約進行驗證。 遞歸證明的直接優勢 降低鏈上成本 毫無疑問,我們實現了將多個證明「壓縮」成一個,這意味著每筆交易鏈上驗證成本會大幅更低(其中每個命題可能包含許多交易)。 使用遞歸證明可以消除至今限製證明大小的計算資源障礙(如內存),因為每個命題容量有限,都可以單獨證明。因此當使用遞歸時,遞歸的有效組合命題 (Train) 的容量幾乎是無限,每筆交易成本可以降低好幾個數量級。 在實際操作中,降低成本取決於可接受的延遲(以及交易到達的速度)。此外,由於每個證明通常也伴隨相應鏈上數據輸出,因此與單個證明一起寫入鏈上的數據量也會有限。儘管如此,將成本降低一個數量級,甚至繼續提升性能都可以輕鬆實現。 降低延遲 遞歸證明模式可降低證明大型組合命題延遲。有兩個因素起到作用: 1. 接收的命題可以並行證明(而不是證明巨大的組合命題)。 2. 無需等到 Train 中的最後一個命題到達即可證明。相反,有新命題加入可以隨時與證明結合。也就是說,加入 Train 的最後一個命題的延遲,大致上是證明最後一條命題所需的時間加上證明遞歸驗證器命題(證明所有已經「加入」這個特定 Train 的命題)所需的時間。 我們正在積極開發和優化證明遞歸驗證器命題的延遲問題。預計幾個月內證明遞歸驗證器命題會達到幾分鐘的數量級。因此,一個高效的 SHARP 延遲可控製在幾分鐘到幾小時,延遲長短取決於對每筆交易鏈上成本的取舍。這是對 SHARP 延遲的重大改進。 促進 L3 應用 用 Cairo 開發的遞歸驗證器命題也開啟了向 StarkNet 提交證明的可能性,因為該命題可以寫入 StarkNet 智能合約。這允許在StarkNet L2 公共網絡上部署 L3。 遞歸模式也適用於來自 L3 的聚合證明,由 L2 上的單個證明驗證。因此,L3 也可以實現超大規模擴展。 更多妙用 應用遞歸 遞歸為希望進一步擴展其成本和性能的平台和應用程序開辟了更多機會。 每個 STARK 證明證實應用於某些「公開輸入」(或 Cairo 術語中的「程序輸出」)的命題有效性。從概念上來說,STARK 遞歸將具有兩個輸入的兩個證明壓縮為一個具有兩個輸入的證明。換句話說,雖然證明的數量減少,但輸入數量未變。然後,輸入通常由應用程序用以更新 L1 上的某些狀態(例如,更新狀態根或執行鏈上取款)。 如果遞歸命題可以在應用層感知,即識彆應用程序本身的語義,那麼遞歸命題既可以將兩個證明壓縮為一個,也可以將兩個輸入組合為一個。最終的命題證實基於應用程序語義的輸入組合的有效性,這就是應用遞歸(Applicative Recursion,參見圖 3 示例)。 圖 3:應用遞歸示例 命題 1 證明從 A 到 B 的狀態更新,而命題 2 驗證從 B 到 C 的進一步更新。命題 1 和命題 2 的證明可以合並為第三個命題,直接證明從 A 到 C 的更新。通過應用類似的遞歸邏輯,可以非常顯著地降低狀態更新的成本,達到最終延遲要求。 應用遞歸的另一個重要示例是壓縮來自多個證明的彙總數據。例如,對於像 StarkNet 這樣的有效性證明 Rollup,L2 每次存儲更新也作為傳輸數據在 L1 更新,確保數據可用性。但是,不需要為同一個存儲單元發送多次更新,因為隻有經過證明驗證過的交易最終才能滿足數據可用性。此優化已在單個StarkNet 區塊中執行。但是,通過為每個區塊生成證明,應用遞歸可以壓縮多個L2 區塊彙總數據。這可以顯著降低成本,降低 L2 出塊時間,而不會犧牲 L1 更新的可擴展性。 值得注意的是:應用遞歸可以與前面描述的應用通用遞歸結合使用。但這兩種優化互無關聯。 降低鏈上驗證器的複雜性 STARK 驗證器的複雜性取決於用以驗證的命題類型。特彆是對於 Cairo 命題,驗證器的複雜性取決於 Cairo 語言中允許的特定要素,更具體地說,是支持的內置項(如果把 Cairo 比喻成 CPU,那麼內置項相當於 CPU 中的微電路:計算執行太過頻繁,所以需要優化自身計算)。 Cairo 語言不斷發展並提供越來越多有用的內置項。另一方面,遞歸驗證器隻需要使用一小部分內置項。因此,遞歸 SHARP 可以通過支持遞歸驗證器中的完整語言來成功支持 Cairo 中的任何命題。具體來說,L1 上的 Solidity 驗證器隻需要驗證遞歸證明,因此驗證器可以僅限於驗證 Cairo 語言一個更穩定的子集:L1 驗證器不需要隨最新、最穩定的內置項更新。換句話說,命題不斷演化,複雜的驗證就交由 L2 處理,L1 驗證器隻需要驗證簡單、穩定的命題。 減少計算足跡 在遞歸之前,聚合多個命題為一個證明受到可用計算實例上可以證明的命題大小(以及生成此類證明所需的時間)的限製。 有了遞歸,無需再證明如此龐大的命題。因為有了更多又小又便宜的計算實例可供使用(儘管計算實例可能要比使用大型單片證明器時需要的更多)。這使得在更多的物理和虛擬環境中部署證明器實例成為可能。 總結 通用計算的遞歸證明現已為包括 StarkNet 在內以太坊主網上的多個產品係統服務。 由於可以不斷改進,遞歸的優勢會逐步顯現。並行計算的潛力得以發揮後,Gas 費降低,延遲改善,超高擴展性終將實現。 遞歸在成本和延遲方面的優勢異常顯著,還會催生 L3 和應用遞歸等新機會。遞歸驗證器持續優化,性能和成本效益也都會逐漸提升。 附錄 原文:Recursive STARKs https://medium.com/starkware/recursive-starks-78f8dd401025 原文:Youtube:StarkEx - How Does it Work? https://www.youtube.com/watch?v=P-qoPVoneQA 原文:Hello, Cario! https://medium.com/starkware/hello-cairo-3cb43b13b209 原文:Hello, Cario! https://starkware.co/cairo/ 原文:Wikipedia Entry: Recursion https://en.wikipedia.org/wiki/Recursion 原文:《分形式擴容:從L2到L3》 https://mirror.xyz/starknet-zh.eth/-5oiKxwShIOzGUwuQJzIl070wopcPjqBcypVjRvyC1E
技術最前沿 -
加密VC們最近都在研究些什麼?
作者:北辰原文:《從NFT的IP開源社區到比特幣閃電網絡,風投們正在研究哪些新動向?》 Crypto市場的最新動態當然在社交媒體上就能捕捉到,但篩選信息的成本實在太高,那裡總是充滿噪音,讓我們間歇性失聰或者失焦,誤把個人形成的偏見當作共識。一個不錯的克服方式是尋找出優質的信源,然後賦予更高的置信度,以此作為我們的參考資料。 任何有價值的觀點/看法/經驗,是消耗一定的時間才能形成的,我們去閱讀它們就相當於給自己加了時間的杠杆。 鏈茶館計劃長期追蹤Crypto行業頂級的投資機構和獨立分析師的深度研究內容,並定期(每周)篩選整合為係統化的輸出,希望能作為讀者觀察行業暗流湧動時的參考。 以下是第一篇不算成熟的嘗試,我們會持續完善追蹤的信源庫以及輸出模型,也歡迎各位朋友推薦對你來說置信度更高的信源。 a16z 《捍衛穩定幣》— Miles Jennings 本文是為了回應外界對穩定幣的攻擊。 解釋了算法穩定幣暴雷並不是因為在算法層面出現了問題,而是在金融上存在問題,即抵押品不足。 具體而言,算法穩定幣的價值依賴於「內生」抵押品,也就是項目的治理代幣。當治理代幣下跌時,就會觸發清算抵押品以贖回資產的死亡螺旋,正如傳統銀行擠兌那樣。 而像DAI這樣的超額抵押加密貨幣的去中心化穩定幣則完全能夠應對極端行情,至於Terra的USDT則不應該被視為穩定幣(沒有解釋原因)。 最後的結論是:監管是必要的,但不應該禁止穩定幣,尤其不應該禁止去中心化的穩定幣,因為它更有彈性。另外,算法穩定幣提供了一種可能性,能讓各種資產具有生產力並推動全球數字商務,但要給它們的抵押品設置「護欄」。 a16z 《為什麼NFT創作者要去cc0》— Flashrekt、Scott Duke Kominers 我們熟知的IP策略是有排他性的,但其實如果有開源精神,明確允許公眾在現有技術的基礎上進行構建(或分叉和複製),可以增加IP的價值,所以NFT社區有開源精神會走得更遠。 Cc0(知識共享零)是一個知識共享非營利組織,創作者可以有意選擇“不保留任何權利”,因此任何人都可以製作衍生作品並從中獲利。 現在有許多NFT項目加入了cc0,也有很多加密藝術家把作品添加進cc0,目的是為了促進原始項目的擴展,以打造一個更有活力和參與度的社區。最典型的代表是Loot係列,他們加入cc0是為了減少許可摩擦。 但cc0隻適用於新興項目,而已經成熟的品牌(如迪士尼)構建的NFT更願意選擇限製性更強的許可證。 結論是NFT領域需要開源社區,而cc0則試圖成為這樣的基礎設施。 IOSG《拆解數據可用性層:模塊化未來中被忽視的樂高積木》— Jiawei 文章的核心觀點是模塊化區塊鏈將成為下一輪周期(未來3到5年)的關鍵敘事,每一層都呈現低耦合。 其中,執行層的龐然大物(即Rollup)已經「四分天下」,後來者寥寥。共識層(即每個Layer1)競爭格局雖未塵埃落定,Aptos、Sui等即將到來的Layer1開始嶄露頭角,但它的敘事就像新瓶裝舊酒,很難找到合理的投資機會。 而數據可用性層的價值仍然有待被發掘,例如引入區塊鏈作為信任主體來保證鏈下數據可用性。 Coinbase《比特幣閃電網絡是真的嗎?》— Connor Dempsey & Sam Newman 比特幣每秒僅7筆交易,且費用昂貴,不適用於消費,但建立在比特幣之上的Layer2則可以每秒數百萬筆即時交易,成本僅幾美分。這會吸引用戶將BTC存入閃電網絡來交易,甚至有可能影響全球彙款市場。 閃電協議在比特幣之上,在閃電協議之上是核心基礎設施,在核心基礎設施之上是越來越多的支付、金融、消費等服務型DApp。 過去六個月,比特幣閃電網絡的用戶和生態係統在穩步增長,尤其是薩爾瓦多的5%的交易是使用BTC。 最後判斷,未來如果迎來牛市,Gas費更高,閃電網絡的活動會激增。 Paradigm《沒有Tendermint的Cosmos》— Joachim Neu、Andrew Kirillov、Georgios Konstantopoulos Cosmos的高性能BFT共識算法工具包能夠讓開發者在Tendermint上直接發鏈,但Tendermint是多年前構想出來的,可以有更好的替代品。 Paradigm則提出了一個新思路——將Tendermint替換為Narwhal & Bullshark (N/B),同時以跟Cosmos SDK堆棧的兼容性為目標。 為此他們構建了一個原型Cosmos/ABCI應用程序,使用Narwhal/Bullshark作為共識算法(而不是Tendermint)。測試結果就是儘管ABCI試圖更加通用,但它更多是基於Tendermint定製的,不太適用於最新的共識協議。
PA觀察 -
從產品維度來看,我們為什麼不能完全信任Layer2?
原文:Layer 2 Playgrounds,由 DeFi 之道進行編譯: 內容概要 - 簡介 - 為什麼要從 L1 到 L2? - 產品維度 - 維度 1:什麼是 L2? - 維度 2:驗證方法 - 維度 3:市場細分 - 維度 4: 生態係統的進步 - 重要的限製和風險 🚧 - 延伸閱讀、免責聲明 - ⭐️更多:快速開啟 L2 體驗‌ ⭐️ 簡介 這篇文章是關於 L2 擴容的,重點聚焦在以太坊上。我是為初級到中級的區塊鏈愛好者寫的——即具備在以太坊或其他主鏈上進行交易的經驗,但對 L2 及其進展仍不太了解的人群。 本文的重點是將 L2 解決方案按照產品進行分類。我認為這種方式是很有幫助的。產品思維可以幫助提高判斷力和消費者的謹慎度。產品之間會產生競爭。他們有受歡迎的或者不受歡迎的特點。用這種形式來思考可以讓你更仔細地權衡潛在的成本和效益。無論我們要買什麼,從一支新筆到一台新的筆記本電腦,都可以進行產品評估和比較。我們會對這些產品進行分類、保存、仔細檢查和篩選。那麼何不對所有加密貨幣產品也進行這樣的比較呢? 作為一個產品類彆,L2 是令人興奮的。一開始,你必須選擇一個 L2 來發送你的 L1(以太坊)資產。這被稱為 "橋接"(bridging)。隨著最近一些 L2 解決方案的發布,以太坊上成千上萬的參與者已經將資金橋接到一些選定的 L2(見下面的插圖)。我們在進入一個與主鏈及其產品平行的世界。當你進行交易時,感覺就像是啟動了區塊鏈傳送門——交易速度飛快,幾乎沒有延遲或成本。 要使用 L2 就必須進行橋接。此圖為近 1 萬個錢包從 L1 橋接到 L2(數據來源‌) 為什麼要從 L1 到 L2? 在 2022 年 5 月初的一個周末,有人坐在電腦前,興奮地在以太坊上進行交易。他們可能計劃交易一些代幣或 mint 一個 NFT。也許他們喝了一口熱咖啡,打開瀏覽器,插入他們漂亮的硬件錢包,準備開始交易。他們用 Uniswap 來做一個簡單的交易,然後點擊了 "交易" 按鈕。他們輕擊按鍵在錢包上簽名。交易完成了。但是,當他們在 Etherscan 檢查鏈上交易時,他們大吃一驚。一筆 282.60 美元的交易花費了 183.57 美元的費用。 2022 年 5 月 1 日的 Uniswap 交易費用 對於那些被 gas“刺客”麻了的人來說這是一個再熟悉不過的故事。但在 5 月的那個周末,gas 的糟糕程度達到了曆史新高。有人支付了超過 4000 美元的費用來鑄造 Purrnelopes NFT(價格:1000 美元)。另一個人花了超過 400 美元的 gas,隻是為了發送 30 美元的以太坊。基本費用超過了 8,000 gwei,是有史以來最高的。事情有些不對勁。當然,起因是某個 NFT 的 mint。 Purrnelopes Cat #8165 PoW 區塊鏈可能面臨嚴重的擴容挑戰,那個周末發生的事情進一步印證了這個事實。並不隻有以太坊面臨這個問題。比特幣曆史上有一個知名的例子是,Erik Voorhees 在鏈上普及的 Satoshi Dice 這個遊戲。十年前推出的 Satoshi Dice 對許多人來說是一個很受歡迎的遊戲,但有些 bitcoiner 卻對它大為不滿。它造成了網絡擁堵,導致了高額費用和緩慢的交易。比特幣曆史上的同類事件也激發了其著名的區塊戰爭和閃電網絡的發展。 協議架構師對此能做什麼? 有些人設計了新的協議和鏈,利用新的共識機製克服這些挑戰。這是因為擴容與去中心化和安全的目標存在矛盾:不可能三角。區塊鏈在曆史上以犧牲擴容為代價最大化了安全等特性。另一個方法是將這種安全性作為新的發展基礎。為什麼不在 L1 的基礎上,創建一個 二層網絡(L2),在利用 L1 的安全性的同時,幾乎不受到這些擴容問題的限製? 這篇文章就是關於這個新興的 L2 解決方案的生態係統,專注於以太坊。我將把 L2 描繪成幫助用戶擴展其鏈上活動的產品。我們用特定的產品維度去看待 L2。這些維度可以幫助我們看待 L2 擴容和分辨可供我們嘗試的產品。 產品維度 維度 1:什麼是 L2?L2 解決方案中經常討論的第一個維度是 L2 本身的定義,因為它具有特殊的技術和安全含義。L2 通常被定義為直接與 L1 賬本安全性掛鉤的賬本。從實際的、功能性的角度來思考這個定義是很有幫助的。在 Lex Fridman 的播客‌中,Vitalik Buterin 為 L2 rollup 的某種類型舉了一個例子。 “Rollup 和側鏈之間的安全模式有一個重要的區彆,基本上 Rollup 繼承了以太坊的安全性,所以如果我在 Loopring 或 Optimism 或 Arbitrum 或 ZkSync 裡面有幣,那麼即使世界上其他參與這些生態的人都討厭我,想偷我的錢,我仍然可以百分百確定我的錢可以拿出來。” 因此,從產品角度來看,第一個區彆是,一個 "合格的"L2 有加密保證,以保護你的資產。這些保證直接與 L1 主鏈(這裡是以太坊)相聯係。作為一種產品,這讓 L2 平台感覺仍然在以太坊更廣泛的生態係統內運作(並享受其帶來的安全性)。 但是,如果技術及其用戶界面和社區都在不斷發展,那麼我們還應該考慮 L2 的哪些方面? 關於這些問題,這裡有一個很好的信息網站:L2 BEAT 研究團隊創建了一個豐富的資源庫,實時更新以太坊 L2 的數據。這個網站上有詳細的解釋,包括每個 L2 的信息。從 L2 BEAT 的 FAQ 來看: “我們必須做出定義——在當前——我們將 L2 定義為完全或部分地從以太坊 L1 中獲得安全的鏈,這樣用戶就不必依賴 L2 驗證者的誠信來保證他們的資金安全。這符合 ethereum.org 目前對 L2 擴容的定義。” L2 BEAT 網站 維度 2:驗證方法。根據 L2 的這一定義,有幾種方法可以在與 L1 綁定的同時保證資產的安全。目前最常見的方法是 Rollup。通過 Rollup 這個詞就能理解其定義。L2 通過 "將交易卷起來" 來打包一批交易。這可以節省數據並提高速度。得益於零知識證明的技術發展,這種加速可以特彆快。因為這些證明允許我們證明(或偽造)一批“卷起來”的交易的有效性,大大節省了數據存儲和速度的效率方面耗費的力氣。 Vitalik Buterin 對 Rollup 的解釋‌仍然是最清晰的 驗證 Rollup 有兩種主要的方法,作為產品,他們所能提供的內容可能看起來非常不同。一種被稱為 "Optimistic Rollup",另一種被稱為 "ZK Rollup"。 在使用 Optimistic Rollup 的 L2 上,交易在 L2 上需要等待一段時間(即挑戰期)。與此同時會有一個程序用於裁定任何潛在的不良行為,允許 L2 上的參與者證明一個或多個更改是以欺詐方式進行的。如果一批交易已經度過了挑戰期,那麼他們就被間接地 "驗證" 了。第二種類型稱為 "ZK Rollup",在交易被“卷起來”的時候驗證一批交易。這樣做的好處是更快地確認它們的合理性,但對 L2 來說,計算成本會更高。Vitalik Buterin 對這兩種驗證類型有一個很好的總結。 Vitalik 寫的 Rollup 指南 目前交易量最大的兩個 L2,Arbitrum 和 Optimism,用的是 Optimistic Rollup。這意味著,當你在他們的鏈上進行交易時,數據的最終 L1 commitment 將在挑戰期(7 天)過後完成。這條規則也有例外,因為可以設計出一些工具來繞過等待期(比如橋接)。使用 "ZK Rollup" 的兩個主要應用:dYdX 和 Loopring。在這些 L2 中,commitment 是可以立即進行的(儘管在實踐中,仍然可能需要幾分鐘或幾小時來捆綁交易並將其相關數據提交到 L1 賬本中)。 或許這種說法不受歡迎:在這兩種情況下,都不會真正阻止用戶在 L2 上開展業務。這個等待期僅與對 L1 的承諾有關。但從 L2 的“角度”來看,無論是哪一種 Rollup,你的交易幾乎都可以立即處理,並且成本隻是 gas 價格的一小部分。 L2 BEAT TVL 排行 如果你正在編寫一個將在 L1 和 L2 之間通信的應用,這個維度可能更重要。在 Optimistic Rollup 中,L2 上的合約必須等待 7 天的挑戰期,然後 L1 才能完全確認其更新。但如果你是 Optimistic L2 上的普通用戶,就不涉及這樣的技術考慮,大多時候你不會注意到這些。即使在 Optimistic Rollup 中存款或提款,現在也有第三方服務幫助繞過挑戰期。 因此,從消費者評估產品的角度來看,接下來的兩個維度可能更加重要。 維度 3:市場細分。消費者心理學認為,產品評估的早期組成部分之一是問題識彆。這具體到為什麼對某一特定產品感興趣,以及將用它來追求什麼特定的目標。明確目的是很重要的。就 L2 而言,我已經試驗了幾個 L2,作為一個潛在的用戶,你要問的最直接問題是你想在該層上做什麼樣的交易。 一般有兩種類型。再次借用 L2 BEAT 的分類,一種是建立通用功能的 L2,也有尋求專業化的 L2。 通用:有幾個鏈,包括兩個最大的 Arbitrum 和 Optimism,旨在實現普遍覆蓋——完全與 EVM 等效,就像第二個以太坊,速度更快,成本更低,並保持與 L1 的連接。如果你正在發布一個 NFT 項目或代幣或任何專門的智能合約係統,你可以考慮將通用 L2 作為一個潛在的選擇,以方便部署。這些平台在其網站上有精心設計的 "生態係統" 部分:NFT 市場、L2 Uniswap、DAO、預言機等等(見 Arbitrum‌ 和 Optimism‌)。 專業化:有趣的是,其他大規模的 L2 應用,如 dYdX 和 Loopring,使用 ZK Rollup,並且更加專業化。他們都專注於作為一個交易所。他們的平台面向特定種類的交易,速度更快也更便宜,而在 DeFi 的世界裡,快速結算是關鍵。Immutable X 是將 NFT 轉移到 L2(基本上是 ZK Rollup,但其數據不在鏈上)的例子。Immutable 現在承載著幾個大型項目,包括著名的 Gods Unchained 卡牌遊戲。 Immutable X 上的 Gods Unchained 當 L2 是為市場專業化設計的時候,你可能會發現它的易用性和在該細分市場的滲透率是最理想的。回到最初的那個問題:你為什麼想參與 L2?這個問題可以幫助消費者確定候選產品。如果你對 DeFi 活動感興趣,最佳選擇的範圍可能與交易 NFT 的情況不同。 維度 4:生態係統的進步。上面提到的 L2 自最初問世以來有了很大的發展。就在最近,Optimism 發布了一個重要的項目公告‌,一些 ZK Rollup 平台也宣布其平台的加密工具有了重大進展‌。 一個主要問題是這些係統的進展,以及有多少人加入。我們在這裡有那兩個基本原則:優先依附和網絡效應。使用 L2 的人越多(而且用得越頻繁),這些平台就會被認為是更可取的,它們就能繼續快速發展。評估 L2 的這一情況,取決於生態係統進步的一些基礎原始成分。 i. 平台的交易量 ii. 平台的獨特用戶 評估這些產品的消費者必須平衡特定用戶群的規模和它所要實現的特定功能。一個為特定目的而打造的平台(如 NFT 平台),如果沒有用戶,那就沒有用。L2 BEAT 可以提供一些關於這些鏈上活動的數據(雖然不完美:通過 TVL 判斷)。下圖是由 gm365 製作的 Dune 圖表,有四大 L2 的很多相關指標。 gm365 的 L2 橋接數據‌(截至 8 月 3 日) 但是,即使交易量很小,我們也可以根據軟件產品的其他一些基本特征來探究一個平台的前景如何。這些特征可以形成平台吸引其他客戶的可能性。 iii. 橋接、交易和提款的用戶體驗 iv. 平台和托管應用的一般用戶體驗 L2 的用戶體驗問題不僅僅是你的資產在橋上的移動。有獨立的團隊為這些 L2 構建新的應用和工具。他們也有用戶體驗的問題需要考慮。這些平台的一些應用一直在許多 L2 上部署。例如,tofuNFT 的 NFT 市場可用於在許多鏈和 L2 進行交易。任何這樣的應用都會有自己的用戶體驗感,我們最終可能會專注於其中一個子集的 L2。 tofuNFT 涉及的鏈 每個 L2 和每個應用都會進一步縮小用戶群和 L1 的流動性。這是我們在這個生態係統中前進時的一個主要限製。橋接和用戶體驗的技術挑戰是關鍵,但同樣重要的是活動的程度和 L2 平台上參與托管產品的獨特用戶數量。這種引導是一種成分,在很大程度上取決於我們對 L2 的潛心研究。 重要的限製和風險 以上是主要的產品維度:L2 的安全性、驗證類型、市場細分和生態係統的進展。你可以關注這些產品的正向信息,進行分類和篩選,並做出產品選擇。但是,也應該牢記一些關鍵的限製和風險。其中一些涉及到整個 L2 生態係統本身。這裡是這些產品正在解決的幾個重要問題。 L2 BEAT 列出了每個 L2 的潛在風險: Top 10 L2 的風險 下面是使用 Optimistic Rollup 的 L2 面臨的典型風險。目前,我們必須假設至少有一個誠實的、有能力的驗證者,他們沒有從事 MEV 提取等等。這些都是合理的假設。但是,就像加密領域的所有事情一樣,我們寧願不做這些假設。 L2 BEAT 列出的 L2 風險列表 最近發生的 Nomad 攻擊事件就說明了跨鏈橋的風險。可能是由一個合約更新引起的,導致其跨鏈橋合約的資產(約 1.9 億美元)被吸乾。另外還有一些產品仍然是相對中心化的。例如,一些主要的 L2 有一個排序器(驗證者),他們未來有去中心化升級的計劃。中心化是一個嚴重的問題。Axie Ronin 橋是通過對其多簽合約的簽署者進行社交工程攻擊而被破壞的。 因此,這些風險是巨大的。存放資產最安全的位置是在 L1。從某種程度上來看,L2 應該被視為一個遊樂場,在那裡你可以與一個感興趣的生態係統進行更快、更低成本的接觸——這對 DeFi 來說尤其實用。DeFi 和 ERC20 代幣(舉個例子)可以橋 接。然後,當準備好長期持有時,你將你的資產放回到 L1。這對 NFT 來說可能更困難。L2 上的 "原生"NFT 隻能繼續存放在那裡。碎片化的和包裝的 NFT 可能也允許在 L2 上以這種方式參與。   免責聲明 這篇文章隻是為了分享我的觀點,除了提供些樂趣(但可能連樂趣都不是,至少不是對每個人)之外,不應該被視為有關任何事情的建議。這是我的推特‌。我在這次調查中沒有得到任何資助。我寫這篇文章是為了好玩。希望你覺得它有用。
技術最前沿 -
5大主流Layer2項目橫向對比
原文:Jake Pahor推文 編譯:TechFlow intern 我研究了所有與以太坊第二層解決方案相關的項目,包括廣義的 L2(Polygon)和特定應用的 L2(dYdX),並從這些偉大的項目中選出了我心目中的前五名。 1.是否產生了收入? 深入研究 Token Terminal,發現了一些非常有趣的統計數據。在過去的 180 天裡,獲得的總收入(費用)為: dYdX 2.122 億美元 Arbitrum 1370 萬美元 Polygon 880 萬美元 Optimism 850 萬美元 Loopring 250 萬美元 正如你在圖表中看到的,與其他項目相比,dYdX 具有壓倒性的優勢。Arbitrum 排在第二位,但您可以看到,在過去的一個月裡,Polygon 一直處於領先地位,並且勢頭強勁。 2.國庫資源的分配 研究此問題的要素分為: 他們是否有不同的資產,或者隻是他們的原生代幣(更多的風險) 國庫有多大,給項目帶來多大的發展空間? Polygon:很難找到關於 Polygon 國庫規模和內容的任何信息。然而,我們知道最近有 10 億美元被承諾用於開發 ZK 項目,我們可以假設其國庫的總規模遠大於此。 Optimism:30%的初始代幣供應(12.9 億 OP)將分配給社區基金(生態係統基金+ RetroPGF)=價值約 18.5 億美元的 OP 代幣(基於當前價格 1.43 美元)。 dYdX:初始代幣供應的 5%(5000 萬 DYDX)被分配給社區國庫。按照今天的價格(2.27 美元),這大約是 1.13 億美元。 Loopring:20%的代幣供應(2.75 億 LRC)被分配給 LEAF,價值約 1.1 億美元(基於當前 0.40 美元的價格)。 3.鎖定的資金 如果大部分代幣仍被鎖定在歸屬時間表中,這可能會在未來造成巨大的拋壓。 Polygon:大約 92%的供應已經被解鎖。最後的 8 億個代幣將在 2025 年 5 月前解鎖。目前的流動性供應=918 萬,而總供應量為 100 億。 Optimism:總供應的約 5%已經通過空投解鎖。目前流通的供應量=2.15 億,總供應量為 42.9 億。 dYdX:所有供應量的約 11%已經被解鎖。目前的流動性=1.12 億,總供應量為 10 億。 Loopring:所有供應量的約 90%已經被解鎖。目前流通的供應量=12.45 億美元,而總供應量為 13.74 億美元。 4.作用與案例 Polygon:MATIC 代幣用於支付網絡中的交易費用。你也可以用你的 MATIC 進行質押,作為保障網絡安全的獎勵。 Arbtirum:還沒有代幣,但網絡本身有巨大的效用,並提供更便宜的交易費用和可擴展性,同時保持以太坊的安全性。 Optimism:區塊空間的權利是推動 OP 經濟模式的可持續收入來源,並與網絡本身一起成長。 dYdX:本質上是一種治理代幣,持有者還可以根據其頭寸的大小獲得交易費的折扣。 Loopring:協議費用分配給流動性提供者、保險人和 DAO 雙方,激勵代幣持有人的良好行為。 5.路線圖 Polygon 剛剛宣布,他們將實施第一個 EVM ZK L2。Sandeep 還計劃在 2-3 年內實現區塊鏈的完全去中心化,並同時開發一些強大的產品,包括去中心化的數字身份證等。 Arbitrum 還沒有公布完整的路線圖,但有人猜測他們也會在某個時候通過空投的方式發布一個原生代幣。 Optimism 在下面的圖表中列出了其路線圖。 dYdX 正計劃在 2022 年底之前,通過他們的 V4 版本成為完全去中心化的項目。這似乎是他們的主要焦點,也將是項目的一個巨大的裡程碑。 Loopring 計劃在 2022 年進行一些大的升級,如 Loopring Earn 和 zkEVM。 6.板塊類彆 這個名單上的 5 個項目在本質上都非常相似。Polygon、Optimism 和 Arbitrum 都在爭奪同一塊蛋糕,競相成為最好的 L2 擴展解決方案。 在這個階段,從市值和 "護城河 "的角度來看,Polygon 顯然是第一。然而,Arbitrum 和 Optimism 的使用率卻更高,並且正在快速增長。 7.團隊和資金 Polygon 擁有一個不匿名的團隊(Anurag Arjun、Jayant Kanani、Mihailo Bjelic 和 Sandeep Nailwal),並得到了該領域一些最傑出投資者的支持(Alameda、Binance Labs、Coinbase Ventures),總融資額為 4.515 億美元。他們最近還宣布了一係列合作關係(迪斯尼、Reddit、Meta、Stripe、Draftkings),顯示出他們強大的業務發展能力。 Arbitrum 也有一個知名團隊和強大的靠山(Pantera, Alameda, Mark Cuban, Coinbase)。Offchain Labs 的母公司總共獲得 1.237 億美元的投資。 Vitalik 本人是 Optimism 的忠實粉絲,並表示支持他們的新治理結構。 他們得到了 A16z、Paradigm 和 IDEO 的大力支持,總共獲得了 1.785 億美元的投資。 dYdX 獲得了 8700 萬美元的投資,來自一些著名的投資者,包括 Hashkey、Starkware 和 A16z,他們的團隊也是不匿名的。 Loopring 從 Kosmos ventures、G2H2、Neo、Fundamental Labs 和 Obsidian 獲得了 4500 萬美元的投資。 8.總結 根據我的研究和分析,我給每個項目的每個類彆的評分都在 1-10 之間。正如你所看到的,明顯最終的贏家是 Polygon。 該項目是最成熟的,擁有最大的市值,並且由於即將到來的以太坊合並,最近確實獲得了一些關注。其他項目同樣也非常有前途,從長遠來看,都有很大的成功潛力。 這些並不是對這些項目的購買建議,這隻是我的客觀意見,也是我為進一步了解 L2 而進行的研究。在你投資任何項目之前,請做你自己的研究。 原文鏈接
PA觀察 -
Bedrock架構會讓Optimism成為最好的Rollup嗎?
注:原文作者是 Optimism 核心開發者 Kelvin Fichter(smartcontracts)。​以下是關於 Optimism 未來的帖子,包括即將到來的 Bedrock 升級,Rollup 的去中心化以及關於 ZK 的部分。Bedrock 是一個 Rollup 客戶端,而不是一個 Optimistic Rollup 客戶端。​我最近發表了一次題為《何時?》的探索 Optimism 未來的演講,由於 Optimism 做的所有東西都是開放的,因此這次演講裡面有很多 alpha 信息。​​我想談談我在那次演講中提出的一些最重要的觀點,因為它們對於理解“為什麼 Optimism 會以這種方式做事”是至關重要的。讓我們來談談 Bedrock、去中心化以及 ZK 的未來。 Bedrock 架構 Optimism 即將推出的 Bedrock 設計是有史以來最先進的 rollup 架構。這不是什麼比賽,Bedrock 在各個方面都接近理論上的最優值,包括最優的交易費用、最優網絡以及最優區塊生產。​Bedrock 之所以如此先進,是因為它非常模塊化並且是極簡的,它的設計理念是把以太坊現有的代碼變成 Rollup 代碼,並且我們成功了。我們的客戶端差異是 500 行代碼。​Bedrock 有一個新的 L2 派生管道,使其成為了一個獨一無二的 rollup 架構,在將 tx 數據發布到以太坊時擠出每一點節省的 gas。Bedrock 也是當前唯一使用以太坊引擎 API 實現共識/執行客戶端分離的 rollup 設計。​那這些為什麼很重要呢?​因為 Bedrock 是使得 Optimism 成為第一個真正去中心化的 EVM Rollup 的基石。​為了使一個 rollup 真正安全與去中心化,它需要有一種證明機製(故障證明或有時是“欺詐證明”),而無需任何類型的升級密鑰,可以在不長時間延遲的情況下更新證明。​這就是 rollup 肮臟的真相,如果你有快速升級,即使你有故障證明,你的區塊鏈安全性仍然取決於你的升級密鑰。而在解決該問題之前,你根本無法獲得真正的 rollup 級安全性。​目前,隻有一種方法可以一勞永逸地解決這個問題:客戶端多樣性以及證明多樣性。​就像以太坊需要客戶端多樣性(Geth、Erigon、OE、Nethermind 等)一樣,rollup 也需要客戶端多樣性。有了客戶端的多樣性,一個漏洞就變成了一次鏈分裂,並且可以得到解決。而如果沒有客戶端多樣性,一個漏洞就有可能成為關鍵的安全事件。​Bedrock 的 500 行代碼差異以及共識/執行分裂並非是偶然。這是一個深思熟慮的決定,旨在使 rollup 客戶端多樣化成為可能。我們已經有了 Optimistic Geth,那你知道還會有 Optimistic Erigon 嗎?​我們最終還將通過故障證明的多種實現來證明多樣性。最終結果是,我們可以使用多個客戶端運行多個證明,這意味著我們可以通過查看任何證明結果是否不一致來檢測關鍵的漏洞。​客戶端和證明的多樣性是未來,它將使我們能夠安全地刪除快速升級密鑰。​但 Bedrock 也是其他東西的基礎……​Bedrock 非常靈活和模塊化,我們的 L2 派生管道和我們的故障證明架構,意味著 Bedrock 可以輕鬆插入新的數據可用性層。這就是為什麼 OP Labs 正在努力幫助交付 EIP-4844 ("proto-danksharding")。一旦以太坊交付 EIP-4844,Optimism 就可以無縫遷移到「data blobs」交易類型,用戶將能夠節省大量的 gas 費用。​並且,Bedrock 是非常靈活的,它是一個 Rollup 客戶端,而不是一個 Optimistic Rollup 客戶端。 Optimistic 和 ZK 係統的無縫過渡 與其他設計不同,Bedrock 與所使用的 Rollup 證明類型完全無關,它甚至不知道證明。現在,我們正在構建一個 Optimistic 證明……​但是 Bedrock 也可以使用一個 ZK 證明係統,我們認為 Optimistic Rollup 目前相比 ZK 同類產品具有優勢,而 Bedrock 旨在使 Optimistic 和 ZK 之間的無縫過渡成為可能。​Optimism 是為未來做準備的,而 Bedrock 就是未來的基礎。這並不是關於構建最好的 Optimistic Rollup 或最好的 ZK Rollup,而是關於構建最好的 Rollup。我們不隻是這麼說,我們是從頭開始這麼設計的。​如果你想了解更多信息,我強烈建議你看看《Wen?》這期演講視頻,它大約有 1 個小時的時間,並且要比這篇文章中提到的要更詳細得多。​而關於這個帖子,以太坊聯合創始人 Vitalik Buter 也發表了他的看法: “混合思路:optimistic + ZK,治理隻用於判決兩者之間的漏洞。 1、發布區塊; 2、等待 24 小時時長的欺詐挑戰期; 3(a)如果沒有挑戰,則發布 ZK SNARK,最終確認; 3(b)如果出現了挑戰,根據(挑戰遊戲、ZK SNARK 以及治理)的 3 個選項中的 2 個做出決定; ”
PA薦讀 -
擴容新思路?一文讀懂模塊化公鏈Celestia
作者:Chole,鏈茶館原文標題及鏈接:《模塊化公鏈Celestia到底是什麼?》一直以來,區塊鏈都是執行狀態機複製的分布式網絡,分成了數據、共識、執行這三層。這也是基於互聯網創建貨幣的關鍵點,也就是引入一種外部無法乾預的共識係統,而最初中本聰所提出的解決方案則是引入“中本聰共識”讓全世界的人都可以維護和運轉比特幣。在這些單體區塊鏈中,數據、共識、執行這三層工作全都會由一個網絡來完成,從數據的驗證到交易的執行都得透過節點執行。且由於區塊鏈是全局複製的分布式狀態機,因此若複雜度越高、係統保持同步性的成本和複雜度也就越高。Roll-up 則將執行層分離出去,處理複雜交易,解決了一部分問題。例如 Arbitrum 在 L1 嵌入了特定的操作碼,讓節點刻意繞過 EVM 調用數據,隻會存儲驗證這些交易,而不會執行它。不過 Roll-up 就必須監控 L1 並且執行調用交易以便計算,再以不同方式將返回 L1。這些交易實際上必須通過 ETH 網絡進行路由,才能在 Roll-up 上執行。目前 ETH 已經有 Optimism、ZKsync 和 Starknet 等基於 Roll-up 的擴展解決方案以及基於執行層的橋梁,例如,Connext、Composable、Axelar等。然而,這些擴展解決方案的數據可用性還是依賴於以太坊的共識層與執行層,且目前以太坊執行層使用成本仍然很高,開發者可部署的範圍還是很有限。而第一個模塊化區塊鏈網絡 Celestia 即將在今年上線,並支持 Roll-up 成為其數據可用層。1. 項目概述先前取名為 LazyLedger 的 Celestia 可以說是第一個模塊化區塊鏈網絡,也就是可插拔的共識和數據可用性層,讓任何人都可以快速部署去中心化的區塊鏈,而無需額外的共識層的成本。也就是說,Celestia 是一個存儲交易記錄並且提供數據可用性的公鏈。Celestia 采用模塊化架構,將區塊鏈解構為數據、共識、執行。目前大部分的區塊鏈仍然會將共識和執行功能捆綁在一層,在該層上構建智能合約。而用戶被綁定在這個執行環境中,就會大大限製了針對特定用例進行優化和專業化的潛力。Celestia 模塊化架構則將執行層存在於自身的區塊鏈上,允許針對特定用例進行優化和專業化。任何構建基於此架構的去中心化應用程序的開發人員都將在原區塊鏈執行層基礎上享有更完整地安全性和可擴展性。且在 Celestia 模塊化區塊鏈中,數據可用性采樣是可以實現的,這讓節點能夠用很小的樣本驗證一個區塊,同時可以使用硬件配置較低的的設備充當節點,如家用電腦與手機等。開發人員可以直接選擇要使用的執行環境在  Celestia 上構建 dApp,並可以並行運行任意數量的執行環境,而在單體環境中,共識緊密地綁定了執行規則,導致用戶隻能選擇主鏈支持的執行環境。Celestia 已經與Tendermint和 Cosmos zones合作作為數據可用性層。這些公鏈將通過利用欺詐證明使信任最小化,從而為 Cosmos 生態係統提供統一的安全級彆。2. 應用場景Celestia 為中心的組合方式:將主權 Roll-up 直接建立在 Celestia 上,使用Celestia共識將 DA 單獨當成一個模塊,完全基於Celestia建立鏈。而結算 Rollup會發生在Cevmos上,Cevmos是Cosmos SDK中最好的內嵌EVM的SDK,是一個專門針對Roll-up結算的項目。Cevmos 上的彙總會將他們的數據發布到 Cevmos 上,然後再發布到 Celestia。而 Cevmos 的目標是允許以太坊Roll-up在 Celestia 上本地啟動,而無需更改代碼庫。Roll-up不再是運行在以太坊上的合約,拓展性則會更強。Celestium 則通過量子引力橋,Celestia 將作為以太坊的DA鏈下解決方案,為以太坊提供數據可用性,這是安全低成本的以太坊Validium設計。自主權優勢:Celestia 網絡本身隻負責驗證數據完整性,不涉及一個完整的共識機製,因此,Celestia 之上的 rollup 基本上是自我主權的區塊鏈,節點可以自由地分叉他們的軟件。過去在 L1 中,分叉就等於執行層和共識層的分叉,如果以太坊上的 Roll-up 有漏洞或者被攻擊,就需要重新部署或整個網絡分叉才能完成狀態更新。但 Celestia 的技術迭代卻允許鏈分叉而不用失去安全性,因為分叉之後使用的 DA 層是相同的且更新變得更加容易,執行層可以專注於優化執行的環境和速率。簡易部署鏈之技術:過去部署一條鏈對於資源、成本要求很高,需要建立共識、激勵節點加入網絡。而隨著 PoS 的發展,Cosmos SDK 等工具讓創建新區塊鏈變得更加容易,但是依然需要開發人員尋找驗證節點的加入。因此,Celestia 引入的 Optimint 則會更高效的幫助開發人員部署鏈,因為 Celestia 提供完整的共識和安全性。且多鏈采用的是同一 DA 層,實現了同一區塊鏈間橋接的最小化信任。提高了多個區塊鏈可以相互通信的安全性。最後 Celestia 也結合了 Cosmos 開放的生態和以太坊共享安全性,提供了多鏈開放且共享安全的可能。3. 團隊介紹執行長 Mustafa Al-Bassam 畢業於倫敦大學學院博士學位,之前與他人共同創辦智能合約平台 Chainspace,接著被 Facebook 收購。Mustafa 先前也撰寫了幾篇關於分片區塊鏈係統安全性的開創性論文。CRO 則是 John Adler ,他之前在 ConsenSys 工作是 L2 可擴展性研究人員,從事以太坊 2.0 的第二階段工作。而 Adler 則從 Mustafa 身上找到數據可用性的新應用,為Optimistic Rollup方案創建了第一個先驅。首席技術官 Ismail Khoffi 在業界是非常知名的研究工程師, Khoffi 除了構建學術研究模型之外,還為 Google UK 和 Tendermint 等各種非區塊鏈、區塊鏈項目都大量投入貢獻。首席運營官  Nick White 畢業於斯坦福大學碩士。在加入 Celestia 之前,White 與他人共同創立了可擴展區塊鏈基礎設施的區塊鏈協議 Harmony,為去中心化革命提供新動能。White 還是亞洲人工智能初創公司的加速器項目 Zeroth.ai 的高級人工智能專家。4. 投資機構Celestia 已啟動其 “Mamaki” 測試網,支持用戶操作節點、接收測試網代幣、驗證者委托以及在錢包之間發送交易。該項目預計主網將在 2023 年初上線。目前已經先於測試網上線了開發者網,開發者網包括三個主要組成部分:Optimint, Celestia-app和Celestia-nodes。Celestia-nodes 的任務是為這個區塊鏈達成共識和建立網絡,決定了輕節點和完整節點如何創建新區塊、從區塊中采樣數據,以及同步新區塊的多面向技術。而在Optimint中,Cosmos Zones都將直接部署在Celestia上。5. 社群情況Twitter:https://twitter.com/CelestiaOrg5.9 k 位追隨者Discord:https://discord.com/invite/YsnTPcSfWQ35491 位追隨者Telegram:https://t.me/CelestiaCommunity9580 位追隨者6. 鏈茶點評可擴展性一直是區塊鏈技術被廣泛采用的最大障礙之一。儘管已經有不少L1擴展解決方案,但大多數都專注於共識層而不是數據可用性。模塊化區塊鏈 Celestia 構建了一個將數據層單獨獨立出來的公鏈,且還允許開發人員關注數據層之上的設計,而不需要花心力注意底層數據記錄,許多人相信未來這種模塊化設計的數據可用層不僅可以為擴容提供更快的實現方案,更會極大的降低開發者進入 web3 的難度。
PA薦讀 -
每日精選 | FTX 以 14.22 億美元出價成功競拍 Voyager | Cosmos Hub 發布 2.0 白皮書
每日精選 | FTX 以 14.22 億美元出價成功競拍 Voyager | Cosmos Hub 發布 2.0 白皮書
02
深度解析應用鏈的風險與機遇:應用鏈的下一個機會在哪裏?
03
談到 Web3 社交和遊戲的結合
04
向移動設備發展會是 Web3 的突破契機嗎?
05
BlockPulse 新用戶註冊優惠 獎品總計高達 $10,000 USDC
快訊