长推:数据可用性DA如何确保区块里的所有数据都发布到了网络中
【GPT】 ETH的轻节点可以通过欺诈证明+数据可用性采样来确保区块里的数据发布到网络中,而L1检测L2则是通过验证状态根、有效证明以及数据可用性来确认是否release了所有数据。
原文作者:Xiang|W3.Hitchhiker
原文来源:twitter
注:本文来自@xiangganzi 推特,MarsBit整理如下:
数据可用性(DA)的定义,对现在大家理解还是存在很多模糊的地方。
简单来说DA就是,当区块生成者提出新区块时,如何确保区块里的所有数据都发布到了网络中?
这里可以分对象大家会更容易理解,A检测B发布的区块是否没有relesase所有数据?
主要分两种情况
轻节点检测全节点,L1 检测 L2。
更精确的说应该是B区块数据发布后(区块,batch已产生),A检测B是否release了所有数据?避免B作恶
轻节点检测全节点:
现有ETH方式常规方式是用户完全信任全节点,比如用小狐狸的用户就完全信任matemask钱包连接全节点RPC提供的数据(用户可以改全节点的RPC),并未实现轻节对全节点的检验。
celestia目前的实现方式是,如果全节点没有relesase所有数据,celestia的轻节点可以通过欺诈证明+数据可用性采样判断全节点是否实release了所有数据,未relesase所有数据的全节点将受到惩罚。
关于【长推:数据可用性DA如何确保区块里的所有数据都发布到了网络中】的延伸阅读
老牌DeFi项目的自救之路,剖析MakerDAO Endgame转型计划
MakerDAO推出新代币NewStable和NewGovToken,MKR持有者可升级为新的治理代币,DAI可转换为新的稳定币。此举是Endgame转型计划的第一阶段,旨在提高效率和参与度,扩大Dai供应。新代币将通过SubDAO代币收益挖矿使生态更加繁荣,用户可选择升级代币参与新生态功能。后续将推出Lockstake引擎和NewBridge,连接以太坊主网和L2,实现Endgame转型计划第一阶段目标。SparkSubDAO推出SPK代币,协议收入的30%将作为NewStable奖励分配给LSE用户。Endgame转型计划将分为四个阶段,最终实现MakerDAO的最终愿景。
长推:解读 Nubit 的比特币模块化DA方案
Nubit提出了解决索引器中心化问题的方案,通过构建Nubit DA层来管理和验证数据,同时仍依赖比特币作为最基础的可信数据层。该方案相对去中心化且不牺牲安全性,通过委员会和轻量级索引器实现数据的完整性和可用性。最近,Nubit与BounceBit合作,结合BounceBit的BTC-restaking技术和Nubit的比特币原生数据可用性解决方案,实现了第一个落地场景。
eth规划也有,但是还未实现,现在是calldata形式保存数据可用性,都是执行层全节点保存。
未来ETH要Proto-danksharding升级,但还是所有的共识层验证节点保存全部数据,再再下次danksharding升级才实现数据可用性抽象,实现轻节点验证。(验证方式可通过有效证明方式)
这里数据可用性是数据发布,不需要数据存储
L1 检测 L2 :
检测opRollup的区块是否relesase所有数据: opRollup的VM执行一个区块(batch)生成新的状态根,然后opRollup把自己的交易数据上传至L1的数据可用性层,检测方式是任何用户可以通过自己运行VM,如得到的状态根与OP提供的不一致,就可在L1发起欺诈证明,如果一致就保证relesase了所有数据
检测validRollup的区块是否relesase所有数据:validRollup的VM执行一个区块(batch)生成有效证明,以及数据可用性(可以是交易数据,也可以是状态差),验证proof有效后,在验证数据可用性与其是否匹配,验证成功自然也就确认了validRollup的区块relesase了所有数据。
L1检测L2还有不同点,L1的安全性是高于L2的,所以L1要考虑到L2跑路的情况,即使L2跑路也得保障用户资产安全,L1的用户能根据链上存储的数据,还原出所有用户账户的状态,要消除这种风险就得做好数据存储。
对于L2而言,不仅需要L1做好数据可用,还需要支持数据存储功能(例如ETH归档节点,ETHStorage)
免责声明:本文仅代表作者个人观点,不代表链观CHAINLOOK立场,不承担法律责任。文章及观点也不构成投资意见。请用户理性看待市场风险,以及遵守所在国家和地区的相关法律法规。
图文来源:Xiang,如有侵权请联系删除。转载或引用请注明文章出处!