Category 欧易交易所OKX官网

透视韩国链游市场:玩家不抵触上链,但对发行商的贪婪心存顾虑

原文作者:

原文编译:深潮 TechFlow

透视韩国链游市场:玩家不抵触上链,但对发行商的贪婪心存顾虑

很难相信韩国玩家对“带有区块链元素的游戏”存在一定的抵触情绪。

STEPN 在韩国拥有约 30, 000 人的用户社区,其中大多数人对加密货币几乎一无所知,同时 SuperWalk 的下载量超过 100, 000 次。像《Idle Ninja Online》和《Mudol》这样的区块链游戏曾登顶应用商店的收入排行榜。

然而,在 2022 年 5 月 LUNA 崩盘后,这种 P2E 叙事突然停滞。在韩国,游戏必须经过游戏产品管理委员会的“分类”才能上线,而公众的态度在法院多次拒绝 P2E 游戏的分类申请后发生了转变。

也就是说,我认为韩国人并不讨厌“区块链游戏”本身,而是对它们带来的负面联想感到反感。本文将揭示韩国市场的“抵触情绪”和“挑战”。

1. 代币的存在

透视韩国链游市场:玩家不抵触上链,但对发行商的贪婪心存顾虑

韩国玩家对游戏发行商的看法一直较为负面。在 2010 年代,韩国三大游戏公司——NCSoft、Netmarble 和 Nexon——被统称为“ 3 N”,且并非褒义。他们常常受到指责,认为阻碍了韩国游戏行业的发展。

由于这种坏名声,代币发行迅速被认为是剥削性行为。WeMade 在韩国引领了 P2E 叙事,出售了大量 WEMIX 以收购另一家公司。这一举动被普遍认为是贪婪的行为,该公司不仅从游戏本身获利,还从代币销售中获利。

因此,如果你想在没有任何负面反应的情况下将韩国玩家引入区块链游戏,你需要解释你的代币“不会直接使发行者或风险投资公司受益”。这很难推销,最好的声明是:“我们不发行代币。”

2. 可替代性的法律监管

透视韩国链游市场:玩家不抵触上链,但对发行商的贪婪心存顾虑

韩国玩家在进行 P2P 交易或 RMT(真实货币交易)方面非常活跃。韩国最大的 P2P 平台年交易量超过 7.5 亿美元。然而,这是游戏发行商禁止的。像《MapleStory》这样的游戏对 RMT 交易相对宽容,甚至形成了自己的 RMT 社区。在韩语中,这被称为“쌀먹”。(深潮注:“쌀먹”是一个韩语术语,通常用来形容在游戏中通过非正式途径进行交易的行为,特别是指利用游戏内资源进行真实货币交易的情况。)

除了关于区块链是否适合 RMT 服务的争论,韩国游戏的法律框架有两种选择:

  • 如果仅使用付费货币进行交易,则评级为 R 18 。

  • 如果在交易中也使用可在游戏中获得的货币,这就归入赌博的监管范围。当涉及到区块链市场时,法律问题会出现,因为交易的商品可能并不一定标记为 R 18 ,但将其转换为法定货币就会面临问题。与代币类似,NFT 在韩国也受到监管限制,因为如果它们在外部市场上具有显著价值,则被视为“可替代的”。

透视韩国链游市场:玩家不抵触上链,但对发行商的贪婪心存顾虑

最近在一些 Web3 游戏中关于“收益分享”的热议在韩国并不是新鲜事。早在 2009 年,《RF Online》就向顶级公会支付了月薪,这引发了争议,但这并不违反法律。这是被允许的,因为这些支付与游戏内物品无关。然而,如果游戏内物品可以直接变现,在韩国是被禁止的。

3. 玩家年龄

透视韩国链游市场:玩家不抵触上链,但对发行商的贪婪心存顾虑

在韩国,年轻投资者的数量相当可观。他们反应敏捷、聪明且信息丰富。由于知道 P2E 模型往往会崩溃,他们避免陷入死亡螺旋(death spiral)。假设以年轻受众为目标将是赢得韩国玩家的关键是错误的。当你查看韩国成功的区块链游戏(或应用)的用户人口统计数据时,结果非常有趣。MIR4、MUDOL、STEPN 和 SuperWalk 的核心用户群体由 30 多岁和 40 多岁的男性组成。他们往往对社区噪音麻木,有趣的是,他们对区块链游戏的强烈反对意见较少。

我曾经为韩国的一个门户网站撰写了关于 MUDOL 继任者的博客指南。也许年轻投资者已经不再关注,认为 MUDOL 是一个失败,但直到今天,仍有超过 350 人使用我的邀请代码注册了他们的第一个海外中心化交易所(CEX),而且这些人都是 40 多岁。

透视韩国链游市场:玩家不抵触上链,但对发行商的贪婪心存顾虑

许多游戏项目仍将韩国视为一个有吸引力的市场,这并非没有理由。这里竞争非常激烈,MMORPG (大型多人在线角色扮演游戏)的 ARPPU(每付费用户平均收入,Average Revenue Per Paying User) 很高,游戏质量出色,同时也是全球第四大游戏市场。然而,关于其潜力的一些说法存在夸大的成分。我与很多玩家交流过,尽管他们可能对区块链游戏本身持怀疑态度,但他们很少讨厌“区块链”这个关键词。他们担心的是游戏发行商的贪婪,以及当代币价格崩溃时,普通玩家可能会受到影响。

游戏玩家似乎并不反对官方支持 RMT(真实货币交易),这目前是一个法律灰色地带,也可能是纯粹的收入分享模型。然而,这可能需要放弃对“代币”的控制,或者等待韩国政府澄清有关游戏内货币化的监管规定。

BTCFi L2/L1 发展痛点在哪里?为什么需要通过 soft-fork 增强合约能力?

作者:Jan 来源:X,@busyforking

先排除三个我认为不是痛点的选项:

  1. 太多项目分散注意和资源——这对于繁荣的生态是很正常的现象,没人抱怨 ETH/SOL 上项目太多。无论项目多少,都得学会自己区分信号和噪音。

  2. 没代表作——闪电网络完全称得上是代表作,只不过闪电网络常常给人一种“发展这么久了也不过如此”的错觉。产生这种错觉是因为我们很容易忽略 Bitcoin Script 的限制,以及 Bitcoin 开发者的谨慎。Bitcoin L2 刚好可以解决这些问题,一方面 L2 可以提供更强大的合约能力,另一方面也是很好的试验田。为什么说闪电网络是代表作呢?因为它代表了一种完全不同的技术路线,并且在隐私,吞吐量,响应时间,成本等所有方面都具有优势。闪电网络依然有许多极具挑战性的问题需要克服,但它的潜力之高值得我们投入精力和资源去克服挑战。

    其次往更基础的层面看,UTXO 本身是颠覆性的架构。颠覆性意味着理解和建设难度,这会阻碍生态发展,也就很难产生“代表作爆炸“的景观。但只要时间足够长,在一个新的“数字地形”上长出来的任何东西都会带上强烈的本地色彩,例如 UTXO 资产与 ERC20 完全不同的类似现金的属性,client side validation, UTXO sharing protocol,等等。而 Bitcoin 的自身地位也足以支撑一个独立生态的成长。因此我认为出现更多的代表作只是时间问题,而 L2 提供的灵活性会让这个过程加速。

  3. 缺乏钱和资源推动——显然不成立,Bitcoin/闪电网络生态都有足够多的投入。

缺乏共识可能是最大的问题。首先从整个 crypto 行业的层面,并没有形成对 UTXO 架构的理解和共识,“UTXO 链上没有智能合约无法开发 dApp”依然是一个普遍存在的误解。如果智能合约都没有,怎么做 L2? 很容易得出 Bitcoin L2 都是 scam 的结论。

其次,即使在 Bitcoin 生态内观点也非常分裂:原教旨主义者认为我们只需要 BTC,其他都是 scams,任何对 Bitcoin 链的改动都没有必要。进步主义者认为有必要改进 Bitcoin 链,至少可以让 BTC 能力更强大,但在“改进程度多大算合理?”上又有巨大的分歧。最激进的进步主义者认为应该通过 soft-fork 支持更多的资产甚至合约能力,保守的进步主义者认为只应该做最小的改动增强 BTC 自身,同时又不会带来不必要的场景(例如新资产,MEV)污染 Bitcoin 链。L2 进步主义者认为应该通过 soft-fork 使得 Bitcoin L2 更加安全,让 L2 成为可能。

第三,”Bitcoin L2″ 究竟应该如何定义也没有共识。严格的定义会要求 L2 不能有自己的代币,L2 交易最终应该以 Bitcoin L1 为准。更宽松一些的定义诸如 sidechain 会放松对 L2 共识的要求,只希望实现安全的 2-way peg (aka 跨链桥)。实际上无论哪种由于 Bitcoin Script 能力限制在今天都做不到,无法确保 L2 用户一定能安全 withdraw 到 L1。进一步宽松的定义只要求安全的 BTC->XXX 1-way peg,在这个定义下 Ethereum 也许是 TVL 最大的 Bitcoin L2 (我不确定但是懒得查数据了。要仔细分析的话得花点工夫,因为 wbtc 不是符合这个定义的安全的 1-way peg)。进步+宽松主义的定义会把视野放宽——假如 Bitcoin L1 上不仅仅有 BTC,还有其他 UTXO 资产,那么能为 Bitcoin L1 上发行的 UTXO 资产实现安全 2-way peg 的链是否是 Bitcoin L2? 最宽松的定义是完全放弃以 L1 安全性为锚的思路,从 BTC 货币属性出发,将 Bitcoin 链看作 M0, 任何用到 BTC 的地方都是 M1,M2,… 那么 CEX 也是 Bitcoin L2 了,这个定义初看令人惊讶甚至可笑,但我认为是非常有意义的——至少能提醒我们,如果我们无法创造出更好用更去中心化的 Bitcoin L2, 那么 CEX 就会是事实上的 Bitcoin L2,你更希望看到哪一个未来呢?

大概是由于这些原因,行业对 Bitcoin 生态要如何发展的看法是非常分裂的。但这种分裂可能也只是生态早期加上 Bitcoin 自底向上文化的正常现象。我相信随着时间发展,共识会慢慢涌现并形成,因为 We believe in rough consensus and running code。


我个人比较倾向于“温和的”进步主义——Bitcoin 链需要通过 soft-fork 去增强合约能力,增强的目的应该是为了方便 CSV 类资产和闪电网络的实现。原因很简单:

  1. L1 需要为 L2 服务,无论是编程模型还是经济模型;

  2. Bitcoin L1 是非常好的资产发行/存储平台,这个场景不仅能最大化 Bitcoin 链安全投入的效益,也是解决 L1 基于手续费的经济模型 bug 的一个出路。而 CSV 类资产协议占用链上空间最少,对 Bitcoin L1 是最经济的也是最健康的;

  3. 闪电网络是目前最成熟的 Bitcoin L2,其他的 Bitcoin L2 都只是假设。任何为了一个假设对 Bitcoin 协议进行修改都是对 Bitcoin 1 万亿美元市值的不负责任。在这个尺度下,mempool 的改进是合适的,OP_CTV 可能是合适的,OP_CAT 可能是过头的,ZK primitive 或者是为了 rollup 需要增加的 covenant 显然是过头的。

这是为什么 CKB 会选择扩展 UTXO 模型,引入状态和 RISC-V 虚拟机,并通过 RGB++ 将 CKB 上的 UTXO 资产与 Bitcoin L1 UTXO 绑定。对于处于温和改良中的 Bitcoin, CKB 可以成为 Bitcoin 很好的补充,增强 Bitcoin 上 UTXO 资产的能力,增强闪电网络的能力,为闪电网络补充流动性,充分发挥 UTXO 模型潜力。希望通过 CKB 我们可以积累更多 UTXO L1/L2 协议的经验,最终能够将这些经验贡献回 Bitcoin,帮助 Bitcoin 协议改进找到稳妥的路线。

Avail DA与Lens官宣合作,解锁去中心化社交网络新时代

原文来源:Avail 爱好者

Avail DA与Lens官宣合作,解锁去中心化社交网络新时代

社交网络图谱协议 Lens 宣布将利用 Avail DA 构建可扩展且有弹性的去中心化社交网络。Lens 表示,「Avail DA 确保即时数据可验证性和可访问性,通过 KZG 承诺与数据可用性采样(DAS),能够支持数百万用户的扩展。

Lens 是以用户为中心的社交应用协议,就像 hey 和 orb。Lens 旨在赋予数百万用户享受开放和公平的在线社交空间的能力。其开放性确保任何人都可以在协议层面进行连接和参与,公平性则确保任何人都可以自由参与,并且有更公平地分配的代币的机会。

Lens 选择 Avail 是因为其强大且面向未来的 DA 解决方案,该解决方案针对 ZK 技术栈进行了优化。Lens 和 Avail 的共同愿景是为用户提供统一的区块链体验。有了 Avail 的加持,Lens 有望解锁一个新的世界,在这个世界中,基于区块链的社交应用可以无缝地与各种区块链服务进行交互。通过集成,Lens 和 Avail 正在为开放社交网络的可扩展、以用户为中心和弹性未来奠定基础。

为什么在区块链上扩展社交网络如此困难?

社交网络产生大量数据,帖子、点赞、评论和连接都是数据密集型活动,而当今的社交网络建立在中心化架构上,以动态用户体验为交换,几乎在堆栈的每个层面上都进行了控制。这导致了我们几乎所有的在线社交互动都在少数几家公司的掌控之中。

历史上,链上网络一直难以支持主流消费应用所需的高交易吞吐量。通过利用 ZKsync 的 ZK 堆栈,Lens 能够扩展执行以支持社交应用,并在以太坊上结算交易。然而,剩下的问题是如何处理所有交易数据。即使实施了 EIP-4844 ,将交易数据发布到以太坊对于社交网络来说也不是一个商业上可行的选项。这就是 Avail DA 的用武之地。

介绍 Avail DA 上的 Lens

通过连接 Avail DA、ZKsync 和以太坊,Lens 能够构建一个模块化区块链,以极低的成本成倍增加吞吐量。

Avail DA与Lens官宣合作,解锁去中心化社交网络新时代

Lens 可以赋予用户和开发者创建和享受用户自有、公平和弹性的在线社交网络的能力。通过在协议级别开放社交网络,用户可以利用不同的社交应用,同时保留他们所有的社交联系和社交资本。如果 Instagram 停止向你的关注者展示帖子,并要求你付费访问它们,你可以快速切换到一个应用,该应用为你提供和您的用户自由互动的能力,这代表了不同于现状的重大范式转变。对于数百万在中心化社交平台上投入数小时制作内容的内容创作者来说,这也是一个较为急迫的转变需求,因为他们在中心化社交平台得到的回报很少。

Lens 的创始人 Stani Kulechov 说:“我们在 Lens 的目标是在以太坊上创建一个完全弹性的网络,每个层面都保障参与和透明度,支持所有权和控制,并解锁新的有趣的用例。” “凭借可扩展和弹性的基础,下一代模块化 Lens 利用 Avail DA 实现了最先进和面向未来的数据可用性解决方案。”

构建一个针对 ZK 技术优化的面向未来的区块链网络

Lens 相信 ZK 技术是扩展区块链应用的最佳长期解决方案。其深远的扩展优势和快速的性能提升远远超过了任何替代方案。正是基于这一洞见,Lens 团队开始规划并实施 Lens 的模块化架构。

Lens 团队开始与 ZKstack 集成,将 ZK rollup 技术整合到其执行层。要知道将所有数据发布到以太坊是不可行的,Lens 团队开始寻找最优化的 DA 解决方案。这引导他们找到了 Avail,这是唯一一个结合了 KZG 承诺和数据可用性抽样(DAS)的链上中立 DA 层。

有了 Avail DA,Lens 架构得以利用有效性证明来执行和数据可用性。这使得 Lens 能够实现可扩展性和数据压缩,这远远超出了 Optimistic 解决方案的可能性。

除了利用 Avail 的数据可用性层,通过 Avail Nexus 与大量区块链服务进行互操作的能力也符合 Lens 的长期目标。通过选择与 Avail DA 集成,Lens 可以为主流受众提供类似 Web2 的用户体验,建立在统一的 Web3 基础上,优化了互操作性。这对去中心化社交技术来说是一个彻底的游戏规则改变者。

在 Avail DA 上保护开放的社交数据

Lens 已正式上线,其目前拥有大约五十万用户和超过四千万次交易。下一代 Lens 将于 2024 年第四季度推出,标志着去中心化社交网络向前迈出了重要一步。

开发者可以利用 Avail 的可扩展技术解锁区块链技术的主流用例,并开始准备使用 Lens 构建下一代弹性社交网络。

Avail DA与Lens官宣合作,解锁去中心化社交网络新时代

Avail DA与Lens官宣合作,解锁去中心化社交网络新时代

图片来源: https://dune.com/sixdegree/lens-protocol-ecosystem-analysis

盘点各公链MEV现状:以太坊上套利为主,Solana上三明治攻击依旧严重

原文作者:Frank,PANews

在区块链领域中,MEV(最大可提取价值)一直是一个复杂且不可忽视的问题,它指的是矿工或验证者通过操控区块中交易的排序、插入或删除交易,从中提取额外利润的现象,常见的 MEV 手法包括三明治攻击、抢跑和清算套利等。

MEV 在不同公链上表现各异,从以太坊上常见的套利交易,到 Solana 上严重的三明治攻击,再到比特币、BSC、波场等公链中逐渐显现的 MEV 潜力。本文将盘点各大公链的 MEV 现象,分析其不同的实现路径以及对用户和网络的潜在影响。

以太坊:三明治攻击已衰退,主要以套利为主

作为交易量最大的公链,以太坊上一直是 MEV 现象最集中的公链。尤其是在在 DeFi 和 NFT 交易活跃的时期。2023 年,以太坊基金会卖出 ETH 时遭受 MEV Bot 三明治攻击,损失 9101 美元,该 MEVBot 获利约 4, 060 美元。

对普通用户而言,MEV 多数情况下带来的是负面影响,尤其是当三明治攻击、抢跑交易等行为泛滥的时候。但就矿工或验证者而言,MEV 是一份不可忽视的额外收入,尤其是在区块奖励下降的时期。MEV 收入能够补充矿工和验证者的收益水平,对于维护整个区块链网络的稳定性和去中心化具有一定的积极意义。

MEV 的分类中,除了三明治攻击、抢跑交易这种直接危害用户利益的交易之外,清算套利等行为对保持市场流动性而言,多数情况下并不算有害交易行为。因此,如何减少有害的三明治攻击等行为,保留清算、套利等 MEV,则成为了保持 MEV 均衡的难题。

为了解决 MEV 带来的公平性问题的同时平衡验证者的收益, Flashbots 推出了 MEV-Boost 和 Flashbots Protect 协议。MEV-Boost 是一种中继系统,它允许验证者通过中继节点从外部区块构建者获取优化过的区块,这些区块通过复杂的 MEV 提取策略最大化了交易排序的收益。MEV-Boost 引入了透明的区块构建流程,避免了传统的抢跑和三明治攻击等恶意 MEV 手段。

Flashbots Protect 主要是为普通用户设计的,目的是保护用户的交易不受抢跑(Front-running)和三明治攻击(Sandwich Attacks)等 MEV 攻击的影响。用户通过 Flashbots Protect 可以提交私有交易,这些交易不会公开广播到以太坊的公共 mempool 中,而是通过私有通道直接发送给支持 Flashbots 的矿工或验证者。

一直以来,以太坊上通过 MEV-Boost 或 Flashbots Protect 等协议进行传输的隐私订单比例约为 30% 左右,而仍通过公共 Mempool 传输的订单比例仍高达 70% 左右。这样意味着大量的用户并不喜欢于采用 Flashbots Protect 发起交易。不过,以太坊 DEX 上约有 70% 的交易则是通过 Flashbots Protect 发起的隐私订单。当前,以太坊上 MEV 的收入比例约为 26% ,这一占比说明验证者的主要收益来源主要还是区块奖励,而并不仅依赖 MEV 收益。

目前,以太坊注册 MEV-Boost 的验证者数量达到 147 万,占比超过 81% 。9 月 5 日数据显示,过去 14 天通过 MEV-Boost 协议产生的区块比例达到 89% 。不过,这不意味着 89% 的以太坊订单都是通过隐私池传输的 MEV 订单。

当前,三明治攻击在以太坊上似乎已得到了较大的缓解。据 Eigenphi 数据显示,过去 30 天三明治攻击的额总体收入为 74 万美元,同期的套利收入则高达 172 万美元。

盘点各公链MEV现状:以太坊上套利为主,Solana上三明治攻击依旧严重

Solana:MEV 问题加剧,三明治攻击威胁用户交易安全

Solana 上的 MEV 问题在这一轮牛市日益严重,据 Blockworks Research 调查显示, 2024 年 4 月,Solana 上的 MEV 收入已经超过了以太坊。在 2023 年 11 月之前,Solana 上的 MEV 收入几乎可以忽略不记。

相较以太坊,Solana 上 MEV 被社区讨论更多的原因是,其三明治攻击已经严重的影响着普通用户的交易。此前,PANews 曾就这一话题进行过深入研究,其中地址开头为 arsc 的三明治攻击机器人在 2 个月内攫取 3000 万美元,相比之下 Uniswap 近一个月的收入也仅为 3100 万美元。(相关阅读:)

关于 Solana 上的 MEV,则不得不提到 Jito Labs,Jito Labs 在 Solana 上开发的 Jito-Solana 可以视作 Solana 版本的 MEV-Boost,虽然两者的实现路径不同,但总体的思路类似,都是为了帮助验证者最大化 MEV 的收益。Jito 推出了一个区块空间拍卖机制,允许交易发起者单独支付一笔小费给验证者以保障捆绑的交易包被优先执行。此外, 3 月份 Jito 宣布暂时关闭其运行的 mempool 以减少三明治攻击,因为这个内存池可以被用于三明治攻击者监听用户发起的交易内容,但 MEV 机器人仍可以通过运行一个 RPC 节点来监听交易。

因此,Jito 关闭 mempool 并未使得三明治攻击在 Solana 上消亡,只是门槛变得更高了。而专门通过三明治攻击获取收益的团队也在社区的讨伐下变得更加狡猾。

据 PANews 观察,此前臭名昭著的 arsc 机器人并未停止,而是通过换皮的方式继续进行三明治攻击,并且现在的攻击规模比此前更大,甚至几乎垄断了 Solana 上的三明治攻击。sandwiched 是 Ghost 团队专门开发的监控 Solana 三明治攻击的平台,PANews 仔细观察发现,目前在 Solana 上活跃的三明治攻击程序的实控地址都是 arsc。简单解释来说,arsc 将此前用于三明治攻击的逻辑编写为多个智能合约,每个合约上会部署数百个地址执行合约进行攻击。这样如果只是跟踪地址则无法看出其中的关联度。据粗略观察来看,平均每个智能合约下的地址约为数百个到一千左右,因此,arsc 用于三明治攻击的地址可能有上万个。盘点各公链MEV现状:以太坊上套利为主,Solana上三明治攻击依旧严重

近一年来,Jito 上获得的 Tips 收入(MEV 小费)已经超过 153 万枚 SOL(价值约 1.98 亿美元),同期的以太坊 MEV 收入约为 6 亿美元。

BSC:引入类似 Flashbots 的 MEV 解决方案,套利为主

BSC 和以太坊在 MEV 提取机制上有很多相似之处,BSC 同样引入了类似 Flashbots 的 MEV 解决方案。在 BSC 上,采用的是 bloXroute 的 MEV Relay。该方案通过私有交易包(Bundles)来保护用户交易不被公开 mempool 中的 MEV 机器人盯上,从而减少用户的损失。

盘点各公链MEV现状:以太坊上套利为主,Solana上三明治攻击依旧严重

不过,从数据上来看,BSC 上的 MEV 总体利润要远远高于以太坊,据 Eigenphi 显示,BSC 链近 30 天的 MEV 总收入约为 1.33 亿美元,其中套利收入约为 1.3 亿美元,三明治攻击收入仅为 280 万美元。其中, 8 月 22 日数据显示当天套利收入达到 3000 万美元,这一数据显得有些异常。整个 BSC 链 8 月份的总交易量才为 200 亿美元,MEV 收入的数据为何能达到这么高的数值确实值得怀疑。

以太坊L2:MEV 还未形成规模化,清算收益为主

关于以太坊 Layer 2 上 MEV 的具体情况目前的数据平台几乎没有,根据 Arthur Bagourd 和 Luca Georges Francois 的论文研究显示,截至 2023 年 6 月,以太坊L2上的 MEV 收入(Polygon、Arbitrum、Optimism)约为 2.13 亿美元。其中,Polygon 的贡献占比最高,约为 2.13 亿美元,主要源于少数几笔大额交易增加了整体利润。Arbitrum MEV 提取总利润约为 25 万美元,Optimism 的该数据约为 25 万美元。总体来看,剔除极端数据之外,以太坊L2上的 MEV 还未能形成一个大规模的稳定收入,这主要也是因为以太坊L2的交易量变化较大。此外,以太坊L2的 MEV 收入主要来自于清算收益而非三明治攻击。近期,Arbitrum 通过了名为 Timeboost 的交易排序机制,一种类似于 MEV-Boost 的中继系统。

盘点各公链MEV现状:以太坊上套利为主,Solana上三明治攻击依旧严重

波场:DPoS 机制下的 MEV 机会有限

作为交易量最大的公链之一,波场近期由于 MEME 币的热潮也迎来更大的交易量。不过,不少用户提出在波场上存在大量的机器人攻击。随后,波场创始人孙宇晨表示,波场并不存在 MEV 机制,目前发生的机器人攻击为概率攻击。

波场采用的共识机制为 DPOS(Delegated Proof of Stake),该机制下,通常不存在与传统 PoW 和 PoS 类似的公开 mempool(内存池)。在 DPoS 系统中,交易并不是首先广播到公开的网络节点供矿工或验证者挑选。相反,交易由用户提交到超级代表(Super Representatives, SRs)或受托人节点,这些节点有权负责生成区块和确认交易。除非这些超级代表主动参与到 MEV 交易当中,否则一般情况下 MEV 发生的概率较低。

比特币:MEV 逐步显现,主要依赖铭文和矿工行为

由于比特币的设计与以太坊不同,采用的是简单的 UTXO 模型,每笔交易主要是发送方和接收方的比特币转移,因此交易排序不会引发像以太坊那样复杂的套利或清算机会。此外,比特币网络上也没有复杂的智能合约,也就意味着矿工无法像在以太坊上那样利用套利或清算提取 MEV。

不过,随着铭文、符文、Layer 2 等比特币生态的出现,比特币上也正在出现 MEV 的潜力。当然,对矿工而言,更多的 MEV 机会将弥补挖矿奖励的减少。不过随着比特币协议的演变,MEV 也开始成为比特币生态中需要应对的挑战。不过,由于比特币生态的 MEV 行为还未能形成规模化,标准化的模式,暂时还未能看到相关的数据。

总体来看,MEV 在各大公链上的表现形式各异,从以太坊的成熟套利机制到 Solana 上猖獗的三明治攻击,每个生态都面临着独特的挑战和机遇。随着 DeFi、NFT 和智能合约技术的不断演变,MEV 现象将继续发展,不同公链将不断探索平衡 MEV 收益和用户体验的解决方案。未来,如何有效管理 MEV,将成为公链维护去中心化和网络公平性的重要课题。

一文读懂zkTLS:安全传输信息,下一个ZK新叙事?

原文作者:

原文编译:深潮 TechFlow

区块链预言机:用于公共数据的区块链 API

zkTLS:用于任何数据的区块链 API

零知识传输层服务 (zkTLS) 可能是封闭企业巨头网络的致命打击。新兴网络现在通过利用 zkTLS 拥有与 Facebook 和 Amazon 等巨头竞争的能力。

zkTLS 允许用户无权限地迁移其在互联网上的任何身份信息,为新网络提供了一种强大的方式来利用现有网络。它使用户能够在不同平台之间自由切换,而无需从头开始。最重要的是,它在不妥协数据隐私和安全性的情况下实现了这一目标。

一文读懂zkTLS:安全传输信息,下一个ZK新叙事?

我们看到加密应用以创造性的方式利用 zkTLS。

 允许用户在链上验证他们的传统信用评分。 允许 Uber 司机将他们的评分转移到 。它还使司机和餐厅能够将他们的评论从 DoorDash 迁移到 。

zkTLS 的工作原理如下:

传输层安全协议 (TLS) 保护了超过 95% 的互联网连接。它代表了大多数 URL 中“https”中的“s”。TLS 连接确保:

服务器(如您的银行)与客户端(如您的手机)之间的交互是可信的。

  • 数据是机密的。

  • 数据完整性强。

一文读懂zkTLS:安全传输信息,下一个ZK新叙事?

zkTLS 引入了一个第三方验证者,以在不妥协安全性的情况下验证客户端与服务器之间的通信安全性。实现验证的方式有两种主要方法:

基于代理的:一个代理服务器作为中介,监测加密通信并部分解密以验证客户端的凭证。

一文读懂zkTLS:安全传输信息,下一个ZK新叙事?

基于多方计算 (MPC) 的:客户端和验证者与服务器交互,使验证者能够证明消息的真实性,而服务器对验证者的存在毫不知情。

一文读懂zkTLS:安全传输信息,下一个ZK新叙事?

为了保持隐私,客户端使用零知识证明来证明数据的特定事实,而不透露实际信息。

例如,证明可以证明他们的银行余额在特定日期超过 $ 1000 ,而不是具体金额。或者,我可以证明我的钱包属于一名经过验证的印度公民,而不透露其他细节,例如我的姓名或出生日期。

这些证明可以被记录在区块链上,在此它们永久存在,供其他应用程序进行访问和验证。

控制用户的数据使互联网巨头掌握权力,这使他们能够创建基于个性化体验的网络,将用户锁定在其中。zkTLS 打破了今天困住数十亿人的墙壁,创造一个更加开放、权力更为分散的未来。

BitGo计划明年推出美元稳定币USDS

9月18日消息,BitGo计划明年推出美元稳定币USDS,将向该网络提供流动性的机构提供奖励。USDS将与市场上的其他稳定币一样,由短期国库券、隔夜回购和现金支持。这将是BitGo第一个公开参与的稳定币。 BitGo首席执行官Mike Belshe在接受采访时表示:“推出USDS的主要原因是,虽然现有的稳定币有很好的功能,但我们看到了一个机会,可以创建一个更加开放和公平的系统,促进创新,最重要的是,奖励那些为网络做贡献的人,稳定币的真正价值来自于其使用者、他们提供的流动性以及交换的接入点。”

为什么IBM的市值只有微软的十六分之一?

我平时的一个主要学习方式(以及爱好)是读财报。

上市公司每个季度的财报披露,包括公告、新闻稿和分析师电话会议纪要,向我们提供了大量的财务信息和业务信息,是一个不容忽视的知识宝库。最近两年,因为港股和中概股实在没法看,我的大部分时间花在读美股科技股财报上——包括微软、苹果、英伟达等市值最大的公司,也包括IBM这样在某些垂类具备巨大影响力的公司。

在我读中学的时候(也就是第一次纳斯达克泡沫破裂前后),IBM是与微软并列的科技巨头之一,虽然其市值已经低于后者,但仍处于一个重量级。此后二十年,IBM经过了多次业务重组,确立了以企业级软件为核心的商业模式,同时也退出了“科技巨头”的行列,与微软等一线科技公司的差距越拉越大。此时此刻(2024年9月11日):

IBM的市值只有微软的1/16,更准确的说是6.14%;上个季度IBM的营业收入只有微软的1/4,净利润只有微软的1/12;Non-GAAP净利润也只有微软的1/10;

在规模远远小于微软的情况下,上个季度IBM的营业收入同比增速仅有2%,而微软为15%;IBM的净利润增速倒是略快于微软(14% vs. 10%)。

有必要指出,上述对比不完全公平,因为2021年IBM刚刚完成了对IT基础设施运维业务的拆分,后者变成了一家名为Kyndryl(勤达睿)的独立上市公司。然而,就算把Kyndryl加进来,IBM的营业收入也仅能达到微软的30%。何况Kyndryl被拆分的原因就是其利润过于微薄,不太受资本市场欢迎,目前其市值仅有约50亿美元(相当于1/600个微软)。

在这个生成式AI驱动的时代,微软的战略地位远比IBM更好:前者是OpenAI最大的外部投资者,旗下的Azure云是AI训练最常用的云,而且已经在Office, Teams, Bing等软件和服务当中全面融入了GPT;后者则沦为一个不太重要的角色,以IBM Watson为代表的昔日荣光早已褪色,现在的IBM只能勉强排进AI技术的第二集团。在可见的未来,微软和IBM的差距继续拉大的可能性,显然远远高于拉近的可能性。

01

那么问题来了:IBM是怎么沦落到这个地步的?

要知道,整整十二年前,也就是2012年9月11日,微软和IBM的差距还几乎可以忽略不计:

在那一天,IBM的市值为2334亿美元,微软的市值为2568亿美元,两者完全就是一个量级的公司。

在那个季度(即2012年7-9月),IBM的营业收入为247亿美元,微软为160亿美元;IBM的净利润为38亿美元,微软为45亿美元;两者仍然是一个量级的公司。

此后十二年当中,微软的市值增长了近12倍,而IBM的市值(已经考虑到拆分因素)原地踏步;两者市值被拉开的差距,几乎与净利润被拉开的差距相同,说明这一变化是基本面驱动的,而非市场一时头脑发热。

耐人寻味的是,这十二年当中,两家公司的管理层都是相对稳定的:从2012年至2020年,IBM由罗睿兰(Ginni Rometty)担任CEO,直至2021年由阿温德·克里希纳(Arvind Krishna)取而代之;而从2014年至今,微软一直由萨特亚·纳德拉(Satya Nadella)担任CEO。所以这个问题很大程度上可以简化为:罗睿兰主政期间的IBM,与纳德拉主政期间的微软相比,犯下了什么错误?或者说,未能做出什么正确的事情?

原因肯定很多。我既没有担任过跨国公司CEO,也没有从事过技术工作,所以只能从旁观者的视角,大致说一下自己的看法。从事后诸葛亮的角度看,IBM至少在以下三个重大方向上犯了错误,其重要程度依次递减:

  • 没有即时下注云计算尤其是公有云业务,从而未能适应IT服务“云端化”的趋势;
  • 没有追上AI技术向深度学习转变的浪潮,从而使自己过去几十年的AI技术积累迅速过时;
  • 没有押注于任何消费端(To C)业务,从而失去了更多可能性(虽然押注了也未必有用)。

先说第一条。过去二十年,全球IT服务最重要的趋势就是云计算:从以前的企业自建IT系统,逐渐转变为对外采购公有云平台的服务,由此实现IT基础设施乃至软件服务的全面“云端化”(也就是“外包化”)。第一个吃螃蟹的是亚马逊,AWS已经成长为其最赚钱的业务(远比主营的电商业务更赚钱);其次就是微软。早在接任微软CEO之前,纳德拉就是微软向云计算转型的重要人物,一手促进了微软数据库、Windows服务器和开发工具业务与Azure云平台的融合。在接任CEO之后,纳德拉坚决地、毫不犹豫地对Azure加大投入,终于使得后者成为了微软的收入增长引擎以及最大的单一收入部门。

事实上,从技术和产品的视角看,云计算与微软原有业务的相关性有限:微软在传统PC和服务器软件上的优势,并不能直接转化为云计算服务上的优势,前者的“云端化”是一个漫长而痛苦的过程。所谓“微软传统业务与云计算业务的协同性”,主要是指销售端的协同性——微软的销售体系(包括直销人员和经销商)覆盖了大批企业,可以向这些企业推荐Azure云服务;微软的老客户采购Azure也可以拿到一定的折扣。这种基于销售端的“优势”,IBM同样具备,甚至Oracle也具备,只是其销售覆盖面有所不同而已。

简而言之:微软在旧时代的技术积累,并不能保证它的Azure在新时代能追上如日中天的亚马逊AWS。AWS的前身早在2002年就成立了,2006年就开始对外全面提供服务;Azure的前身则在2008年才成立,2010年才开始对外提供服务。对于技术进步日新月异的云计算行业来说,4-6年的差距是非常巨大的,必须加倍努力才有可能扳回来。纳德拉执掌微软云业务之时,其实已经是向云计算全面转型的最后时间窗口了;如果再晚两年,Azure恐怕就要落后于更后起的谷歌云了!纳德拉的”all-in Azure”决策的战略意义之大,怎么估计都不过分!

而IBM在云计算领域的落后,几乎完全可以归结为“动手太晚”。2010年,IBM才开始探索云计算业务;2013年,才通过收购SoftLayer,建立了一个真正意义上的云服务部门。然而,直到2017年,IBM才确立了以“混合云”(Hybrid Cloud, 可以视为公有云和私有云的结合体)为主的云服务战略,并且在2018年通过收购Red Hat强化了这个战略。彼时彼刻,亚马逊AWS、微软Azure、谷歌GCP三强鼎立的形势已经形成,留给IBM的市场空间已经非常狭小,主要局限于那些偏好混合云的大型企业客户。

搞笑的是,按照IBM官方的说法,罗睿兰担任CEO期间最大的功绩是“确立了IBM的混合云战略”——这话当然不错,只可惜这个战略本应在2012-2013年就确立,而不是等到2017-2018年!“迟到的正义为非正义”,同理,迟到的正确决策只能沦为平庸的决策。况且混合云并非什么IBM独家技术,亚马逊、微软、谷歌乃至Oracle都可以做;哪怕退回这个狭窄的垂类市场,IBM的地位仍然不够稳固。

继续说第二条。IBM曾经在AI技术领域维持了长达五十年的领先地位,70后至80后的朋友应该都对1996年“深蓝”击败卡斯帕罗夫之战记忆犹新;美国人可能还对IBM Watson于2011年在《危机边缘》(Jeopardy!)知识竞赛当中击败人类选手留下了深刻印象。罗睿兰担任CEO期间的一个重要战略,就是通过Watson解决方案,把IBM的AI技术进行商业变现,其首选对象是医疗行业。

事实证明,欧美医疗行业过于复杂,涉及的监管和伦理问题太多,至少在当时并不十分适合由AI去改造,所以Watson的商业表现高开低走。但是更重要的是,2012-2013年(也就是Watson开始大规模商用的时间节点)发生了一场AI技术革命:基于神经网络的深度学习技术不仅取代了传统的知识图谱(符号主义),也取代了统计学习等传统机器学习技术,成为最高效、应用范围最广泛的AI基础技术。此后短短十年间,深度学习彻底改造了互联网内容分发和广告推送体系,开启了自动驾驶和大语言模型(LLM)等新兴产业,在学术界也成为了绝对的主流。

为什么IBM的市值只有微软的十六分之一?

作为老牌AI技术霸主,IBM未能跟上时代;至于原因究竟是管理层决策失误、投入资源不够还是执行效率低下,已经不重要了。重要的是,当谷歌以一年10家的速度收购基于深度学习的AI创业公司、以天价延揽包括伊利亚·苏茨克维(Ilya Sutskever)、吴恩达在内的顶尖AI科学家时,IBM的动作几乎可以忽略不计。结果就是,在短短2-3年之内,谷歌夺走了AI技术霸主的地位,并且迅速将AI应用于搜索引擎、翻译等服务上,从而让“技术-应用-商业化”的飞轮转动了起来。可怜的IBM则直到2021年才承认Watson的失败,当时它的AI基础研发实力不但早已被谷歌甩出了好几个身位,而且已经落后于亚马逊、Meta。

严格地说,微软在这一局里也是后来者,深度学习技术从来不是它的强项。但是微软做出了一个相当正确的决定,就是在2019年投资OpenAI,并且将后者的服务融入Azure云平台。ChatGPT横空出世之后,所有人都不得不承认,这是微软历史上最重要、最成功的一次战略投资。与GPT的深度合作不仅拉动了微软Office, Teams等软件服务的销量,更重要的是确立了Azure的“AI服务第一云平台”的地位——从2023年开始,AI需求每个季度都能至少把Azure的收入增速拉高5个百分点。现在轮到亚马逊感受到危机、急忙寻找各种应对手段了!

当然,微软并没有把希望全部寄托在对外投资上,它对于生成式AI的内部研发一直在进行中。例如,它曾与英伟达共同开发了万亿参数规模的Megatron大模型,而且至今仍在开发和迭代大模型。最近五年,由于Azure逐渐释放出巨大的盈利能力和现金流,微软得以向生成式AI等基础研发方向分配更丰厚的资源,实现成熟业务对新兴业务的“供养”;而IBM或Oracle则没有这么多资源可供挥霍。成功能够带来成功,就像钱能生钱,关键在于资源分配的方法得当。

最后说第三条。自从2005年向联想出售PC业务之后,IBM几乎就没有像样的消费端业务了。此后近二十年时间里,IBM对消费端业务没有展现过任何兴趣,不管是消费互联网、消费硬件还是内容服务。公允地说,这不能算一个真正的“错误”,因为IBM确实不具备消费端业务的基因,就算过去十多年里它押注了什么消费业务,我们也很难预测它取得多大的战果。

问题在于,同一时期的微软也不具备太多的消费端业务基因,但它还是屡败屡战、愈战愈勇,顽强地坚持了下来。对游戏业务的投入,贯穿了比尔·盖茨、史蒂夫·巴尔默和萨特亚·纳德拉三位CEO的任期;对智能硬件的投入,虽然在智能手机领域输的一塌糊涂,但是在平板电脑取得了一定的战果,维持了微软的战略性存在;对消费互联网的投入,主要是Bing搜索引擎和LinkedIn,总体看来是成功的,尤其是在与生成式AI融合之后,其战略价值正在上升。附带说一句,Bing的启动和LinkedIn的收购,都发生于纳德拉的CEO任期内。

我们不难发现,巴尔默担任CEO期间,微软确实不擅长消费端业务,朝令夕改、毫无头绪,收购过来的优质业务往往也灰头土脸收场。可是在纳德拉接手之后,微软的消费端业务更成熟了,其表现至少可以称之为中规中矩。从财务角度看,时至今日,微软的全部消费端业务均实现了盈亏平衡,就连历史上的烧钱大户游戏业务也是如此(这得益于对Xbox硬件平台定位的转变)。从资本市场的角度看,它们不再是拖后腿的业务,对微软市值的正面贡献越来越明显了。

纳德拉对于消费端业务的态度,集中体现在2022年初他对收购动视暴雪决策的解释当中:对于游戏这样一个拥有超过30亿用户的大型消费业务,微软不能缺席。同理可以推断出,在纳德拉看来,微软若想保持科技巨头的地位,就不能龟缩在企业级业务的“舒适圈”里,必须打出去。这一方面是为了建立与消费者的直接联系、培养用户心智,另一方面是为了形成业务协同效应——例如AI与Bing的协同效应,以及Azure与云游戏的协同效应。反观IBM,过去二十年的历任CEO,没有一个做出过类似的判断;他们无一例外地认为,IBM可以通过仅仅做企业级业务,甚至仅仅做利润丰厚的大企业业务,就维持科技巨头的地位。历史证明他们错了。

不过,既然IBM已经在云计算、AI两个战略方向上犯下了更不可饶恕的错误,对消费端业务毫无押注的错误就没那么重要了,甚至可以忽略不计。讽刺的是,IBM历史上最高光的时刻,恰恰是它在消费端最强大的时刻——从1980年代直至1990年代初,IBM PC引领了第一波信息技术革命走进千家万户,直到康柏、惠普、戴尔等生机勃勃的新厂商后来居上。在消费端电脑市场,苹果曾经是IBM的手下败将,可是在短短十几年内它就重新站了起来,成为了一家完全立足于消费端市场的科技巨头。世事万变,但是事在人为,“基因”也好、“历史积累”也好,归根结底是依靠人去执行的。

02

因此,我们更能理解,在美式上市公司中,CEO为什么总能拿到极端丰厚的薪酬了:

根据彭博新闻的统计,2022年美国上市公司CEO的平均薪酬是员工平均水平的400倍!像埃隆·马斯克这样的明星CEO,每年能够拿走价值几十亿美元的薪酬包。纳德拉2023年的薪酬包为4850万美元;而在他就任CEO之前的2013年,作为微软高级副总裁、云计算业务的负责人,他的薪酬包仅为760万美元。

哪怕考虑到最近十年的通货膨胀因素,差距也是十分巨大的!

这种情况合理吗?考虑到CEO至关重要的地位,显然是合理的。在纳德拉担任微软CEO的十年之内,微软的股价上涨了10倍;而在此前巴尔默的任期内则基本是零增长。如果罗睿兰在担任IBM CEO期间能够在云计算和AI两大战略性问题上面至少做出一个正确决策,并执行下去,那么IBM现在可能还屹立于科技巨头之林,其市值可能是万亿美元而不是1850亿美元。美式公司治理结构赋予了CEO几乎无限的业务决策权,所以CEO应该为一切错误承担责任,也应该为一切成就获得奖励。所谓“权力与义务的统一”,就是这样的。

由此可以进一步推断出:在采用美式公司治理结构的中国公司,主要是互联网中概公司当中,CEO的权力和责任就更大了。他们不但享有美式公司所赋予的制度性权力,还拥有中式人情社会所特有的非制度性权力,从而可以更高效、更彻底地将自身意志贯彻下去。当他们做出正确或错误选择时,对公司的影响就更大了。所以说,互联网大厂的成败至少有一半可以归结为一号位的问题,这个说法或许有些偏激,但还是有道理的。

就上面这个问题,我还想展开说更多,但那应该是另一篇文章的主题。

后空投时代思考:是时候建立长期价值驱动的模式了

原文作者:

原文编译:zhouzhou,BlockBeats

编者按:空投曾是推动加密项目发展的重要工具,但随着时间推移,它们逐渐暴露出短期投机的弊端,难以维持用户和开发者的长期忠诚度。许多项目依赖空投和资助计划,吸引的却是迅速流失的「热钱」。未来,区块链项目应聚焦于构建长期、价值驱动的模式,激励用户和开发者持续参与和贡献,以实现更稳定的生态系统发展。

我们是时候应该专注于构建能够确保用户和开发者忠诚度的长期、价值驱动的模式了。

后空投时代思考:是时候建立长期价值驱动的模式了

经过十多年的加密货币初创企业运营,我准备宣布一个范例式的转变:空投已经走到尽头,开发者奖励计划也很可能面临同样的命运。

因此,区块链项目必须转变思路,不再依赖短期的激励措施,而是应着眼于构建长期、以价值为导向的模式,从而确保用户和开发者的忠诚度。如果不采取这样的转变,整个行业将面临发展的停滞,甚至衰退。

空投最早在 2020 年走向主流,当时 Uniswap 去中心化交易所向每个与其平台互动过的钱包分发了 400 个 UNI 代币。这一策略旨在通过让用户获得项目的财务权益来推动平台的广泛采用,而且确实取得了成功。紧随其后,其他项目纷纷效仿,空投迅速成为 DeFi 社区的普遍期望。

然而,空投也带来了一些意想不到的负面影响。例如,「空投农耕」现象日益严重,即用户创建多个账户或进行最低限度的操作,仅仅是为了获得代币分配。更糟糕的是,这些机会主义者通常在领取奖励后迅速离开项目,导致用户活跃度和代币价值的快速下滑。结果,空投不仅未能培养出长期忠诚的用户,反而成为短暂投机收益的代名词。

以 Layer-2 扩容解决方案 Blast 为例。今年 6 月,Blast 向早期用户发放了 170 亿新发行的 BLAST 代币,希望借此吸引用户和资本。然而,结果并不理想,许多接收者对他们获得的少量奖励感到失望,链上数据也显示,不少用户在领取代币后很快就离开了平台。BLAST 的价格在数小时内下跌了 20% ,因为许多用户迅速抛售了代币。更引人注目的是,该协议的总锁仓价值(空投旨在吸引的资本)在空投前的一个月内已经下降了超过 33% 。存款用户在获取收益后迅速离开了平台。

空投不仅没有在吸引用户之后留住他们,反而成为「热钱」的目标——这些用户收取奖励后便迅速离开,寻找下一个机会。据 CoinMetrics 的最新研究显示,三分之二的空投代币自发行以来就已经贬值。持有至今的空投代币的中位回报率为 -61% 。

这不仅仅是开发者面临的问题,而是整个系统性的问题。依赖短期激励的网络往往吸引的是短暂的用户和开发者,他们来得快,去得也快。这种频繁的流失削弱了网络的稳定性,并侵蚀了整个 DeFi 生态系统中的信任。

区块链的资助计划也面临类似的挑战,虽然这些资助在最初阶段帮助了新平台的启动,但它们的效果如同空投一样短暂。开发者经常在多个区块链之间跳跃,将其服务复制到多个环境中以寻求资助,但却难以在任何单一平台上建立长期项目。这种「建设者困境」不仅影响开发者,还使各大网络难以维持稳定且忠诚的社区。

这些激励模式的不稳定性导致了繁荣 – 萧条的周期,使得开发者难以预测未来的活动和收入。开发者往往投入大量资源到项目中,最终由于资助流程的不可预测性和频繁的政治化,仅能获得承诺的一小部分。这与资助计划的初衷相悖,也违背了加密行业在技术和道德层面上所提倡的开放访问和可组合性的目标。

CoinMetrics 在其报告中指出,空投可能会在短期内提升协议的使用率,但是否能够创造真正的、可持续的长期增长仍有待观察。基于目前大多数空投和资助计划的运作方式,没有理由相信短期激励能够突然开始创造长期的采用、流动性或正向的代币价格走势。

空投和资助激励在 2020 年至 2022 年期间确实是启动项目的绝佳工具。然而,这段时期已经过去。虽然它们仍将在更广泛的生态系统中扮演一定的角色,但还想单凭这些工具就能够真正推动采用和增长的时代已经结束了。

在后 Blast 时代,潜在的「空投农民」将更加怀疑空投的价值。相应地,那些实力较弱的项目将更加快速地经历繁荣与衰退的循环,进一步让「空投」从一种诱人的噱头变成一个负面词汇。

那么,解决方案是什么?区块链项目必须超越这些短暂的激励,专注于建立长期、价值驱动的模式,使所有参与者的利益相一致。这意味着开发一种系统,不仅要奖励用户和开发者的到来,更重要的是奖励他们长期留在生态系统中并为其增长做出贡献。

无论你是存款者还是开发者,你很快就能做出选择。你可以选择一次性获得报酬,数额不确定,并且该代币很可能在下周贬值 30% ;或者,你可以根据网络的实际表现和你对其积极贡献的大小,持续获得报酬,只要你愿意,就能不断得到回报。

距离 Uniswap 首次亮相已有近五年,空投和资助已不再足够,我们是时候该建立真正能够长期运作的协议了。

AI×DePin:智能基础设施的协同进化


引言

去中心化物理基础设施网络(DePIN)是一种将区块链技术与物联网(IoT)相结合的前沿概念,正在逐步引起行业内外的广泛关注。DePIN 通过去中心化的架构重新定义了物理设备的管理和控制模式,展现出在传统基础设施领域(如电网和废物管理系统)引发颠覆性变革的潜力。传统基础设施项目长期以来受到政府和大型企业的集中控制,通常面临高昂的服务成本、不一致的服务质量以及创新受限等问题。DePin 提供了一种全新的解决方案,旨在通过分布式账本和智能合约技术,实现物理设备的去中心化管理与控制,进而提升系统的透明度、可信度和安全性。

Depin 的功能与优势

  • 去中心化管理与透明性: DePIN 通过区块链技术的分布式账本和智能合约,实现了物理设备的去中心化管理,使得设备的所有者、用户及相关利益方能够通过共识机制验证设备的状态和操作。这不仅提高了设备的安全性和可靠性,还确保了系统的操作透明性。例如,在虚拟电厂(Virtual Power Plant, VPP)领域,DePIN 能够公开并透明化插座的溯源数据,使用户能够清晰了解数据的生产和流通过程。

  • 风险分散与系统连续性: 通过将物理设备分布到不同的地理位置和多方参与者手中,DePIN 有效降低了系统的中心化风险,避免了单点故障对整个系统的影响。即使某一节点发生故障,其他节点仍能继续运行并提供服务,保障了系统的连续性和高可用性。

  • 智能合约自动化操作: DePIN 利用智能合约实现设备操作的自动化,从而提高了操作效率和准确性。智能合约的执行过程在区块链上是完全可追溯的,每一步操作均被记录,允许任何人验证合约的执行情况。这种机制不仅提高了合约执行的效率,还增强了系统的透明性与可信性。

DePIN 的五层架构分析

概述

尽管云端设备通常具有高度中心化的特性,但 DePIN(去中心化物理基础设施网络)通过多层模块化技术栈的设计,成功模拟了中心化的云计算功能。其架构包括应用层、治理层、数据层、区块链层和基础设施层,每一层都在整个系统中发挥着关键作用,以确保网络的高效、安全和去中心化运作。以下将对这五层架构进行详细分析。

应用层(Application Layer)

  • 功能:应用层是 DePIN 生态系统中直接面向用户的部分,负责提供各种具体的应用和服务。通过这一层,底层的技术和基础设施被转化为用户可以直接使用的功能,如物联网(IoT)应用、分布式存储、去中心化金融(DeFi)服务等。

  • 重要性:

  • 用户体验:应用层决定了用户与 DePIN 网络的交互方式,直接影响用户体验和网络的普及程度。

  • 多样性和创新:该层支持多种应用,有助于生态系统的多样性和创新发展,吸引不同领域的开发者和用户参与。

  • 价值实现:应用层将网络的技术优势转化为实际价值,推动了网络的持续发展和用户的利益实现。

治理层(Governance Layer)

  • 功能:治理层可在链上、链下或以混合模式运行,负责制定和执行网络规则,包括协议升级、资源分配和冲突解决等。通常采用去中心化治理机制,如 DAO(去中心化自治组织),确保决策过程的透明、公平和民主。

  • 重要性:

  • 去中心化决策:通过分散决策权,治理层减少了单点控制风险,提高了网络的抗审查性和稳定性。

  • 社区参与:该层鼓励社区成员的积极参与,增强用户的归属感,促进网络的健康发展。

  • 灵活性和适应性:有效的治理机制使网络能够快速应对外部环境的变化和技术进步,保持竞争力。

数据层(Data Layer)

  • 功能:数据层负责管理和存储网络中的所有数据,包括交易数据、用户信息和智能合约。它确保数据的完整性、可用性和隐私保护,同时提供高效的数据访问和处理能力。

  • 重要性:

  • 数据安全:通过加密和去中心化存储,数据层保护用户数据免受未经授权的访问和篡改。

  • 可扩展性:高效的数据管理机制支持网络扩展,处理大量并发数据请求,确保系统的性能和稳定性。

  • 数据透明性:公开透明的数据存储增加了网络的信任度,使用户能够验证和审计数据的真实性。

区块链层(Blockchain Layer)

  • 功能:区块链层是 DePIN 网络的核心,负责记录所有交易和智能合约,确保数据的不可篡改性和可追溯性。该层提供去中心化的共识机制,如 PoS(权益证明)或 PoW(工作量证明),保障网络的安全和一致性。

  • 重要性:

  • 去中心化信任:区块链技术消除了对中心化中介的依赖,通过分布式账本建立信任机制。

  • 安全性:强大的加密和共识机制保护网络免受攻击和欺诈,维护系统的完整性。

  • 智能合约:区块链层支持自动化和去中心化的业务逻辑,提升了网络的功能性和效率。

基础设施层(Infrastructure Layer)

  • 功能:基础设施层包括支撑整个 DePIN 网络运行的物理和技术基础设施,如服务器、网络设备、数据中心和能源供应等。该层确保网络的高可用性、稳定性和性能。

  • 重要性:

  • 可靠性:坚实的基础设施保障网络的持续运行,避免因硬件故障或网络中断导致的服务不可用。

  • 性能优化:高效的基础设施提升了网络的处理速度和响应能力,改善了用户体验。

  • 可扩展性:灵活的基础设施设计允许网络根据需求进行扩展,支持更多用户和更复杂的应用场景。

连接层(Connection Layer)

在某些情况下,人们会在基础设施层和应用层之间增加一个连接层,该层负责处理智能设备与网络之间的通信。连接层可以是中心化的云服务,也可以是去中心化的网络,支持多种通信协议,如 HTTP(s)、WebSocket、MQTT、CoAP 等,以确保数据的可靠传输。

AI 如何改变 DePin

智能管理与自动化

  • 设备管理与监控:AI 技术使得设备管理和监控变得更加智能化和高效。在传统的物理基础设施中,设备的管理和维护往往依赖于定期检查和被动维修,这不仅成本高昂,而且容易出现设备故障而未及时发现的问题。通过引入 AI,系统可以实现以下几方面的优化:

  • 故障预测与预防:机器学习算法能够通过分析设备的历史运行数据和实时监控数据,预测设备可能出现的故障。例如,通过对传感器数据的分析,AI 可以提前检测到电网中的变压器或发电设备可能出现的故障,提前安排维护,避免更大范围的停电事故。

  • 实时监控与自动报警:AI 可以对网络中所有设备进行 24/7 的实时监控,并在检测到异常时立即发出警报。这不仅包括设备的硬件状态,还包括其运行性能,如温度、压力、电流等参数的异常变化。例如,在去中心化的水处理系统中,AI 可以实时监控水质参数,一旦发现污染物超标,立即通知维护人员进行处理。

  • 智能维护与优化:AI 能够根据设备的使用情况和运行状态,动态调整维护计划,避免过度维护和不足维护。例如,通过分析风力发电机的运行数据,AI 可以确定最优的维护周期和维护措施,提高发电效率和设备寿命。

  • 资源分配与优化:AI 在资源分配和优化方面的应用可以显著提高 DePin 网络的效率和性能。传统的资源分配往往依赖于人工调度和静态规则,难以应对复杂多变的实际情况。AI 可以通过数据分析和优化算法,动态调整资源分配策略,实现以下目标:

  • 动态负载平衡:在去中心化计算和存储网络中,AI 可以根据节点的负载情况和性能指标,动态调整任务分配和数据存储位置。例如,在一个分布式存储网络中,AI 可以将访问频率较高的数据存储在性能较好的节点上,同时将访问频率较低的数据分布在负载较轻的节点上,提高整个网络的存储效率和访问速度。

  • 能效优化:AI 可以通过分析设备的能耗数据和运行模式,优化能源的生产和使用。例如,在智能电网中,AI 可以根据用户的用电习惯和电力需求,优化发电机组的启停策略和电力的分配方案,降低能耗,减少碳排放。

  • 资源利用率提升:AI 能够通过深度学习和优化算法,最大化资源的利用率。例如,在去中心化物流网络中,AI 可以根据实时交通情况、车辆位置和货物需求,动态调整配送路径和车辆调度方案,提高配送效率,降低物流成本。

数据分析与决策支持

  • 数据收集与处理:在去中心化物理基础设施网络(DePin)中,数据是核心资产之一。DePin 网络中的各种物理设备和传感器会持续产生大量数据,这些数据包括传感器读数、设备状态信息、网络流量数据等。AI 技术在数据收集与处理方面展现出显著优势:

  • 高效数据收集:传统的数据收集方法可能面临数据分散、数据质量不高等问题。AI 通过智能传感器和边缘计算,可以在设备本地实时收集高质量的数据,并根据需求动态调整数据收集频率和范围。

  • 数据预处理与清洗:原始数据通常包含噪声、冗余和缺失值。AI 技术可以通过自动化的数据清洗和预处理,提升数据质量。例如,利用机器学习算法检测并修正异常数据,填补缺失值,从而确保后续分析的准确性和可靠性。

  • 实时数据处理:DePin 网络需要对海量数据进行实时处理和分析,以快速响应物理世界的变化。AI 技术,特别是流式处理和分布式计算框架,使得实时数据处理成为可能。

  • 智能决策与预测:在去中心化物理基础设施网络(DePin)中,智能决策与预测是 AI 应用的核心领域之一。AI 技术通过深度学习、机器学习和预测模型,可以实现复杂系统的智能决策和精确预测,提高系统的自主性和响应速度:

  • 深度学习与预测模型:深度学习模型能够处理复杂的非线性关系,并从大规模数据中提取潜在模式。例如,通过深度学习模型分析设备的运行数据和传感器数据,系统可以识别出潜在的故障征兆,提前进行预防性维护,减少设备停机时间,提高生产效率。

  • 优化与调度算法:优化与调度算法是 AI 在 DePin 网络中实现智能决策的另一个重要方面。通过优化资源分配和调度方案,AI 可以显著提高系统效率,降低运营成本。

安全性

  • 实时监控与异常检测:在去中心化物理基础设施网络(DePin)中,安全性是一个至关重要的因素。AI 技术可以通过实时监控和异常检测,及时发现和应对各种潜在的安全威胁。具体而言,AI 系统可以实时分析网络流量、设备状态和用户行为,识别异常活动。例如,在去中心化通信网络中,AI 可以监控数据包的流动,检测异常流量和恶意攻击行为。通过机器学习和模式识别技术,系统可以迅速识别并隔离受感染的节点,防止攻击的进一步扩散。

  • 自动化威胁响应:AI 不仅能够检测威胁,还能自动化地采取响应措施。传统的安全系统往往依赖人为干预,而 AI 驱动的安全系统可以在威胁检测到后立即采取行动,减少响应时间。例如,在去中心化能源网络中,如果 AI 检测到某个节点存在异常活动,可以自动切断该节点的连接,启动备用系统,确保网络的稳定运行。此外,AI 可以通过不断学习和优化,提高威胁检测和响应的效率和准确性。

  • 预测性维护和防护:通过数据分析和预测模型,AI 可以预测潜在的安全威胁和设备故障,提前采取防护措施。例如,在智能交通系统中,AI 可以分析交通流量和事故数据,预测可能的交通事故高发区域,提前部署应急措施,减少事故发生的概率。类似地,在分布式存储网络中,AI 可以预测存储节点的故障风险,提前进行维护,确保数据的安全性和可用性。

DePin 如何改变 AI

DePin 在 AI 中的应用优势

  • 资源共享与优化:DePin 允许不同实体之间共享计算资源、存储资源和数据资源。这对于 AI 训练和推理需要大量计算资源和数据的场景尤为重要。去中心化的资源共享机制能够显著降低 AI 系统的运营成本,提高资源利用率。

  • 数据隐私与安全:在传统的集中式 AI 系统中,数据往往集中存储在某个中央服务器上,存在数据泄露和隐私问题。DePin 通过分布式存储和加密技术,保证了数据的安全性和隐私性。数据持有者可以在保留数据所有权的情况下,与 AI 模型共享数据,进行分布式计算。

  • 增强的可靠性和可用性:通过去中心化的网络结构,DePin 提高了 AI 系统的可靠性和可用性。即使某个节点出现故障,系统仍能继续运行。去中心化的基础设施减少了单点故障的风险,提高了系统的弹性和稳定性。

  • 透明的激励机制:DePin 中的代币经济学为资源提供者和用户之间的交易提供了透明、公正的激励机制。参与者可以通过贡献计算资源、存储资源或数据来获得代币奖励,形成一个良性循环。

DePin 在 AI 中的潜在应用场景

  • 分布式 AI 训练:AI 模型训练需要大量的计算资源。通过 DePin,不同的计算节点可以协同工作,形成一个分布式的训练网络,显著加快训练速度。例如,去中心化的 GPU 网络可以为深度学习模型提供训练支持。

  • 边缘计算:随着物联网(IoT)设备的普及,边缘计算成为 AI 发展的重要方向。DePin 可以将计算任务分配到靠近数据源的边缘设备上,提高计算效率和响应速度。例如,智能家居设备可以利用 DePin 实现本地化的 AI 推理,提升用户体验。

  • 数据市场:AI 模型的性能依赖于大量高质量的数据。DePin 可以建立一个去中心化的数据市场,使数据提供者和使用者能够在保障隐私的前提下进行数据交易。通过智能合约,数据交易过程透明且可信,保证数据的真实性和完整性。

  • 去中心化的 AI 服务平台:DePin 可以作为基础设施,为去中心化的 AI 服务平台提供支持。例如,一个去中心化的 AI 图像识别服务平台,用户可以上传图像,平台通过分布式计算节点进行处理并返回结果。这种平台不仅提高了服务的可靠性,还能通过代币机制激励开发者不断优化算法。

AI + DePin 项目

在本节中,我们将探讨几个与 AI 相关的 DePin 项目,重点介绍去中心化文件存储与访问平台 Filecoin、去中心化 GPU 算力租赁平台 Io.net,以及去中心化 AI 模型部署与访问平台 Bittensor。这三者分别在 AI 领域中担任了数据存储访问、算力支持训练和模型部署使用的重要角色。

Filecoin

Filecoin 是一个去中心化的存储网络,通过区块链技术和加密货币经济模型,实现全球范围内的分布式数据存储。由 Protocol Labs 开发,Filecoin 旨在创建一个开放且公共的存储市场,用户可以通过支付 Filecoin 代币(FIL)在网络中购买存储空间,或通过提供存储服务来赚取 FIL。

功能

  • 去中心化存储:Filecoin 通过去中心化的方式存储数据,避免了传统云存储的集中化弊端,如单点故障和数据审查风险。

  • 市场驱动:Filecoin 的存储市场由供需关系决定,存储价格和服务质量通过自由市场机制动态调整,用户可以根据需求选择最优的存储方案。

  • 可验证存储:Filecoin 通过时空证明(Proof-of-Spacetime, PoSt)和复制证明(Proof-of-Replication, PoRep)等机制,确保数据在存储提供者处得到有效存储和备份。

  • 激励机制:通过挖矿和交易奖励机制,Filecoin 鼓励网络参与者提供存储和检索服务,从而增加网络的存储容量和可用性。

  • 可扩展性:Filecoin 网络通过引入分片等技术手段,支持大规模数据存储和快速访问,满足未来海量数据增长的需求。

解决的痛点

  • 数据存储成本高昂:通过 Filecoin 的去中心化存储市场,用户可以更灵活地选择存储提供者,降低数据存储成本。

  • 数据安全和隐私问题:去中心化存储和加密技术确保数据的私密性和安全性,减少了因集中化存储带来的数据泄露风险。

  • 数据存储的可靠性:Filecoin 提供的时空证明和复制证明机制确保数据在存储过程中的完整性和可验证性,提升了数据存储的可靠性。

  • 传统存储平台的信任问题:Filecoin 通过区块链技术实现存储透明化,消除第三方机构对数据的垄断和操控,增强了用户对存储服务的信任。

目标用户

  • 存储提供者:通过提供闲置磁盘空间接入平台,响应用户的存储请求并赚取代币。存储提供者需要质押代币,如果无法提供有效的存储证明,则会受到惩罚,失去部分质押代币。

  • 文件检索者:当用户需要访问文件时,检索文件所在位置以赚取代币。文件检索者无需质押代币。

  • 数据存储者:通过市场机制,提交愿意支付的价格,匹配到存储者后将数据发给存储者。双方签署交易订单并提交到区块链。

  • 数据使用者:用户通过提交唯一的文件标识符及支付价格,文件检索者将找到文件所在存储位置,响应存储请求并提供数据。

代币经济体系

  • FIL 代币的流通:FIL 是 Filecoin 网络中的原生加密货币,用于支付存储费用、奖励矿工以及在网络中进行交易。FIL 代币的流通维持了 Filecoin 网络的正常运行。

  • 存储矿工及检索矿工的奖励:存储提供者通过提供存储空间和数据检索服务来赚取 FIL 代币。矿工的奖励与他们提供的存储空间、数据的访问频率以及参与网络共识的贡献相关。

  • 网络费用:用户需要支付 FIL 代币来购买存储和检索服务,费用由存储市场的供需关系决定,用户可以在市场中自由选择适合的服务提供商。

  • 代币发行和通胀:Filecoin 的总供应量为 20 亿,新的 FIL 代币通过挖矿奖励逐渐发行。随着矿工数量的增加,网络的通胀率会逐渐下降。

Io.net

Io.net 是一个分布式 GPU 计算平台,通过收集并集群化闲置算力,为市场提供算力调度和临时补充,而非替代现有的云计算资源。平台允许供应商通过简单的 Docker 指令部署支持的硬件供用户租用,以满足任务分发与处理的需求。Io.net 通过分布式算力共享的模式,期望提供接近云计算平台的效果,同时显著降低服务成本。

功能

  • 简易部署:供应商可以通过 Docker 指令轻松部署硬件,用户则可以通过平台便捷地租用硬件集群,获得所需算力。

  • 集群化算力:通过集群化闲置算力,平台作为市场算力的调度与临时补充,提升了整体计算资源的利用率。

  • 安全传输与上链存储:平台采用端对端加密技术,保障用户资料安全。同时,任务执行信息会被上链存储,实现日志的透明和永久保存。

  • 节点健康度监控:平台记录并公开每个节点的健康状态,包括离线时间、网络速度及执行任务情况,以确保系统的稳定性和可靠性。

解决的痛点

  • 算力不足:由于大模型的兴起,市场对训练时所需 GPU 算力的需求剧增。Io.net 通过整合民间闲置 GPU 资源,填补了这一算力缺口。

  • 隐私与合规性:大型云平台服务商如 AWS 和 Google Cloud 对用户有严格的 KYC 要求,而 Io.net 通过去中心化方式规避了合规性问题,用户可以更灵活地选择使用资源。

  • 成本高昂:云计算平台的服务价格较高,而 Io.net 通过分布式算力共享显著降低成本,同时通过集群化技术实现接近云平台的服务质量。

目标用户

  • 算力提供者:将闲置的 GPU 接入平台供他人使用。根据所提供设备的性能及稳定性,可以获得代币奖励。

  • 算力使用者:通过消费代币租用 GPU 或 GPU 集群,用于任务提交或大模型训练。

  • 质押者:质押者通过质押平台代币以支持平台的长期稳定运转,从设备租赁中获取质押收益,这有助于提升优良设备的排名。

代币经济体系

  • 代币使用:平台内所有交易均使用原生代币$IO,以减少智能合约中的交易摩擦。用户和供应商可以使用 USDC 或$IO 支付,但使用 USDC 需要支付 2% 的服务费。

  • 代币总供应:$IO 最大供应量为 8 亿个,上线时发行 5 亿个,其余 3 亿个用于奖励供应商和质押者。代币将在 20 年内逐步释放,第一年从总量的 8% 开始,每月递减 1.02% 。

  • 代币销毁:平台收入的一部分将用于回购并销毁$IO,费用来源包括双边 0.25% 的预定费及使用 USDC 付款收取的 2% 服务费。

  • 代币分配:代币将分配给种子轮投资者、A 轮投资者、团队、生态与社区以及供应商奖励。

Bittensor (TAO)

Bittensor 是一个去中心化的点对点 AI 模型市场,旨在通过让不同的智能系统相互评价和奖励,促进 AI 模型的生产与流通。Bittensor 通过分布式架构,创建了一个能够持续生产新模型并对贡献者进行信息价值奖励的市场。该平台为研究者和开发者提供了一个部署 AI 模型的平台,以赚取收益;而用户则可以通过该平台使用各种 AI 模型和功能。

功能

  • 分布式市场:Bittensor 建立了一个去中心化的 AI 模型市场,允许工程师和小型 AI 系统直接变现他们的工作,打破了大型公司对 AI 的垄断。

  • 标准化与模块化:网络支持多种模式(如文本、图像、语音),允许不同 AI 模型进行交互和知识共享,并能够扩展至更复杂的多模态系统。

  • 系统排名:每个节点根据其在网络中的贡献进行排名,贡献衡量标准包括节点对任务的执行效果、其他节点对其输出的评价以及其在网络中获得的信任度。排名较高的节点将获得更多的网络权重和奖励,激励节点在去中心化市场中持续提供高质量服务。这种排名机制不仅确保了系统的公平性,还提高了网络整体的计算效率和模型质量。

解决的痛点

  • 智能生产的集中化:目前的 AI 生态集中于少数几家大公司,独立开发者难以变现。Bittensor 通过点对点的去中心化市场,为独立开发者和小型 AI 系统提供了直接获利的机会。

  • 计算资源利用率低下:传统的 AI 模型训练依赖单一任务,无法充分利用多样化的智能系统。Bittensor 允许不同类型的智能系统互相协作,提高计算资源的利用效率。

目标用户

  • 节点运营者:将算力和模型接入 Bittensor 网络,通过参与任务处理和模型训练获得代币奖励。节点运营者可以是独立开发者、小型 AI 公司,甚至个人研究者,通过提供高质量的计算资源和模型来提升在网络中的排名和收益。

  • AI 模型使用者:需要 AI 计算资源和模型服务的用户,通过支付代币租用 Bittensor 网络中的计算能力和智能模型。使用者可以是企业、科研机构或个人开发者,他们利用网络中的高质量模型完成特定任务,如数据分析、模型推理等。

  • 质押者:持有 Bittensor 代币的用户通过质押支持网络的长期稳定运行,并获得质押奖励。质押者不仅能从网络的通货膨胀中获益,还能通过质押来提升自己支持的节点排名,从而间接影响网络整体的计算效率和收益分配。

代币经济体系

  • 代币用途:Bittensor 网络内的所有交易和激励均通过原生代币进行,减少了交易过程中的摩擦。用户可以使用代币支付计算资源和模型服务的费用,节点运营者则通过提供服务赚取代币。

  • 代币产生:每 12 秒出一个区块,产生 1 个 TAO 代币,根据子网的表现及其中节点的表现进行分配。代币的分配比例为: 18% 分配给子网所有者,子网矿工和验证者各获得 41% 。代币的最大供应量为 2100 万。

DePin 面临的挑战与结论

DePIN 作为一种新兴的网络架构,通过结合区块链技术,实现了物理基础设施的去中心化管理。这一创新不仅解决了传统基础设施面临的数据隐私、服务中断以及高扩展成本等问题,还通过代币激励机制和自组织模型,赋予网络参与者更多的控制权和参与度。尽管 DePIN 展示了强大的潜力,但依然面临一些挑战。

  • 可扩展性:DePIN 的可扩展性问题源于其依赖区块链技术的去中心化特性。随着用户数量和网络规模的增加,区块链网络上的交易量也会随之增加,特别是 DePIN 应用与物理世界的连接,需要更高的信息传输要求。这会导致交易确认时间延长以及交易费用增加,进而影响整体网络的效率和用户体验。

  • 互操作性:DePIN 生态系统建立在多个区块链之上,这要求 DePIN 应用能够支持同质或异质状态转换,并实现与其他区块链网络的无缝互操作性。然而,当前的互操作性解决方案通常限于特定区块链生态系统或伴随着高昂的跨链成本,难以全面满足 DePIN 的需求。

  • 法规合规性:作为 Web 3.0 生态系统的一部分,DePIN 面临多重监管挑战。其去中心化和匿名性特性使得监管机构难以监控资金流动,可能导致非法集资、传销和洗钱活动的增加。此外,税收监管方面,由于账户的匿名性,政府难以收集税收所需的证据,这对现有税收系统构成了挑战。

未来,DePIN 的发展将取决于这些关键问题的解决,并有望在广泛的应用场景中发挥重要作用,重塑物理基础设施的运作模式。

Vitalik推文解读:以太坊L1与L2经济模型的博弈

作者:陈剑 来源:X,@jason_chen998

以太坊第一总书记Vitalik又为市场未来发展指明了方向。其实这条推文还是非常有趣的,里面包含的可探讨的信息量非常大,包括对以太坊L1和L2经济模型和资产定价模型的探讨。

首先起因在于 @loi_luu 提出了一个所有人都痛批以太坊的问题:“L2分走了以太坊的交易量,但是却没有给以太坊支付足够多的费用”。在4844升级后L2给以太坊支付的就是存在Blob里的DA费用,尽管L2更便宜了但相比之前以太坊的收入急剧下滑,我和Loi都在想能否像L3之于L2那样缴纳固定比例的Gas费作为税收,比如你要在Arbtrium上发一条Layer3,每一笔的交易收入都要有10%固定给Arbtrium。

Vitalik的回复是目前L1在协议层面没办法确切的衡量L2上执行的费用实际是多少,同理其实L2如Arbtrium也没办法确切衡量其L3的费用,来自Arbtrium的 @stonecoldpat0 也回复说确实如此,部分协议的智能合约可以实现自动收费,但没办法全部做到,所以所谓的10%的税收也只是一个君子协定,还是要由L3信守承诺。

所以Vitalik觉得由以太坊在协议层面进行更改强制要求L2为每一笔费用交税实现起来太难了,他觉得可以做一个中立的跨所有Layer2的证明聚合层,由这一层负责所有L2向L1汇款的工作。

如果Vitalik的这项提议成立的话,以太坊则会在原本的DA安全费外又多向L2们收取一笔可观的交易税,不论L2们同不同意,至少这对于以太坊的经济模型又是一次强大的提振,强烈建议Vitalik总书记亲自指挥亲自部署,尽快落实!

另外这样看的话也许Eigenlayer或者以 @puffer_finance 为代表的Based Rollup更适合去做这个连接L1和Layer2税收中间层的工作?

除此以外Vitalik提到了一个有趣的资产价格博弈模型哈伯格税,提到的原因即上文中说到的如果试图强制征税就会导致人们有很多种方法如可以降低资产价格来逃税,所以Vitalik提到了他认为很有价值的一个理论模型哈伯格税,不过这个也依然不适用于上文中探讨的L2与L1税收的问题,只是Vitalik为了给亲儿子ENS带货顺带提的,他说他多次建议ENS采用哈伯格税模型。

哈伯格税很有意思,它是由上世纪的一位经济学家阿诺德·哈伯格所提出的一种自由市场博弈模型,希望通过基于资产所有者自主报价来征税的方式,在实现税收最大化的同时提升资产的流动性,什么意思呢?举个例子。

比如现在你有一套房子市场的公允价值1个亿,那政府按照2%的税收就能收你200万,这时候如果你觉得交税太多了,那你可以通过各种方式将房子的价格报低,并且一直不出售,从而少交税,从而形成了资产垄断降低了市场流动性的同时又没有缴纳足够税,哈伯格则认为每个人对自己的资产有定价权是合理的,但既然你报价了则必须要接受别人的购买,哈伯格税的核心理念是每个人都必须要对自己持有的资产进行报价,并且按照你的报价交税,如果别人接受了你的报价则你必须要卖给他。

在哈伯格税的模型中就会形成一个资产持有者、购买者、报价、税收的博弈模型,比如你有一套房子,你觉得它值1个亿,那你就按照这个价格上报并交税,如果你为了少交税报价1千万,则有人出1千万买你房子的时候你必须要接受强制把它卖掉,看似你少交税了但是你却承担了贱卖资产的损失,如果你觉得这套房子虽然市场价1亿,但是你祖祖辈辈住在这里不愿意搬,你为了不被卖掉则报10个亿也没问题,但你则需要按10个亿交税,如果你觉得多出来的税值得避免被人买走的极端价格也可以。

总之就是作为资产持有者你会非常小心谨慎的考虑自身情况去给资产定价,将整个社会经济的博弈颗粒度细化到具体的人身上,这样保证每一个资产的价格都是临界在最有效流通的区间,并且税收也可以达到合理的最大化。

哈伯格税在现实世界中必然是行不通的,但是在区块链中则完全不会有任何问题,这就是一个智能合约自动执行的工作而已,比如 @orb_land 就是一个典型的案例,也被Vitalik点赞过,你可以在上面购买专家的时间,每一份时间就是一个NFT,但是你在购买的时候必须要设定一个卖出的价格,否则无法完成购买,然后系统会按照你设定的价格收税,比如你买到了马斯克的一份时间,你必须要设定一个可以忍痛接受税费,但又不至于赚少了的溢价,所以Vitalik也一直在敦促ENS升级为哈伯格税,如果随着房产等上链等RWA终极美好愿景未来实现了,哈伯格税还是有望彻底落实的。