Archives 2024

美联储降息如何增加比特币的波动性?

比特币市场正在为一个波动剧烈的月份做准备,因为美国联邦储备局即将进行的降息预期引起广泛关注。

在比特币价格从 8 月末的 65, 000 美元大幅下跌至 9 月初的约 59, 000 美元之后,市场预计将迎来更多动荡。美联储下次会议的结果,预计会引发降息,这很可能决定比特币与美元汇率的短期走向,但更让市场紧张的是潜在的更深层次的经济不稳定性。

大多数市场参与者预计会有 25 个基点的降息,但也有传言称联储可能采取更激进的 50 个基点降息,这一举措很可能引发更大的市场波动。随着全球经济在央行管理不善和市场扭曲的重压下举步维艰,将比特币作为对抗货币贬值的对冲工具的投资者们可能会面临信心考验。

美联储降息对比特币的影响

围绕美联储即将降息的预期加剧了市场的不确定性。历史上,降息通常被视为对比特币利好,因为货币宽松往往会削弱美元并提升资产需求。但这次降息可能成为一把双刃剑。

在 2022 年,为了抑制通胀,美联储展开了激进的加息周期,但如今,随着经济条件恶化,美联储被迫转向。这在依赖于持续流动性注入的金融体系中是预料之中的。

对于比特币来说,尽管历史上它受益于货币宽松政策,但美联储的这次决定可能会产生出人意料的结果。比特币作为法定货币的替代品,尤其在货币贬值时表现突出。然而,潜在的 50 个基点的激进降息引入了市场参与者可能尚未充分考虑的一个因素:对即将到来的经济放缓甚至衰退的担忧。如果美联储释放出更深的经济忧虑信号,市场参与者可能会避开他们认为风险较大的资产,包括比特币,尽管其作为去中心化货币网络的价值并未改变。

50 个基点的降息是否意味着更深层次的问题?

对 50 个基点降息的担忧源于更广泛的宏观经济背景,美联储在 2022 年紧急实施的加息旨在抑制通胀,但同时也暴露了经济中的潜在弱点——这些弱点如今以劳动市场放缓的形式浮现。

上周五的就业报告是美国劳动力市场多年表现不佳的又一个篇章。直到现在,这一趋势一直被夸大的所掩盖,这些报告在首次公布后屡次被下调。最近发布的报告实际上在发布时就显示出劳动力市场的疲软迹象,美国劳工统计局的家庭调查显示,失业率在过去一个月中没有改善,失业人数在过去一年中从 630 万增加到 710 万。这意味着劳动力市场实际上已经如此疲弱,弱点再也无法掩盖。

许多就业人员依然在经济上苦苦挣扎。根据不同的衡量标准,美国工资的购买力要么

美联储降息如何增加比特币的波动性?

美联储主席 Jerome Powell(照片由 Alex Wong 拍摄)

全球经济状况与比特币的长期前景

世界各地的央行也在应对经济疲软的挑战,欧洲央行和日本央行都面临着可能影响全球流动性流动的难题。欧元区上季度仅增长 0.2% ,而日本央行正在考虑加息,这将加速日元套利交易的。同时,某大国准备向其的经济注入流动性,试图避免衰退,因为工厂产出、消费和投资都已放缓,失业率升至六个月高点。

除此之外,美国激烈的总统选举季节还带来了经济政策前景的不确定性,这些政策可能会对投资和经济增长产生影响。如果支持这些政策的候选人获得政治势头,预计比特币兑美元的汇率将更加波动。

比特币与全球经济状况的关联性存在「多重性格」,使得其价格变动难以预测。在某些情况下,如乌克兰战争初期,比特币表现为风险规避型资产;而在其他情况下,如新冠疫情爆发初期,它则表现为风险偏好型资产。

然而,明确的是,各国央行试图通过注入流动性来掩盖基于规则的秩序中的深层裂痕,最终只会凸显比特币的长期优势。随着时间推移,比特币的货币属性将最终占据上风。

九月,比特币的难忘时刻?

随着九月的推进,比特币投资者正在为可能的波动行情做好准备。美联储即将到来的降息决定使比特币的前景变得不确定。虽然市场可能已经消化了 25 个基点的降息影响,限制了其短期影响,但如果降息幅度达到 50 个基点,这可能预示着更深层次的经济问题,并引发一波波动。

然而,市场仍有意外的空间。如果美联储能够在应对经济风险和维持市场信心之间找到合适的平衡,比特币可能会在这段动荡时期后走向更强势的地位。然而,如果衰退担忧持续升温,比特币的价格可能会进一步下跌,投资者将不得不应对一个越来越不可预测的市场。

机构加仓、生态火热,比特币牛市延续有戏?

原文作者:Joyce

在经历新一轮市场的大震荡之后,随着比特币价格的回升,整个市场的恐慌情绪减弱不少。

伴随着山寨币的屡次崩盘,从“山寨牛还有没有?”的质疑、到各种专业投资者离场的声音,过去一两个月对比特币之外的加密市场来说,是阴霾密布的。

但不管市场情绪多恐慌,当被问及接下来的市场最看好哪个赛道时,“比特币生态”依然是呼声最高的。

尤其是近期机构大仓位买入比特币、ETF 持仓比特币数量持续增加、以及 Stacks 和 Fractal Bitcoin 等比特币生态发展的如火如荼,大有带动新一轮市场行情的气势。

 一、机构持仓及 ETF

作为华尔街比特币持仓大户,最近 MicroStrategy 又在买买买了。

据最新 SEC 文件显示,MicroStrategy 在过去一个多月购买了 1.83 万枚比特币,共计投入约 11.1 亿美元,均价 60655 美元左右。目前 MicroStrategy 总持仓比特币达到 24.48 万枚,占比特币总发行量的 1% 。

时隔三年,MicroStrategy 再次豪掷 11 亿购买比特币,对刚刚有点复苏迹象的加密市场来说,无疑是一注强心剂。

机构加仓、生态火热,比特币牛市延续有戏?

尽管过去几个月市场看起来摇摇欲坠,“牛市不再”的 Fud 声音四起,但是,SEC 披露的 2024 年第二季度 13 F 文件显示,在比特币价格下跌的情况下,美国机构纷纷都在逆市加仓比特币 ETF:

据 Bitwise 首席投资官 Matt 数据,第二季度持仓比特币 ETF 的机构从 965 家增长到了 1100 家,超过 130 家机构在第二季度首次购买了比特币 ETF,而且这些机构持有的比特币 ETF 总量占比也从 18.74% 增至 21.15% 。

所以,尽管市场波动剧烈,甚至在趋势不太明朗的情况下,这些机构并没有被吓跑,而是继续加仓买入。可以想象,如果是牛市的话,入局比特币 ETF 的机构以及购买的量会更加可观。

从比特币 ETF 发行至今持有的比特币数量趋势图来看,过去 9 个月,这一数据大体上保持持续上升的趋势,就算加密市场剧烈波动期间,整个比特币 ETF 持币数量变动也不大。

因此,尽管市场波动,比特币的恐惧与贪婪指数一度进入极度恐慌区间,美国机构大户也依然在持续试水以及买入。

机构加仓、生态火热,比特币牛市延续有戏?

比特币 ETF 持有的比特币数量变化图,来源:Dune

二、分形比特币

Fractal Bitcoin(分形比特币)可谓是最近市场上最吸睛的项目之一了,除了相当大方的 Airdrop 吸引大量关注外,Fractal Bitcoin 上线短短几天,总算力已经超过 241 EH,达到比特币总算力的 38.1% ,其热度可见一斑。

机构加仓、生态火热,比特币牛市延续有戏?

Fractal Bitcoin 价格及算力一览,来源:UniSat Explorer, 2024 年 9 月 16 日

Fractal Bitcoin 由 Unisat 团队推出,作为在比特币生态中深耕、且获得 BN 等顶级机构投资的团队,推出之后收获这样的热度也在预期之内。

Fractal Bitcoin 也是比特币的 Layer 2 ,号称“目前唯一的原生比特币拓展方案”,主打和比特币更强的兼容性、以及共享安全性,在不改变比特币原代码的前提下,提高交易速度,将交易确认时间提升到 30 秒,相对于比特币主网的至少 10 分钟来说,TPS 提升 20 倍以上。

关于 Fractal Bitcoin 和其他 Layer 2 及侧链的区别,引用其创始人的说法是“如果说其他 L2 和侧链是另修了一条高速公路,那 Fractal 则是可以修无数条与比特币主网并行的高速公路。每一条路可以是去扩展比特币主网,也可以是去拓展另一条路。”

当然,关于比特币扩容的方案很多,最终极的目标肯定是既能最大程度上共享比特币的安全性、又能极大地提升 TPS,就像 Fractal Bitcoin 所要实现的目标一样,但目前几乎没有真正落地的。

自从比特币生态爆火以来,Layer 2 这个赛道一下子挤满了各路选手,除了原来的 Stacks、RSK 等老牌 Layer 2 之外,还有转型进来的 RGB++,以及 BEVM、Merlin 等一众新 Layer 2 ,不可谓不热闹。

但是,到底谁能真正扛起比特币生态 Layer 2 的大旗,将 DeFi、GameFi、NFT 等带入比特币生态,同时将海量沉睡的比特币引入整个加密流动性的大池子,目前来看还需要进一步观察和验证。

三、Stacks Nakamoto 升级

作为比特币生态中知名度最高的 Layer 2 ,Stacks 在 8 月 28 日迎来了 Nakamoto 升级。

对于 Stacks 来说,这次升级意义重大,主要有四点:

1)STX 产量减半:在 Nakamoto 升级之后,Stacks 的产量将从每个比特币区块的 1000 枚 STX 奖励变成 500 STX,STX 的通胀压力大大降低。

2) 60 倍以上 TPS 改进:通过这次硬分叉将 Stacks 的区块生产和比特币的区块时间脱钩,区块确认时间从原来的 10 分钟以上降低到 10 秒,TPS 提升 60 倍以上。

3)更好的安全性:Nakamoto 升级之后,新的共识机制将 Stacks 链的历史数据写入比特币区块中,在不改变比特币区块数据的前提下,无法篡改 Stacks 区块数据,让 Stacks 链的安全性进一步增强。

4)去中心化锚定币 sBTC 上线:升级后约一个月将上线 sBTC,这是第一个完全去中心化的比特币锚定币,无需许可、开放参与,对于比特币巨鲸来说更有吸引力。

随着 Stacks Nakamoto 升级正式完成,比特币的 Layer 2 之战将会更加激烈。毕竟,Stacks 主链的安全性在相当长的时间内经受住了市场的考验,而且在升级之后安全性大幅提升,同时 TPS 优化幅度也很大。
再加上 Stacks 本身欧美认可度高、还是第一个 SEC 合规的 Token 项目,目前生态发展水平在一众 Layer 2 里面也是发展最好的,已经有一定的先发优势,显然是比特币 Layer 2 争霸中妥妥的重量级选手。

四、小结

当然,除了这些之外,比特币生态最近还有其他不少新动作,比如 8 月下旬的 Babylon 主网上线开启质押,短短三个小时就达到 1000 枚 BTC 的质押上限,Airdrop 预期加上 Babylon 豪华的融资背景,市场关注度相当不错。以及最近比特币生态中的几个 OP_CAT 协议打新,也是一片如火如荼的景象。

不管怎样,相比其他生态的寡淡甚至熄火,比特币生态的造富效应和火热是看得见的,在铭文、符文相继熄火之后,持续有创新有活力,而且大量资源资金进入,确实值得期待。

Vitalik TOKEN2049演讲全文:以太坊需要满足主流采用需求,未来十年如何发展?

以太坊联合创始人 Vitalik Buterin 在参与 TOKEN 2049 时,发表了题为“What Excites Me About the Next Decade”(未来十年令我兴奋的事情)的主题演讲,其认为当前加密行业已不再处于早期阶段,但在“实际可用”方面仍处于早期,以太坊需要满足主流采用的需求。以下为 Vitalik 本次演讲的原文,经Odaily星球日报编译精简,enjoy~

Vitalik TOKEN2049演讲全文:以太坊需要满足主流采用需求,未来十年如何发展?

加密行业已不再是早期

很多时候,当人们和我谈论目前面临的一些挑战时,他们会倾向于说:“你知道的,现在还处于早期阶段,我们仍在构建基本的基础设施,看看互联网实现花了多长时间。”自比特币推出以来,人们一直这么说,但我认为现在是关注产品的时候,加密已经不再处于早期阶段。

比特币已经存在了 15 年,以太坊已经存在了 10 多年。我们看到像 ChatGPT 这样的事物从完全不存在发展到突然崛起,完全改变了每个人对人工智能的理解。

所以我们必须问自己一个问题,我们应该如何看待这一切?我觉得这个问题答案是,我们并不处于加密行业的早期,但在加密行业“实际可用”方面确实还很早。所以让我通过回顾一下历史来解释我的意思。

记得在 2013 年,我们的团队,当时我们都对比特币感到兴奋,认为比特币是支付领域的下一个重大革命,建设者们做出了非常惊人和认真的努力,试图让世界各地的普通商家开始接受比特币。谁还记得柏林的 Room 77 ?那里有一家接受比特币支付的餐厅,这实际上是我去的第一家比特币餐厅。在 2013 年,你可以自豪的说自己是一家接受比特币的餐厅,人们都会对此感到非常兴奋。

那么接下来发生了什么?我们可以稍微再深入一些,我记得我在 2021 年第一次前往阿根廷时,我注意到的第一件事是,全国范围内的人不仅对加密货币感到非常兴奋,而且还在积极大规模地使用它。

有一次圣诞节我四处走动,我进了一家开门的咖啡店,店主知道我是谁,并允许我使用加密货币支付。虽然他们能使用加密货币,但没有积极使用去中心化技术。

他们使用的是哪种技术?事实证明,阿根廷当地人都在使用金融转账。因为金融转账是即时和免费的。我认为这最终是同一个问题——费用,至少它扼杀了数字货币浪潮:“让每个人都接受比特币作为一种货币”。

如果你还记得加密货币一开始的营销,它谈论了很多关于西联汇款、Paypal、信用卡的费用,他们向客户收取的费用非常高。但后来比特币本身的费用上涨到了 50 美元。

而以太坊的费用也在上涨,我在以太坊上支付的最高费用实际上是用于隐私服务交易。但不可否认的是,gas 价格上涨了,每次我进行操作时,Twitter 上的评论也很多。因此,隐私协议具有非常好的产品市场契合度,但一些交易费用约为 800 美元。所以费用太贵基本上是很多东西失败的原因。

以太坊变得更快更便宜

那么, 2024 年有什么新变化呢?这是一张关于以太坊费用的图表,它们已经从 10 到 50 美分之间下降到低于 1 美分,基本上同时为零。与此同时,Optimism 和 Arbitrum 这两个主要的以太坊 Laeyr 2 已经达到了一个重要的安全里程碑,称为阶段 1 ,多个基于 ZK 的 Rollup 也告诉我,他们计划很快达到阶段 1 。因此,Rollup 也很快会变得更安全。

Vitalik TOKEN2049演讲全文:以太坊需要满足主流采用需求,未来十年如何发展?

费用的问题实际上已经解决了,但这并不是唯一重要的事情。

我清楚地记得在阿根廷旅行时遇到的另一个烦恼是,我试图用以太坊主网给一个人转账,交易费用大约是 4 美元,交易确认大约花了 5 分钟。虽然这时 EIP-1559 已经上线,但当时用的钱包实际上并没有升级。

比特币区块每 10 分钟出块一次。所以你必须等待 10 分钟,甚至可能一个小时才能确认交易。从理论上讲,以太坊的区块确认时间为 13 秒,但由于 gas 的原因,市场可能会出现效率低下的情况,有时你必须等待完全随机的区块确认时间,可能是 5 分钟,甚至更长的时间才能让我们的交易被纳入。

但 EIP-1559 实际上基本解决了这个问题。如果你添加合并功能,那么合并功能所做的一件事就是,将下一次交易的平均等待时间缩短了一半。

有了以上两个升级,我们如今的交易确认时间在 5 到 15 秒内。如果使用具有快速免费确认的 Layer 2 解决方案,通常可以缩短到一秒钟。因此,基本上这两个主要问题是导致 2021 年中心化用户体验远远优于去中心化用户体验的最大因素。

加密不只是一种效率技术

但我们也可以看看应用程序的一般用户体验质量。如果查看我 2015 年发布的推文,那是一次关于黑客松的内容,里面提到了 Firefly,这是一个用于 Farcaster 和 Twitter、Lens 的客户端。如果你观察一下用户界面的质量,那么看起来和 Web2 产品的质量没什么差距,但它是一个基于去中心化的应用程序。

今年我们也看到了账户抽象方面的进步。我们看到越来越多的人使用安全协议。我们看到了 EIP-7702 。我们开始看到 ZK-snarks 的主流应用,各种不同的应用程序,我们还有了新的、更好的隐私协议。还有零知识证明,我可以证明这是你的知识,你可以拥有一个护照并且充分使用它,甚至可以用于现有 Layer 2 之间易用性改进。

两年前,每个人都在抱怨需要手动切换网络。今天,我觉得至少在过去一年里,我实际上没有手动切换过网络。因此,技术的局限性曾是一个阻碍因素。我甚至记得那个时刻,当时 CryptoKitties 看起来可能会成为一个真正的出圈应用,但后来发生了什么呢?CryptoKitties 的成功将以太坊的 Gas 价格推高到了 50 。

以太坊变得基本上无法使用,这确实限制了其增长。但如今不会在出现这种情况,这基本上意味着一个不使用加密货币的理由不存在了。那么,还有什么使用加密的理由呢?我认为人们有时会犯的一种错误,是一直谈论加密 SDK 和将加密视为一种效率技术。这是很多人在 10 年前谈论过的事情。

2013 年比特币的好处被宣传有哪些好处?让付款变得容易、安全控制你的资金、零或更低的费用、保护个人身份等等。这四项中,有两项是我认为非常独特的加密货币特征。另两项曾经是加密货币独有的,但现在是否仍然如此呢? 如今我们有 Venmo,还有一些更好的支付方式,例如微信支付。

中心化系统方案越来越好,但在某些地方,支付和融资渠道获取仍然非常困难。为什么说困难呢?这不是因为技术的问题,这主要是因为全球政治的限制。所以我认为重要的是要记住,加密货币给世界带来的好处并不与同类技术进步绑定。这与从普通喷气式飞机转换为超音速喷气式飞机的技术改进一样,虽然都是飞机,但已经是一种不同类型的技术。

那么,具体是什么样的技术呢? 一种看法是参考约什·斯塔克 (Josh Stark) 在以太坊基金会撰写的这篇博客文章,发表于大约两年前。文章标题为《Atoms, Institutions, Blockchains》。其论点是,区块链使我们能够创造一种数字上的坚固性,这使我们能够创建难以改变的持久数字结构。

这些结构是坚固的,并且不会被破坏,就像用混凝土制成的物理结构。区块链和以往的网络技术有什么区别呢?在以往的网络中,如果你的文件共享网络崩溃了,那也没关系,你只需切换到另一个网络,过一周,大家就会忘记。但在区块链里如果一个锁定机制崩溃了,而你切换到另一个,大家就会失去所有的钱。这是一个根本性的区别。

区块链使互联网不仅可以弥补整体结构的弱点,而且实际上可以更好地构建能够解决类似问题的替代方案。

区块链是数字化的混凝土,可以用来建造虚拟的天空之城,那么这里有谁看过《天空之城》这部电影吗?

我认为这部电影真的很棒,我认为这绝对是吉卜力工作室最好的作品之一,我至少看过五遍。但事实证明,这部电影在某种程度上也意外地成为了以太坊的灵感来源,虽然我自己也没意识到。

 2013 年,我在浏览维基百科的虚构元素列表时发现了 Ethereum(以太坊)。这个名字真的很棒,它让我想起了 19 世纪的一个科学理论。两个月后,以太坊基金会之前的一位组合设计师决定用这颗钻石作为以太坊的标志。当时我觉得这是一颗很酷的钻石,我喜欢这个标志,它很漂亮。

7 年后,当我第一次看见这部电影,我发现他们也有以太坊晶体。以太坊晶体实际上就像钻石一样。以太坊看着就像空中数字城堡一样,我认为加密货币中严肃与有趣的方面是结合在一起的,这也是我希望人们记住的。城堡可以保护你,保护你的家人,保护你的社区,城堡也可以是迪斯尼乐园的城堡,让你的社区玩得开心;城堡也可以是迪士尼乐园中的城堡,让你的社区享受乐趣;城堡还可以是一个博物馆,保存你文化的千年历史。城堡同样可以是所有这些东西,各种类型的数字城堡我们都可以在以太坊之上建造。

区块链需要满足主流采用需求——以钱包安全为例

那么,在完成这些建设之后,我们需要满足主流采用的需求,同时我们需要坚持开源和去中心化价值观。这是什么意思?例如钱包安全。

从历史上看,基本上有两种方法来保管你的资金:

第一种方法是比较疯狂的自我保护主义。你写下一个助记词,你所有操作都离线进行。你把助记词刻在一块钛金属上,然后把钛金属放进一个更坚固的钛金属锁箱里,然后把这个锁箱埋在地下 10 米深的地方,这样你的币就安全了。这是一种方法。

另一种方法是你可以将你的币交给一个值得信赖的人。你知道有这么一个好人,他的名字叫山姆。他和克林顿一起出席活动,他一定值得信赖。但两年后,结果证明你对谁值得信赖、谁不值得信赖的判断有点错误。

我认为这不是仅有的两种选择。如果你想要保护自己免受中心化的侵害,那么你可以做传统的自我托管,例如前面所说的将助记词放在钛金属里,然后埋到地下 10 米处。如果你想两者兼而有之,那么该怎么办呢?

这就是多重签名安全的智能钱包的重要性。多重签名安全意味着你有多个密钥,例如你可能有 6 个密钥,而发送交易时需要 4 个。你甚至可以设定一个规则,对于小额交易只需要一个密钥。这些密钥可以是你能够控制的任何组合,包括朋友和家人等。

如今,您实际上可以创建一个简单的真实账户,这是一个智能合约钱包,只有当您生成一个证明,证明您控制着特定电子邮件地址时,您才能从中发送交易。因此,现在基本上可以将 Web2的社交恢复功能引入 Web3的世界。在 Web3的世界中,你甚至可以多样化你的信任。

因此,您可以通过一家美国公司对 Gmail 帐户进行 zk 包装,然后您可以将其结合起来变成由 CK 包装,同时您也可以通过一家中国公司制造的硬件钱包制作三个密钥。如此,您甚至可以获得机构级信任的好处,而没有很多弱点。Forecast 在用户体验上是一款 Web2 应用程序,但用户可以设置恢复地址,未来可能的是通过多重签名可以控制自己的帐户。我个人对自己多重签名账户信任程度远远高于任何一个中心化账户。

去中心化与实用性兼顾

这有一个基于以太坊的演示钱包,但它的用户体验与 Venmo 相同。通过某种机制,用户可以证明他们的提款来自一些存款,而无需透露是哪一笔,但可以证明他们的存款不是来自坏人。因此,这是一种让普通用户拥有非常高隐私度的方法,可以满足很多重要的需求,但实际上并没有后门。

例如,对于 ZK 社交媒体,可以使用一个类似超级账户。我们可以证明您是社区的一员,为遇到问题的人提供证明或解决声誉问题,同时仍然保护他的隐私。这不需要用户在场,不需要有人相信您或需要 KYC 来验证您。我们可以同时拥有隐私和信任。

在以太坊主网,许多技术改进正在发生,使得 Layer 1 在减少最终确认时间、增加容量的同时,更加去中心化且易于验证。这些事情已经在发生。这些都是以太坊生态系统和我认为加密货币在未来 10 年将要发展的方向。

现在我们基本上有两条错误的道路,一条是牺牲实用性以换取去中心化,永远成为一个只对自己有吸引力的生态系统。它只有 695 个用户。另一条糟糕的道路是牺牲去中心化以换取实用性,然后试图说服自己这是没办法的选择。

所以下一个伟大的加密应用程序我们必须要用一个“漂亮”的 Gmail 帐户去登录吗?我们并不是必须要在这两种黑暗选项中做出决定,我们可以同时拥有去中心化和实用性。

Swap to the Future:OKX与Uniswap探索CeFi与DeFi的发展未来

2024 年 9 月 17 日,由 OKX Wallet 和 Uniswap Labs 联合主办的 “Swap to the Future” 活动上,OKX Ventures 合伙人 Jeff 与 Uniswap Labs 客户体验负责人 Steph Gulati 进行了一场深入的炉边对话。两人分享了 CeFi 与 DeFi 在发展过程中的碰撞与结合,表达了对于双方合作的美好展望。

产品驱动及创新

Jeff 强调 OKX 专注于产品开发和创新,公司绝大部分员工致力于产品研发和设计。 OKX 不仅是全球领先的中心化交易所,在去中心化金融领域也不断发力。公司推出了 OKX Wallet,支持多链的自主托管,并集成了丰富的链上应用,为用户提供安全便捷的资产管理方案,以推动更多用户体验链上活动。另外 OKX 还推出了 X Layer,彰显了公司在去中心化和中心化金融领域双管齐下的战略。

与 Uniswap 的合作

Jeff 表示,与 Uniswap 的合作十分令人期待,Uniswap 是最成功的链上产品之一,双方将共同打造一个用户友好且安全的上链体验。OKX 是首家将 Uniswap API 集成至其钱包的交易所,为用户提供无缝的链上与链下流动性体验。这一合作使得更多 CeFi 用户能够顺利进入 DeFi 世界,享受去中心化金融的优势。

开发者与生态支持

OKX 通过与 ETHGlobal、 DoraHacks 等机构合作,积极支持区块链开发者社区,并提供 Eco Hub 和 xOS 等工具,帮助开发者快速进入不同的链上生态系统。

Uniswap Labs 也与 Uniswap 基金会紧密合作,支持其生态内的开发者,提供更多链上开发工具和资源,进一步推动去中心化金融的创新。

全球用户与监管合规

在监管合规方面,Uniswap 和 OKX 均表示,创新与合规并不冲突。两家公司都在全球范围内,积极应对监管挑战,确保用户能够在安全、合规的环境中使用其产品。双方紧密合作,确保其产品符合全球监管要求,并通过透明的沟通和用户教育,平衡创新与监管风险。

Swap to the Future:OKX与Uniswap探索CeFi与DeFi的发展未来

OKX 于 Token 2049 期间即将联合主办的活动:

  • 9 月 18 日:“TON Asia – Singapore” 由 OKX Wallet 和 OKX Ventures 联合主办

  • 9 月 19 日:“Bits, Bytes and Brews” 由 OKX Wallet 和 OKX Ventures 联合主办

  • 9 月 20 日:“Summer Is Here Mixer: Breakpoint 2024 ft. Silent Disco” 由 OKX Wallet 联合主办

Offchain Labs联创兼CEO Goldfelder:Arbitrum未来六大升级点 | FAT Awards 2024

Offchain Labs联创兼CEO Goldfelder:Arbitrum未来六大升级点 | FAT Awards 2024

9 月 16 日,「FAT Awards 2024 」年度盛典于在新加坡康莱德酒店盛大开幕。

「FAT」是 Odaily星球日报于 2020 年创办的榜单盛典+高峰论坛品牌,旨在嘉奖 Web3 和加密行业的领航者与创新者、聚焦价值范式与共识时刻。2024 ,值加密行业日新月异、叙事为主流世界认可之际,新鲜叙事涌动、生态百花齐放、优质项目接连上线,Odaily星球日报再次开启 FAT 榜单评选,并举办线下盛典。

活动上,Offchain Labs Co-Founder 兼 CEO Steven Goldfelder 以“专注于 Arbitrum 生态(Only on Arbitrum)”为主题发表演讲。

以下为 Steven Goldfelder 现场演讲全文,经Odaily星球日报编译精简,enjoy~

大家下午好,谢谢主持人,也谢谢主办方的邀请,目前有许多 Layer 2 或 Layer 3 链是基于不同的技术栈构建的,今天我想讨论一下是什么使得 Arbitrum 网络独具特色。

2018 年 Arbitrum 正式推出,实际上 Arbitrum 的理念可以追溯到十年前,当时提出构建一个 Layer 2 的 EVM 区块链是一种非常前沿的想法。如今,Arbitrum 已经成为该领域的创新先锋,并且这一做法已经被广泛采纳。在过去几年中,团队不断推动技术的前沿,始终保持创新的领先地位。

Arbitrum 正在进行一些颠覆性的创新,比如支持多 VM 的 Stylus,Stylus 支持 Rust、C 和 C++等 WASM 语言开发;这将允许任何带有 Stylus 的 Arbitrum 链支持 EVM 和 WASM VM,两者之间具有完全的互操作性。

要吸引下一个十亿用户,首先需要吸引下一个百万开发者。从开发者的分布来看,目前大约有 2 万名 Solidity 开发者, 300 万名 Rust 开发者,以及 1200 万名 C++ 开发者。放眼更广的视野,区块链社区的规模实际上较为有限,尤其是 EVM 的规模更为小众。而未来的百万开发者正是使用这些语言的技术人员。

如今,Arbitrum 的技术栈独具特色。虽然仍有许多开发者对 EVM 并不熟悉,但通过 Stylus,开发者无需深入学习 EVM,就能轻松使用 Stylus 将已有代码部署到链上。例如,针对加密库,用户可以通过 Stylus 直接将现成的库放到链上,无需花费多年时间重新编写。

Stylus 的出现让加密技术可以以极高性能直接在链上运行,这是 EVM 在 Arbitrum 上独有的功能。通过 Stylus 可以将链上代码的性能提升 10 倍。Stylus 不仅让开发体验变得极佳,也带来了巨大可扩展性,最终惠及用户。

Arbitrum 在开发者和用户体验方面都非常出色,其区块生成速度极快,最快可达 100 毫秒。随着生态系统的不断扩展,无论是 DeFi 还是游戏领域的用户都对速度有着极高的要求,而 Arbitrum 网络能够充分满足这一需求,提供用户体验。

Offchain Labs联创兼CEO Goldfelder:Arbitrum未来六大升级点 | FAT Awards 2024

此外,Arbitrum 的采用率也非常高。链上数据显示,Arbitrum TVL 超 130 亿美元,超 1800 万个地址曾与 Arbitrum 进行交互。同时,Arbitrum 还拥有极其庞大的原生应用生态,尤其是在游戏领域。最后值得一提的是,Arbitrum 拥有超过 47 亿美元的稳定币市值,这比其他 Layer 2 和许多 Layer 1 链都要高。

Offchain Labs联创兼CEO Goldfelder:Arbitrum未来六大升级点 | FAT Awards 2024

Arbitrum 也是一个去中心化项目,它赋予了 ArbitrumDAO 巨大的权力,所有决策都由链上的投票者来决定。与其他生态相比,ArbitrumDAO 赋予了用户更多的发言权,Stylus 就是一个典型的例子,用户可以在其中创造自己想要的技术。

Arbitrum Orbit 也是最具可定制性的技术栈,用户可以根据需求定制任何内容。比如,如果用户想要创建一个 USDC,你可以在 Arbitrum 生态中实现。目前,Arbitrum Orbit 生态系统中已经超 60 个项目,例如 AnimeChain、ApeChain 等。

Offchain Labs联创兼CEO Goldfelder:Arbitrum未来六大升级点 | FAT Awards 2024

接下来,Offchain Labs 为 Arbitrum 设计的技术蓝图的具体努力方向包括:支持多 VM 的 Stylus(已于 9 月 3 日上线主网),真正去中心化证明的 BoLD,节点表现升级,捕获 MEV 收入的 Timeboost,去中心化排序,去中心化 ZK 共识。当然,Arbitrum 未来的技术路线也都将由 ArbitrumDAO 的大家投票决定。

Arbitrum 的创新速度持续加快,作为支持 EVM 的最具创新性的链之一,它因 Stylus 的加入而更具独特性。Arbitrum 将继续在技术和社区创新的道路上保持领先。其主要优势在于用户可以灵活选择技术栈,且它是最强大的技术栈之一。这个实验彻底展现了 Arbitrum 技术栈的强大潜力。

AI×DePin:智能基础设施的协同进化


引言

去中心化物理基础设施网络(DePIN)是一种将区块链技术与物联网(IoT)相结合的前沿概念,正在逐步引起行业内外的广泛关注。DePIN 通过去中心化的架构重新定义了物理设备的管理和控制模式,展现出在传统基础设施领域(如电网和废物管理系统)引发颠覆性变革的潜力。传统基础设施项目长期以来受到政府和大型企业的集中控制,通常面临高昂的服务成本、不一致的服务质量以及创新受限等问题。DePin 提供了一种全新的解决方案,旨在通过分布式账本和智能合约技术,实现物理设备的去中心化管理与控制,进而提升系统的透明度、可信度和安全性。

Depin 的功能与优势

  • 去中心化管理与透明性: DePIN 通过区块链技术的分布式账本和智能合约,实现了物理设备的去中心化管理,使得设备的所有者、用户及相关利益方能够通过共识机制验证设备的状态和操作。这不仅提高了设备的安全性和可靠性,还确保了系统的操作透明性。例如,在虚拟电厂(Virtual Power Plant, VPP)领域,DePIN 能够公开并透明化插座的溯源数据,使用户能够清晰了解数据的生产和流通过程。

  • 风险分散与系统连续性: 通过将物理设备分布到不同的地理位置和多方参与者手中,DePIN 有效降低了系统的中心化风险,避免了单点故障对整个系统的影响。即使某一节点发生故障,其他节点仍能继续运行并提供服务,保障了系统的连续性和高可用性。

  • 智能合约自动化操作: DePIN 利用智能合约实现设备操作的自动化,从而提高了操作效率和准确性。智能合约的执行过程在区块链上是完全可追溯的,每一步操作均被记录,允许任何人验证合约的执行情况。这种机制不仅提高了合约执行的效率,还增强了系统的透明性与可信性。

DePIN 的五层架构分析

概述

尽管云端设备通常具有高度中心化的特性,但 DePIN(去中心化物理基础设施网络)通过多层模块化技术栈的设计,成功模拟了中心化的云计算功能。其架构包括应用层、治理层、数据层、区块链层和基础设施层,每一层都在整个系统中发挥着关键作用,以确保网络的高效、安全和去中心化运作。以下将对这五层架构进行详细分析。

应用层(Application Layer)

  • 功能:应用层是 DePIN 生态系统中直接面向用户的部分,负责提供各种具体的应用和服务。通过这一层,底层的技术和基础设施被转化为用户可以直接使用的功能,如物联网(IoT)应用、分布式存储、去中心化金融(DeFi)服务等。

  • 重要性:

  • 用户体验:应用层决定了用户与 DePIN 网络的交互方式,直接影响用户体验和网络的普及程度。

  • 多样性和创新:该层支持多种应用,有助于生态系统的多样性和创新发展,吸引不同领域的开发者和用户参与。

  • 价值实现:应用层将网络的技术优势转化为实际价值,推动了网络的持续发展和用户的利益实现。

治理层(Governance Layer)

  • 功能:治理层可在链上、链下或以混合模式运行,负责制定和执行网络规则,包括协议升级、资源分配和冲突解决等。通常采用去中心化治理机制,如 DAO(去中心化自治组织),确保决策过程的透明、公平和民主。

  • 重要性:

  • 去中心化决策:通过分散决策权,治理层减少了单点控制风险,提高了网络的抗审查性和稳定性。

  • 社区参与:该层鼓励社区成员的积极参与,增强用户的归属感,促进网络的健康发展。

  • 灵活性和适应性:有效的治理机制使网络能够快速应对外部环境的变化和技术进步,保持竞争力。

数据层(Data Layer)

  • 功能:数据层负责管理和存储网络中的所有数据,包括交易数据、用户信息和智能合约。它确保数据的完整性、可用性和隐私保护,同时提供高效的数据访问和处理能力。

  • 重要性:

  • 数据安全:通过加密和去中心化存储,数据层保护用户数据免受未经授权的访问和篡改。

  • 可扩展性:高效的数据管理机制支持网络扩展,处理大量并发数据请求,确保系统的性能和稳定性。

  • 数据透明性:公开透明的数据存储增加了网络的信任度,使用户能够验证和审计数据的真实性。

区块链层(Blockchain Layer)

  • 功能:区块链层是 DePIN 网络的核心,负责记录所有交易和智能合约,确保数据的不可篡改性和可追溯性。该层提供去中心化的共识机制,如 PoS(权益证明)或 PoW(工作量证明),保障网络的安全和一致性。

  • 重要性:

  • 去中心化信任:区块链技术消除了对中心化中介的依赖,通过分布式账本建立信任机制。

  • 安全性:强大的加密和共识机制保护网络免受攻击和欺诈,维护系统的完整性。

  • 智能合约:区块链层支持自动化和去中心化的业务逻辑,提升了网络的功能性和效率。

基础设施层(Infrastructure Layer)

  • 功能:基础设施层包括支撑整个 DePIN 网络运行的物理和技术基础设施,如服务器、网络设备、数据中心和能源供应等。该层确保网络的高可用性、稳定性和性能。

  • 重要性:

  • 可靠性:坚实的基础设施保障网络的持续运行,避免因硬件故障或网络中断导致的服务不可用。

  • 性能优化:高效的基础设施提升了网络的处理速度和响应能力,改善了用户体验。

  • 可扩展性:灵活的基础设施设计允许网络根据需求进行扩展,支持更多用户和更复杂的应用场景。

连接层(Connection Layer)

在某些情况下,人们会在基础设施层和应用层之间增加一个连接层,该层负责处理智能设备与网络之间的通信。连接层可以是中心化的云服务,也可以是去中心化的网络,支持多种通信协议,如 HTTP(s)、WebSocket、MQTT、CoAP 等,以确保数据的可靠传输。

AI 如何改变 DePin

智能管理与自动化

  • 设备管理与监控:AI 技术使得设备管理和监控变得更加智能化和高效。在传统的物理基础设施中,设备的管理和维护往往依赖于定期检查和被动维修,这不仅成本高昂,而且容易出现设备故障而未及时发现的问题。通过引入 AI,系统可以实现以下几方面的优化:

  • 故障预测与预防:机器学习算法能够通过分析设备的历史运行数据和实时监控数据,预测设备可能出现的故障。例如,通过对传感器数据的分析,AI 可以提前检测到电网中的变压器或发电设备可能出现的故障,提前安排维护,避免更大范围的停电事故。

  • 实时监控与自动报警:AI 可以对网络中所有设备进行 24/7 的实时监控,并在检测到异常时立即发出警报。这不仅包括设备的硬件状态,还包括其运行性能,如温度、压力、电流等参数的异常变化。例如,在去中心化的水处理系统中,AI 可以实时监控水质参数,一旦发现污染物超标,立即通知维护人员进行处理。

  • 智能维护与优化:AI 能够根据设备的使用情况和运行状态,动态调整维护计划,避免过度维护和不足维护。例如,通过分析风力发电机的运行数据,AI 可以确定最优的维护周期和维护措施,提高发电效率和设备寿命。

  • 资源分配与优化:AI 在资源分配和优化方面的应用可以显著提高 DePin 网络的效率和性能。传统的资源分配往往依赖于人工调度和静态规则,难以应对复杂多变的实际情况。AI 可以通过数据分析和优化算法,动态调整资源分配策略,实现以下目标:

  • 动态负载平衡:在去中心化计算和存储网络中,AI 可以根据节点的负载情况和性能指标,动态调整任务分配和数据存储位置。例如,在一个分布式存储网络中,AI 可以将访问频率较高的数据存储在性能较好的节点上,同时将访问频率较低的数据分布在负载较轻的节点上,提高整个网络的存储效率和访问速度。

  • 能效优化:AI 可以通过分析设备的能耗数据和运行模式,优化能源的生产和使用。例如,在智能电网中,AI 可以根据用户的用电习惯和电力需求,优化发电机组的启停策略和电力的分配方案,降低能耗,减少碳排放。

  • 资源利用率提升:AI 能够通过深度学习和优化算法,最大化资源的利用率。例如,在去中心化物流网络中,AI 可以根据实时交通情况、车辆位置和货物需求,动态调整配送路径和车辆调度方案,提高配送效率,降低物流成本。

数据分析与决策支持

  • 数据收集与处理:在去中心化物理基础设施网络(DePin)中,数据是核心资产之一。DePin 网络中的各种物理设备和传感器会持续产生大量数据,这些数据包括传感器读数、设备状态信息、网络流量数据等。AI 技术在数据收集与处理方面展现出显著优势:

  • 高效数据收集:传统的数据收集方法可能面临数据分散、数据质量不高等问题。AI 通过智能传感器和边缘计算,可以在设备本地实时收集高质量的数据,并根据需求动态调整数据收集频率和范围。

  • 数据预处理与清洗:原始数据通常包含噪声、冗余和缺失值。AI 技术可以通过自动化的数据清洗和预处理,提升数据质量。例如,利用机器学习算法检测并修正异常数据,填补缺失值,从而确保后续分析的准确性和可靠性。

  • 实时数据处理:DePin 网络需要对海量数据进行实时处理和分析,以快速响应物理世界的变化。AI 技术,特别是流式处理和分布式计算框架,使得实时数据处理成为可能。

  • 智能决策与预测:在去中心化物理基础设施网络(DePin)中,智能决策与预测是 AI 应用的核心领域之一。AI 技术通过深度学习、机器学习和预测模型,可以实现复杂系统的智能决策和精确预测,提高系统的自主性和响应速度:

  • 深度学习与预测模型:深度学习模型能够处理复杂的非线性关系,并从大规模数据中提取潜在模式。例如,通过深度学习模型分析设备的运行数据和传感器数据,系统可以识别出潜在的故障征兆,提前进行预防性维护,减少设备停机时间,提高生产效率。

  • 优化与调度算法:优化与调度算法是 AI 在 DePin 网络中实现智能决策的另一个重要方面。通过优化资源分配和调度方案,AI 可以显著提高系统效率,降低运营成本。

安全性

  • 实时监控与异常检测:在去中心化物理基础设施网络(DePin)中,安全性是一个至关重要的因素。AI 技术可以通过实时监控和异常检测,及时发现和应对各种潜在的安全威胁。具体而言,AI 系统可以实时分析网络流量、设备状态和用户行为,识别异常活动。例如,在去中心化通信网络中,AI 可以监控数据包的流动,检测异常流量和恶意攻击行为。通过机器学习和模式识别技术,系统可以迅速识别并隔离受感染的节点,防止攻击的进一步扩散。

  • 自动化威胁响应:AI 不仅能够检测威胁,还能自动化地采取响应措施。传统的安全系统往往依赖人为干预,而 AI 驱动的安全系统可以在威胁检测到后立即采取行动,减少响应时间。例如,在去中心化能源网络中,如果 AI 检测到某个节点存在异常活动,可以自动切断该节点的连接,启动备用系统,确保网络的稳定运行。此外,AI 可以通过不断学习和优化,提高威胁检测和响应的效率和准确性。

  • 预测性维护和防护:通过数据分析和预测模型,AI 可以预测潜在的安全威胁和设备故障,提前采取防护措施。例如,在智能交通系统中,AI 可以分析交通流量和事故数据,预测可能的交通事故高发区域,提前部署应急措施,减少事故发生的概率。类似地,在分布式存储网络中,AI 可以预测存储节点的故障风险,提前进行维护,确保数据的安全性和可用性。

DePin 如何改变 AI

DePin 在 AI 中的应用优势

  • 资源共享与优化:DePin 允许不同实体之间共享计算资源、存储资源和数据资源。这对于 AI 训练和推理需要大量计算资源和数据的场景尤为重要。去中心化的资源共享机制能够显著降低 AI 系统的运营成本,提高资源利用率。

  • 数据隐私与安全:在传统的集中式 AI 系统中,数据往往集中存储在某个中央服务器上,存在数据泄露和隐私问题。DePin 通过分布式存储和加密技术,保证了数据的安全性和隐私性。数据持有者可以在保留数据所有权的情况下,与 AI 模型共享数据,进行分布式计算。

  • 增强的可靠性和可用性:通过去中心化的网络结构,DePin 提高了 AI 系统的可靠性和可用性。即使某个节点出现故障,系统仍能继续运行。去中心化的基础设施减少了单点故障的风险,提高了系统的弹性和稳定性。

  • 透明的激励机制:DePin 中的代币经济学为资源提供者和用户之间的交易提供了透明、公正的激励机制。参与者可以通过贡献计算资源、存储资源或数据来获得代币奖励,形成一个良性循环。

DePin 在 AI 中的潜在应用场景

  • 分布式 AI 训练:AI 模型训练需要大量的计算资源。通过 DePin,不同的计算节点可以协同工作,形成一个分布式的训练网络,显著加快训练速度。例如,去中心化的 GPU 网络可以为深度学习模型提供训练支持。

  • 边缘计算:随着物联网(IoT)设备的普及,边缘计算成为 AI 发展的重要方向。DePin 可以将计算任务分配到靠近数据源的边缘设备上,提高计算效率和响应速度。例如,智能家居设备可以利用 DePin 实现本地化的 AI 推理,提升用户体验。

  • 数据市场:AI 模型的性能依赖于大量高质量的数据。DePin 可以建立一个去中心化的数据市场,使数据提供者和使用者能够在保障隐私的前提下进行数据交易。通过智能合约,数据交易过程透明且可信,保证数据的真实性和完整性。

  • 去中心化的 AI 服务平台:DePin 可以作为基础设施,为去中心化的 AI 服务平台提供支持。例如,一个去中心化的 AI 图像识别服务平台,用户可以上传图像,平台通过分布式计算节点进行处理并返回结果。这种平台不仅提高了服务的可靠性,还能通过代币机制激励开发者不断优化算法。

AI + DePin 项目

在本节中,我们将探讨几个与 AI 相关的 DePin 项目,重点介绍去中心化文件存储与访问平台 Filecoin、去中心化 GPU 算力租赁平台 Io.net,以及去中心化 AI 模型部署与访问平台 Bittensor。这三者分别在 AI 领域中担任了数据存储访问、算力支持训练和模型部署使用的重要角色。

Filecoin

Filecoin 是一个去中心化的存储网络,通过区块链技术和加密货币经济模型,实现全球范围内的分布式数据存储。由 Protocol Labs 开发,Filecoin 旨在创建一个开放且公共的存储市场,用户可以通过支付 Filecoin 代币(FIL)在网络中购买存储空间,或通过提供存储服务来赚取 FIL。

功能

  • 去中心化存储:Filecoin 通过去中心化的方式存储数据,避免了传统云存储的集中化弊端,如单点故障和数据审查风险。

  • 市场驱动:Filecoin 的存储市场由供需关系决定,存储价格和服务质量通过自由市场机制动态调整,用户可以根据需求选择最优的存储方案。

  • 可验证存储:Filecoin 通过时空证明(Proof-of-Spacetime, PoSt)和复制证明(Proof-of-Replication, PoRep)等机制,确保数据在存储提供者处得到有效存储和备份。

  • 激励机制:通过挖矿和交易奖励机制,Filecoin 鼓励网络参与者提供存储和检索服务,从而增加网络的存储容量和可用性。

  • 可扩展性:Filecoin 网络通过引入分片等技术手段,支持大规模数据存储和快速访问,满足未来海量数据增长的需求。

解决的痛点

  • 数据存储成本高昂:通过 Filecoin 的去中心化存储市场,用户可以更灵活地选择存储提供者,降低数据存储成本。

  • 数据安全和隐私问题:去中心化存储和加密技术确保数据的私密性和安全性,减少了因集中化存储带来的数据泄露风险。

  • 数据存储的可靠性:Filecoin 提供的时空证明和复制证明机制确保数据在存储过程中的完整性和可验证性,提升了数据存储的可靠性。

  • 传统存储平台的信任问题:Filecoin 通过区块链技术实现存储透明化,消除第三方机构对数据的垄断和操控,增强了用户对存储服务的信任。

目标用户

  • 存储提供者:通过提供闲置磁盘空间接入平台,响应用户的存储请求并赚取代币。存储提供者需要质押代币,如果无法提供有效的存储证明,则会受到惩罚,失去部分质押代币。

  • 文件检索者:当用户需要访问文件时,检索文件所在位置以赚取代币。文件检索者无需质押代币。

  • 数据存储者:通过市场机制,提交愿意支付的价格,匹配到存储者后将数据发给存储者。双方签署交易订单并提交到区块链。

  • 数据使用者:用户通过提交唯一的文件标识符及支付价格,文件检索者将找到文件所在存储位置,响应存储请求并提供数据。

代币经济体系

  • FIL 代币的流通:FIL 是 Filecoin 网络中的原生加密货币,用于支付存储费用、奖励矿工以及在网络中进行交易。FIL 代币的流通维持了 Filecoin 网络的正常运行。

  • 存储矿工及检索矿工的奖励:存储提供者通过提供存储空间和数据检索服务来赚取 FIL 代币。矿工的奖励与他们提供的存储空间、数据的访问频率以及参与网络共识的贡献相关。

  • 网络费用:用户需要支付 FIL 代币来购买存储和检索服务,费用由存储市场的供需关系决定,用户可以在市场中自由选择适合的服务提供商。

  • 代币发行和通胀:Filecoin 的总供应量为 20 亿,新的 FIL 代币通过挖矿奖励逐渐发行。随着矿工数量的增加,网络的通胀率会逐渐下降。

Io.net

Io.net 是一个分布式 GPU 计算平台,通过收集并集群化闲置算力,为市场提供算力调度和临时补充,而非替代现有的云计算资源。平台允许供应商通过简单的 Docker 指令部署支持的硬件供用户租用,以满足任务分发与处理的需求。Io.net 通过分布式算力共享的模式,期望提供接近云计算平台的效果,同时显著降低服务成本。

功能

  • 简易部署:供应商可以通过 Docker 指令轻松部署硬件,用户则可以通过平台便捷地租用硬件集群,获得所需算力。

  • 集群化算力:通过集群化闲置算力,平台作为市场算力的调度与临时补充,提升了整体计算资源的利用率。

  • 安全传输与上链存储:平台采用端对端加密技术,保障用户资料安全。同时,任务执行信息会被上链存储,实现日志的透明和永久保存。

  • 节点健康度监控:平台记录并公开每个节点的健康状态,包括离线时间、网络速度及执行任务情况,以确保系统的稳定性和可靠性。

解决的痛点

  • 算力不足:由于大模型的兴起,市场对训练时所需 GPU 算力的需求剧增。Io.net 通过整合民间闲置 GPU 资源,填补了这一算力缺口。

  • 隐私与合规性:大型云平台服务商如 AWS 和 Google Cloud 对用户有严格的 KYC 要求,而 Io.net 通过去中心化方式规避了合规性问题,用户可以更灵活地选择使用资源。

  • 成本高昂:云计算平台的服务价格较高,而 Io.net 通过分布式算力共享显著降低成本,同时通过集群化技术实现接近云平台的服务质量。

目标用户

  • 算力提供者:将闲置的 GPU 接入平台供他人使用。根据所提供设备的性能及稳定性,可以获得代币奖励。

  • 算力使用者:通过消费代币租用 GPU 或 GPU 集群,用于任务提交或大模型训练。

  • 质押者:质押者通过质押平台代币以支持平台的长期稳定运转,从设备租赁中获取质押收益,这有助于提升优良设备的排名。

代币经济体系

  • 代币使用:平台内所有交易均使用原生代币$IO,以减少智能合约中的交易摩擦。用户和供应商可以使用 USDC 或$IO 支付,但使用 USDC 需要支付 2% 的服务费。

  • 代币总供应:$IO 最大供应量为 8 亿个,上线时发行 5 亿个,其余 3 亿个用于奖励供应商和质押者。代币将在 20 年内逐步释放,第一年从总量的 8% 开始,每月递减 1.02% 。

  • 代币销毁:平台收入的一部分将用于回购并销毁$IO,费用来源包括双边 0.25% 的预定费及使用 USDC 付款收取的 2% 服务费。

  • 代币分配:代币将分配给种子轮投资者、A 轮投资者、团队、生态与社区以及供应商奖励。

Bittensor (TAO)

Bittensor 是一个去中心化的点对点 AI 模型市场,旨在通过让不同的智能系统相互评价和奖励,促进 AI 模型的生产与流通。Bittensor 通过分布式架构,创建了一个能够持续生产新模型并对贡献者进行信息价值奖励的市场。该平台为研究者和开发者提供了一个部署 AI 模型的平台,以赚取收益;而用户则可以通过该平台使用各种 AI 模型和功能。

功能

  • 分布式市场:Bittensor 建立了一个去中心化的 AI 模型市场,允许工程师和小型 AI 系统直接变现他们的工作,打破了大型公司对 AI 的垄断。

  • 标准化与模块化:网络支持多种模式(如文本、图像、语音),允许不同 AI 模型进行交互和知识共享,并能够扩展至更复杂的多模态系统。

  • 系统排名:每个节点根据其在网络中的贡献进行排名,贡献衡量标准包括节点对任务的执行效果、其他节点对其输出的评价以及其在网络中获得的信任度。排名较高的节点将获得更多的网络权重和奖励,激励节点在去中心化市场中持续提供高质量服务。这种排名机制不仅确保了系统的公平性,还提高了网络整体的计算效率和模型质量。

解决的痛点

  • 智能生产的集中化:目前的 AI 生态集中于少数几家大公司,独立开发者难以变现。Bittensor 通过点对点的去中心化市场,为独立开发者和小型 AI 系统提供了直接获利的机会。

  • 计算资源利用率低下:传统的 AI 模型训练依赖单一任务,无法充分利用多样化的智能系统。Bittensor 允许不同类型的智能系统互相协作,提高计算资源的利用效率。

目标用户

  • 节点运营者:将算力和模型接入 Bittensor 网络,通过参与任务处理和模型训练获得代币奖励。节点运营者可以是独立开发者、小型 AI 公司,甚至个人研究者,通过提供高质量的计算资源和模型来提升在网络中的排名和收益。

  • AI 模型使用者:需要 AI 计算资源和模型服务的用户,通过支付代币租用 Bittensor 网络中的计算能力和智能模型。使用者可以是企业、科研机构或个人开发者,他们利用网络中的高质量模型完成特定任务,如数据分析、模型推理等。

  • 质押者:持有 Bittensor 代币的用户通过质押支持网络的长期稳定运行,并获得质押奖励。质押者不仅能从网络的通货膨胀中获益,还能通过质押来提升自己支持的节点排名,从而间接影响网络整体的计算效率和收益分配。

代币经济体系

  • 代币用途:Bittensor 网络内的所有交易和激励均通过原生代币进行,减少了交易过程中的摩擦。用户可以使用代币支付计算资源和模型服务的费用,节点运营者则通过提供服务赚取代币。

  • 代币产生:每 12 秒出一个区块,产生 1 个 TAO 代币,根据子网的表现及其中节点的表现进行分配。代币的分配比例为: 18% 分配给子网所有者,子网矿工和验证者各获得 41% 。代币的最大供应量为 2100 万。

DePin 面临的挑战与结论

DePIN 作为一种新兴的网络架构,通过结合区块链技术,实现了物理基础设施的去中心化管理。这一创新不仅解决了传统基础设施面临的数据隐私、服务中断以及高扩展成本等问题,还通过代币激励机制和自组织模型,赋予网络参与者更多的控制权和参与度。尽管 DePIN 展示了强大的潜力,但依然面临一些挑战。

  • 可扩展性:DePIN 的可扩展性问题源于其依赖区块链技术的去中心化特性。随着用户数量和网络规模的增加,区块链网络上的交易量也会随之增加,特别是 DePIN 应用与物理世界的连接,需要更高的信息传输要求。这会导致交易确认时间延长以及交易费用增加,进而影响整体网络的效率和用户体验。

  • 互操作性:DePIN 生态系统建立在多个区块链之上,这要求 DePIN 应用能够支持同质或异质状态转换,并实现与其他区块链网络的无缝互操作性。然而,当前的互操作性解决方案通常限于特定区块链生态系统或伴随着高昂的跨链成本,难以全面满足 DePIN 的需求。

  • 法规合规性:作为 Web 3.0 生态系统的一部分,DePIN 面临多重监管挑战。其去中心化和匿名性特性使得监管机构难以监控资金流动,可能导致非法集资、传销和洗钱活动的增加。此外,税收监管方面,由于账户的匿名性,政府难以收集税收所需的证据,这对现有税收系统构成了挑战。

未来,DePIN 的发展将取决于这些关键问题的解决,并有望在广泛的应用场景中发挥重要作用,重塑物理基础设施的运作模式。

后空投时代思考:是时候建立长期价值驱动的模式了

原文作者:

原文编译:zhouzhou,BlockBeats

编者按:空投曾是推动加密项目发展的重要工具,但随着时间推移,它们逐渐暴露出短期投机的弊端,难以维持用户和开发者的长期忠诚度。许多项目依赖空投和资助计划,吸引的却是迅速流失的「热钱」。未来,区块链项目应聚焦于构建长期、价值驱动的模式,激励用户和开发者持续参与和贡献,以实现更稳定的生态系统发展。

我们是时候应该专注于构建能够确保用户和开发者忠诚度的长期、价值驱动的模式了。

后空投时代思考:是时候建立长期价值驱动的模式了

经过十多年的加密货币初创企业运营,我准备宣布一个范例式的转变:空投已经走到尽头,开发者奖励计划也很可能面临同样的命运。

因此,区块链项目必须转变思路,不再依赖短期的激励措施,而是应着眼于构建长期、以价值为导向的模式,从而确保用户和开发者的忠诚度。如果不采取这样的转变,整个行业将面临发展的停滞,甚至衰退。

空投最早在 2020 年走向主流,当时 Uniswap 去中心化交易所向每个与其平台互动过的钱包分发了 400 个 UNI 代币。这一策略旨在通过让用户获得项目的财务权益来推动平台的广泛采用,而且确实取得了成功。紧随其后,其他项目纷纷效仿,空投迅速成为 DeFi 社区的普遍期望。

然而,空投也带来了一些意想不到的负面影响。例如,「空投农耕」现象日益严重,即用户创建多个账户或进行最低限度的操作,仅仅是为了获得代币分配。更糟糕的是,这些机会主义者通常在领取奖励后迅速离开项目,导致用户活跃度和代币价值的快速下滑。结果,空投不仅未能培养出长期忠诚的用户,反而成为短暂投机收益的代名词。

以 Layer-2 扩容解决方案 Blast 为例。今年 6 月,Blast 向早期用户发放了 170 亿新发行的 BLAST 代币,希望借此吸引用户和资本。然而,结果并不理想,许多接收者对他们获得的少量奖励感到失望,链上数据也显示,不少用户在领取代币后很快就离开了平台。BLAST 的价格在数小时内下跌了 20% ,因为许多用户迅速抛售了代币。更引人注目的是,该协议的总锁仓价值(空投旨在吸引的资本)在空投前的一个月内已经下降了超过 33% 。存款用户在获取收益后迅速离开了平台。

空投不仅没有在吸引用户之后留住他们,反而成为「热钱」的目标——这些用户收取奖励后便迅速离开,寻找下一个机会。据 CoinMetrics 的最新研究显示,三分之二的空投代币自发行以来就已经贬值。持有至今的空投代币的中位回报率为 -61% 。

这不仅仅是开发者面临的问题,而是整个系统性的问题。依赖短期激励的网络往往吸引的是短暂的用户和开发者,他们来得快,去得也快。这种频繁的流失削弱了网络的稳定性,并侵蚀了整个 DeFi 生态系统中的信任。

区块链的资助计划也面临类似的挑战,虽然这些资助在最初阶段帮助了新平台的启动,但它们的效果如同空投一样短暂。开发者经常在多个区块链之间跳跃,将其服务复制到多个环境中以寻求资助,但却难以在任何单一平台上建立长期项目。这种「建设者困境」不仅影响开发者,还使各大网络难以维持稳定且忠诚的社区。

这些激励模式的不稳定性导致了繁荣 – 萧条的周期,使得开发者难以预测未来的活动和收入。开发者往往投入大量资源到项目中,最终由于资助流程的不可预测性和频繁的政治化,仅能获得承诺的一小部分。这与资助计划的初衷相悖,也违背了加密行业在技术和道德层面上所提倡的开放访问和可组合性的目标。

CoinMetrics 在其报告中指出,空投可能会在短期内提升协议的使用率,但是否能够创造真正的、可持续的长期增长仍有待观察。基于目前大多数空投和资助计划的运作方式,没有理由相信短期激励能够突然开始创造长期的采用、流动性或正向的代币价格走势。

空投和资助激励在 2020 年至 2022 年期间确实是启动项目的绝佳工具。然而,这段时期已经过去。虽然它们仍将在更广泛的生态系统中扮演一定的角色,但还想单凭这些工具就能够真正推动采用和增长的时代已经结束了。

在后 Blast 时代,潜在的「空投农民」将更加怀疑空投的价值。相应地,那些实力较弱的项目将更加快速地经历繁荣与衰退的循环,进一步让「空投」从一种诱人的噱头变成一个负面词汇。

那么,解决方案是什么?区块链项目必须超越这些短暂的激励,专注于建立长期、价值驱动的模式,使所有参与者的利益相一致。这意味着开发一种系统,不仅要奖励用户和开发者的到来,更重要的是奖励他们长期留在生态系统中并为其增长做出贡献。

无论你是存款者还是开发者,你很快就能做出选择。你可以选择一次性获得报酬,数额不确定,并且该代币很可能在下周贬值 30% ;或者,你可以根据网络的实际表现和你对其积极贡献的大小,持续获得报酬,只要你愿意,就能不断得到回报。

距离 Uniswap 首次亮相已有近五年,空投和资助已不再足够,我们是时候该建立真正能够长期运作的协议了。

为什么IBM的市值只有微软的十六分之一?

我平时的一个主要学习方式(以及爱好)是读财报。

上市公司每个季度的财报披露,包括公告、新闻稿和分析师电话会议纪要,向我们提供了大量的财务信息和业务信息,是一个不容忽视的知识宝库。最近两年,因为港股和中概股实在没法看,我的大部分时间花在读美股科技股财报上——包括微软、苹果、英伟达等市值最大的公司,也包括IBM这样在某些垂类具备巨大影响力的公司。

在我读中学的时候(也就是第一次纳斯达克泡沫破裂前后),IBM是与微软并列的科技巨头之一,虽然其市值已经低于后者,但仍处于一个重量级。此后二十年,IBM经过了多次业务重组,确立了以企业级软件为核心的商业模式,同时也退出了“科技巨头”的行列,与微软等一线科技公司的差距越拉越大。此时此刻(2024年9月11日):

IBM的市值只有微软的1/16,更准确的说是6.14%;上个季度IBM的营业收入只有微软的1/4,净利润只有微软的1/12;Non-GAAP净利润也只有微软的1/10;

在规模远远小于微软的情况下,上个季度IBM的营业收入同比增速仅有2%,而微软为15%;IBM的净利润增速倒是略快于微软(14% vs. 10%)。

有必要指出,上述对比不完全公平,因为2021年IBM刚刚完成了对IT基础设施运维业务的拆分,后者变成了一家名为Kyndryl(勤达睿)的独立上市公司。然而,就算把Kyndryl加进来,IBM的营业收入也仅能达到微软的30%。何况Kyndryl被拆分的原因就是其利润过于微薄,不太受资本市场欢迎,目前其市值仅有约50亿美元(相当于1/600个微软)。

在这个生成式AI驱动的时代,微软的战略地位远比IBM更好:前者是OpenAI最大的外部投资者,旗下的Azure云是AI训练最常用的云,而且已经在Office, Teams, Bing等软件和服务当中全面融入了GPT;后者则沦为一个不太重要的角色,以IBM Watson为代表的昔日荣光早已褪色,现在的IBM只能勉强排进AI技术的第二集团。在可见的未来,微软和IBM的差距继续拉大的可能性,显然远远高于拉近的可能性。

01

那么问题来了:IBM是怎么沦落到这个地步的?

要知道,整整十二年前,也就是2012年9月11日,微软和IBM的差距还几乎可以忽略不计:

在那一天,IBM的市值为2334亿美元,微软的市值为2568亿美元,两者完全就是一个量级的公司。

在那个季度(即2012年7-9月),IBM的营业收入为247亿美元,微软为160亿美元;IBM的净利润为38亿美元,微软为45亿美元;两者仍然是一个量级的公司。

此后十二年当中,微软的市值增长了近12倍,而IBM的市值(已经考虑到拆分因素)原地踏步;两者市值被拉开的差距,几乎与净利润被拉开的差距相同,说明这一变化是基本面驱动的,而非市场一时头脑发热。

耐人寻味的是,这十二年当中,两家公司的管理层都是相对稳定的:从2012年至2020年,IBM由罗睿兰(Ginni Rometty)担任CEO,直至2021年由阿温德·克里希纳(Arvind Krishna)取而代之;而从2014年至今,微软一直由萨特亚·纳德拉(Satya Nadella)担任CEO。所以这个问题很大程度上可以简化为:罗睿兰主政期间的IBM,与纳德拉主政期间的微软相比,犯下了什么错误?或者说,未能做出什么正确的事情?

原因肯定很多。我既没有担任过跨国公司CEO,也没有从事过技术工作,所以只能从旁观者的视角,大致说一下自己的看法。从事后诸葛亮的角度看,IBM至少在以下三个重大方向上犯了错误,其重要程度依次递减:

  • 没有即时下注云计算尤其是公有云业务,从而未能适应IT服务“云端化”的趋势;
  • 没有追上AI技术向深度学习转变的浪潮,从而使自己过去几十年的AI技术积累迅速过时;
  • 没有押注于任何消费端(To C)业务,从而失去了更多可能性(虽然押注了也未必有用)。

先说第一条。过去二十年,全球IT服务最重要的趋势就是云计算:从以前的企业自建IT系统,逐渐转变为对外采购公有云平台的服务,由此实现IT基础设施乃至软件服务的全面“云端化”(也就是“外包化”)。第一个吃螃蟹的是亚马逊,AWS已经成长为其最赚钱的业务(远比主营的电商业务更赚钱);其次就是微软。早在接任微软CEO之前,纳德拉就是微软向云计算转型的重要人物,一手促进了微软数据库、Windows服务器和开发工具业务与Azure云平台的融合。在接任CEO之后,纳德拉坚决地、毫不犹豫地对Azure加大投入,终于使得后者成为了微软的收入增长引擎以及最大的单一收入部门。

事实上,从技术和产品的视角看,云计算与微软原有业务的相关性有限:微软在传统PC和服务器软件上的优势,并不能直接转化为云计算服务上的优势,前者的“云端化”是一个漫长而痛苦的过程。所谓“微软传统业务与云计算业务的协同性”,主要是指销售端的协同性——微软的销售体系(包括直销人员和经销商)覆盖了大批企业,可以向这些企业推荐Azure云服务;微软的老客户采购Azure也可以拿到一定的折扣。这种基于销售端的“优势”,IBM同样具备,甚至Oracle也具备,只是其销售覆盖面有所不同而已。

简而言之:微软在旧时代的技术积累,并不能保证它的Azure在新时代能追上如日中天的亚马逊AWS。AWS的前身早在2002年就成立了,2006年就开始对外全面提供服务;Azure的前身则在2008年才成立,2010年才开始对外提供服务。对于技术进步日新月异的云计算行业来说,4-6年的差距是非常巨大的,必须加倍努力才有可能扳回来。纳德拉执掌微软云业务之时,其实已经是向云计算全面转型的最后时间窗口了;如果再晚两年,Azure恐怕就要落后于更后起的谷歌云了!纳德拉的”all-in Azure”决策的战略意义之大,怎么估计都不过分!

而IBM在云计算领域的落后,几乎完全可以归结为“动手太晚”。2010年,IBM才开始探索云计算业务;2013年,才通过收购SoftLayer,建立了一个真正意义上的云服务部门。然而,直到2017年,IBM才确立了以“混合云”(Hybrid Cloud, 可以视为公有云和私有云的结合体)为主的云服务战略,并且在2018年通过收购Red Hat强化了这个战略。彼时彼刻,亚马逊AWS、微软Azure、谷歌GCP三强鼎立的形势已经形成,留给IBM的市场空间已经非常狭小,主要局限于那些偏好混合云的大型企业客户。

搞笑的是,按照IBM官方的说法,罗睿兰担任CEO期间最大的功绩是“确立了IBM的混合云战略”——这话当然不错,只可惜这个战略本应在2012-2013年就确立,而不是等到2017-2018年!“迟到的正义为非正义”,同理,迟到的正确决策只能沦为平庸的决策。况且混合云并非什么IBM独家技术,亚马逊、微软、谷歌乃至Oracle都可以做;哪怕退回这个狭窄的垂类市场,IBM的地位仍然不够稳固。

继续说第二条。IBM曾经在AI技术领域维持了长达五十年的领先地位,70后至80后的朋友应该都对1996年“深蓝”击败卡斯帕罗夫之战记忆犹新;美国人可能还对IBM Watson于2011年在《危机边缘》(Jeopardy!)知识竞赛当中击败人类选手留下了深刻印象。罗睿兰担任CEO期间的一个重要战略,就是通过Watson解决方案,把IBM的AI技术进行商业变现,其首选对象是医疗行业。

事实证明,欧美医疗行业过于复杂,涉及的监管和伦理问题太多,至少在当时并不十分适合由AI去改造,所以Watson的商业表现高开低走。但是更重要的是,2012-2013年(也就是Watson开始大规模商用的时间节点)发生了一场AI技术革命:基于神经网络的深度学习技术不仅取代了传统的知识图谱(符号主义),也取代了统计学习等传统机器学习技术,成为最高效、应用范围最广泛的AI基础技术。此后短短十年间,深度学习彻底改造了互联网内容分发和广告推送体系,开启了自动驾驶和大语言模型(LLM)等新兴产业,在学术界也成为了绝对的主流。

为什么IBM的市值只有微软的十六分之一?

作为老牌AI技术霸主,IBM未能跟上时代;至于原因究竟是管理层决策失误、投入资源不够还是执行效率低下,已经不重要了。重要的是,当谷歌以一年10家的速度收购基于深度学习的AI创业公司、以天价延揽包括伊利亚·苏茨克维(Ilya Sutskever)、吴恩达在内的顶尖AI科学家时,IBM的动作几乎可以忽略不计。结果就是,在短短2-3年之内,谷歌夺走了AI技术霸主的地位,并且迅速将AI应用于搜索引擎、翻译等服务上,从而让“技术-应用-商业化”的飞轮转动了起来。可怜的IBM则直到2021年才承认Watson的失败,当时它的AI基础研发实力不但早已被谷歌甩出了好几个身位,而且已经落后于亚马逊、Meta。

严格地说,微软在这一局里也是后来者,深度学习技术从来不是它的强项。但是微软做出了一个相当正确的决定,就是在2019年投资OpenAI,并且将后者的服务融入Azure云平台。ChatGPT横空出世之后,所有人都不得不承认,这是微软历史上最重要、最成功的一次战略投资。与GPT的深度合作不仅拉动了微软Office, Teams等软件服务的销量,更重要的是确立了Azure的“AI服务第一云平台”的地位——从2023年开始,AI需求每个季度都能至少把Azure的收入增速拉高5个百分点。现在轮到亚马逊感受到危机、急忙寻找各种应对手段了!

当然,微软并没有把希望全部寄托在对外投资上,它对于生成式AI的内部研发一直在进行中。例如,它曾与英伟达共同开发了万亿参数规模的Megatron大模型,而且至今仍在开发和迭代大模型。最近五年,由于Azure逐渐释放出巨大的盈利能力和现金流,微软得以向生成式AI等基础研发方向分配更丰厚的资源,实现成熟业务对新兴业务的“供养”;而IBM或Oracle则没有这么多资源可供挥霍。成功能够带来成功,就像钱能生钱,关键在于资源分配的方法得当。

最后说第三条。自从2005年向联想出售PC业务之后,IBM几乎就没有像样的消费端业务了。此后近二十年时间里,IBM对消费端业务没有展现过任何兴趣,不管是消费互联网、消费硬件还是内容服务。公允地说,这不能算一个真正的“错误”,因为IBM确实不具备消费端业务的基因,就算过去十多年里它押注了什么消费业务,我们也很难预测它取得多大的战果。

问题在于,同一时期的微软也不具备太多的消费端业务基因,但它还是屡败屡战、愈战愈勇,顽强地坚持了下来。对游戏业务的投入,贯穿了比尔·盖茨、史蒂夫·巴尔默和萨特亚·纳德拉三位CEO的任期;对智能硬件的投入,虽然在智能手机领域输的一塌糊涂,但是在平板电脑取得了一定的战果,维持了微软的战略性存在;对消费互联网的投入,主要是Bing搜索引擎和LinkedIn,总体看来是成功的,尤其是在与生成式AI融合之后,其战略价值正在上升。附带说一句,Bing的启动和LinkedIn的收购,都发生于纳德拉的CEO任期内。

我们不难发现,巴尔默担任CEO期间,微软确实不擅长消费端业务,朝令夕改、毫无头绪,收购过来的优质业务往往也灰头土脸收场。可是在纳德拉接手之后,微软的消费端业务更成熟了,其表现至少可以称之为中规中矩。从财务角度看,时至今日,微软的全部消费端业务均实现了盈亏平衡,就连历史上的烧钱大户游戏业务也是如此(这得益于对Xbox硬件平台定位的转变)。从资本市场的角度看,它们不再是拖后腿的业务,对微软市值的正面贡献越来越明显了。

纳德拉对于消费端业务的态度,集中体现在2022年初他对收购动视暴雪决策的解释当中:对于游戏这样一个拥有超过30亿用户的大型消费业务,微软不能缺席。同理可以推断出,在纳德拉看来,微软若想保持科技巨头的地位,就不能龟缩在企业级业务的“舒适圈”里,必须打出去。这一方面是为了建立与消费者的直接联系、培养用户心智,另一方面是为了形成业务协同效应——例如AI与Bing的协同效应,以及Azure与云游戏的协同效应。反观IBM,过去二十年的历任CEO,没有一个做出过类似的判断;他们无一例外地认为,IBM可以通过仅仅做企业级业务,甚至仅仅做利润丰厚的大企业业务,就维持科技巨头的地位。历史证明他们错了。

不过,既然IBM已经在云计算、AI两个战略方向上犯下了更不可饶恕的错误,对消费端业务毫无押注的错误就没那么重要了,甚至可以忽略不计。讽刺的是,IBM历史上最高光的时刻,恰恰是它在消费端最强大的时刻——从1980年代直至1990年代初,IBM PC引领了第一波信息技术革命走进千家万户,直到康柏、惠普、戴尔等生机勃勃的新厂商后来居上。在消费端电脑市场,苹果曾经是IBM的手下败将,可是在短短十几年内它就重新站了起来,成为了一家完全立足于消费端市场的科技巨头。世事万变,但是事在人为,“基因”也好、“历史积累”也好,归根结底是依靠人去执行的。

02

因此,我们更能理解,在美式上市公司中,CEO为什么总能拿到极端丰厚的薪酬了:

根据彭博新闻的统计,2022年美国上市公司CEO的平均薪酬是员工平均水平的400倍!像埃隆·马斯克这样的明星CEO,每年能够拿走价值几十亿美元的薪酬包。纳德拉2023年的薪酬包为4850万美元;而在他就任CEO之前的2013年,作为微软高级副总裁、云计算业务的负责人,他的薪酬包仅为760万美元。

哪怕考虑到最近十年的通货膨胀因素,差距也是十分巨大的!

这种情况合理吗?考虑到CEO至关重要的地位,显然是合理的。在纳德拉担任微软CEO的十年之内,微软的股价上涨了10倍;而在此前巴尔默的任期内则基本是零增长。如果罗睿兰在担任IBM CEO期间能够在云计算和AI两大战略性问题上面至少做出一个正确决策,并执行下去,那么IBM现在可能还屹立于科技巨头之林,其市值可能是万亿美元而不是1850亿美元。美式公司治理结构赋予了CEO几乎无限的业务决策权,所以CEO应该为一切错误承担责任,也应该为一切成就获得奖励。所谓“权力与义务的统一”,就是这样的。

由此可以进一步推断出:在采用美式公司治理结构的中国公司,主要是互联网中概公司当中,CEO的权力和责任就更大了。他们不但享有美式公司所赋予的制度性权力,还拥有中式人情社会所特有的非制度性权力,从而可以更高效、更彻底地将自身意志贯彻下去。当他们做出正确或错误选择时,对公司的影响就更大了。所以说,互联网大厂的成败至少有一半可以归结为一号位的问题,这个说法或许有些偏激,但还是有道理的。

就上面这个问题,我还想展开说更多,但那应该是另一篇文章的主题。

BitGo计划明年推出美元稳定币USDS

9月18日消息,BitGo计划明年推出美元稳定币USDS,将向该网络提供流动性的机构提供奖励。USDS将与市场上的其他稳定币一样,由短期国库券、隔夜回购和现金支持。这将是BitGo第一个公开参与的稳定币。 BitGo首席执行官Mike Belshe在接受采访时表示:“推出USDS的主要原因是,虽然现有的稳定币有很好的功能,但我们看到了一个机会,可以创建一个更加开放和公平的系统,促进创新,最重要的是,奖励那些为网络做贡献的人,稳定币的真正价值来自于其使用者、他们提供的流动性以及交换的接入点。”

一文读懂zkTLS:安全传输信息,下一个ZK新叙事?

原文作者:

原文编译:深潮 TechFlow

区块链预言机:用于公共数据的区块链 API

zkTLS:用于任何数据的区块链 API

零知识传输层服务 (zkTLS) 可能是封闭企业巨头网络的致命打击。新兴网络现在通过利用 zkTLS 拥有与 Facebook 和 Amazon 等巨头竞争的能力。

zkTLS 允许用户无权限地迁移其在互联网上的任何身份信息,为新网络提供了一种强大的方式来利用现有网络。它使用户能够在不同平台之间自由切换,而无需从头开始。最重要的是,它在不妥协数据隐私和安全性的情况下实现了这一目标。

一文读懂zkTLS:安全传输信息,下一个ZK新叙事?

我们看到加密应用以创造性的方式利用 zkTLS。

 允许用户在链上验证他们的传统信用评分。 允许 Uber 司机将他们的评分转移到 。它还使司机和餐厅能够将他们的评论从 DoorDash 迁移到 。

zkTLS 的工作原理如下:

传输层安全协议 (TLS) 保护了超过 95% 的互联网连接。它代表了大多数 URL 中“https”中的“s”。TLS 连接确保:

服务器(如您的银行)与客户端(如您的手机)之间的交互是可信的。

  • 数据是机密的。

  • 数据完整性强。

一文读懂zkTLS:安全传输信息,下一个ZK新叙事?

zkTLS 引入了一个第三方验证者,以在不妥协安全性的情况下验证客户端与服务器之间的通信安全性。实现验证的方式有两种主要方法:

基于代理的:一个代理服务器作为中介,监测加密通信并部分解密以验证客户端的凭证。

一文读懂zkTLS:安全传输信息,下一个ZK新叙事?

基于多方计算 (MPC) 的:客户端和验证者与服务器交互,使验证者能够证明消息的真实性,而服务器对验证者的存在毫不知情。

一文读懂zkTLS:安全传输信息,下一个ZK新叙事?

为了保持隐私,客户端使用零知识证明来证明数据的特定事实,而不透露实际信息。

例如,证明可以证明他们的银行余额在特定日期超过 $ 1000 ,而不是具体金额。或者,我可以证明我的钱包属于一名经过验证的印度公民,而不透露其他细节,例如我的姓名或出生日期。

这些证明可以被记录在区块链上,在此它们永久存在,供其他应用程序进行访问和验证。

控制用户的数据使互联网巨头掌握权力,这使他们能够创建基于个性化体验的网络,将用户锁定在其中。zkTLS 打破了今天困住数十亿人的墙壁,创造一个更加开放、权力更为分散的未来。