Category 欧易交易所OKX官网

如何拥有花不完的钱?

撰文:Alex Liu,Foresight News

如何拥有花不完的钱?

声明:本文观点仅在一定条件和语境下成立。

  1. 钱花不完:在无需劳动的情况下,可支配法定货币随着时间逐渐增加。
  2. 前置条件:
  • 比特币作为「数字黄金」对冲通胀的逻辑长期成立,即虽有价格波动,在较长时间尺度下比特币会相对信用货币升值
  • 不发生改变社会运行逻辑的黑天鹅事件。

花不完的钱

提到「花钱」,大家脑海中的默认概念还是「消费法币」。小编也只会给老板发:「明天疯狂星期四,能 V 我 50 吗?」,而不会发「明天疯狂星期四,能 V 我 50 BTC 吗?」;一是怕被打,二是国内的 KFC 也确实尚不支持 BTC 付款。

比特币的「数字现金」叙事并没有跑通。曾有人问知名比特币大多头、MicroStrategy 首席执行官 Micheal Saylor:「为何很少有人用一点比特币去换一杯咖啡?」Saylor 回复到:「你拥有一栋大楼的话,你会用大楼的一角去换一杯咖啡吗?」这有些诡辩的意思了,仅持有比特币,在日常生活中「花钱」的确是不方便的。

但 BTC 作为「数字黄金」,一种存储价值的资产(Store of Value Asset)的叙事未被证伪。通过比特币,或许我们真能拥有「花不完的钱」—— 若它对冲通胀的逻辑长期成立,那一定会在较长时间尺度下相对信用货币(法定货币)升值。我们只需简单持有 BTC,它所对应的法币价值最终一定会逐渐上涨。不用劳动,美美躺平。

但前文说「花比特币」并不方便,而无论是花掉还是卖掉,比特币的数量总是会逐渐减少的,又谈何「花不完呢」?

答案是抵押借贷

抵押借贷

若存在资产 A 相对资产 B 一直升值,那么抵押资产 A 借出资产 B,随时间推移,理论上可以源源不断借出资产 B。不必出售 A,也不必偿还 B。

放在具体案例中,抵押 BTC 借出法币(或 USDT、USDC 之类的稳定币),由于信用货币天然具有滥发、长期贬值趋势,则 BTC 会相对信用货币逐渐升值(即本文成立的前提),在此过程中逐渐借出更多的法币,则我们得以在不出售 BTC 、不用劳动的情况下,可支配的法定货币随时间逐渐增加,即「拥有花不完的钱」。

但此处存在一个问题,抵押借贷是有「清算风险」的。BTC 相对信用货币升值是长线趋势,但在短期依然存在着价格波动,即便抛开「插针」等事件不谈,从一轮周期的高点到低点往往也有 50 % 甚至 70 % 以上的振幅。

被清算,相当于被迫在低价卖出 BTC 换回法币偿还债务,「钱花不完」的尝试又失败了。同时由于行情波动剧烈,有可能出现一根 k 线砸到清算价以下导致清算,而后币价快速拉回,给借贷者造成巨额损失的情况。

避免清算的一个方法是保持极低的 LTV(Loan to Value),如抵押价值 100 万美元的 BTC 只借出 30 万美元,几乎可以免于短期价格波动导致的清算。但一方面不存在「绝对的保险」,另一方面这样做的资金利用率未免太低。

那该怎么做呢?

软清算

可以使用软清算机制的借贷来避免短期币价波动导致我们失去 BTC 仓位。以抵押 BTC 借出 crvUSD 为例:

在 Curve Finance 的 crvUSD 产品中,抵押品的清算是通过 AMM 进行的,并且是以渐进式的软清算方式,抵押品会随价格下跌逐渐清算。但 AMM 中的清算是可逆的,在抵押品价格上涨后,AMM 会帮助用户买回资产。

清算 AMM

crvUSD 通过 LLAMMA(Lending-Liquidating AMM Algorithm)实现软清算,为抵押资产设计了一个特殊的 AMM 池,实现在资产价格下跌时逐渐清算。其中的清算线有两个,分别是清算开始价格和清算终止价格。在抵押资产高于清算价格时,AMM 池中全是抵押品。抵押品价格下跌至清算开始价格时,AMM 中的抵押品开始被卖出换成稳定币,之后在价格下跌过程中抵押品被逐渐卖出。在抵押品价格跌至清算终止价格之下时,AMM 中只剩下稳定币。

LLAMMA 的清算过程可以理解为一个「反向的 Uniswap V3」。假设 AMM 要处理的是 BTC-crvUSD 交易对,在 Uniswap V3 中,流动性提供者(LP)需要设置 BTC 的价格区间。当 BTC 的价格处于区间之内时,AMM 中有两种可以互相兑换的 Token,在价格区间之外时,AMM 池中只有一种 Token,这也是 LLAMMA 清算开始价格和结束价格的设计思路。当抵押品是 BTC 时,价格高于区间 AMM 池中全部为 BTC,在价格区间之内时 BTC 逐渐被清算为 USD,见图。

和 Uniswap V3 的不同之处是,Uni V3 中 BTC 价格越高,AMM 池中的 USD 的数量越多。而在 LLAMMA 中,BTC 价格越低时,AMM 池中 USD 的数量越多,因为需要卖出 BTC 用于清算。BTC 价格升高时,还可以买回 BTC 抵押资产,尽量保证用户的敞口不变。

如何拥有花不完的钱?

在软清算的机制下,即使清算发生,我们会在价格涨回过程中以和卖出几乎相同的价格买回抵押品,保证仓位的几乎不变。而由于在较长时间尺度下比特币会相对信用货币升值这一前提,被清算必然在未来涨回。(软清算由外部套利者发动,借贷者会有相对硬清算极少的损失,需避免频繁落入清算区间。这里也体现出与 Uni v3 相反的设计哲学:LP 希望价格尽量多落在区间内收获费用,借贷者希望价格尽量少落在区间内减少损失。)

到此逻辑闭环:持有比特币并使用软清算机制进行法币借贷,比特币升值过程中我们能获得持续的现金流,无需出售比特币或担心短期价格波动造成的清算将这一切搞砸。在持有一定比特币的情况下,无需劳动而可支配的法定货币随时间逐渐增加。这算不算是拥有了「花不完的钱」?

结语

本文介绍了一种投资与消费的策略,即保证 BTC 仓位的同时通过借贷策略拥有持续的现金流,并介绍了使用软清算机制的优势。若持有大量 BTC,本方案具备实操性,或许真是让人不用劳动,美美躺平的最佳策略之一。但本方案也有一个缺陷,让像作者一样的同学无法躺平,只能苦苦打工 —— 没有指出足够躺平的 BTC 该上哪儿领 ……

于是小编决定突破自己,毅然拿出手机,给老板发到「明天疯狂星期四,能 V 我 50 BTC 吗?」,喜提拉黑。

参考文章:

读懂 Curve 稳定币 crvUSD

以太坊现货ETF总资产净值为76.49亿美元,累计净流出3.77亿美元

以太坊现货ETF总资产净值为76.49亿美元,累计净流出3.77亿美元缩略图

博链财经BroadChain获悉,根据 SoSoValue 数据,8月13日以太坊现货 ETF 总净流入 2434.12 万美元。

8月13日灰度(Grayscale)以太坊信托 ETF ETHE 单日净流出 3101.00 万美元,目前 ETHE 历史净流出为 23.27 亿美元。

灰度(Grayscale)以太坊迷你信托 ETF ETH 单日净流出 0.00 美元,目前灰度以太坊迷你信托 ETH 历史总净流入为 2.21 亿美元。

8月13日单日净流入最多的以太坊现货 ETF 为贝莱德(BlackRock) ETF ETHA,单日净流入为 4912.44 万美元,目前 ETHA 历史总净流入达 9.50 亿美元。

其次为富达(Fidelity) ETF FETH,单日净流入为 541.32 万美元,目前 FETH 历史总净流入达 3.51 亿美元。

以太坊现货ETF总资产净值为76.49亿美元,累计净流出3.77亿美元

截至目前,以太坊现货 ETF 总资产净值为 76.49 亿美元,ETF 净资产比率(市值较以太坊总市值占比)达 2.36%,历史累计净流出已达 3.77 亿美元。

Gate Ventures:AI x Crypto从入门到精通(上)

Gate Ventures:AI x Crypto从入门到精通(上)

引言

AI 行业近期的发展,被一部分人视为第四次工业革命,大模型的出现显著提升了各行各业的效率,  波士顿咨询认为 GPT 为美国提升了大约 20% 的工作效率。同时大模型带来的泛化能力被喻为新的软件设计范式,过去软件设计是精确的代码,现在的软件设计是更泛化的大模型框架嵌入到软件中,这些软件能具备更好的表现和支持更广泛模态输入与输出。深度学习技术确实为 AI 行业带来了第四次繁荣,并且这一股风潮也弥漫到了 Crypto 行业。

Gate Ventures:AI x Crypto从入门到精通(上)

各行业 GPT 的采用率排名,Source:

在本报告中,我们将详细探讨 AI 行业的发展历史、技术分类、以及深度学习技术的发明对行业的影响。然后深度剖析深度学习中 GPU、云计算、数据源、边缘设备等产业链上下游,以及其发展现状与趋势。之后我们从本质上详细探讨了 Crypto 与 AI 行业的关系,对于 Crypto 相关的 AI 产业链的格局进行了梳理。

AI 行业的发展历史

AI 行业从 20 世纪 50 年代起步,为了实现人工智能的愿景,学术界和工业界在不同时代不同学科背景的情况下,发展出了许多实现人工智能的流派。

Gate Ventures:AI x Crypto从入门到精通(上)

实现 AI 流派对比,图源:Gate Ventures

Gate Ventures:AI x Crypto从入门到精通(上)

AI/ML/DL 关系,图源:

现代人工智能技术使用的主要是“机器学习”这一术语,该技术的理念是让机器依靠数据在任务中反复迭代以改善系统的性能。主要的步骤是将数据送到算法中,使用此数据训练模型,测试部署模型,使用模型以完成自动化的预测任务。

目前机器学习有三大主要的流派,分别是联结主义、符号主义和行为主义,分别模仿人类的神经系统、思维、行为。

Gate Ventures:AI x Crypto从入门到精通(上)

神经网络架构图示,图源:

而目前以神经网络为代表的联结主义占据上风(也被称为深度学习),主要原因是这种架构有一个输入层一个输出层,但是有多个隐藏层,一旦层数以及神经元(参数)的数量变得足够多,那么就有足够的机会拟合复杂的通用型任务。通过数据输入,可以一直调整神经元的参数,那么最后经历过多次数据,该神经元就会达到一个最佳的状态(参数),这也就是我们说的大力出奇迹,而这也是其“深度”两字的由来——足够多的层数和神经元。

举个例子,可以简单理解就是构造了一个函数,该函数我们输入 X= 2 时,Y= 3 ;X= 3 时,Y= 5 ,如果想要这个函数应对所有的 X,那么就需要一直添加这个函数的度及其参数,比如我此时可以构造满足这个条件的函数为 Y = 2 X -1 ,但是如果有一个数据为 X= 2, Y= 11 时,就需要重构一个适合这三个数据点的函数,使用 GPU 进行暴力破解发现 Y = X 2 -3 X + 5 ,比较合适,但是不需要完全和数据重合,只需要遵守平衡,大致相似的输出即可。这里面 X 2 以及 X、X 0 都是代表不同的神经元,而 1、-3、 5 就是其参数。

此时如果我们输入大量的数据到神经网络中时,我们可以增加神经元、迭代参数来拟合新的数据。这样就能拟合所有的数据。

Gate Ventures:AI x Crypto从入门到精通(上)

深度学习技术演进,图源:Gate Ventures

而基于神经网络的深度学习技术,也有多个技术迭代与演进,分别如上图的最早期的神经网络,前馈神经网络、RNN、CNN、GAN 最后演进到现代大模型如 GPT 等使用的 Transformer 技术,Transformer 技术只是神经网络的一个演进方向,多加了一个转换器(Transformer),用于把所有模态(如音频,视频,图片等)的数据编码成对应的数值来表示。然后再输入到神经网络中,这样神经网络就能拟合任何类型的数据,也就是实现多模态。

AI 发展经历了三次技术浪潮,第一次浪潮是 20 世纪 60 年代,是 AI 技术提出的十年后,这次浪潮是符号主义技术发展引起的,该技术解决了通用的自然语言处理以及人机对话的问题。同时期,专家系统诞生,这个是斯坦福大学在美国国家航天局的督促下完成的 DENRAL 专家系统,该系统具备非常强的化学知识,通过问题进行推断以生成和化学专家一样的答案,这个化学专家系统可以被视为化学知识库以及推断系统的结合。

在专家系统之后, 20 世纪 90 年代以色列裔的美国科学家和哲学家朱迪亚·珀尔(Judea Pearl)提出了贝叶斯网络,该网络也被称为信念网络。同时期,Brooks 提出了基于行为的机器人学,标志着行为主义的诞生。

1997 年,IBM 深蓝“Blue”以 3.5: 2.5 战胜了国际象棋冠军卡斯帕罗夫(Kasparov),这场胜利被传视为人工智能的一个里程碑,AI 技术迎来了第二次发展的高潮。

第三次 AI 技术浪潮发生在 2006 年。深度学习三巨头 Yann LeCun、Geoffrey Hinton 以及 Yoshua Bengio 提出了深度学习的概念,一种以人工神经网络为架构,对资料进行表征学习的算法。之后深度学习的算法逐渐演进,从 RNN、GAN 到 Transformer 以及 Stable Diffusion,这两个算法共同塑造了这第三次技术浪潮,而这也是联结主义的鼎盛时期。

许多标志性的事件也伴随着深度学习技术的探索与演进逐渐涌现,包括:

● 2011 年,IBM 的沃森(Watson)在《危险边缘》(Jeopardy)回答测验节目中战胜人类、获得冠军。

● 2014 年,Goodfellow 提出 GAN(生成式对抗网络,Generative Adversarial Network),通过让两个神经网络相互博弈的方式进行学习,能够生成以假乱真的照片。同时 Goodfellow 还写了一本书籍《Deep Learning》,称为花书,是深度学习领域重要入门书籍之一。

● 2015 年,Hinton 等人在《自然》杂志提出深度学习算法,该深度学习方法的提出,立即在学术圈以及工业界引起巨大反响。

● 2015 年,OpenAI 创建,Musk、YC 总裁 Altman、天使投资人彼得·泰尔(Peter Thiel)等人宣布共同注资 10 亿美元。

● 2016 年,基于深度学习技术的 AlphaGo 与围棋世界冠军、职业九段棋手李世石进行围棋人机大战,以 4 比 1 的总比分获胜。

● 2017 年,中国香港的汉森机器人技术公司(Hanson Robotics)开发的类人机器人索菲亚,其称为历史上首个获得一等公民身份的机器人,具备丰富的面部表情以及人类语言理解能力。

● 2017 年,在人工智能领域有丰富人才、技术储备的 Google 发布论文《Attention is all you need》提出 Transformer 算法,大规模语言模型开始出现。

● 2018 年,OpenAI 发布了基于 Transformer 算法构建的 GPT(Generative Pre-trained Transformer),这是当时最大的语言模型之一。

● 2018 年,Google 团队 Deepmind 发布基于深度学习的 AlphaGo,能够进行蛋白质的结构预测,被视为人工智能领域的巨大进步性标志。

● 2019 年,OpenAI 发布 GPT-2 ,该模型具备 15 亿个参数。

● 2020 年,OpenAI 开发的 GPT-3 ,具有 1, 750 亿个参数,比以前的版本 GPT-2 高 100 倍,该模型使用了 570 GB 的文本来训练,可以在多个 NLP(自然语言处理)任务(答题、翻译、写文章)上达到最先进的性能。

● 2021 年,OpenAI 发布 GPT-4 ,该模型具备 1.76 万亿个参数,是 GPT-3 的 10 倍。

● 2023 年 1 月基于 GPT-4 模型的 ChatGPT 应用程序推出, 3 月 ChatGPT 达到一亿用户,成为历史最快达到一亿用户的应用程序。

● 2024 年,OpenAI 推出 GPT-4 omni。

深度学习产业链

当前大模型语言使用的都是基于神经网络的深度学习方法。以 GPT 为首的大模型造就了一波人工智能的热潮,大量的玩家涌入这个赛道,我们也发现市场对于数据、算力的需求大量迸发,因此在报告的这一部分,我们主要是探索深度学习算法的产业链,在深度学习算法主导的 AI 行业,其上下游是如何组成的,而上下游的现状与供需关系、未来发展又是如何。

Gate Ventures:AI x Crypto从入门到精通(上)

GPT 训练 Pipeline 图源:

首先我们需要明晰的是,在进行基于 Transformer 技术的 GPT 为首的 LLMs(大模型)训练时,一共分为三个步骤。

在训练之前,因为是基于 Transformer,因此转换器需要将文本输入转化为数值,这个过程被称为“Tokenization”,之后这些数值被称为 Token。在一般的经验法则下,一个英文单词或者字符可以粗略视作一个 Token,而每个汉字可以被粗略视为两个 Token。这个也是 GPT 计价使用的基本单位。

第一步,预训练。通过给输入层足够多的数据对,类似于报告第一部分所举例的(X,Y),来寻找该模型下各个神经元最佳的参数,这个时侯需要大量的数据,而这个过程也是最耗费算力的过程,因为要反复迭代神经元尝试各种参数。一批数据对训练完成之后,一般会使用同一批数据进行二次训练以迭代参数。

第二步,微调。微调是给予一批量较少,但是质量非常高的数据,来训练,这样的改变就会让模型的输出有更高的质量,因为预训练需要大量数据,但是很多数据可能存在错误或者低质量。微调步骤能够通过优质数据提升模型的品质。

第三步,强化学习。首先会建立一个全新的模型,我们称其为“奖励模型”,这个模型目的非常简单,就是对输出的结果进行排序,因此实现这个模型会比较简单,因为业务场景比较垂直。之后用这个模型来判定我们大模型的输出是否是高质量的,这样就可以用一个奖励模型来自动迭代大模型的参数。(但是有时候也需要人为参与来评判模型的输出质量)

简而言之,在大模型的训练过程中,预训练对数据的量有非常高的要求,所需要耗费的 GPU 算力也是最多的,而微调需要更加高质量的数据来改进参数,强化学习可以通过一个奖励模型来反复迭代参数以输出更高质量的结果。

在训练的过程中,参数越多那么其泛化能力的天花板就越高,比如我们以函数举例的例子里,Y = aX + b,那么实际上有两个神经元 X 以及 X 0 ,因此参数如何变化,其能够拟合的数据都极其有限,因为其本质仍然是一条直线。如果神经元越多,那么就能迭代更多的参数,那么就能拟合更多的数据,这就是为什么大模型大力出奇迹的原因,并且这也是为什么通俗取名大模型的原因,本质就是巨量的神经元以及参数、巨量的数据,同时需要巨量的算力。

因此,影响大模型表现主要由三个方面决定,参数数量、数据量与质量、算力,这三个共同影响了大模型的结果质量和泛化能力。我们假设参数数量为 p,数据量为 n(以 Token 数量进行计算),那么我们能够通过一般的经验法则计算所需的计算量,这样就可以预估我们需要大致购买的算力情况以及训练时间。

算力一般以 Flops 为基本单位,代表了一次浮点运算,浮点运算是非整数的数值加减乘除的统称,如 2.5+ 3.557 ,浮点代表着能够带小数点,而 FP 16 代表了支持小数的精度,FP 32 是一般更为常见的精度。根据实践下的经验法则,预训练(Pre-traning)一次(一般会训练多次)大模型,大概需要 6 np Flops, 6 被称为行业常数。而推理(Inference,就是我们输入一个数据,等待大模型的输出的过程),分成两部分,输入 n 个 token,输出 n 个 token,那么大约一共需要 2 np Flops。

在早期,使用的是 CPU 芯片进行训练提供算力支持,但是之后开始逐渐使用 GPU 替代,如 Nvidia 的 A 100、H 100 芯片等。因为 CPU 是作为通用计算存在的,但是 GPU 可以作为专用的计算,在能耗效率上远远超过 CPU。GPU 运行浮点运算主要是通过一个叫 Tensor Core 的模块进行。因此一般的芯片有 FP 16 / FP 32 精度下的 Flops 数据,这个代表了其主要的计算能力,也是芯片的主要衡量指标之一。

Gate Ventures:AI x Crypto从入门到精通(上)

Nvidia A 100 芯片的 Specification,Source:

因此读者应该能够看懂这些企业的芯片介绍,如上图所示,Nvidia 的 A 100 80 GB PCIe 和 SXM 型号的对比中,看出 PCIe 和 SXM 在 Tensor Core(专门用于计算 AI 的模块)下,在 FP 16 精度下,分别是 312 TFLOPS 和 624 TFLOPS(Trillion Flops)。

假设我们的大模型参数以 GPT 3 为例,有 1750 亿个参数, 1800 亿个 Token 的数据量(大约为 570 GB),那么在进行一次预训练时,就需要 6 np 的 Flops,大约为 3.15* 1022 Flops,如果以 TFLOPS(Trillion FLOPs)为单位大约为 3.15* 1010 TFLOPS,也就是说一张 SXM 型号的芯片预训练一次 GPT 3 大约需要 50480769 秒, 841346 分钟, 14022 小时, 584 天。

我们能够看到这个及其庞大的计算量,需要多张最先进的芯片共同计算才能够实现一次预训练,并且 GPT 4 的参数量又是 GPT 3 的十倍(1.76 trillion),意味着即使数据量不变的情况下,芯片的数量要多购买十倍,并且 GPT-4 的 Token 数量为 13 万亿个,又是 GPT-3 的十倍,最终,GPT-4 可能需要超过 100 倍的芯片算力。

在大模型训练中,我们的数据存储也有问题,因为我们的数据如 GPT 3 Token 数量为 1800 亿个,大约在存储空间中占据 570 GB,大模型 1750 亿个参数的神经网络,大约占据 700 GB 的存储空间。GPU 的内存空间一般都较小(如上图介绍的 A 100 为 80 GB),因此在内存空间无法容纳这些数据时,就需要考察芯片的带宽,也就是从硬盘到内存的数据的传输速度。同时由于我们不会只使用一张芯片,那么就需要使用联合学习的方法,在多个 GPU 芯片共同训练一个大模型,就涉及到 GPU 在芯片之间传输的速率。所以在很多时候,制约最后模型训练实践的因素或者成本,不一定是芯片的计算能力,更多时侯可能是芯片的带宽。因为数据传输很慢,会导致运行模型的时间拉长,电力成本就会提高。

Gate Ventures:AI x Crypto从入门到精通(上)

H 100 SXM 芯片 Specification,Source:

这个时侯,读者大致就能完全看懂芯片的 Specification 了,其中 FP 16 代表精度,由于训练 AI LLMs 主要使用的是 Tensor Core 组件,因此只需要看这个组件下的计算能力。FP 64 Tensor Core 代表了在 64 精度下每秒 H 100 SXM 能够处理 67 TFLOPS。GPU memory 意味着芯片的内存仅有 64 GB,完全无法满足大模型的数据存储要求,因此 GPU memory bandwith 就意味着数据传输的速度,H 100 SXM 为 3.35 TB/s。

Gate Ventures:AI x Crypto从入门到精通(上)

AI Value Chain,图源:Nasdaq

我们看到了,数据、神经元参数数量的膨胀带来的大量算力以及存储需求的缺口。这三个主要的要素孵化了一整条的产业链。我们将根据上图来介绍产业链中每一个部分在其中扮演的角色以及作用。

硬件 GPU 提供商

Gate Ventures:AI x Crypto从入门到精通(上)

AI GPU 芯片 Rankings,Source:

硬件如 GPU 是目前进行训练和推理的主要芯片,对于 GPU 芯片的主要设计商方面,目前 Nvidia 处于绝对的领先地位,学术界(主要是高校和研究机构)主要是使用消费级别的 GPU(RTX,主要的游戏 GPU);工业界主要是使用 H 100、 A 100 等用于大模型的商业化落地。

在榜单中,Nvidia 的芯片几乎屠榜,所有芯片都来自 Nvidia。Google 也有自己的 AI 芯片被称为 TPU,但是 TPU 主要是 Google Cloud 在使用,为 B 端企业提供算力支持,自购的企业一般仍然倾向于购买 Nvidia 的 GPU。

Gate Ventures:AI x Crypto从入门到精通(上)

H 100 GPU Purchase Statistics by Company,Source:

大量的企业着手进行 LLMs 的研发,包括中国就有超过一百个大模型,而全球一共发行了超过 200 个大语言模型,许多互联网巨头都在参与这次 AI 热潮。这些企业要么是自购大模型、要么是通过云企业进行租赁。2023 年,Nvidia 最先进的芯片 H 100 一经发布,就获得了多家公司的认购。全球对 H 100 芯片的需求远远大于供给,因为目前仅仅只有 Nvidia 一家在供给最高端的芯片,其出货周期已经达到了惊人的 52 周之久。

鉴于 Nvidia 的垄断情况,Google 作为人工智能的绝对领头企业之一,谷歌牵头,英特尔、高通、微软、亚马逊共同成立了 CUDA 联盟,希望共同研发 GPU 以摆脱 Nvidia 对深度学习产业链的绝对影响力。

对于 超大型科技公司/云服务提供商/国家级实验室来说,他们动则购买上千、上万片 H 100 芯片,用以组建 HPC(高性能计算中心),比如 Tesla 的 CoreWeave 集群购买了一万片 H 100 80 GB,平均购买价为 44000 美元(Nvidia 成本大约为 1/10),总共花费 4.4 亿美元;而 Tencent 更是购买 5 万片;Meta 狂买 15 万片,截至 2023 年底,Nvidia 作为唯一高性能 GPU 卖家,H 100 芯片的订购量就超过了 50 万片。

Gate Ventures:AI x Crypto从入门到精通(上)

Nvidia GPU 产品路线图,Source:

在 Nvidia 的芯片供给方面,以上是其产品迭代路线图,目前截至该报告,H 200 的消息已经发出,预计 H 200 的性能是 H 100 性能的两倍,而 B 100 将在 2024 年底或者 2025 年初推出。目前 GPU 的发展仍然满足摩尔定律,性能每 2 年翻一倍,价格下降一半。

云服务提供商

Gate Ventures:AI x Crypto从入门到精通(上)

Types of GPU Cloud, Source:

云服务提供商在购买足够的 GPU 组建 HPC 后,能够为资金有限的人工智能企业提供弹性的算力以及托管训练解决方案。如上图所示,目前市场主要分为三类云算力提供商,第一类是以传统云厂商为代表的超大规模拓展的云算力平台(AWS、Google、Azure)。第二类是垂直赛道的云算力平台,主要是为 AI 或者高性能计算而布置的,他们提供了更专业的服务,因此在与巨头竞争中,仍然存在一定的市场空间,这类新兴垂直产业云服务企业包括 CoreWeave(C 轮获得 11 以美元融资,估值 190 亿美元)、Crusoe、Lambda(C 轮融资 2.6 亿美元,估值超过 15 亿美元)等。第三类云服务提供商是新出现的市场玩家,主要是推理即服务提供商,这些服务商从云服务商租用 GPU,这类服务商主要为客户部署已经预训练完毕的模型,在之上进行微调或者推理,这类市场的代表企业包括了 Together.ai(最新估值 12.5 亿美元)、Fireworks.ai(Benchmark 领投,A 轮融资 2500 万美元)等。

训练数据源提供商

正如我们第二部分前面所述,大模型训练主要经历三个步骤,分别为预训练、微调、强化学习。预训练需要大量的数据,微调需要高质量的数据,因此对于 Google 这种搜索引擎(拥有大量数据)和 Reddit(优质的对答数据)这种类型的数据公司就受到市场的广泛关注。

有些开发厂商为了不与 GPT 等通用型的大模型竞争,选择在细分领域进行开发,因此对数据的要求就变成了这些数据是特定行业的,比如金融、医疗、化学、物理、生物、图像识别等。这些是针对特定领域的模型,需要特定领域的数据,因此就存在为这些大模型提供数据的公司,我们也可以叫他们 Data labling company,也就是为采集数据后为数据打标签,提供更加优质与特定的数据类型。

对于模型研发的企业来说,大量数据、优质数据、特定数据是三种主要的数据诉求。

Gate Ventures:AI x Crypto从入门到精通(上)

主要 Data Labeling 公司,Source:

微软的一项研究认为对于 SLM(小语言模型)来说,如果他们的数据质量明显优于大语言模型,那么其性能不一定会比 LLMs 差。并且实际上 GPT 在原创力以及数据上并没有明显的优势,主要是其对该方向的押注的胆量造就了其成功。红杉美国也坦言,GPT 在未来不一定会保持竞争优势,原因是目前这方面没有太深的护城河,主要的限制来源于算力获取的限制。

对于数据量来说,根据 EpochAI 的预测,按照当前的模型规模增长情况, 2030 年所有的低质量和高质量数据都会耗尽。所以目前业内正在探索人工智能合成数据,这样就可以生成无限的数据,那么瓶颈就只剩下算力,这个方向仍然处于探索阶段,值得开发者们关注。

数据库提供商

我们有了数据,但是数据也需要存储起来,一般是存放在数据库中,这样方便数据的增删改查。在传统的互联网业务中,我们可能听说过 MySQL,在以太坊客户端 Reth 中,我们听说过 Redis。这些都是我们存放业务数据或者区块链 链上数据的本地数据库。对于不同的数据类型或者业务有不同的数据库适配。

对于 AI 数据以及深度学习训练推理任务,目前业内使用的数据库称为“矢量数据库”。矢量数据库旨在高效地存储、管理和索引海量高维矢量数据。因为我们的数据并不是单纯的数值或者文字,而是图片、声音等海量的非结构化的数据,矢量数据库能够将这些非结构化的数据统一以“向量”的形式存储,而矢量数据库适合这些向量的存储和处理。

Gate Ventures:AI x Crypto从入门到精通(上)

Vector Database Classification, Source:

目前主要的玩家有 Chroma(获得 1800 万美元融资轮融资)、Zilliz(最新一轮融资 6000 万美元)、Pinecone、Weaviate 等。我们预计伴随着数据量的需求增加,以及各种细分领域的大模型和应用的迸发,对 Vector Database 的需求将大幅增加。并且由于这一领域有很强的技术壁垒,在投资时更多考虑偏向于成熟和有客户的企业。

边缘设备

在组建 GPU HPC(高性能计算集群)时,通常会消耗大量的能量,这就会产生大量的热能,芯片在高温环境下,会限制运行速度以降低温度,这就是我们俗称的“降频”,这就需要一些降温的边缘设备来保证 HPC 持续运行。

所以这里涉及到产业链的两个方向,分别是能源供应(一般是采用电能)、冷却系统。

目前在能源供给侧,主要是采用电能,数据中心及支持网络目前占全球电力消耗的 2% -3% 。BCG 预计随着深度学习大模型参数的增长以及芯片的迭代,截至 2030 年,训练大模型的电力将增长三倍。目前国内外科技厂商正在积极投资能源企业这一赛道,投资的主要能源方向包括地热能、氢能、电池存储和核能等。

在 HPC 集群散热方面,目前是以风冷为主,但是许多 VC 正在大力投资液冷系统,以维持 HPC 的平稳运行。比如 Jetcool 就声称其液冷系统能够为 H 100 集群的总功耗降低 15% 。目前液冷主要分成三个探索方向分别为冷版式液冷、浸没式液冷、喷淋式液冷。这方面的企业有:华为、Green Revolution Cooling、SGI 等。

应用

当前 AI 应用的发展,类似于区块链行业的发展,作为一个创新性的行业,Transformer 是在 2017 年提出,OpenAI 是在 2023 年才证实大模型的有效性。所以现在许多 Fomo 的企业都拥挤在大模型的研发赛道,也就是基础设施非常拥挤,但是应用开发却没有跟上。

Gate Ventures:AI x Crypto从入门到精通(上)

Top 50 月活用户,Source:

目前前十月活的 AI 应用大多数是搜索类型的应用,实际走出来的 AI 应用还非常有限,应用类型较为单一,并没有一些社交等类型的应用成功闯出来。

Gate Ventures:AI x Crypto从入门到精通(上)

我们同时发现,基于大模型的 AI 应用,其留存率远低于现有的传统互联网应用。活跃用户数方面,传统的互联网软件中位数在 51% ,最高的是 Whatsapp,具备很强的用户粘性。但是在 AI 应用侧,DAU/MAU 最高的为 character.ai 仅仅为 41% ,DAU 占据总用户数量的中位数 14% 。在用户留存率方面,传统互联网软件最好的是 Youtube、Instagram、Tiktok,前十的留存率中位数为 63% ,相比之下 ChatGPT 留存率仅仅为 56% 。

Gate Ventures:AI x Crypto从入门到精通(上)

AI Application Landscape, Source:

根据红杉美国的报告,其将应用从面向的角色角度分为三类,分别是面向专业消费者、企业、普通消费者。

1. 面向消费者:一般用于提升生产力,如文字工作者使用 GPT 进行问答,自动化的3D渲染建模,软件剪辑,自动化的代理人,使用 Voice 类型的应用进行语音对话、陪伴、语言练习等。

2. 面向企业:通常是 Marketing、法律、医疗设计等行业。

虽然现在有很多人批评,基础设施远大于应用,但其实我们认为现代世界已经广泛的被人工智能技术所重塑,只不过使用的是推荐系统,包括字节跳动旗下的 tiktok、今日头条、汽水音乐等,以及小红书和微信视频号、广告推荐技术等都是为个人进行定制化的推荐,这些都属于机器学习算法。所以目前蓬勃发展的深度学习不完全代表 AI 行业,有许多潜在的有机会实现通用人工智能的技术也在并行发展,并且其中一些技术已经被广泛的应用于各行各业。

那么,Crypto x AI 之间发展出怎样的关系?Crypto 行业 Value Chain 又有哪些值得关注的项目?我们将在《Gate Ventures:AI x Crypto 从入门到精通(下)》为大家一一解读。

免责声明:

以上内容仅供参考,不应被视为任何建议。在进行投资前,请务必寻求专业建议。

关于 Gate Ventures

是 Gate.io 旗下的风险投资部门,专注于对去中心化基础设施、生态系统和应用程序的投资,这些技术将在 Web 3.0 时代重塑世界。与全球行业领袖合作,赋能那些拥有创新思维和能力的团队和初创公司,重新定义社会和金融的交互模式。

官网:

Twitter:

Medium:

Solayer 的 Restaking 是一个好生意吗?

Solayer 的 Restaking 是一个好生意吗?缩略图

作者:雨中狂睡

Solana Restaking 是一个好生意么?

为什么 Binance Labs 会投资 Solayer?

Solayer 又与 Jito Restaking 有什么区别?

今天就来基于目前的信息聊一下我的看法。

首先,如果想要快速了解项目,我们可以通过 Rootdata 轻松地看到 Solayer 的项目简介和投资背景。

Solayer 的 Restaking 是一个好生意吗?

Solayer 在最新的一个融资轮次中接受了来自 Binance Labs 的投资。而在前一轮 Builders Round 中,Solana 联创 Anatoly、Solana 核心圈 Influencer Ansem、Polygon 联合创始人 Sandeep、Babylon 首席战略官董心书、Tensor 联创和 Solend 创始人都有参与其中。

Solayer 的 Restaking 是一个好生意吗?

我认为,在这个当前这个市场中做内容的核心,并非详细介绍协议架构或者分析协议数据,而是要讲清楚市场应该如何感知这个项目。所以,从这篇内容开始我希望改变之前的行文方式,摈弃之前大段介绍协议架构和数据的内容,直截了当地来讲一下我对这个项目的认知。

协议架构:https://docs.solayer.org/getting-started/introduction

协议数据:https://defillama.com/protocol/solayer#information

市场当前对于 Restaking 的认知时由 Eigenlayer 主导的——Eigenlayer 通过 $ETH Restaking 来聚合和扩展以太坊的经济安全性(共享安全性)。简而言之,公链团队可以使用 EigenDA 来作为 DA 层。Celestia 的 DA 服务是其竞争对手。不过值得一提的是,DA 服务虽然是一个简单的生意,但其需要足够的客户及其应用用户繁荣才能让这个飞轮转起来。

虽然 Solana Restaking 与以太坊的 Restaking 名字相同,但是两者业务的侧重点和目标客户群完全不同。Eigenlayer 更侧重于对外提供服务(外源性 AVS),而 Solayer 更侧重于 Solana 内部应用提供服务(内源性 AVS),当然,Solayer 也可以对外扩展,目前只是 Solayer 的第一阶段。

我觉得 Solayer 博客对其在第一阶段的业务模式的解释很贴切(https://solayer.org/blog/introducing-solana-restaking-standard-endogenous-avs):

设想 Solana 是一条高速公路,拥有多个车道,不同车道的收费及拥堵程度不同,代表着不同的 Staking Tiers。而不同 DApp 作为通行的汽车所需速度和能接受的收费也有所差异。Solayer 通过接受用户资金委托充当着协调汽车(DApp)、高速公路各个车道(Validators)、各个车道的收费站(Restakers)等多方的角色。

Solayer 的 Restaking 是一个好生意吗?

也就是说,Solana 生态中的 DApp 可以根据自身需求(区块空间和优先交易)来采用 Solayer 的服务,来确保自己处于快车道还是慢车道,从而为用户带来更好的体验。

Solayer 的 Restaking 是一个好生意吗?

参与 Solayer Restaking 的用户的收益来自于三个方面:

  • Solana Staking Rewards;

  • MEV 收入;

  • 可能的 Solayer 代币空投;

如此解释下来,或许我们就可以理解,为什么 Binance Labs 会投资 Solayer——因为 Solayer 未来将会占据 Solana 很重要的一个生态位基础设施。

接下来来简单聊聊 Solayer 的竞争对手 Jito 和前段时间比较火的 Sanctum。

在 Announcing Jito Restaking(https://www.jito.network/zh/blog/announcing-jito-restaking/)一文中提到,Jito 虽然没提到其未来业务的侧重点,只是讲了一些其产品的优势,但在其举的预言机例子中,我们可以看到,Jito Restaking 的业务侧重点似乎更多是想为 Eigenlayer 那样,为跨链桥、预言机或者 Rollup 提供服务(经济安全性)。这也是 Jito Restaking 和 Solayer 当前业务模式的区别。这些目前还只是我的猜测,后续等后续内容公布后,我会接着来详细聊一下。

而 Sanctum 的叙事就没有 Jito 和 Solayer 那般宏大了。它要做的是 LST 的流动性层。简单来说,就是一些小的 LST 流动性不足,没办法做到通过 Swap 快速退出。这时,Sanctum 就推出了一个整合的流动性层,为 Solana 各类 LST 提供流动性支持。总而言之, Sanctum 的产品就是要解决当前 SOL LST 的流动性问题。

最后我们来回答一下第一个问题:Solana Restaking 是一个好生意么?

只从 Solayer 的角度来看,我认为这是一个不错的生意。不同于外源性 AVS,在第一阶段,Solayer 的目标客户群体是当前 Solana 生态 DApp 们,而且 Solayer 服务采用门槛较低——如果有需求,DApp 们可以轻松地使用 Solayer 所提供的服务。这也是我认为 Solayer 能够快速建立生态护城河的原因。

AMM与CLOB之争:Solana上交易仍以AMM主导是因memecoin太火

AMM与CLOB之争:Solana上交易仍以AMM主导是因memecoin太火缩略图

撰文:Yangz,Techub News 

近日,CT 上各大 KOL 就 Hasu 提出的「为何 Solana 上,交易仍以 AMM(自动做市商) 主导,而非 CLOB(中心化限价订单簿)主导?」这一问题展开讨论。人们疑惑,基于每秒可处理数千笔交易的高效性能链,Solana 上的 DEX 完全可以采取订单簿模式提供低滑点交易,但当前的数据却表明,市场的选择是采用 AMM 机制的 DEX。

根据 @ilemi 创建的 Dune 仪表板数据显示,截至撰文,Solana 上 DEX 的交易总量约 4990.8 亿美元。市场份额上,采用 AMM 模式的 Raydium 和 Orca 分别以 41.5% 和 34.5%的比例占据大部分交易,而采用 CLOB 模式的 Phoenix 和 Lifinity 的占比仅为 5.1% 和 6%。此外,从交易量数据来看,前二者的交易量也是后二者的好几倍。

AMM与CLOB之争:Solana上交易仍以AMM主导是因memecoin太火

AMM与CLOB之争:Solana上交易仍以AMM主导是因memecoin太火

对于这一现象,Multicoin 管理合伙人 Kyle Samani 在 Hasu 的推文下评论称,「长尾资产缺乏订单簿做市商」。考虑到 Solana 生态 memecoin 爆火的现象,Samani 的言下之意是,Solana 上采取 AMM 机制的 DEX 的交易量大多来自 memecoin。 

然而,对于此类将原因归结于 memecoin 的解释,去中心化交易平台 Ambient Finance 创始人 Doug Colkitt 反驳道,「大部分人认为『所有 Solana AMM 的交易量都来自长尾资产』,但这些分析大错特错。只要带点脑子和花个 30 秒钟的时间,就能查证清楚。」

AMM与CLOB之争:Solana上交易仍以AMM主导是因memecoin太火

Colkitt 解释道,在过去的 24 小时里,仅 Orca (AMM) 上,其最大的两个 SOL/USDC 交易对就有 2.5 亿美元的交易量。 相比之下,Phoenix (CLOB) 上两个最大的 SOL/USD 交易对的交易量约为 1400 万美元。此外,其还戏谑道,「可能很多 CLOB 做市商周末不办公」,因此其查看了 Phoenix 上上述交易对的 7d 日均交易量,结果也仅为 1.68 亿美元。 

Colkitt 还指出,任何曾经使用过 Jupiter 进行 SOL 和 USDC 交易的交易者都知道,虽然 Phoenix 和 Lifinity 表现不俗,但绝大多数情况下,正常规模的交易都是通过 Orca 或 Raydium 进行的。(注:Kyle Samani 在看到 Colkitt 的上述分析后承认了自己的失误,称自己「不交易 SOL-USD,只质押并持有」。)

Colkitt 总结表示,即使是在像 Solana 这样性能卓越的网络上,像 SOL/USD 这样流动性高、交易量大、对 HFT 做市商有吸引力的货币对上,AMM 仍然极具竞争力,在很大程度上仍是默认的链上交易方式。

那么,既然 memecoin 并非这一现象的导火索,其背后的真正原因是什么?

多数 KOL 将原因归结于 AMM 相较于 CLOB 的优势。基于 Uniswap 的 DeFi 协议 Panoptic 创始人 Guillaume Lambert 表示,「AMM 首先是为团队/LP/代币发行者提供的产品。没有人愿意管理订单簿,相比之下,LPing 要容易得多。」与 Lambert 类似,前 Spartan Capital 普通合伙人 Jason Choi 也指出,这是因为「团队/meme 可以更轻松地通过 AMM 池发行代币。」 

此外,Electric Capital 的 @sidmvenkat 从当前 Solana 生态上资产的属性进行了分析。他表示,「对于规模较大、较为成熟的资产而言,交易者可从 CLOB 模式中获益。一旦资产规模够大,『经验老到』的参与者就有理由开始对其进行做市;而 Solana 上的大部分资产是较新的资产,因此,采用 AMM 机制更容易建立流动性。」 

而跨链交易协议 Gasp 的 Peter Kris 更是上升到了行业价值的角度,他认为,CLOB 的问题在于其与 Crypto 价值不符,「CLOB 上的流动性提供集中在少数老道的玩家手中,而 AMM 则是人人皆可为做市商。奖励分配公平,资本(流动性)不掌握在少数人手中。」 

此外,一个比较有趣的点是 X 用户 @youyouAllen 提出的有关 Solana 生态 DEX 的开发「背景」。他指出,「Solana 当时搞订单簿其实主要是爆炸头的意志影响了开发者方向,现在 SBF 进去了,市场回归到真正的用户需求。是市场最终选择了AMM。」 

AMM与CLOB之争:Solana上交易仍以AMM主导是因memecoin太火

的确,对于这一现象,作为普通投资者的我们或许没有必要深究,所谓的「标准答案」无非是市场的选择罢了。最简单的结论是,就目前的情况而言,AMM 可能比 CLOB 更适合 Solana 生态 DEX。而从更高层面来看,类似 AMM 与 CLOB 之争的讨论,对当前惨淡的 DeFi 生态而言,将大有裨益。Paradigm 研究合伙人 Frankie 评价道 ,「Couple more AMM vs CLOB debates then up only」。 

AMM与CLOB之争:Solana上交易仍以AMM主导是因memecoin太火

开启Web3行业应用之门,WebX 2024将于8月28-29日在日本东京举办

开启Web3行业应用之门,WebX 2024将于8月28-29日在日本东京举办缩略图

WebX2024 是由日本最大的加密货币和Web3 媒体 CoinPost 组织和管理的全球 Web3 会议。

开启Web3行业应用之门,WebX 2024将于8月28-29日在日本东京举办

伴随着监管的发展,日本政府和试图扩展 Web3 的大公司将大量参与WebX。以 Web3 的产业扩张为主题,吸引了来自世界各地的参与者聚集在一起。

约有 180 家参展项目、约 250 名演讲者(日本和国际会议的比例为 50/50)和约 130 个媒体合作伙伴,成为亚洲最大的会议。

许多来自动漫和游戏等全球知名日本大公司将参展,为与全球与会者互动提供机会。

著名 DJ Steve Aoki 将参加 Kick-off WebX 2024 的开幕派对。

开启Web3行业应用之门,WebX 2024将于8月28-29日在日本东京举办

展望日本 Web3 大规模采用的未来

– 日期:2024 年 8 月 28-29 日

– 地点:日本东京 – THE PRINCE PARK TOWER TOKYO(东京皇家王子大饭店花园塔)

– 组织者:CoinPost – 日本最大的 Web3 和加密货币媒体

以“加速 Web3 技术的采用和社会实施”为重点,将提供获取商业理念和建立联系的机会,从而为 Web3 技术的进步做出贡献。

为何要亲自出席

– 独家现场演讲者会议:来自世界各地的知名演讲者,持票者可观看录制会议

– 可进入 Web3 行业以外的 180 多家公司的展区

– 参与 IP 和游戏领域:讲谈社、Capcom、Toho、Square Enix 等公司将参与

– 进入交流区和活动(商务票及以上持有者可用)

– 参与 100 多个相关附带活动:WebX 期间提供免费出租车服务前往附带活动场地

开启Web3行业应用之门,WebX 2024将于8月28-29日在日本东京举办

亚洲巡回赛和东京区块链

1. DAO TOKYO 2024(东京/日本)

2024 年 8 月 21 日(星期三)- 22 日(星期四)

2. Coinfest Asia 2024(巴厘岛/印度尼西亚)

2024 年 8 月 22 日(星期四)- 23 日(星期五)

3. ETH Tokyo 2024(东京/日本)

2024 年 8 月 23 日(星期五)- 26 日(星期一)

4. WebX 2024(东京/日本)

2024 年 8 月 28 日(星期三)- 29 日(星期四)

5. 2024 年韩国区块链周(首尔/韩国)

2024 年 9 月 1 日(星期日)- 7 日(星期六)

WebX 特邀演讲嘉宾

– 岸田文雄(日本/首相)

– 平将明(日本众议院议员/自民党 Web3 项目团队负责人)

– 小池百合子(东京都知事)

– Richard Teng(币安/首席执行官)

– Audrey Tang唐凤(台湾首位数位发展部部长、联合创始人)

– 上野尚彦(丰田区块链实验室)

– 金友健(Konami Digital 科乐美数码娱乐)

– 滨崎步(三丽鸥 – 以 Hello Kitty 而闻名)

开启Web3行业应用之门,WebX 2024将于8月28-29日在日本东京举办

20%专属折扣链接:

a16z:如何考虑代币补偿

  • 加密货币公司可以使用代币作为一种强大的工具。它们可以激励良好行为、对齐利益相关者并参与分布式社区。而且,在过去的十年中,代币还成为吸引、补偿和奖励人才的一种方式——从第三方开发者和开源贡献者到董事会成员和员工。

  • 由于大多数项目正在开发开源软件——这会产生与领导项目的公司及其股权分离的价值——因此确保员工因其对这些生态系统的贡献而得到补偿非常重要。许多团队通过将代币作为补偿的一部分来实现这一目标。同时,web3公司的领导者、人才团队和人力资源部门正在开发越来越复杂的方法,将代币纳入整体补偿方案中,从而与其他公司竞争,甚至吸引来自更广泛的web2行业的人才。

  • 将代币纳入补偿方案中带来了独特的复杂性、挑战和机遇。例如,补偿结构的方式有很多,适合一家公司的结构可能不适合另一家公司。因此,在这篇文章中,我们探讨了代币如何融入更大的补偿策略中,然后深入研究了代币奖励的具体细节,包括归属时间表、锁定期和税收。

首先,代币不是股权

虽然许多代币补偿策略植根于web2和其他传统公司的补偿模型,但要明确的是:代币不是股权。它们甚至不能作为股权的替代品,因此公司在内部讨论和向潜在员工解释时应谨慎对待这种类比。

从员工的角度来看,收到代币和收到股权是两种不同的体验,伴随着不同的风险和回报。例如,协议是自治的软件,而不是公司——与股权不同,没有董事会或管理团队致力于最大化代币的价值。

在分配代币时还有许多更广泛的考虑因素,员工只是其中的一部分。要了解更多有关代币分配的信息,请点击此处。此外,还有许多与代币和web3相关的法律和监管考虑,初创公司在制定代币策略时需要认真考虑这些因素。

现在,让我们深入探讨一些关于代币补偿的重要原则……

代币补偿结构:快速入门指南

代币补偿是更大补偿策略中的一种平衡行为,其最终目标是奖励工作并留住员工,同时不失去他们的参与感或制造分心的工作环境。这涉及到设计一种策略,使注意力从代币价格转移到构建未来上。

对于第一次管理代币补偿的人才团队来说,这一切可能看起来像是进入了未知的领域。好消息是,尽管我们在web2和web3补偿方面强调了上述差异,但人力资源团队仍然可以从成功的web2模型中借鉴很多东西。事实上,如果他们想与传统公司竞争,尤其是在人工智能等热门行业中,他们就需要这样做。

要开始,首先要确定一些基本原则:构建出定义明确、透明且易于理解的补偿理念是至关重要的。这三个质量对于任何良好的补偿计划来说都是关键。补偿的透明度和公平性已被证明对员工参与度产生重大影响——公司不能忽视这一点。

一旦确定了补偿理念,它将指导关于招聘、分级和薪资范围;长期激励(代币奖励、股权或两者兼有);晋升、绩效增长和续聘等的决策。

一个好的补偿理念还会回答以下问题:

  • 关联某个工作的基本薪资是多少?

  • 员工的总补偿包中有多少部分来自代币或股权?

  • 公司目标市场的薪资百分位是多少?

  • 公司为每个角色目标的总补偿金额是多少?

  • 公司如何定义市场?例如,他们的对标公司是谁?他们最有可能与哪些公司竞争人才?

一旦这些问题得到解答,公司就可以开始深入研究具体细节:员工应多久收到一次代币?现金与代币之间的平衡是什么?等等。

平衡现金补偿与代币

在传统的补偿包中,基本工资是平衡股权带来的风险和回报的一个重要对策。同样,代币补偿只是全职员工整体“总补偿包”中的一部分。

对于web3公司来说,这个补偿包可能包括:

  • 基本工资和绩效奖金,构成总现金补偿,通常以法定货币支付

  • 股权,包括非合格股票期权(NSOs)、激励股票期权(ISOs)、员工股票购买计划(ESPPs)等

  • 代币补偿,使用项目的代币或其他代币(常见的是比特币或以太坊)以及稳定币进行支付

一个简单的经验法则是提供一个健康的总现金补偿,这个补偿与同行公司的水平竞争。总补偿中现金与代币的百分比是多少?我们通常看到的是这样的结构:

  • 总现金:市场75百分位

  • 总补偿(总现金加上奖金、加上股权价值):市场的75到90百分位之间。总现金包括基本工资和其他现金组成部分,如绩效奖金

  • 溢价:一些团队还可能探索为难以找到的技能(如协议或智能合约工程,或专注于加密安全的人)提供“溢价”。这些溢价反映在更高的基本工资和总补偿中

我们经常听到的问题是:“我们应该给员工自由选择他们补偿中代币与现金的平衡吗?”虽然没有硬性规定,但一般来说,最好将代币部分限定在总补偿的某个特定百分比,而不是让员工选择一个百分比。

不仅因为财务团队跟踪各种定制安排会变得混乱,而且代币价格的急剧变化可能会破坏公司的整体补偿策略。例如,价格突然下跌可能会迫使人们重新谈判他们的补偿包。而价格飙升则可能导致一些员工突然财富暴增,这与其他员工的薪水严重失衡——这是其他员工的一种士气低落的经历。

选择代币归属时间表

仅仅因为你为代币设定了一个固定百分比,并不意味着代币与其他补偿的平衡不会随着时间的推移而改变。

代币部分本身可以通过多种不同方式实现,具体取决于代币的分发时间和方式。公司在这里有很多选择:短期激励计划、长期激励计划,以及经典机制如归属时间表和奖金。

最适合的模型将取决于公司的具体情况和补偿理念:代币是已公开发行还是仍在开发中?团队提供的是哪种类型的代币?代币的交易是否有任何限制?这些问题及更多问题的答案将决定公司的方法。

在这里,我们概述了几种常见的时间表——以及它们的优缺点——以帮助不熟悉最佳实践的创始人。请注意,这些最好适用于已公开交易代币且为持续的员工激励保留了一定数量代币的项目。

创始人需要在使用代币储备和结构化员工奖励与激励第三方贡献以推动去中心化之间找到平衡。与外部法律顾问合作评估这些选项及其在适用法律下的影响非常重要。

四年归属期,一年悬崖期

在这种模型中,员工在被聘用时会获得一批代币。第一年的第一季度奖励到期归属,其余代币在每月(或季度或年)按比例归属。

  • 优点:奖励员工为项目所做的工作。

  • 缺点:在不同时期被聘用的员工可能会在相同年份内获得非常不同的结果,特别是在波动期。长时间框架还可能为员工创造出分心的情绪过山车——除非有类似年度绩效基础的续期机制来平衡这一点。

年度奖励

考虑到代币价格随时间变化的幅度,一些团队发现跨多年提供代币奖励并不合理。因此,该模型倾向于每年提供奖励。每位员工都会获得年度市场价值的代币奖励。然后,在第一次奖励之后,人才团队通常会将绩效指标加入计算中。

  • 优点:代币价格变动不会直接影响员工的收入,员工也能感到受到了公平对待。团队有更高的灵活性,可以根据代币价格波动的不同时间点来调整奖励。

  • 缺点:需要重新评估每年的奖励额并进行沟通,可能会导致员工不稳定。

双层归属时间表

在此模型中,一部分代币立即归属,而其余部分则基于较长时间框架归属。这种方式使团队可以奖励短期内表现出色的员工,同时仍然保持员工的长期动机。

  • 优点:激励员工在短期内达到特定目标,同时也保持了长期参与感。

  • 缺点:这可能会带来混乱,特别是在沟通不畅或目标设定不明确的情况下。

这些是一些常见的代币归属时间表模型。公司在选择哪个模型最适合其团队时,应考虑到其自身的文化、代币经济学和员工的动机。

在任何授予和更新计划中,减少代币常见的日常价格波动的影响是个好主意,因此在定价授予和更新时,可以考虑使用类似90天移动平均线的方法。公司还应要求法律顾问审查他们看到的所有授予变体,以应对市场波动。

最后,请记住,许多代币,尤其是在发行前夕的代币,也需要考虑锁定期。代币锁定期,即在发行后的一段时间内“锁定”交易或兑换代币价值的能力,不仅有助于确保项目的长期成功,还对对齐所有利益相关者的利益至关重要;更多关于锁定期的信息请参见此处。

设置和沟通锁定期

创始人应确保“内部人士”(包括员工、投资者、顾问、合作伙伴等)拥有相同的锁定期和规则。如果某些群体可以比其他群体更早出售(即在首次机会时),可能会引发不信任、产生不可预测的激励措施、违反证券法,并对协议产生负面影响。

对于美国员工,公司应计划至少一年的锁定期(出于法律原因)。三到四年的锁定期可能更有利于项目的长期成功,因为较长的锁定期可以减少价格下行压力,并表明对项目长期可行性的信心。

对于来自Web2的候选人来说,这可能需要一些教育,因为他们可能会觉得长期授予计划和定期锁定期负担过重。假设锁定期适用于所有预发行代币持有者(这应该是如此!),那么候选人应该希望在他们的offer中看到锁定期,因为这表明创始人优先考虑协议的稳定性,并相信它具有实际用途。

最后,作为一项实际操作,锁定期可以通过智能合约进行管理,并由代币管理提供商执行。一旦代币授予完成并且锁定期结束,员工可以将他们的代币发送到自己选择的钱包。这确保了代币分配在智能合约中被硬编码,并有助于与员工建立更大的信任。

代币授予结构:RTAs、TPAs和RTUs解释

目前,美国的Web3公司主要有三种结构化代币授予的方式(由Toku,一个全面的全球代币补偿和税务合规解决方案所概述)。所有这些都是基于股权奖励的模式,这也是基于资产补偿的最常见模板——但需要明确的是,代币不是股权:

  • 限制性代币奖励 (RTAs),类似于传统公司在IPO前员工可能获得的股票期权。RTAs可以授予在代币铸造后但在其向公众开放之前加入的员工。

  • 代币购买协议 (TPAs),这是另一种在发行前结构化代币授予的方式,其税务影响不同(见下文)。

  • 限制性代币单位 (RTUs),与限制性股票单位 (RSUs) 类似。RTUs用于代币已经发行并开始交易后。

RTAsTPAs是公司向在代币铸造后但在其向公众发行之前加入的员工提供代币补偿的两种方式。它们通常与传统公司在IPO前提供的股票期权进行比较。

RTAs和TPAs都可以根据我们前面提到的任何授予计划来提供,并且通常包括:

  • 锁定期,在此期间它们不能被出售或转移到其他钱包;

  • 以及没收权利,这允许公司在代币授予前收回代币。

RTAs和TPAs之间的主要区别在于它们的税务影响,因此创始人应在评估哪种奖励类型最适合时与法律顾问讨论。例如,收件人的纳税时间是一个关键因素,并且取决于授予的代币类型。

RTAs

RTAs允许美国收件人与IRS一起提交“83(b)选择”,以基于授予日期的公平市场价值在收到代币时确认收入。这对员工可能有利,特别是如果预期代币价值会增加。此外,提交83(b)选择可以防范员工可能因未能出售的代币而欠税的潜在风险。请注意,“83(b)选择”必须在授予日期后的30天内向IRS提交。

TPAs与RTAs类似,可以在发行前授予员工,并允许员工提交“83(b)选择”。但与RTAs不同的是,它们要求员工以特定价格购买代币,也就是所谓的“行权价格”。

不出所料,员工通常更喜欢RTAs,但TPAs确实具有一些税务优势。与RTAs和RTUs不同,TPAs的授予不被视为普通收入,因此不需要立即纳税。税务将推迟到员工行使其期权和/或出售代币时;在行权时,只有当代币价值相比行权价格有所增加时,才会被视为收入。

RTUs

另一方面,RTUs通常授予在代币发行后加入的员工,并与许多大公司提供的RSUs的理念相似。

RTUs在入职时授予,并受我们前面提到的授予计划之一的约束。一旦授予完成,除非受锁定期约束,员工通常可以将代币转移到自己选择的钱包。因为代币在授予时按照其当时的公平市场价值被视为收入,一些公司会选择扣留和出售员工的一部分授予,以支付其税务责任。

虽然以上讨论重点是收件人,公司还应考虑其税务扣缴义务,通常需要以现金支付。

请注意,上述内容不应被视为税务建议。但我们希望它能为公司提供一些代币补偿的策略概述。我们强烈建议Web3人才、法律和税务团队共同制定适合公司和战略的最佳行动方案。 如果流动性是代币的主要驱动力,还有其他策略,例如进行二次发行,这样员工可以在公司筹集更多资金时获得流动性。

运营考虑:设置代币补偿

这一切可能看起来很复杂,但好消息是,越来越多的公司正在开发产品和工具,使代币补偿在运营上更容易管理。一般来说,初创公司会有一个钱包(来自Coinbase、Anchorage或BitGo等公司)和一个代币管理系统(来自Toku或Pulley等公司),以处理所有的管理工作。

员工将通过一个他们可以通过代币管理系统访问的钱包接收代币。他们还应该能够使用这样的系统查看其授予的进展情况,或在提供时访问授予前的质押,以及其他计算器或工具。

Web3公司正在逐步走向成熟。通过使用经过充分测试和成熟的补偿策略,他们可以应对吸引顶尖人才时可能出现的挑战,这些人才可能因为缺乏流动性而却步。

关键是确保代币是一个设计良好的补偿策略的一部分。这种策略应该透明、公平并且能够激励员工——不仅能在短期内吸引和留住一些最优秀的人才,还能确保生产力得到合理的回报。

虽然公司可以采用其他策略,例如在筹集更多资金时向员工提供二次发行,但代币补偿仍然是Web3公司为实现公平竞争而采用的吸引人的杠杆。

1kx:浅谈预测市场新玩家及发展趋势

1kx:浅谈预测市场新玩家及发展趋势缩略图

原文作者:mikey,1kx 分析师

原文编译:Luffy,Foresight News

预测市场出现了许多新的建设者,因此有必要对这个垂直领域进行一次全面的概述。本文将简要总结预测市场类别、GTM(进入市场)策略、产品更新、机制以及当前的发展方向。

1kx:浅谈预测市场新玩家及发展趋势

GTM

预测市场 GTM 大致有两种方法:非体育和体育。前者是一个相对未开发的领域,包括几个目标领域:加密货币、政治、文化活动。Polymarket 显然是非体育领域的领导者,其 GTM 主要关注政治事件。

1kx:浅谈预测市场新玩家及发展趋势

如果比较专注体育赛事的预测市场今年以来的交易量,你会发现 Azuro 和 SX Network 与 Polymarket 的差距更大。

1kx:浅谈预测市场新玩家及发展趋势

新上线的竞争者包括 EVM 上的 Limitless (其中一些市场支持 ETH 交易),以及 Solana 上的 Hedgehog。此外还有竞争者产品尚未上线,包括:Drift Exchange、xMarkets、Inertia Social、Doxa 和 Contro。

1kx:浅谈预测市场新玩家及发展趋势

新玩家们普遍聚焦于两个共同主题:

  • 无需许可的市场:开放市场创建和激励层

  • 解决方案:依靠人工智能进行市场结算,或创建更高效的系统

这正是 Polymarket 用户一直期盼的。

鉴于体育类预测市场受欢迎程度和赛事规律性,它们在 Web2 中具有明显的吸引力。很难让用户转移到 Web3,因为大多数用户看重品牌和用户体验。此外,Web2 体育博彩在营销资金上具有优势,至少有 5 家体育博彩公司每年花费 1 亿美元以上。

美国人在单场超级碗上的投注金额(约 230 亿美元)是加密货币预测市场总投注额(约 20 亿美元)的 10 倍。甚至单个州的投注金额就远远超过了 20 亿美元。

1kx:浅谈预测市场新玩家及发展趋势

链上资金越多 = 链上体育博彩越多,就像互联网博彩公司被手机设备统治一样。预测市场的限制因素之一是缺乏资金。在非体育方面,LogX 将支持 TRUMP 永续产品,类似于 2020 年的 FTX。Doxa 也在研究 lev。这两个项目的交易对手都是流动性池。清算和坏账是潜在的问题。

我希望 Polymarket 更多地探索复式投注模式。从技术上讲,「特朗普和拜登赢得提名」市场是一种杠杆投注,因为它需要猜测两个不同的事件。

我很想看到诸如「a、b、c 和 d 会发生吗」这样的市场,我不认为初始流动性会成为问题,LP 不会错过这样的机会。

在体育预测市场方面,已有多个协议允许通过所谓的 parlays 进行杠杆操作,只有当用户正确猜出多个不相关事件时才会赢得奖金。SX Bet、Azuro 和 Overtime 已经支持这种功能。

机制

预测市场的工作机制大致有两种类型:Web2.5 和 Web3。Web2.5 模式通常将加密货币用作支付渠道,例如 Stake/Rollbit。用户可以使用加密货币下注,但交易对手是应用程序背后的团队,并且产品在链上交互。

Web3 模式的部分产品逻辑会放在链上,无论是 NFT 头寸,还是通过智能合约执行的赌注。通常有两种方式来匹配链上赌注,要么是依赖被动 LP 的 AMM,要么是平台充当交易所的订单簿。

1kx:浅谈预测市场新玩家及发展趋势

在 Web3 中,Memecoins 本身已经成为预测市,$TRUMP 和 $BODEN 就是典型的代表,持有者可以从两方面获利: 1)方向正确;2)吸引注意力。Memecoins 允许你推测其他人的投机行为,无论你是对是错。

一个新的协议叫做 Swaye,尝试结合预测市场和 Memecoins 的优势,早期进入市场的用户不仅押注特定结果,而且有动力吸引注意力,因为任何一方的投注活动都有助于增加 P 损益。

1kx:浅谈预测市场新玩家及发展趋势

盈利模式

预测市场协议如何盈利呢?有几种方法:

  • 交易费

  • 交易者收益的一部分(Web2 模型遵循这条路径)

  • 交易对手的损益(Web2 喜欢服务亏损的客户)

大多数协议要么采用方法 1 ,要么采用方法 3 。Polymarket 目前不收取任何费用。

下一步

下一步是什么?人工智能代理是预测市场的下一个大机遇,因为它们可以对新闻做出快速反应。它们能够管理订单和下注,它们还可以计算结果的预期值并承担计算出的风险。有几个团队正在研究这一领域。

在未来几年,至少会有 1 个协议与 Polymarket 的交易量正面竞争。考虑到 Polymarket 目前对其市场的激励程度,竞争者可能需要大量使用积分、代币或 USDC 等激励措施。

每个人都在问美国大选后交易量能否持续,到目前为止,Polymarket 上的非选举交易量自今年年初以来一直保持稳定。

1kx:浅谈预测市场新玩家及发展趋势

375ai推出首款产品375edge,并开放售卖

8 月 8 日,去中心化边缘数据智能网络公司 375ai 正式推出其首款产品 375edge375edge 是一款兼顾去中心化、高效率和准确性的边缘人工智能(AI)节点,旨在实时收集和分析多模态数据。该设备现已面向公众开放购买,并提供安装服务。

375ai 的创建是为了满足不断增长的边缘大数据集可操作性需求。IDC 预测到 2026 年全球将在边缘计算上花费 3170 亿美元。

“我们处在一个由 AI 驱动的未来前沿,这为企业和消费者提供了巨大的潜力,可以收集大量数据,得出有价值的模式洞察,并创造回报。” 375ai 的首席执行官兼联合创始人 Harry Dewhirst 说道。“375edge 设备的公开发布,加上通过与 Outfront Media 独家合作在北美的广泛房地产组合,使我们能够在即将到来的巨大市场机遇中占据独特优势。”

375edge 设备功能包括:

  • 跟踪环境和交通数据:包括车辆的品牌、型号、类型、数量以及同步的环境指标

  • 快速部署:用户可以通过快速安装服务,帮助加入遍布美国 Outfront Media 的 40, 000 个广告牌的 375edge 网络。

“在 Outfront,我们在美国拥有数千个地点,作为合作伙伴的 375ai 可以利用这些位置每周接触七成美国人,”OUTFRONT Media Inc.首席商务官 Andy Sriubas 表示。“我们的足迹,加上 375ai 的技术,可以成为边缘计算和连接设备不断发展的催化剂。”

375ai 的领导团队由联合创始人 Harry Dewhirst、Trevor Branon 和 Rob Atherton 组成,他们在高级网络硬件和软件、AI、网络安全、移动广告网络和电信等多个行业拥有丰富的专业知识。公司迄今已从 6 th Man Ventures、Factor、Arca、E V3、Primal Capital 和 Auros 筹集了 500 万美元的种子资金。

375edge 设备现已面向公众开放购买。此外, 375go 移动应用程序将于三个月内上线,感兴趣的用户可提前报名预约。