开山之作,从「Attention Is All You Need」眺望 AI 的未来
《Attention Is All You Need》介绍了Transformer架构和注意力机制,对现代AI产生了巨大影响。为了实现通用人工智能,需要采用时间融合转换器(TFT),它可以预测未来事件并解释其预测。TFT也可以应用于区块链领域,提高共识过程的效率。BasedAI利用TFT模型在验证者和网络参与者之间分配代币发行量,并提出利用FHE技术,在去中心化的AI基础设施上托管隐私保护的大型语言模型。这些技术有助于填补通用人工智能的空白,但仍需大量计算资源,目前仍处于早期阶段。
原文作者:hmalviya9
原文来源:X
编译:Frank,Foresight News
编者注:《Attention Is All You Need》论文发表于 2017 年,截止目前被引用超 11 万次,它不仅是当今以 ChatGPT 为代表的大模型技术起源之一,其中介绍的 Transformer 架构和注意力机制也被广泛用在了 Sora、AlphaFold 等众多或将改变世界的 AI 技术之中。
「Attention Is All You Need」,这篇研究论文彻底改变了现代人工智能(AI)的未来。在这篇文章里,我将深入探讨 Transformer 模型和 AI 的未来。
2017 年 6 月 12 日,八位谷歌工程师发表了一篇名为「Attention Is All You Need」的研究论文,这篇论文讨论了一种改变现代 AI 未来的神经网络架构。
而就在刚刚过去的 2024 年 3 月 21 日的 GTC 大会,英伟达创始人黄仁勋与那 8 位 Google 工程师进行了一次小组讨论,并感谢他们引入了 Transformer 架构,使现代 AI 成为可能,令人惊讶的是,NEAR 的创始人居然也在这份 8 人名单之中。
什么是 Transformer?
Transformer 是一种神经网络。
什么是神经网络?它受人类大脑结构和功能的启发,通过大量的人工神经元互相连接进行信息处理,但却并不是人类大脑的完全复制品。
简单理解的话,人脑就如同亚马逊雨林,拥有许多不同的区域,以及连接这些区域的众多通路。而神经元就好比这些通路间的连接器,它们可以向雨林的任何部分发送和接收信号,因此连接就是通路本身,负责联通两个不同的脑部区域。
这让我们的大脑拥有非常强大的学习能力,它可以快速学习、识别模式并提供准确的输出结果。而像 Transformer 这样的神经网络试图实现与人类大脑相同的学习能力,只不过它们目前的技术水平还达不到人类大脑的 1%。
近年来,Transformer 在生成式 AI 方面取得了令人瞩目的进步。回顾现代人工智能的演变历程,我们可以看到早期的人工智能主要是像 Siri 以及其他一些语音 / 识别应用程序。
这些应用程序都使用循环神经网络(RNN)构建。RNNs 存在一些限制,而这些限制已经被 Transformers 所解决并改进——Transformers 引入了自注意力机制,使它们能够同时分析任一序列的所有部分,从而捕捉长距离依赖关系和上下文内容。
关于【开山之作,从「Attention Is All You Need」眺望 AI 的未来】的延伸阅读
重新理解Marlin:AI下半场的可验证计算L0「新基建」
Marlin是一种可验证云计算服务,利用加密技术保证数据安全,为AI+Web3应用提供低延迟、低成本的解决方案。它基于TEE和ZKP技术,为用户提供通用化的云计算方案,并通过激励机制吸引节点为网络贡献资源。Marlin的愿景是成为AI世界的可验证通用L0,为Oracle预言机、ZK Prover系统、AI人工智能等应用场景提供节点算力和存储等网络资源服务。它可以为AI大模型训练提供安全的计算环境,并为多元化应用场景提供可验证计算中间件。在AI+Web3时代,Marlin有巨大的价值潜力,可能成为未来AI+Web3应用的关键基础设施。
Sam Altman 围绕 OpenAI 打造出一个致富帝国
OpenAI首席执行官奥特曼同时经营副业,但只有一份工作让他发了财。他投资了多家想抓住人工智能风口的公司,包括网络安全软件公司和清洁能源公司。他最成功的投资是支付处理初创公司Stripe。奥特曼也投资了使用OpenAI技术的初创公司。他曾因投资引发利益冲突而被罢免职务,但重新担任首席执行官后制定了新的利益冲突政策。董事会正在进行改革,包括强化利益冲突政策和独立审计委员会。奥特曼计划通过全面披露和董事会管理来解决利益冲突问题。
对于 Transformer 的创新周期来说,我们仍处于非常早期阶段。Transformer 有几种不同的衍生版本,例如 XLNet、BERT 和 GPT。
而 GPT 是其中最知名的一种,但它在事件预测方面仍然能力有限。
当大型语言模型(LLM)能够根据过去数据和模式预测事件时,这将标志着现代 AI 的下一个重大飞跃阶段,并且也将加速我们实现通用人工智能(AGI)的步伐。
为了实现这种预测能力,大型语言模型(LLM)需要采用时间融合转换器(TFT),它是一种基于不同数据集预测未来值的模型,还能够解释其做出的预测。
TFT 除了用于预测之外,还可以用于区块链领域。通过在模型中定义特定规则,TFT 可以自动执行以下操作:有效管理共识过程、提高出块速度、奖励诚实验证者、惩罚恶意验证者。
区块链网络本质上可以为具有较高声誉分数的验证者提供更多的区块奖励,这可以基于他们的投票历史、区块提案历史、Slash 历史、Staking 金额、活跃度和其他一些参数来建立。
公链的共识机制本质上是验证者之间的一种博弈,需要超过三分之二的验证者就谁来创建下一个区块达成一致。在这个过程中,可能会出现许多分歧和争论,这也是以太坊等公链网络效率低下的一个因素。
TFT 可以作为一种共识机制,通过提升出块时间并根据区块生产信誉奖励验证者,从而提高效率。譬如将 TFT 模型应用于共识过程的 BasedAI,就是将利用该模型在验证者和网络参与者之间分配代币发行量。
BasedAI 还提出利用 FHE 技术,让开发者可以在其名为「Brains」的去中心化 AI 基础设施上托管隐私保护的大型语言模型(Zk-LLMs),通过将 FHE 技术集成到大型语言模型中,可以做到在用户选择启用个性化 AI 服务时,保护他们的隐私数据。
当人们确信数据会受到加密保护并且完全隐私的前提下,愿意贡献数据的时候,或许我们就将实现通用人工智能(AGI)的突破,这一空白正在由专注于隐私的技术填补,例如 nillionnetwork Blind Computation 、零知识机器学习(ZkML)和同态加密(FHE)技术。
然而,所有这些注重隐私保护的技术都需要大量的计算资源,这使得它们还处于应用的早期阶段。
免责声明:本文仅代表作者个人观点,不代表链观CHAINLOOK立场,不承担法律责任。文章及观点也不构成投资意见。请用户理性看待市场风险,以及遵守所在国家和地区的相关法律法规。
图文来源:hmalviya9,如有侵权请联系删除。转载或引用请注明文章出处!
标签:AI