DeAI:中心化AI版权问题的Web3解决方案
分析师们谈到了新兴的 Web3 AI 项目,包括 ChainGPT、Space ID、Sapien.io、Vanar Chain、O.XYZ、AR.IO 和 Kindred,讨论了当前围绕知识产权、版权和数据所有权的担忧。值得注意的一点是去中心化人工智能(deAI)作为一种有前途的替代方案的潜力。
法学硕士的兴起和数据收集问题
自诞生以来,大型语言模型(LLM)迅速得到了广泛的应用。从许多方面来看,OpenAI 的 ChatGPT 或谷歌的 Gemini 等平台让公众首次接触人工智能 (AI) 的能力及其无限的潜在应用。
然而,这些公司的运营也面临批评。为了保持竞争力,人工智能模型需要找到访问海量数据的方法。通过处理数千份文档,LLM 可以生成类似人类的响应并理解复杂的查询。
为此,OpenAI、谷歌、Meta、微软、Anthropic 和 Nvidia 等科技巨头大量从互联网收集数据来训练他们的人工智能模型。这种方法引发了有关这些平台用于生成输出内容的输入数据所有权的严重问题。
尽管人工智能具有颠覆性的潜力,但知识产权纠纷已引发许多紧张的法律纠纷。
人工智能公司是否正在利用窃取的内容建立帝国?
人工智能的迅速普及引发了人们对数据所有权、隐私和侵犯版权风险的担忧。最大的争议问题之一是人工智能垄断企业使用受版权保护的材料来训练他们的模型。
Vanar Chain 首席执行官 Jawad Ashraf 表示:“人工智能公司在不征求创作者许可或分享利益的情况下,利用创作者的作品建立帝国。作家、艺术家和音乐家花费数年时间完善自己的作品,却发现他们的作品被人工智能抄袭,并在几秒钟内被抄袭。”
这个问题引起了广泛的愤怒。 Vanar Chain 的首席执行官还强调,OpenAI 和其他公司已经承认抓取了受版权保护的数据,这引发了诉讼和关于数据伦理的更大争论。
阿什拉夫说:“问题的关键在于补偿——人工智能公司认为收集公共数据是合法的,而创造者则认为这是公然的抄袭。”
定义人工智能生成内容的边界
2023年12月,《纽约时报》正式对OpenAI和微软提起诉讼,指控其侵犯版权并未经授权使用其知识产权。
该报称,微软和 OpenAI 建立了基于“复制和非法使用《纽约时报》专有作品”的商业模式。他们还辩称,这些人工智能模型“提取了这些作品中的大部分版权内容,并且在许多情况下保留了这些内容”。
四个月后,美国六个州的另外八家报纸也起诉微软和 OpenAI 侵犯版权。
原告名单包括《芝加哥论坛报》、《丹佛邮报》、《水星报》(加州)、《纽约每日新闻》、《橙县纪事报》(加州)、《奥兰治县哨兵报》、《先锋报》(明尼苏达州)和《太阳哨兵报》(佛罗里达州),均指控这两家科技公司未经许可使用其文章并以他们的名义发布虚假信息。
Sapien.io 联合创始人 Trevor Koverko 表示:
“法院现在被迫解决几年前不存在的问题:人工智能生成的内容是否属于衍生作品?当版权所有者的数据在未经其同意的情况下被使用时,他们是否可以要求赔偿?”
除了新闻机构外,许多出版商、作家、音乐家和其他内容创作者也起诉这些科技公司未经许可使用受版权保护的信息。
跨多个行业的法律纠纷
上周,三家行业协会宣布将在巴黎法院起诉 Meta,指控该巨头“未经许可使用大量受版权保护的作品”来训练其在 Facebook、Instagram 和 WhatsApp 上部署的生成式 AI 聊天机器人。
与此同时,莎拉·安德森 (Sarah Andersen)、凯利·麦克克南 (Kelly McKernan) 和卡拉·奥尔蒂斯 (Karla Ortiz) 等视觉艺术家也对 Stability AI、DeviantArt 和 Midjourney 等人工智能图像生成平台提起诉讼,指控这些平台使用他们的作品来训练人工智能模型。
“人们对人工智能公司不受控制地利用数据和创意作品的担忧远未结束。目前,任何艺术家、作家或音乐家的作品都可以公开,人工智能算法可以从中学习并创作几乎相同的内容——从而赚钱而艺术家却一无所获,”AR.IO 创始人 Phil Mataras 说道。
OpenAI 和谷歌尤其认为,如果法律限制他们对受版权保护内容的访问,美国将在与中国的人工智能竞赛中失利。他们表示,在中国开展业务的法律障碍较少,这让他们比竞争对手拥有明显优势。
这些公司正在积极游说美国政府将使用受版权保护的数据进行人工智能训练归类为“合理使用”。他们声称,人工智能对受版权保护的内容的处理创造出了与原始材料有着根本区别的新“作品”。
然而,随着生成式人工智能工具生成文本、图像和语音的能力越来越强,许多行业正在对这些公司提起诉讼。
O.XYZ 创始人兼首席执行官艾哈迈德·沙迪德 (Ahmad Shadid) 表示:“内容创作者——无论是作家、音乐家还是程序员——经常认为他们的知识产权的使用超出了‘合理使用’的界限,尤其是当人工智能系统复制或重新创建原始作品的功能时。”
与此同时,在 Web3 生态中,多方也在推动替代传统大公司 LLM 开发模式。
DeAI 成为 Web3 的替代品
去中心化人工智能(deAI)是 Web3 中的一个新兴领域,它利用区块链和分布式账本技术来创建更加透明和民主的人工智能系统。
Kindred 首席执行官 Max Giammario 解释道:“DeAI 由区块链和分布式账本技术提供支持,旨在通过创建更透明的 AI 系统来解决数据所有权和作者身份问题。它将 AI 模型的开发和控制分散到全球网络中,建立更公平的 AI 训练机制并尊重内容创作者的权利。DeAI 还旨在为那些作品用于训练 AI 的人提供公平的报酬,解决中心化 AI 模型固有的许多问题。”
随着人工智能在全球的影响力日益增强,人工智能与区块链的结合有望在两个领域取得突破,为加密行业的创新和投资开辟机会。
事实上,开发人员已经开始构建结合 AI 和 Web3 的成功项目。

与专注于生产专有 AI 模型的公司不同,deAI 旨在全面采用开源机制。
OpenAI 辩称,即使使用受版权保护的数据来训练人工智能模型,它也符合美国的“合理使用”原则。此外,他们最受欢迎的应用程序 ChatGPT 也免费提供给用户。
不过,Space ID业务发展总监Harrison Seletsky指出,OpenAI的论点存在矛盾。
“这里明显的道德问题是,这些材料的使用没有得到创作者的正式许可。如果材料受版权保护,则需要获得作者的许可,而且通常需要付费。但更重要的是,尽管像 ChatGPT 这样的 LLM 模型使用开源数据,但 OpenAI 的模型本身并不是开源的。他们利用网上的材料,但并没有完全“偿还”他们提取材料的来源。
问题在于AI是否应该朝开源的方向发展。 OpenAI的ChatGPT并不开源,而中国的DeepSeek模型和去中心化AI项目都是开源的。从道德和知识产权角度来看,开源模式显然是更好的选择。”
科技巨头对人工智能的集中控制也引发了有关人工智能模型部署和监督的其他担忧。
集中式与分散式人工智能:道德和操作差异
与 deAI 的社区特性相反,中心化的 AI 模型是由一小部分开发人员构建的,这可能导致偏见。
“集中式人工智能通常由一家公司运营,决策以自上而下的方式进行,目标是实现利润最大化。它本质上是一个由单一实体拥有和控制的‘黑匣子’。相比之下,DeAI 依赖于众包方法,其中人工智能模型旨在分析来自社区的反馈并优化公共利益,而不仅仅是企业利润,”O.XYZ 首席执行官 Ahmad Shadid 解释道。
同时,区块链技术为知识产权货币化提供了一条清晰的途径。
“创作者可以将他们的产品(如文章、音乐甚至创意)代币化,并自行定价。这为知识产权的创作者和使用者创造了一个更公平的环境,本质上创造了一个知识产权的自由市场。这也使得证明所有权变得更容易,因为区块链上的所有内容都是透明且不可更改的,这使得在没有适当共识的情况下利用他人的作品变得更加困难,”Seletsky 分享道。
许多 Web3 开发人员已经开始构建旨在分散用于训练生成式 AI 的内容的项目。 Story、Inflectiv 和 Arweave 等平台正在利用区块链的各个方面来确保以合乎道德的方式选择输入 AI 模型的数据。
ChainGPT 创始人 Ilan Rakhmanov 认为 deAI 是中心化 AI 的重要平衡器。他认为,需要解决垄断人工智能公司的不道德行为,以在未来建立更加健康的行业。
“人工智能公司能够自由使用受版权保护的内容而无需署名或补偿,这是一个危险的先例。从法律上讲,这将引起监管审查;从道德上讲,它剥夺了创作者的控制权。ChainGPT 相信区块链上的归因和货币化,确保人工智能用户、贡献者和模型训练者之间的公平价值交换,”Rakhmanov 表示。
然而,DeAI要想取得领先,还需要克服许多困难。
人工智能面临的障碍
尽管 deAI 潜力巨大,但它仍处于起步阶段。在这种背景下,OpenAI和谷歌等公司拥有巨大的资金和基础设施优势,使他们能够轻松获取训练AI模型所需的海量数据。
“虽然中心化 AI 公司拥有强大的计算能力,但 deAI 需要高效的分布式网络来扩展规模。数据也是一个大问题——中心化模型将依靠垄断数据蓬勃发展,而 deAI 必须建立可信渠道来收集、验证和公平补偿贡献者。” Koverko 分享道。
在评论这个问题时,Ahmad Shadid 补充道:
“在分布式账本上构建和运行人工智能系统是一项巨大的挑战,尤其是在处理大规模数据时。此外,这个过程需要密切监督,以确保人工智能学习符合道德标准和社区目标。”
此外,大型科技公司还可以利用其资源和关系来游说deAI等竞争对手。
贾马里奥表示:“他们可以通过推动有利于中心化模式的监管、利用其主导地位来限制竞争或控制对人工智能发展至关重要的资源来做到这一点。”
阿什拉夫表示,这种可能性肯定会发生。
然而,要想更进一步,deAI 需要提高公众意识,覆盖 Web3 用户和该领域以外的用户。
缩小认知差距
当被问及 deAI 目前面临的最大障碍时,Space ID 的 Seletsky 表示人们需要更多地意识到 AI 模型中的版权侵权问题。
“主要障碍是缺乏知识。大多数用户不知道数据来自哪里、如何分析以及谁控制数据。许多人甚至没有意识到人工智能和人类一样有偏见。我们需要教育用户这一点,然后他们才能理解去中心化人工智能模型的好处。”
一旦公众了解到中心化人工智能模型中的版权问题,deAI 倡导者就需要积极展示其作为强大替代方案的优势。然而,即使人们的认识有所提高,deAI 在实际应用方面仍然面临挑战。
“采用是另一个挑战。企业习惯于打包的 AI 解决方案,而 deAI 需要达到同样的易用性水平,同时还要展示其在安全性、透明度和创新方面的优势,”Koverko 说道。
前进之路:清晰认识和建立信任
在解决了认知和可访问性问题之后,deAI 的广泛采用之路取决于建立明确的法规和建立公众信任。 Sapien.io联合创始人Trevor Koverko也强调,deAI需要正确的法律框架来实现这些目标。
“如果没有明确的监管,deAI 项目可能会因法律不确定性而被边缘化,而 AI 公司则会游说制定巩固其主导地位的政策。为了克服这一挑战,我们需要改进技术,展示现实世界的价值,并发起一场促进开放和民主化 AI 的运动。”
沙迪德也同意需要大型组织的支持,同时强调在社区内建立信任的重要性。
“对于那些花费数十年时间开发专有方法的公司来说,透明度可能会令人感到不舒服。因此,deAI 需要证明其在信任和创新方面的优势。另一个障碍是如何获得足够的用户信任和法律清晰度,以便公众和政府都对数据的处理方式感到满意。推进 deAI 的最佳方式是展示现实世界的用例,在这些用例中,去中心化的 AI 可以在速度、成本和质量方面与中心化的 AI 竞争或超越中心化的 AI,同时保持更高的透明度和公平性。”
最终,围绕人工智能模型的版权问题要求人们转变思维,注重尊重知识产权并培育更加民主的人工智能生态系统——无论去人工智能的影响有多大。



Avalanche (AVAX) 股价跌破 20 美元,因看跌信号阻碍强劲复苏
Avalanche (AVAX) 在最近的调整中大幅下跌后未能收复 20.00 美元的支撑位。该山寨币目前...
查看详情




