Bitget App
交易“智”变
快捷买币行情交易合约理财广场更多
数据有价,AI 才公平:不看数据也能评估你的贡献

数据有价,AI 才公平:不看数据也能评估你的贡献

项目动态项目动态2026/03/20 01:42
作者:项目动态
LazAI 团队联合 UBC 区块链研究中心发表论文,入选 IEEE ICME 2026(录取率 28.89%),用隐私保护的数据估值,驱动 AI 使用配额的公平分配。


撰文:LazAI


付了钱才能用 AI?该改改了


当 Web3 与 AI 逐渐融合成「去中心化的数字生态」,一个现实问题越来越突出:AI 服务到底谁该优先?


数据有价,AI 才公平:不看数据也能评估你的贡献 image 0


很多系统仍沿用「付费优先」的逻辑——付费越多,AI 资源越多;而那些贡献数据、真正帮助 AI 变聪明的人,反而可能拿不到与贡献匹配的权益。与此同时,数据越有价值,隐私风险往往越高:用户常担心一旦提供数据,就可能暴露个人信息、生活习惯甚至敏感内容。


这就形成了制约 AI 生态的两大瓶颈:


  • 公平性瓶颈:资源分配不看贡献,只看付费,导致「数据贡献者被忽视」、资源被少数人占用或闲置。
  • 隐私瓶颈:想评估数据价值就得「看数据」,但看得越多,泄露风险越大。


能不能既保护隐私,又让数据贡献者获得公平回报?


LazAI 团队与加拿大英属哥伦比亚大学(UBC)研究人员在 IEEE ICME 2026 发表的研究,试图给出一个更「用户友好」的答案:不需要上传原始数据,也能评估用户的数据贡献价值;并把这个价值直接转化为更公平、更稳定的 AI 使用配额。


换句话说:让「数据贡献」成为获得 AI 权益的通行证,同时让用户隐私仍被牢牢保护。


看不见你的数据,却知道它值多少


一个更贴近用户的「云—边缘—用户」三层体系


为了让 AI 服务既「快」又「公平」,系统采用三层协作:


  • 云端的 AI 工具箱:提供通用的 AI 工具与能力支撑;
  • 边缘端的就近服务站:部署在离用户更近的位置,负责快速响应与关键计算;
  • 用户端的个人助理:运行个人 AI 智能体,替用户完成邮件摘要、图像描述等任务请求。


两个关键创新:把「贡献」变成「权益」,同时不泄露隐私


这套方案的核心,是把「数据贡献—价值信号—资源配额」串成闭环。研究引入了两个核心机制:


(A)数据贡献凭证:记录贡献,但不暴露原始数据


系统通过数据锚定代币(DAT)记录用户的贡献价值——可以理解为一张「数据贡献收据」。用户把数据贡献给系统时,系统会生成可核对的贡献记录,并用于后续的配额调整。更重要的是:贡献记录关注的是「贡献值」,而不是把用户的原始内容直接摊开给外界看。


(B)主题数据目录:在同类里比质量,估值更公平


系统把相似主题的数据组织成不同「数据社区 / 目录」(iDAO,可理解为「按主题分组的数据目录」)。交通数据和交通数据比,医疗数据和医疗数据比,宠物数据和宠物数据比——避免「苹果比橘子」的不公平估值,让价值评估更可解释。


贡献越多,AI 用得越多——「AI 配额券」机制


在资源分配上,一个更直观的比喻:AI 配额就像「可兑换的服务券」。


  • 系统会定期发放「可调用 AI 的额度」;
  • 每个用户有一个「配额上限」(像一个装券的篮子);
  • 篮子满了就会溢出,避免少数人长期囤积、别人却用不上。


关键差异在于:用户配额的大小不再由付费等级决定,而是由「隐私保护下的数据估值」动态决定。


  • 贡献更高质量、更独特、更及时的数据 → 配额上限更高 → 可用 AI 服务更多;
  • 贡献较少也没关系 → 仍有基础配额,保证「人人可用」。


这样,系统把「公平」做成了可执行的规则:既不让资源被垄断,也不让资源白白闲置,还能让贡献者真正得到回报。


80% vs 20%:隐私保护不是承诺,是实测


隐私保护是否真的有效,不能只靠口头承诺。研究团队用一种业界标准的隐私风险测试来验证:模拟攻击者试图根据系统可见的信息,「拼回」用户的原始数据(学术界称之为「数据重建攻击」)。


实验对比显示:


  • 现有部分方案在重建后仍能看到明显语义线索(例如能辨认出用户上传的网球、球拍等),相似度甚至超过 80%,意味着「隐私仍可能被看穿」;
  • 本方案的重建结果基本不再呈现可识别语义,相似度降至约 20%,图像与文本场景下都显著降低了语义泄露风险。


用更直白的话说:系统依然能判断「用户的数据大概是什么类型、贡献有多大」,但更难反推出「具体发了什么、用户是谁」。


这正是隐私保护的目标:让「价值可用」,但让「个人可识别信息不可得」。


不是「又一个隐私方案」


在 Crypto/Web3 领域,相关产品大体可分为几类路线:


  • 「数据不出库」:强调把计算带到数据旁边,数据本身不直接流转;
  • 私密计算 / 可信硬件:在受保护环境中执行计算,但通常依赖特定硬件来保障信任;
  • 算力市场 / 竞价机制:用交易、拍卖或定价购买算力;
  • AI 网络激励 / 验证:根据数据进行评分、权重投票或可验证执行来分配收益与奖励。


本研究的定位更像是把隐私保护和 AI 配额分配「合成一个闭环」:


  • 用隐私保护的方法给数据「估值」——强调在保护个人的前提下输出价值信号;
  • 再用这个价值信号,直接调节每个人的 AI 使用配额——强调公平、可达、可控体验。


一句话总结差异: 很多方案解决的是「怎么交易数据 / 算力」或「怎么做私密计算」,而这项研究更聚焦于「如何把数据贡献转化为可解释、可执行的 AI 使用权」,并把隐私保护作为起点,而不是事后补丁。


为什么这件事现在很重要


这项研究对应的是正在兴起的个性化 AI 服务。未来用户可能同时拥有多个 AI 助手:邮件助理、学习助理、出行助理、内容创作助理……它们都需要稳定、可预期的 AI 资源。用户也可能愿意贡献数据来提升模型与服务,但不希望用隐私作为交换。


这套机制提供了一条路径:通过隐私保护的数据估值,把贡献转化为更公平的 AI 使用配额,并保持服务体验稳定——更少排队、更少被「闲置用户」挤占资源。


从整体 AI 生态的角度看:


  • 对用户:数据贡献「看得见、算得清、拿得到」,权益更明确
  • 对平台:持续激励更高质量、更独特的数据流入,帮助 AI 提高服务质量
  • 对行业:提供一种监管友好的数据价值释放方式——强调「使用」而非「泄露」数据


研究团队


「AI 时代,每个人贡献的数据都有其独特的价值。我们希望 AI 资源分配不再只是『谁付费谁优先』,更应该是『谁贡献谁受益』。更重要的是,用户权益不必以泄露隐私为代价。我们的目标是让系统能够在看不见原始数据的情况下识别贡献价值,并把价值转化为真实可用的 AI 配额,让去中心化 AI 生态更公平、更值得信任。」— LazAI 联合创始人郭明


本研究依托加拿大 Mitacs 产学合作项目开展,由 UBC(英属哥伦比亚大学)相关团队联合完成,与 Blockchain@UBC 跨学科研究集群紧密协作。Blockchain@UBC 围绕区块链技术及「如何利用新兴技术造福加拿大及全球」的议题,通过对接产业需求与学术研究推动创新实践,同时依托其「区块链与去中心化信任技术研究生培养路径」为研究生提供结构化、跨学科的系统训练。


产业生态合作伙伴包括:


Metis 正在构建为 AI Agent 服务的全栈 Web3 基础设施。结算层 Andromeda 是首个实现去中心化排序器的 Layer 2;扩展层 Hyperion 为 AI 提供高性能执行环境;应用层 LazAI 以 DAT 资产标准,将 AI 数据与 Agent 行为转化为可验证、可拥有、可创收的链上资产。三层协同,驱动去中心化智能体经济。


LazAI Network 是 Metis 生态内的 AI 基础设施协议,使命是让 AI 与人类对齐。通过 iDAO 和 DAT 标准,解决 AI 领域数据共享难、质量评估难、收益分配不公三大核心问题。Alpha 主网已上线。


关于 IEEE ICME 2026


IEEE 国际多媒体与博览会(ICME)是由 IEEE 计算机学会、电路与系统学会、信号处理学会和通信学会四大协会联合主办的旗舰级学术会议。自 2000 年创办以来,ICME 一直是交流多媒体技术、系统及应用领域最新进展的首要论坛。


2026 年 IEEE ICME 将在泰国曼谷举行,主题为「超越感知:自主智能体时代的智能媒体」(Beyond Perception: Intelligent Media in the Age of Autonomous Agents)。本届共收到 3,810 篇投稿,录取 1,101 篇,录取率 28.89%。

0
0

免责声明:文章中的所有内容仅代表作者的观点,与本平台无关。用户不应以本文作为投资决策的参考。

你已了解市场,是时候开始交易了!
Bitget支持一站式交易加密货币、股票和黄金等。
立即交易!