跳转至

腾讯发布并开源混元3D世界模型 2.0,一句话造出3D世界,兼容游戏引擎!

公众号: 机器之心 发布日期: 04月16日 抓取日期: 2026-04-17 URL: https://www.jiqizhixin.com/articles/a8ee1f5c-3c62-485b-878b-d677bd2dcf4e


Title: 脸谱心智陆弘远团队ACL 2026新作:别再给模型叠加「高级词」了!模型更爱听「大白话」 | 机器之心

URL Source: https://www.jiqizhixin.com/articles/a8ee1f5c-3c62-485b-878b-d677bd2dcf4e

Markdown Content:

脸谱心智陆弘远团队ACL 2026新作:别再给模型叠加「高级词」了!模型更爱听「大白话」 | 机器之心

机器之心

Image 1: 机器之心

Image 2: 未登录

登录

Image 3: empty_user 去登录

Image 4文章库Image 5PRO会员通讯Image 6SOTA!模型Image 7AI ShortlistImage 8: new-iconImage 9AI 好好用

Image 10: 机器之心

文章库PRO通讯会员SOTA!模型AI ShortlistImage 11: new-icon

AI 好好用

Image 12登录

Image 13: home

Image 14: logo文章库

Image 15: icon

Image 16: no-user登录

脸谱心智陆弘远团队ACL 2026新作:别再给模型叠加「高级词」了!模型更爱听「大白话」

0%

Image 17: icon展开列表

打造全球领先“具身智能超级供应链”,京东发布行业首个具身数据全链路基础设施

04月16日

京东具身智能生态发布会

Image 18: img

当AI迈入Harness时代:以MiniMax为样本看智能体云端新基建

04月16日

MaxHermes

Image 19: img

数据限制具身?觅蜂杀进场破局:高质量数据水电一样即取即用

04月16日

觅蜂科技(Maniformer)

Image 20: img

TPAMI 2026 | 北大彭宇新团队提出CPL++框架,实现视觉定位模型的「自知之明」和「自我纠错」

04月16日

CPL++

Image 21: img

澜舟科技发布可信 AI 技术体系,以智能体和数字员工重构企业服务新范式

04月16日

可信 AI

Image 22: img

ICLR 2026巴西见!上海AI实验室北极星X星启交流会,等你来聊

04月16日

上海人工智能实验室

Image 23: img

脸谱心智陆弘远团队ACL 2026新作:别再给模型叠加「高级词」了!模型更爱听「大白话」

04月16日

ACL 2026

Image 24: img

腾讯发布并开源混元3D世界模型 2.0,一句话造出3D世界,兼容游戏引擎!

04月16日

HY-World 2.0

Image 25: img

ACM CAIS 2026 Workshop征稿|首届Agent Skills研讨会:智能体技能的设计、评估与优化

04月16日

Agent Skills研讨会

Image 26: img

打通分子宏微观鸿沟,40+任务超越SOTA,上智院开源Suiren-1.0模型

04月16日

AI for Science

Image 27: img

万帧实时!流式3D重建天花板,被国产开源模型打破了

04月16日

流式 3D 重建基础模型

Image 28: img

本周六,围观学习ICLR 2026论文分享会,最后报名了

04月16日

ICLR 2026论文分享会

Image 29: img

太反差了!那边Claude强制「刷脸」认证,这边国内Coding Plan被外国人疯抢

04月16日

GLM Coding Plan

Image 30: img

训练提速4.6倍!FP4+BF16双轨并行,NVIDIA×港大×MIT联手重新定义扩散模型训练速度上限

04月16日

Sol-RL

Image 31: img

它石智航Pre-A轮融资4.55亿美金破中国具身智能纪录,高瓴红杉美团联合领投

04月16日

它石智航

Image 32: img

继HappyHorse后,阿里又有一款模型登顶权威评测榜单

04月16日

ABot-PhysWorld

Image 33: img

2026具身智能数据赛道,卷出了一匹「黑马」

04月15日

觅蜂科技(Maniformer)

Image 34: img

从「片段生成」到「长视频漫游」:OmniRoam探索轨迹可控的长视频生成新范式

04月15日

视频生成

Image 35: img

阿里ATH发布AI开发工具Meoo,可一键开发一键部署

04月15日

Meoo(秒悟)

Image 36: img

构建跨越时空的微观实验室:KIMMDY 仿真器实现秒级生物化学反应的动态模拟

04月15日

AI for Science

Image 37: img

Image 38: avatar

机器之心 原创

7小时前

脸谱心智陆弘远团队ACL 2026新作:别再给模型叠加「高级词」了!模型更爱听「大白话」

Image 39: Image Hongyuan Adam Lu,FaceMind CEO,CUHK AI PhD 研究课题:LLM 预训练、世界模型、端侧模型训练;帝国理工 CS 本硕;爱丁堡大学 AI 硕士;ACL 系顶会 Outstanding Paper Award 一作;曾于 MSRA(北京)任预训练一职,研发了世界上第一个支持 200 种语言的 LLM;旗舰会议 ACL 2025、NAACL 2025 Area Chair,创办了 AI 软件:叠叠社,深受二次元喜爱,是一款被投资人称之为 “米哈游的蔡浩宇都要学习的 AI 产品”。

有这样一种 “模型玄学”:明明是同一个 Prompt,仅仅换一种说法,模型的回答可能就天差地别。

深挖这个现象,是一个有趣、有用、但 “反直觉” 的问题:如果语义不变,只是把一句话改写成更常见、更高频的 “大白话”,模型的推理以及训练表现会不会更好?

最近,来自脸谱心智与香港中文大学的科研人员围绕这个问题展开了系统研究,并提出了一项中稿 ACL 2026 Main 的新工作。他们提出了一个极具记忆点的新概念:Adam’s Law,aka Textual Frequency Law(文本频率定律)

Image 40: 图片 * 论文标题:Adam’s Law: Textual Frequency Law on Large Language Models

  • 作者:Hongyuan Adam Lu, Z.L., Victor Wei, Zefan Zhang, Zhao Hong, Qiqi Xiang, Bowen Cao, Wai Lam

  • 机构:FaceMind Corporation、The Chinese University of Hong Kong

  • arXiv 链接:https://arxiv.org/abs/2604.02176

  • huggingface 链接:https://huggingface.co/papers/2604.02176

  • github 链接:https://github.com/HongyuanLuke/frequencylaw

论文用理论推导以及模型实验向我们展示了:当不同表述表达同一个意思时,语言模型往往更偏好 “高频文本”。而这种偏好不仅出现在你敲下 Prompt 的那一刻,甚至在模型训练阶段也同样适用。

用大白话说,很多时候决定模型是否聪明的,不只是 “你问了啥”,还包括 “你是怎么说的”。

这启发了什么?今天我们业内谈起模型优化,关键词永远是:更强更大的基座、更长的推理思维链、以及昂贵的高质量训练数据,或者是极其复杂的 alignment 算法。但 Adam's Law 揭示了文本频率对于模型训练以及推理的重要性。

研究表明,高频表达因为在训练语料中出现的次数足够多,大模型对它们有着天然的 “肌肉记忆”。因此,在面对这些模型自身熟悉的词句时,模型在理解、推理和生成时更容易零百 “进入状态”。

Who is Adam?

Adam’s Law 主张的铁律是:我们应该优先使用句子级频率更高的 expression,无论是做 inference 还是 training。

研究团队不甘让结论停留在 “哎哟,好像确实是这样” 的 empirical observation。

他们先是提供了缜密的 theoratical proof,也为其搭建了一个完整的 framework,由三板斧组成:

  • 第一把斧 TFL(Adam’s Law): 提出 Textual Frequency Law:“高频文本应被优先选择”;

Image 41: 图片 极其硬核的部分推导数学辅佐

  • 第二把斧 TFD(Textual Frequency Distillation): 既然算不准,那就让模型自己开口。用目标模型生成的文本,去反向修正 frequency estimation;

  • 第三把斧 CTFT(Curriculum Textual Frequency Training): 把文本频率引入课程学习,给模型发一本循序渐进的教材。

用大白话来说,他们的操作流程是这样的: 先给一句话算算 “八字”(估算常见度),把同义句里最接地气、最 frequent 的那句挑出来喂给模型;如果怕算得不准,就让模型自己做几道 “故事续写” 题,看看它平时潜意识里爱用什么词,借此来修正频率估算;最后,在训练时,不光是要挑数据频率,而且训练顺序都给你安排得明明白白。

怎样才算 “常见”?巧妙的工程解法

这里有一个大坑:像是 GLM 这种主流大模型,预训练数据全是个黑箱,连它吃过几碗干饭都不知道,你怎么算它对哪句话更眼熟?不用担心没关系。

作者给了个极其巧妙且工程化的解:咱不纠结模型见过啥,直接借助公开的庞大 corpora 和词频资源去估算就行。 在 Adam’s Law 中,句子的频率被近似为词频的组合,直接攒出一个 “句子级频率指标”。

这意味着,开发人员完全不需要破解闭源模型的训练集,就能直接用这套频率估算大法。极其接地气,绕开了黑箱限制,把玄学推进到了可验证、可复现的工程层面。

当然,仅靠公开词频估计大概率是有误差的。Adam 打出了第二把斧 TFD:让目标模型对给定文本做 “story completion 续写补全”。这相当于在审问模型:“别装了,暴露你的真实用语习惯吧!” 用模型自己吐出来的语料蒸馏,再去辅助修正原始频率,这样就无限逼近了模型内部真正熟悉的白话表达分布。

别光顾着改 Prompt 推理,训练的规矩也变了

Adam's Law 最绝的一点,是没有把 “文本频率” 局限在一个讨巧的 Prompt 推理技巧上,而是直接杀到了更硬核的模型训练范式里。

提示(Inference)阶段,逻辑非常顺滑:同一道数学题,如果把题目里的生僻词换成大白话的高频表达,模型马上就算得更准。

但在训练(Training)阶段,Adam 抛出了一个灵魂拷问:如果老板给的算力预算有限,训练数据该怎么挑怎么用?Adam 说:高频文本可能比低频文本更值得优先保留!

而且 CTFT甚至改变了喂数据的姿势。作者发现,低频表达往往语境更稀疏、结构更复杂。就像我们上语文课一样,先让他死磕难懂的古文(更低频),再让他看通俗的白话文(更高频),最终的收敛效果,居然比随机乱喂数据还要好。

实验结果:白嫖的性能提升

为了拿数据说话,作者死磕出了一个专门的数据集 TFPD(Textual Frequency Paired Dataset),涵盖了数学推理、机器翻译、常识推理和智能体工具调用等多个场景。

为了保证严谨,他们先用模型生成一批 “文绉绉、极其少见” 的改写,和一批 “大白话、极其常见” 的改写,再花钱请人工标注员挨个检查,确保改写后意思没变,最后凑成了 “高频 vs 低频” 的成对样本。

结果极其直观。

数学推理、Agent 任务、以及常识解析上,仅仅只是把 Prompt 换成更高频的表达,不换模型、不加训练数据、不增加 inference 时长,inference 效果显著增加;在机器翻译上,Adam's Law 同样稳如泰山:研究人员一口气测了 100 个语言翻译方向:在训练实验里,三板斧 CTFT 的威力同样显现。在 Pangasinan(一种菲律宾语支)的机器翻译任务中,使用了 CTFT 后, BLEU 分数狂涨 29.96%

Image 42: 图片 Adam's Law 在上百种语言上的结果可视化,最外圈为 Adam's Law 的结果。

更颠覆认知的是:有时候用高频改写数据去训练,效果甚至比直接用原汁原味的基准 training set 还要好!这直接挑战了业内 “原始数据天然最优” 的传统偏见。

Adam's Law,给行业带来了什么?

Adam’s Law 把一种飘渺的 “直觉”,打造成了一套可定义、可估算、可验证、可部署、绕过黑盒的方法学定律,通过数学推导以及实验的方法证明了其可靠性。

对搞应用(做 Agent、写 Prompt)的打工人: 别再给 Prompt 疯狂加毫无必要的定语、约束和高端词汇了。先把 Prompt 理顺,改得更自然、更高频,这可能是一种几乎没有成本、见效极快的 “魔法”。

对搞训练(Pre-training、SFT、蒸馏、做数据清洗)的炼丹师: 这是全新的 Data Engineering 治理思路。以后洗数据做数据,除了看数据的质量、长度、难度,咱还得给文本频率拉个画像。GPUTPU 吃紧时,“留什么数据” 不只看标注对不对,咱还得看看这句话是不是足够 “大白话”。

对评测(Benchmark)的研究者:如果一道题,换个冷门说法模型就不行,那它是真的有了 “推理能力”,还是仅仅靠着 “刷题”,记住了特定表述的熟悉度?这给未来构建更抗造的评测榜单提了个醒。

Conclusions

Adam’s Law 像一面镜子,照出了 LLM 的本质:模型不仅在 “理解世界”,它更是在 “记住人类语言世界里,什么东西最常出现”,然而这是双向的,LLM 在看世界的时候,世界也在看 LLM

当整个 AI 圈都在为了更长的 RL 推理、更庞大的参数量、更玄乎的对齐算法无脑卷生卷死时,这篇工作轻巧地给出了一条无比朴素的线索:

让模型变聪明的捷径,不是把话说得更高深,而是把话说得更大白话一点。这在推理时有用,也在训练时有用。