火山引擎:Seedance 2.0 API 服务全面开放¶
公众号: 机器之心 发布日期: 今天 抓取日期: 2026-04-14 URL: https://www.jiqizhixin.com/articles/c10af8c6-d52d-43ae-b34b-6f4d0e3ba5da
Title: 写Verilog、调CUDA,总翻车?工业代码大模型开始学会「先想后写」了 | 机器之心
URL Source: https://www.jiqizhixin.com/articles/c10af8c6-d52d-43ae-b34b-6f4d0e3ba5da
Markdown Content:
写Verilog、调CUDA,总翻车?工业代码大模型开始学会「先想后写」了 | 机器之心¶
机器之心¶
![]()
登录
文章库
PRO会员通讯
SOTA!模型
AI Shortlist
AI 好好用

文章库

登录
写Verilog、调CUDA,总翻车?工业代码大模型开始学会「先想后写」了
0%
展开列表
速来!巴西不仅有足球,也有蚂蚁的ICLR 2026学术派对
今天
蚂蚁集团

数学的上帝粒子!一个运算符能导出所有基本函数
今天
EML

迎接智能体的「觉醒时刻」:EverOS全球公测开启Agent Memory自进化序章
今天
EverOS

写Verilog、调CUDA,总翻车?工业代码大模型开始学会「先想后写」了
今天
北京航空航天大学

火山引擎:Seedance 2.0 API 服务全面开放
今天
火山引擎

目标更重要?国内公司超越Generalist,进化到动作中心世界模型
今天
极佳世界

警惕!大模型成本倒挂:你正在为模型的多余「思考」买单
今天
token

腾讯开源算法大赛学术成果和千万级别数据集,推动广告推荐技术发展
今天
腾讯广告算法大赛

ICLR 2026 | BioMD:从结构快照到连续轨迹,蛋白-配体全原子动力学生成模型
今天
AI for Science

直面LeCun愿景,智在无界发布最强具身世界模型,20万小时人类视频屠榜6大榜单
今天
Being-H0.7

在一台1970年代的PDP-11上训练Transformer需要多久?答案是5.5分钟
今天
Transformer

二元成功率已经过时!PRM-as-a-Judge才是你需要的具身操作评测框架
今天
具身操作评测框架

养虾「不可能三角」:好用、好玩、安全,复旦这个「00后」团队做到了!
04月13日
XSafeClaw

上海交大DENG Lab提出「LatentUM」:Unified Model的真正「战场」在视觉推理与世界模型
04月13日
DENG Lab

荣耀发布自研龙虾AI智能体YOYO Claw技术 开创“养虾本”新品类
04月13日
YOYO Claw

13 个榜单 SOTA!明略科技正式开源GUI-VLA 模型Mano-P 1.0
04月13日
Mano-P 1.0

全球第一,13个SOTA!我们找到了龙虾界掌管GUI的神
04月13日
Mano-P 1.0

国内首个!加入六维力的全感知数采,让VLA模型进化出力触觉
04月13日
原生全感知力触数采系统

迎接范式革命:最新、最全的大模型Latent Space综述,NUS、复旦、清华等联合出品
04月13日
Latent Space

大卫贝克团队从头设计小分子结合蛋白质家族:开启按需定制生物传感器的新纪元
04月13日
AI for Science

![]()
机器之心 原创
刚刚
写Verilog、调CUDA,总翻车?工业代码大模型开始学会「先想后写」了
代码大模型会写代码,这件事已经不新鲜了。
真正新的问题是:它会不会在写之前先想清楚,这段代码一旦进入真实系统,会发生什么?
这个问题在工业场景里尤其关键。因为工业代码和普通编程不 一 样,它不是 “语法通顺、功能差不多” 就算过关,而是要面对真实硬件、真实工具链和真实约束。一 个 Verilog 模块可能语法没问题,却在仿真或综合阶段直接失败;一 个 CUDA kernel 可能逻辑上说得通,却在 grid 配置、索引映射或显存约束上出错;⼀个嵌入式程序也可能因为寄存器顺序或中断逻辑不对,根本跑不起来。
所以,工业代码大模型真正缺的,往往不是 “写” 的能力,而是 “想” 的能力。
最近,北航联合多家单位提出的 InCoder-32B Thinking,瞄准的正是这个问题。它不是简单把代码模型再做大,也不是只给模型加⼀层通用的长链推理,而是试图让模型学会:在工业环境里,代码为什么会错,错了之后环境会给出什么反馈,下⼀步又该怎么改。
一、它不是普通的 thinking model 而是面向工业代码的 thinking model
这几年,thinking model 很火。大家已经习惯了让模型 “先想⼀想,再回答”。
但工业代码场景有个特殊问题:很多时候,单靠语言层面的思考并不够。因为工业任务的难点,不只是逻辑推理,还包括对工具链行为、硬件约束和执行反馈的理解。你可以在纸面上分析很多步,但如果根本不知道 GPU 的 shared memory 限制,不知道 Verilog 综合器如何报错,不知道几何建模中的非法结构意味着什么,再长的 reasoning 也可能是空转。
InCoder-32B Thinking 的不同之处,就在于它不是把 “思考” 当作纯文本技巧,而是直接建立在工业环境之上。它试图让模型的 reasoning,天然绑定真实执行反馈,而不是脱离系统的 “自洽解释”。
换句话说,它不是⼀个 “更会说” 的模型,而是⼀个 “更接近工程实际” 的 thinking model。
二、真正的新意 是让模型从 “报错 — 修复” 里学会思考
InCoder-32B Thinking 的核心设计之一,是 Error-driven Chain-of-Thought(ECoT)。
它的关键点在于:模型的 thinking,不是人为写出来的,而是从一轮轮 “生成 — 执行 — 报错 — 修复” 的过程中提炼出来的。模型学习的,不只是最终答案,而是工程师如何一步步定位问题、修复错误、再验证结果。
这在工业代码中尤为重要。因为很多问题并不是 “不会写”,而是 “哪⾥写错了”。比如 GPU kernel 越界,本质可能是 shape 和索引映射不一致;RTL 编译失败,可能是端口声明或位宽不规范。
ECoT 做的事情,就是把这些真实失败和修复过程中的 reasoning 保留下来,让模型学会从错误中思考,而不是只记住正确答案。
三、让模型先 “预判结果” 再去写代码
如果说 ECoT 让模型学会 “如何改错”,那么另⼀个关键设计 Industrial Code World Model(ICWM),则让模型学会 “提前预判”。
可以把 ICWM 理解为⼀个工业代码的 “世界模拟器”:给定任务环境和候选代码,它会预测这段代码在真实工具链中的结果 —— 是通过、编译失败、运行报错,还是性能不达标,并生成相应的诊断信息。
这带来的变化很关键:模型不再只是写代码,而是开始预估代码进入真实系统后的后果。
论文显示,ICWM 在多个工业场景中的结果预测准确率达到 96.7%,多轮轨迹⼀致性达到 94.4%。这意味着,它已经能够在相当程度上替代真实执行环境,用于大规模数据生成和推理训练。
更重要的是,这也改变了训练数据的来源。
InCoder-32B Thinking 的 reasoning 数据,不是人工构造的解释,而是通过真实执行流程 “跑出来的”:任务生成 → 代码执行 → 收集报错 → 多轮修复 → 记录完整轨迹。
GPU、芯片、嵌⼊式、3D 建模等任务,都在对应的真实工具链中验证。
最终保留下来的,不只是正确答案,而是完整的错误 — 修复路径。这种数据天然包含工业系统最关键的信息:代码在真实环境中的行为反馈。
四、工业代码不是统⼀模板能解决的 它需要 “自适应思考深度”
论文还有一个很有意思的发现:不同任务的思考深度差异极大。
GPU kernel 优化的中位 thinking 长度达到 19015 个字符,而 agentic coding 单步只有 91 个字符,差距超过 200 倍。
这说明,工业代码并不存在一个统一的 “思考模板”。有些问题需要长链路推理(比如性能优化、硬件约束),有些则适合短决策(比如多轮 agent 操作)。
InCoder-32B Thinking 学到的,不是固定长度的 CoT,而是根据任务复杂度和环境反馈,动态调整思考深度 —— 复杂问题深推理,简单问题快速决策。
这种能力,更接近真实工程师,而不是模板化的语言模型。
五、结果说明:工业代码模型的竞争 已经开始从 “会写” 转向 “会验证”
从结果来看,这条路线是有效的。
InCoder-32B Thinking 在 14 个通用代码 benchmark和 9 个工业代码 benchmark 上进行了评测。在通用任务上保持竞争力,在工业场景中则取得显著提升,包括 CAD Coder 84.0%、KernelBench L2 38.0% 等指标。
更关键的是,这些提升是跨领域的 —— 芯片设计、GPU 优化、嵌入式、编译器、3D 建模都受益。
这说明它学到的,不是某个领域技巧,而是⼀种更底层的能力:
理解执行反馈 → 组织推理 → 完成修复
如果说过去大家比的是谁 “写得更像人”,那么现在,工业代码模型开始比的是谁 “更像工程师”。
开源信息
模型与代码现已开源。
Hugging Face:https://huggingface.co/Multilingual-Multimodal-NLP/IndustrialCoder
GitHub:https://github.com/CSJianYang/Industrial-Coder
当代码大模型开始不只生成代码,而是开始预测代码进入真实工业环境后的后果,工业代码智能的门槛,也就从 “会写程序” 抬高到了 “会理解系统”。
