“启蒙”处理器芯片全自动设计系统多项研究成果获NeurIPS25和AAAI26录用

来源:处理器芯片全国重点实验室 #启蒙# #处理器# #芯片#
3737

“启蒙”处理器芯片全自动设计系统致力于基于人工智能技术实现处理器芯片软硬件的全自动设计。该系统实现自动处理器前端设计、自动HDL代码生成、自动编译器设计、自动高性能库生成、自动操作系统参数配置等处理器芯片设计的多个关键环节,由实验室的陈云霁、郭崎团队提出并长期推进。“启蒙”处理器芯片全自动设计系统的4项成果获2025年人工智能国际顶级会议NeurIPS(The 39th Annual Conference on Neural Information Processing Systems,CCF-A类)录用,同时2项成果获2026年人工智能国际顶级会议AAAI(The 40th Annual AAAI Conference on Artificial Intelligence,CCF-A类)录用,这些研究成果涵盖自动HDL代码生成、自动编译器设计、自动高性能库生成。

论文

《QiMeng-CodeV-R1: Reasoning-Enhanced Verilog Generation》

该论文被NeurIPS2025录用。第一作者为实验室助理研究员朱耀宇。

QiMeng-CodeV-R1针对从自然语言自动生成Verilog代码的问题,提出一种基于可验证奖励的强化学习(RLVR)方法。现有的RLVR方法在应用于电子设计自动化(EDA)时通常面临三个关键挑战:缺乏自动化和准确的验证环境,导致代码正确性难以评估;高质量自然语言-代码对数据稀缺,限制了模型训练效果;以及RLVR训练计算成本过高,难以大规模应用。本文提出的CodeV-R1方法,通过集成自动化验证、数据合成和高效训练的思路,设计了一个包含测试平台生成器、往返数据合成和两阶段训练管道的完整框架。具体来说,该方法首先利用规则生成测试平台进行等价检查,然后通过合成和过滤生成高质量数据集,最后采用“蒸馏-强化学习”流程降低训练成本。实验结果表明,CodeV-R1-7B模型在VerilogEval v2和RTLLM v1.1基准上分别达到68.6%和72.9%的pass@1性能,相比之前最优方法提升12%~20%,甚至在RTLLM上超过了671B参数的DeepSeek-R1模型。

论文

《QiMeng-SALV: Signal-Aware Learning for Verilog Code Generation》

该论文被NeurIPS2025录用。第一作者为实验室博士生张炀,指导老师为张蕊副研究员和郭家明副高级工程师。

QiMeng-SALV针对自动HDL代码生成问题,提出一种细粒度的信号级强化学习优化方法。现有方法通常面临由于缺乏高质量HDL训练数据导致强化学习训练中难以获得有效功能奖励的问题。本文提出的信号感知学习方法,通过信号感知验证和AST分析,从部分错误的模块中提取功能正确的代码片段,将强化学习优化从模块级转变到信号级,从而为强化学习提供了更细致更有效的功能奖励信号,实现了更好的训练效果。实验结果表明,QiMeng-SALV在VerilogEval和RTLLM基准上超过了所有的开源非推理模型,达到了最佳性能,并在RTLLM v2.0基准上达到了62.0%的pass@1的性能,使我们提出的信号级强化学习方法相比传统模块级方法提升了10.9%,并以7B的参数达到了和671B参数的Deepseek-V3相当的性能。

论文

《QiMeng-MuPa: Mutual-Supervised Learning for Sequential-to-Parallel Code Translation》

该论文被NeurIPS2025录用。第一作者为实验室硕士生柯昌鑫,指导老师为张蕊副研究员。

QiMeng-MuPa针对代码自动并行化的功能等价性难题,提出一种互监督学习方法。现有的自动翻译方法通常面临数据稀缺与功能不等价的问题:前者限制了模型的泛化能力,后者使得即使有回译生成的数据,也难以保证翻译后代码的可执行正确性。QiMeng-MuPa通过构建 Translator和Tester 的双模型互监督闭环,让两者在 Co-verify 与 Co-evolve 的循环中相互生成数据、相互强化:Tester 负责生成单元测试过滤并验证等价代码以进化 Translator,而 Translator 生成高质量翻译代码作为增强数据推动 Tester 进化。实验结果表明,QiMeng-MuPa 可将Qwen2.5-Coder-7B 模型pass@1 提升 28.91%,达到与DeepSeek-R1和GPT-4.1相当的性能。

论文

《QiMeng-NeuComBack: Self-Evolving Translation from IR to Assembly Code》

该论文被NeurIPS2025录用。第一作者为实验室硕士生方海男,指导老师为文渊博副研究员。

QiMeng-NeuComBack针对神经编译中IR到汇编代码的自动翻译问题,提出一种自演化提示优化方法。现有的神经编译领域研究面临缺乏专用测试基准与生成代码可靠性及性能不足的挑战。本文构建了NeuComBack基准数据集,专为IR到汇编的神经编译任务设计;所提出的自演化提示优化方法,使模型能够从过往的自我调试轨迹中提取优化洞察并迭代演化内部提示,从而自动完善其编译策略。实验结果表明,该方法显著提升了模型生成汇编代码的正确性与性能,在x86_64和aarch64架构上的功能正确率分别从44%和36%提升至64%和58%;且在正确生成的x86_64程序中,有87.5%的程序性能超越了工业级编译器clang -O3的优化水平。

论文

《QiMeng-CRUX: Narrowing the Gap betweenNatural Language and Verilog via CoreRefined Understanding eXpression》

该论文被AAAI2026录用。第一作者为博士生黄磊,指导老师为张蕊副研究员和郭家明高级工程师。

QiMeng-CRUX 针对自然语言到 Verilog 代码生成之间语义落差过大的问题,提出一种基于结构化中间表达(Core Refined Understanding eXpression, CRUX)的生成方法。现有方法依赖自由形式的自然语言描述,易受表达模糊、结构松散、语义冗余影响,导致模型难以准确捕获设计意图并生成可靠RTL逻辑。CRUX通过构建可约束、可解释的中间语义空间,将用户意图提炼为核心设计要素,形成自然语言与Verilog之间的语义桥梁。QiMeng-CRUX设计了联合表达建模(Joint Expression Modeling)和耦合空间优化(Dual-Space Optimization)的两阶段训练框架,以共同提升CRUX表达质量和生成代码质量。实验结果表明,QiMeng-CRUX-V在多个Verilog生成基准测试中取得了非推理模型中的最佳性能(SOTA),在VerilogEval-v2上pass@1达到64.7%,RTLLM-v2上达到63.8%。此外,CRUX作为语义稳健的中间表达,即使直接用作其他模型的提示,也能带来持续的性能提升。

论文

《QiMeng-Kernel: Macro-Thinking Micro-Coding Paradigm for LLM-Based High-Performance GPU Kernel Generation》

该论文被AAAI2026录用,为实验室与软件所合作成果。第一作者为硕士生朱鑫国,指导老师为李玲研究员和彭少辉副研究员。

QiMeng-Kernel 针对大模型自动生成高性能GPU Kernel时存在的“优化策略—实现细节”耦合过深的问题,提出了一种基于分层生成范式(Macro Thinking Micro Coding, MTMC)的方法。现有基于 LLM 的 GPU Kernel 生成通常难以同时保证正确性与效率:一方面,GPU kernel 的优化空间庞大且强依赖硬件特性,使得 LLM 难以在搜索过程中发现有效的优化策略;另一方面,底层实现细节复杂,直接生成整段 kernel 代码极易引发编译失败、执行错误或显著性能退化。本文提出的“宏观思考—微观编码”方法,通过将高层优化策略与底层实现过程解耦,在宏观层面生成基于硬件语义的优化决策,在微观层面以多步细粒度方式实现这些优化,从而最大化正确性并提升性能。实验结果表明,QiMeng-Kernel 在 KernelBench 与 TritonBench 上均显著优于现有基于LLM 的GPU Kernel自动生成方法,正确率提升超过 50%,运行速度最高提升 7.3 倍。

NeurIPS 2025

NeurIPS是机器学习和计算神经科学领域方向的国际顶级会议,CCF-A类,主要收录机器学习、自然语言处理、计算机视觉、多智能体系统等方向的最新研究成果。自1987年创办以来,NeurIPS 已成为该领域历史最为悠久且最具学术影响力的顶级国际会议之一,对推动人工智能及相关领域的发展起到了重要作用。2025年度第39届NeurIPS会议将于12月2日至7日在美国圣地亚哥举行,本届会议的录用率为24.52%。

AAAI 2026

AAAI 是人工智能方向的国际顶级会议,CCF-A类,主要收录机器学习、自然语言处理、计算机视觉、多智能体系统、知识表示与推理等方向的最新研究成果。自 1980年创办以来,AAAI 逐渐发展成为人工智能领域历史最为悠久、最具学术影响力的顶级国际会议之一,对推动人工智能及相关交叉领域的长期发展发挥了重要作用。2026年度第40 届AAAI会议将于1月20日至27日在新加坡举行,本届会议的录用率为17.6 %。

处理器芯片全国重点实验室依托中国科学院计算技术研究所,是中国科学院批准正式启动建设的首批重点实验室之一,并被科技部遴选为首批 20个标杆全国重点实验室,2022年5月开始建设。实验室学术委员会主任为孙凝晖院士,实验室主任为陈云霁研究员。实验室近年来获得了处理器芯片领域首个国家自然科学奖等6项国家级科技奖励;在处理器芯片领域国际顶级会议发表论文的数量长期列居中国第一;在国际上成功开创了深度学习处理器等热门研究方向;直接或间接孵化了总市值数千亿元的国产处理器产业头部企业。

责编: 集小微
来源:处理器芯片全国重点实验室 #启蒙# #处理器# #芯片#
THE END
关闭
加载

PDF 加载中...