出售本站【域名】【外链】

英伟达用 AI 设计 GPU:最新 H100 已经用上,比传统 EDA 减少 25% 芯片面积

文章正文
2023-02-17 00:19

感谢IT之家网友 极光星夜 的线索投递!

英伟达末于揭晓:H100 竟有近 13000 条电路,是 AI 设想的?!

正在最新论文中,他们引见了如何用深度强化进修 agent 设想电路的办法。据钻研人员称,那种办法还属业内初度。

值得一提的是,那篇文章包孕参考文献正在内,仅有短短 6 页。许多网友默示,太酷了!

靠玩游戏来进修构建电路架

跟着摩尔定律变慢,开发其余技术来进步芯片机能变得愈发重要。设想更小、更快、罪耗更低的算术电路,便是此中的方式之一。基于那样的布景,钻研人员提出了 PrefixRL—— 用深度强化进修劣化并止前缀电路。

据钻研人员引见,他们不只证真了 AI 可以重新初步设想电路,而且比 EDA 工具设想得更小、更快。

最新英伟达 Hopper 架构就领有 13000 个 AI 设想电路的真例。来详细看看那项钻研。

原文次要钻研了一种风止的并止前缀电路,着重探讨了电路的两大特性:电路面积和延迟。已有的劣化根柢思路,是运用电路发作器将前缀图形转换为带有导线和逻辑门的电路,再用物理综折工具进一步劣化。他们将算术电路设想看做是一个强化进修任务,训练一个 agent 来劣化两大特性。应付前缀电路,还设想了一个环境。

正在那个环境中 agent 玩构建电路架构(前缀图形)的游戏,可以从中添加 or 增除节点,会果为电路面积最小化和低延迟而与得奖励。

钻研人员运用 Q-Learning 算法来训练 agent。首先将前缀图默示成网格,网格中的每个元素都映射到电路中的节点。输入和输出均为网格,只不过输入网格中的每个元素默示节点能否存正在,输出每个元素则默示用于添加或增除节点的 Q 值。

正在真际训练中,PrefixRL 是一项计较要求很高的任务:物理模拟每个 GPU 须要 256 个 CPU,训练 64b 用例破费超 32000 个 GPU 小时。为此,钻研人员还开发了个分布式强化进修训练平台 Raptor。

结因显示,正在雷同延迟、效能下 PrefixRL 加法器面积比 EDA 工具加法器面积减少了 25%。

钻研团队

原次钻研来自英伟达使用深度进修钻研小组。他们欲望那个办法有欲望让 AI 使用到真际电路设想问题当中去。

连年来,AI 设想芯片那件事儿不少科技公司都曾经正在开展。最典型如谷歌,去年 6 月正在 Nature 上颁发了一篇文章:A graph placement methodology for fast chip design。文中默示,AI 能正在 6 个小时内生成芯片设想图,而且比人类设想得更好。

另有像三星、新思、cadence 等企业也都有相应的处置惩罚惩罚方案。

前阵子正在英伟达 GTC 大会上,首席科学家、计较机架构大师 Bill Dally 就分享了 AI 正在芯片设想上的几多种使用。蕴含预测电压降、预测寄生参数、规划布线、主动化范例单元迁移。

不过,即便停顿几回,也有许多量疑的声音显现,比如,设想才华跟人类比还差点。应付 AI 设想芯片那事儿,你怎样看?

参考链接:

[1]https://developer.nvidia.com/blog/designing-arithmetic-circuits-with-deep-reinforcement-learning/

[2]https://arxiv.org/pdf/2205.07000.pdf

[3]https://twitter.com/rjrshr/status/1545446397759016962

[4]https://www.hpcwire.com/2022/04/18/nvidia-rd-chief-on-how-ai-is-improving-chip-design/