降低人工智能处理器功耗的挑战和机遇

作者:David Lammers

"对于边缘来说,这一切都涉及到消耗最少的电力,同时优化所需的性能"。

鉴于大流行期间行业活动走向虚拟的新现实,今年到目前为止,我能够登录到半打半导体会议。一个反复出现的主题是人工智能(AI)和深度学习(DL)的芯片,这是一个不断发展的领域,涉及广泛的技术和设备类型。贯穿这些会议的一个共同脉络是对内存优化和解决电源/内存瓶颈的关注。

人工智能是一个热门市场。ABI研究公司估计,整个人工智能芯片市场将在2024年达到210亿美元。其中令人惊讶的是,基于ASIC的人工智能加速器占有很大一部分,预计到2024年,其价值将增加两倍,达到90亿美元的总可用市场(TAM),复合年增长率(CAGR)为30%。

对于训练和推理处理,各公司都在绞尽脑汁,试图想出省电的解决方案。虽然机器学习只是数据中心总耗电量的一部分,但它正在迅速扩大。2017年,数据中心的耗电量约占美国总耗电量的3%,到2020年,这一比例将翻倍至6%。智能边缘设备的扩散也在加速。根据市场研究公司IDC的数据,在未来十年,将有1250亿个 "东西 "连接到互联网上,届时每年将有接近60Zettabytes的数据被创造、捕获、复制和消费。

很明显,我们的行业面临着一个重大挑战:如何在边缘实现许多智能设备,在边缘以非常低的功耗推断所有这些数据,并在云中管理、处理和训练指数级增长的数据,同时保持能源可控。

人工智能参考包的发展

GLOBALFOUNDRIES计算业务部副总裁Hiren Majmudar表示,"推理和训练都存在功率瓶颈",这很好地发挥了GF的技术产品,包括其基于FinFET的12LP(12nm FinFET)平台和12LP+解决方案,以及其基于全耗尽SOI的平面22FDXTM(22nm FD-SOI)平台。

基于FinFET的技术对人工智能处理器具有功率和成本优势,无论是在云端还是在边缘。12LP+解决方案能够以>1 Ghz的速度运行AI内核,并具有新的低压SRAM和能够在0.55V下运行的标准单元库。12LP+是GF最先进的FinFET解决方案,今年已投入生产,与12LP基础平台相比,它有一个双工作功能的FET,可提供高达20%的逻辑性能或高达40%的低功率。 

郝仁-马伊穆达(Hiren Majmudar)

"我们的客户有独特的架构,往往依赖于一套有限的标准单元,"他说。"我们在DTCO(设计技术共同优化)方面下了很大功夫,并开发了一个人工智能参考包,用一套预先包装好的元件来证明其潜力。通过合作的DTCO模型,我们的客户可以迅速将他们的SoC目标推向市场。DTCO工作可以包括基于客户自己的架构的设计分析服务,以优化性能、功率和面积(PPA)。"

Majmudar说,最佳的PPA看起来不同,取决于具体的应用。 

"所有部门都有成本意识。对于云来说,它是关于每瓦特的TOPS,以最低的功率获得最佳的性能。他说:"对边缘来说,所有这些都是关于最低成本和消耗最少的电力,同时优化边缘所需的性能。

Majmudar说,22FDX的eMRAM产品对于开发人工智能应用的客户来说具有优势,"寻求即时开机,或永远开机"。"eMRAM有很多应用,客户用它来获得更好的密度和非挥发性。另一个是内存中的模拟计算,"他补充说。

人工智能工作负载的范围很广,包括语音、视觉和成像,在训练和推理的要求之上。"我们是一个非常专业的代工厂,不断创新我们的IP产品。我们继续投资于IP、模对模互连、内存和接口IP。他说:"我们有一个明确的路线图,我们将根据客户的意见继续改进。

创新的初创企业

在未来的博客中,我计划详细介绍GF是如何与该领域的初创公司合作的,但其中一个值得在此简要提及,只是为了让大家了解GF的客户在人工智能芯片方面有多少创新。

完全耗尽的绝缘体上的硅平台很适合支持动态电压、频率扩展和自动时钟门控。其结果是信号处理和神经网络算法的超低功耗,可以在电池供电的物联网设备中运行。

Perceive是Xperi Corp.的主要子公司,旨在为超低功率消费设备中的传感器数据进行人工智能推理。Perceive的 "Ergo "边缘推理处理器能够在设备上处理大型神经网络,其效率比当今具有推理能力的处理器高20至100倍。

该公司专注于具有集成神经网络处理功能的安全摄像机、智能电器和移动设备,消除了将数据发送到云端进行推理处理的必要性。

请观看下面的简短视频,听听Perceive首席执行官Steve Teig与GF高级副总裁Mike Hogan谈论Perceive的人工智能和机器学习方法。