单颗SoC 支持 1 至 340 亿参数的多模态大模型(Multi-Modal LLM)推理,实现前端低功耗生成式 AI。
美国加利福尼亚州圣克拉拉市,2024年1月8日-
Ambarella (下称“安霸”,专注AI 视觉感知的半导体公司,纳斯达克股票代码:AMBA)于当天宣布,在2024 国际消费电子展(CES)期间,展出在其新款N1 系列SoC 上运行多模态大模型(Multi-Modal LLM),其每次推理的功耗显著低于当前市场的通用GPU 解决方案。生成式AI 是为了处理大规模数据集而最早应用于服务器上的变革性技术,而安霸的目标是将生成式AI 部署于终端设备和本地硬件上,从而将其广泛应用于视频安防分析、机器人以及众多工业领域。

安霸将在中高端SoC 上提供已优化的生成式AI 处理。这些AI SoC 包含了功耗低于5 瓦的CV72 芯片,以及最新的可应用于服务器端,功耗低于50 瓦的N1 芯片。与GPU 及其他AI 加速器相比,安霸提供了完整的SoC 解决方案,每生成一个token 的能效比最高可提高3 倍,并可快捷、低成本地部署在终端产品中。
安霸首席技术官兼联合创始人Les Kohn 表示:“生成式AI 在我们的目标市场上实现了突破,之前无法想象的功能得以实现。使用我们的N1 系列SoC 来进行多模态大模型推理,将使所有的前端设备变得更智能,更低功耗,和更低成本。”
市场研究公司Omdia 高级计算首席分析师Alexander Harrowell 表示:“在未来18 个月内,几乎所有设备前端应用都将被生成式AI 增强。把生成式AI 的计算转移到设备前端的要点,就在于每瓦的AI 性能,以及它与前端生态系统其余部分的集成,而不仅仅是原始数据的吞吐量。”
所有安霸的AI SoC 均可搭配全新的Cooper™ 开发平台。此外,为了缩短客户新产品上市的时间,安霸已预先移植和优化了Llama-2 等流行的大语言模型。其在N1 芯片上运行的大语言和视觉助手LLava 模型,可对多达32 个摄像头同时进行多模态视觉分析。这些经过预训练和调优的模型可从Cooper Model Garden 下载。
在现实世界的众多应用里,除了语言,视觉输入也是一种关键模式。安霸SoC 的特有架构非常适合以超低功耗同时运行视频处理和AI 计算。安霸的AI SoC 并不是单一的AI 加速器,它不仅能够高效处理多模态大模型,还能同时执行各种系统功能。
生成式AI 将成为计算机视觉处理中跨越式的新技术,它可将上下文学习和场景理解应用于各种设备,从而涵盖安防设施、自主机器人以及众多工业应用。基于安霸AI 芯片的设备端通过运行大语言模型和多模态处理可实现以下功能:安防视频的上下文智能搜索、通过自然语言命令控制的机器人、以及多才多艺的AI助手,比如代码、文本和图像的生成等。
这些依赖摄像头和自然语言理解的系统,大部分将受益于设备前端的生成式AI 处理,其处理速度得以提高,隐私保护得到加强,并且总成本也会降低。安霸解决方案支持的本地处理也非常适合垂直领域大语言模型,这些大语言模型通常需要针对每个具体应用场景进行调整;而传统的集中式服务器方案则是使用更大、功耗更高的大语言模型来满足不同用例的要求。
基于安霸最初为自动驾驶开发的CV3-HD 架构,N1 系列SoC 对总算力资源进行了针对性的优化,从而以超极低功耗运行多模态大模型。例如,N1 SoC 在单流模式下以低于50 瓦的功耗运行Llama2-13B,每秒可推理25 个token。N1 解决方案自带移植好的大模型,使系统整合更容易,因此它可快速帮助OEM 厂商部署生成式AI,特别是要求低功耗的各种应用,比如自带本地应用的AI 智能盒子、送货机器人等,不一而足。
本周,安霸将在CES 展会期间持续演示N1 SoC 及其多模态大模型功能。
关于安霸
安霸的产品广泛应用于人工智能计算机视觉、视频图像处理、视频录制等领域,包括视频安防、高级驾驶辅助系统(ADAS)、行泊一体、汽车无人驾驶、电子后视镜、行车记录仪、驾驶员及舱内智能监控、机器人应用等。安霸的高性能、低功耗AI处理器提供超高清图像处理、视频压缩及强大的神经网络处理,能够从高分辨率视频和雷达信息中提取有价值的数据,在智能感知、传感器融合和中央域控处理系统等领域大显身手。欲了解更多信息,请访问www.ambarella.com
|