|
RISC-V 已赋能专为应对现代 AI 挑战而设计的 AI 原生芯片。以下公司正在利用 RISC-V 不断突破极限:
1、晶心科技是 RISC-V 国际联盟的创始成员之一,提供全面的 RISC-V IP 核心系列,具有 DSP、矢量和可扩展功能,并由用于自定义指令扩展的自动化工具支持,为从超低功耗传感器节点到数据中心等应用的 SoC 中的 AI 提供支持。
2、Codasip使用其 CodAL 设计语言,为 SoC 开发人员提供可定制的 RISC-V 内核。该公司声称已出货超过 20 亿个内核,其中包括针对 AI/ML 边缘用例定制的配置。
3、NVIDIA提供了大量加速器技术,助力 AI 蓬勃发展。2024年,RISC-V 核心出货量超过 10 亿颗,同时宣布计划将其 CUDA AI 加速堆栈移植到 RVA23 架构。这凸显了 RISC-V 的重要性已超越开放软件生态系统,延伸至主流 AI 应用,成为全球领先专有 GPU 架构的协调者。
4、欧洲集成矩阵扩展 (IME) 先驱及 IP 核供应商Semidynamics最近推出了一款RISC-V 张量单元 (Tensor Unit) ,支持流式工作负载、稀疏/密集张量运算以及 AI 数据流处理。通过将矢量和张量功能嵌入 CPU,Semidynamics 正在应对 2025 年基础设施峰会 (Infra Summit 2025) 上 AI 数据中心领域的核心能效和 PPA 挑战。
5、SiFive 是由 RISC-V 发明者组建的商业供应商,以 IP 形式提供适用于 AI 用例的 CPU 内核——从最低配置的边缘传感器到企业级云基础设施系统。
6、SpacemiT为 AI CPU 开发 RISC-V 处理器——其 Muse Book 和 Deep Computing 的笔记本电脑均搭载了 K1 芯片。即将推出的 64 核 VitalStone V100 处理器采用即将推出的 RVA23 标准,旨在处理服务器级 AI 工作负载。
7、Tenstorrent使用 RISC-V CPU 内核和 chiplet 架构构建高性能 AI 处理器,专注于从边缘到数据中心的可扩展计算。该公司与日本 LSTC 合作开发 2nm AI 加速器,并已开放其 chiplet 规范 (OCA),从而构建了一个可组合、可互操作的芯片生态系统。
8、Ventana提供高性能 RISC-V 处理器和芯片集,专为可扩展的数据中心、人工智能和汽车工作负载而设计。其 Veyron 系列实现了业界领先的单线程性能,并通过 OCP 开放芯片集经济 (OCE) 等开放芯片集标准实现模块化系统集成。Ventana 结合其在计算领域的领先优势和灵活性,加速了 RISC-V 在所有高性能市场的普及。
9、VRULL致力于推进软件堆栈的基础研发,包括运行时系统、工具链优化和流片前探索,以确保 RISC-V 能够发展成为一个真正具备 AI 能力的平台。VRULL 基于实际工作负载和性能建模,对附加矩阵扩展 (AME) 和 IME 的贡献侧重于实现外积运算和其他对 AI 推理至关重要的矩阵模式。
10、玄铁是阿里巴巴达摩院旗下品牌,致力于推动RISC-V在云端到边缘AI领域的发展,设计了玄铁C930等面向AI-HPC应用的服务器级处理器。玄铁还推动编译器和工具链支持,并为新的矩阵扩展标准做出贡献,从而赋能自主的国内基础设施。
在软件方面,最近与 RISE 项目合作推出的 Red Hat Enterprise Linux 10 开发者预览版在 SiFive 的 HiFive Premier P550 上发布,为构建和部署基于 RISC-V 的 AI 工作负载提供了一个成熟的企业级平台。同样,Canonical 正准备在即将发布的 25.10/26.04 版本中提供针对 RVA23 配置文件的 Ubuntu 桌面支持,确保 RISC-V 开发人员拥有稳定、现代的 Linux 发行版。RVA23 将迎来更多这样的里程碑式软件时刻——尤其是 RISC-V 的 CUDA。
llama.cpp等开放项目现已充分利用 128 位 RISC-V 矢量扩展来加速量化推理。在 RISE 计划的支持下,编译器团队正在向 PyTorch 等关键 AI 框架提供对 RISC-V 的上游支持,从而增强兼容性和性能,而无需专有扩展。
这对人工智能开发人员意味着什么?
对于 AI 开发者而言,RISC-V 将硬件格局从专有约束转变为可适应工作负载的开放平台,而非反过来。这种转变能够快速实现创新,支持工作负载专业化,并摆脱供应商锁定。
为了塑造和创新 AI 基础设施的未来,开发人员必须抓住 RISC-V 的机遇。具体方法如下:
探索与应用:探索不断壮大的 RISC‑V IP 核、开发板和工具链生态系统,以及它们在全栈推理优化中的作用。将 RISC‑V 集成到您的下一代 AI 系统中(无论是在边缘还是云端),并体验 AI 原生硬件的实际应用。
贡献与协作:加入 RISC-V 国际组织——开放 ISA 背后的标准制定机构。个人会员免费,可加入工作组;企业会员则可按等级加入,从普通会员到高级会员,并支付相关费用和享受治理优势。如果您是软件开发者,不妨考虑加入 RISE AI/ML 工作组——Linux 基金会旗下的社区主导倡议,助力推动 RISC-V 的 AI 软件成熟。该工作组致力于促进 PyTorch、TensorFlow、TFLite 和 llama.cpp 等框架的协作,确保它们在 RISC-V 上发挥最佳性能,并直接影响 LLM 性能和代理 AI 的就绪性。
创新与优化:利用 RISC-V 的开放模块化 ISA 共同设计定制硬件和软件。根据您的工作负载定制扩展功能(例如矢量、张量或矩阵运算),在每一层实现前所未有的能效和延迟改进,同时不牺牲可移植性。
提升软件成功率:通过将 RISC-V 作为日常开发平台来加速价值实现的开发者将获得成功。获得实际操作硬件至关重要,但在搭载 RISC-V 的笔记本电脑上工作也同样重要。事实上,您现在可以为 Framework Laptop 13 购买 DeepComputing RISC-V 主板,将模块化笔记本电脑转变为功能齐全的 RISC-V 工作站,并允许您通过在 RISC-V 上运行 RISC-V 进行构建。这种真实的环境可以增强早期采用者的信心,加快移植速度,并深化工具链级别的熟练程度。当然,如果您更愿意从小处着手,即使是 5 美元的 Raspberry Pi Pico 2 也配备了 RISC-V 硬件供您尝试——我们期待 2026 年推出兼容 RVA23 的全新开发板。
|