近日,微软AI推理框架开源社区ONNX Runtime宣布其最新版本1.17.0已经新增了对龙芯LoongArch架构的支持。这一举措意味着,AI开发者们现在可以直接使用ONNX Runtime开源社区发布的版本,在龙芯平台上进行AI推理类应用的开发和部署。此举不仅为用户提供了更多的选择,也标志着龙架构软件生态正在逐步完善,展现出强大的生命力和广阔的应用前景。
ONNX Runtime(ORT)近年来以其卓越的性能和广泛的兼容性赢得了业界的广泛认可。作为一款AI推理框架软件,ORT支持多种格式的模型输入,包括但不限于PyTorch、Tensorflow、TFLite等,同时还兼容CPU、GPU、IoT、NPU、FPGA等多种算力后端。这种强大的兼容性使得ORT成为众多AI应用的首选基础AI推理引擎。
龙芯中科作为国内领先的芯片设计企业,一直在推动自主可控的芯片技术研发。LoongArch架构作为龙芯中科自主研发的新一代指令集架构,其性能和稳定性已经得到了市场的充分验证。然而,要在AI领域实现更广泛的应用,还需要得到更多软件生态的支持。
此次ONNX Runtime对龙架构的支持,正是龙芯中科与社区紧密合作的结果。在ONNX Runtime社区1.17.0版本的研制过程中,龙芯中科技术团队积极参与,向社区代码仓库提交了7697行代码,对矩阵乘法、卷积、转置等核心算子进行了深度向量优化。这些优化不仅提升了龙架构在AI推理方面的性能,也为其在更多场景下的应用奠定了坚实的基础。
在社区的支持下,龙架构的优化代码通过了严格的检视和测试验证等质量保证流程。最终,ONNX Runtime社区自1.17.0版本起正式实现了对龙架构的原生支持。这意味着,龙架构已经成为ORT官方支持的架构之一,用户无需进行额外的适配工作,即可在龙芯平台上使用ORT进行AI推理应用的开发和部署。
AI旋风认为,这一举措对于推动AI生态的多样化发展具有重要意义。随着人工智能技术的不断发展,越来越多的行业开始应用AI技术来提升效率和创新能力。然而,不同行业、不同应用场景对于AI技术的需求也各不相同。因此,一个完善的AI生态需要能够支持多种芯片架构和多种应用场景。
微软ONNX Runtime对龙架构的支持,正是满足了这一需求。它不仅让龙芯平台上的AI开发者们能够享受到ORT带来的高效、稳定的AI推理能力,也为其他芯片架构和软件生态提供了参考和借鉴。未来,随着更多芯片架构和软件生态的加入,AI生态将会变得更加丰富多样,为各行各业带来更多的创新机会和发展空间。
总的来说,微软ONNX Runtime支持龙芯LoongArch架构是AI生态发展的一次重要突破。它不仅提升了龙架构在AI领域的应用能力,也推动了整个AI生态的多样化发展。相信在不久的将来,我们将会看到更多芯片架构和软件生态加入到AI生态中来,共同推动人工智能技术的不断发展和创新。