人工智能正在试图改变几乎所有行业——从增强医疗诊断、产业自动化和工作安全到提高创新和生产力。然而2025股票配资,88%的人工智能概念验证并没有进入生产部署。虽然乐观情绪很高,但支持和扩展人工智能的成本和复杂性飙升仍然是一个挑战。
NeuReality很早就认识到,即使GPU的进化速度惊人,如果头节点(Head Node:计算集群的核心管理节点,负责协调整个集群的任务调度和资源管理)无法跟上,其效果也会丧失。必须从头开始重新构想头节点,以便为数据中心环境中的分布式GPU设置提供编排和资源管理。人工智能系统需要专门构建,而不仅仅是重新调整用途。这就是NR1 AI-CPU的目标:创建一个专门构建的异构AI头节点,该节点可以承载任何GPU,并以较低的成本提供具有高性能的可扩展、节能的推理系统。
金融服务、健康和生命科学等行业,对支持人工智能的数据中心基础设施的需求持续增长,特别是大规模推理计算。NeuReality与Arm的合作在NR1的成功中发挥了巨大作用,该公司期待在此基础上继续推出下一代NR2芯片。
人工智能的潜力和投资回报率遭遇传统架构的瓶颈,导致性能、吞吐量和TCO受到影响。借助NR1 AI-CPU,NeuReality采用了一种不同的计算方法,该方法是使用Arm Neoverse内核专门构建的。将传统的CPU头节点重塑为异构计算设备,嵌入了DSP和定制的音频和计算机视觉编解码器处理器,围绕着一种新型的AI Hypervisor(虚拟机监控程序),可以进行数据移动和处理。嵌入式AI-NIC管理传入/传出流量和内部数据传输。它允许客户端和服务器、服务器节点和GPU之间跨不同服务器或机架进行通信。AI Hypervisor与Arm Neoverse内核一起实现了正确的编排层,从而实现了最大的利用率和效率。
在与NR1合作的基础上,NeuReality深化了与Arm的合作,推出了由Arm Neoverse Compute Subsystems(CSS)V3驱动的下一代NR2芯片。一起重新定义了在芯片和系统层面进行人工智能推理和训练的可能性。
Neoverse V3内核提供了更高的单线程性能,这对许多AI任务至关重要。凭借增强的内存子系统、对高级互连技术的内置支持以及优化的软件框架和库,Neoverse CSS V3旨在在现代AI工作负载中表现出色。它是NeuReality下一代AI-CPU基础的最佳候选者。此外,Arm成熟的软件生态系统满足了软件就绪性和互操作性的需求。
NR2将整合NeuReality在NR1中学到的一切并加以扩展。今天能提供一些新功能,包括:
最多128个内核,针对大规模推理和训练工作负载进行了优化。
AI-CPU和AI-NIC之间更深入的集成,用于实时模型协调、基于微服务的分解、令牌流、KV缓存优化和内联编排。
提供内置的AI Hypervisor和嵌入式AI over Fabric网络引擎,以高效、低延迟的方式简化AI客户端和服务器之间以及大型AI管道内的数据流。
提供本机编译和运行时流集成,以实现无缝部署。
NeuReality正在推动行业所需的架构转变——一条通往开放、高效、人工智能优化基础设施的道路。该公司构建了未来的AI头节点,旨在实现从硅到系统再到软件的性能、开放性和规模。
NVIDIA DLI 与Ai时代前沿合作2025股票配资,将大门向更多普通用户敞开!无论你是对新技术充满好奇心的爱好者,还是希望提升自己技能的职场人士,这里都有适合你的课程和资源。
倍顺网配资提示:文章来自网络,不代表本站观点。