英特尔承认使用新的GPU和AI加速器的AI工作站

在Computex 2025中,英特尔对其以AI为中心的硬件投资组合进行了大规模更新,从而巩固了其在劳动节和数据中心的位置。随着ARC Pro B系列GPU和Gaudi Ai Ai Ai Ai Ai Ai AI的推出,英特尔将专业级计算机运送到更广泛的开发人员,创作者和业务用户。本文引用的:最近启动的ARC Pro B60和B50图形卡基于Intel XE2架构,并配备了AI和Intel Vector优化和矩阵处理单元的集成XMX核。这些图形卡是专门为AI推理和设计工作负载而设计的。 B60徽章配备了20 XE核,160 XMX发动机和24 GB的GDDR6内存,该内存通过192 -BIT BUS连接,可提供456 GB/s的内存带宽和197个顶部(INT8)性能。 B60消耗120W至200W,承认多次扩展,并通过Solidwo等主要ISV认证RKS,Maya和Blender平台。 At the same time, the B50 offers a more efficient solution in energy with an energy consumption of 70 W with a 16 xe nucleus and a 128 xmx engine and a Top of 170. It comes with 16 GB of GDDR6 memory, and is available on a 128 -bit bus (224 GB/s bandwidth), which makes it appropriate for light tasks, such as the ascending sampling and the CAD acceleration in Compact work stations.在高端市场上,英特尔推出了Gaudi 3加速器。这是一个双芯片处理器,旨在满足实际尺度时间培训和推断的培训需求。基于TSMC的5个纳米过程,Gaudi 3(白皮书链路)具有八个矩阵乘法发动机,具有3.7 TB/s带宽,A64张紧器处理器核和128 GB的HBM2E.HAY内存。与Gaudi 2相比提高能效的1.5倍和40%。英特尔指出,在LLM培训中,Gaudi 3的效率是NVIDIA H100的效率1.7倍,而在关键工作负载(例如Flame2-13 B. Gaudi3的关键区别)中效率高2.3倍,是其集成网络。每个芯片包括200 Gbps RDMA启用的24个以太网端口,该端口支持这两个扩展,带宽在1.05 tb/s节点和150 GB/s Interdode Extension。基于开放的开放式面料可防止供应商阻塞,并简化了高达512个节点的比例,而无需使用专利开关。除了新的芯片外,英特尔的助理建造者还离开了Beta,现在它在Github提供。此开放式框架使开发人员可以在英特尔系统中本地构建和执行Livian代理。英特尔的软件生态系统结合了Linux容器支持与ISV认证控制器的支持,以密切适应硬件路线图。 ARC Pro系列接纳了消费者和Windows专业人员的消费者电池,Gaudi 3利用了Havana Synapse AI SDK,其中包括对Pytorch,Tensorflow和ONNX的天然支持。这些工具针对MME和TPC发动机的架构功能进行了优化,该工具允许在计算机管道中使用混合工作负载进行精细编程。尽管NVIDIA仍然在AI计算领域中占主导地位,但新的Intel GPU和AI加速器提供了有吸引力的替代方案,尤其是对于寻求开放标准的客户,灵活的可伸缩性和对Modelson的有效实施的大规模实施。随着2025年下半年的预期商业可用性,Intella产品组合的A-Accelera似乎准备好挑战现有市场领导者。