英特尔在其 2023 年创新活动中宣布了第 14 代流星湖处理器阵容,该阵容具有各种改进和新功能。虽然英特尔 4 流程、分解架构和英特尔锐炫集成显卡是令人兴奋的升级,但用户将欣赏 Meteor Lake 芯片集成的人工智能功能。英特尔宣布将通过第 14 代流星湖处理器中的全新神经处理单元 (NPU) 将人工智能引入现代 PC。但是什么是NPU,它将如何提供帮助?下面就来聊聊吧。
英特尔首次将 NPU 引入客户端芯片
虽然人工智能在网上被广泛使用,但在云上也有局限性。其中最突出的问题包括高延迟和连接问题。神经处理单元(或 NPU)是专用于 CPU 的单元,用于处理 AI 任务。因此,所有与AI相关的处理都不依赖于云,而是在设备本身上完成。英特尔的新NPU将能够做到这一点。
虽然英特尔已经尝试人工智能一段时间了,但这将是该公司首次将NPU引入客户端芯片。Meteor Lake芯片上的NPU是一个专用的低功耗AI引擎,可以处理离线和在线的持续AI工作负载。
这意味着不要依靠人工智能程序来完成互联网的繁重工作;您将能够使用英特尔 NPU 执行相同的工作,例如 AI 图像编辑、音频分离等。拥有用于AI处理和推理的设备端NPU无疑将具有很多优势。
由于没有延迟,用户可以期待闪电般的处理和输出。此外,英特尔的NPU将有助于通过芯片的安全协议提高隐私和安全性。可以肯定地说,您将能够更互换地使用AI,而且每天都如此。
英特尔 NPU 可以可持续地交换工作负载
英特尔 NPU 分为两个主要部分,每个部分都完成自己的工作。这些是设备管理和计算管理。前者支持Microsoft的新驱动程序模型,称为Microsoft计算驱动程序模型 (MCDM)。这对于促进设备上的 AI 处理至关重要。此外,由于此驱动程序模型,用户将能够在Windows任务管理器中看到英特尔NPU以及CPU和GPU。
英特尔在过去六年中一直在与Microsoft一起研究上述驱动程序模型。这使该公司能够确保 NPU 在动态管理电源的同时有效地完成任务。这意味着 NPU 可以快速切换到低功耗状态,以维持这些工作负载,然后再切换回来。
英特尔流星湖 NPU 采用多引擎架构。内置于其中的两个神经计算引擎。它们可以处理两个不同的工作负载,也可以一起处理同一个工作负载。在神经引擎中存在推理管道,它充当核心组件,并将帮助NPU功能。
英特尔的 NPU 使设备上的 AI 成为可能
虽然NPU的实际工作要深入得多,但用户可以期待新的流星湖架构的很多第一次。随着设备上的人工智能处理进入英特尔的消费类芯片,看到它们的应用范围将是令人兴奋的。此外,任务管理器中英特尔第 14 代流星湖的 NPU 虽然听起来很简单,但表明消费者将能够利用它。