微软宣布 Copilot+ PC 正式支持本地运行 DeepSeek 模型。
据官方介绍,微软通过 Azure AI Foundry 接入 DeepSeek-R1 7B 和 14B 蒸馏模型,为 Copilot+ PC 提供本地运行 7B 和 14B 模型的能力。
目前,搭载骁龙 X 平台的 Copilot+ PC 将可以本地运行上述蒸馏模型,而搭载英特尔酷睿 Ultra 200V 和 AMD 锐龙的 Copilot+ PC 将在后续更新支持。
今年 1 月,微软曾通过引入 Azure Al Foundry 来让 Copilot+ PC 在本地运行 DeepSeek-R1 的 1.5B 蒸馏版 NPU 优化版模型。
微软表示,Copilot+ PC 中内置的 NPU 专为高效率运行 AI 模型而设计,其能确保 AI 计算的同时,对电池寿命、设备发热和资源调用的影响降到最小,而本次支持的两款 DeepSeek-R1 蒸馏模型均可在设备的 NPU 上运行。
比较遗憾的是,目前在 Copilot+ PC 本地运行上述模型速度较慢。据微软公布的数据显示,14B 模型的运行速度仅为 8token / 秒,而 1.5B 模型因体积较小,速度能接近 40token / 秒;微软也表示未来将持续优化模型性能。
目前,开发者可以通过 AI Toolkit VS Code 扩展在 Copilot+ PC 上下载和本地运行 DeepSeek 模型的 1.5B、7B 和 14B 版本。
(文/开源中国)