首页    新闻    小组    威客    人才    下载    博客    代码贴    在线编程    论坛
微软宣布 Copilot+ PC 支持本地运行 DeepSeek 模型
2025年3月5日 18:23 | 阅读 31 次

微软宣布 Copilot+ PC 正式支持本地运行 DeepSeek 模型。

据官方介绍,微软通过 Azure AI Foundry 接入 DeepSeek-R1 7B 和 14B 蒸馏模型,为 Copilot+ PC 提供本地运行 7B 和 14B 模型的能力。

目前,搭载骁龙 X 平台的 Copilot+ PC 将可以本地运行上述蒸馏模型,而搭载英特尔酷睿 Ultra 200V 和 AMD 锐龙的 Copilot+ PC 将在后续更新支持。

今年 1 月,微软曾通过引入 Azure Al Foundry 来让 Copilot+ PC 在本地运行 DeepSeek-R1 的 1.5B 蒸馏版 NPU 优化版模型。

微软表示,Copilot+ PC 中内置的 NPU 专为高效率运行 AI 模型而设计,其能确保 AI 计算的同时,对电池寿命、设备发热和资源调用的影响降到最小,而本次支持的两款 DeepSeek-R1 蒸馏模型均可在设备的 NPU 上运行。

比较遗憾的是,目前在 Copilot+ PC 本地运行上述模型速度较慢。据微软公布的数据显示,14B 模型的运行速度仅为 8token / 秒,而 1.5B 模型因体积较小,速度能接近 40token / 秒;微软也表示未来将持续优化模型性能。

目前,开发者可以通过 AI Toolkit VS Code 扩展在 Copilot+ PC 上下载和本地运行 DeepSeek 模型的 1.5B、7B 和 14B 版本。

(文/开源中国)    




评论 (0)
游客请输入验证码
最新评论
0
0
收藏