Microsoft ha confirmado que pronto traerá versiones "optimizadas para NPU" del modelo de IA DeepSeek-R1 a los PC Copilot+. Primero llegarán a dispositivos con Snapdragon X, y más adelante a PCs con Intel Lunar Lake y AMD Ryzen AI 9. La primera versión disponible será el DeepSeek-R1-Distill-Qwen-1.5B, que los desarrolladores podrán usar a través del kit de herramientas de IA de Microsoft. Modelos más grandes, como las variantes 7B y 14B, llegarán más adelante.
¿Qué significa esto para los usuarios de Windows 11 Copilot+?
Para los que no están tan familiarizados con los PC Copilot+, estos dispositivos deben contar con al menos 256 GB de almacenamiento, 16 GB de RAM y una NPU capaz de alcanzar un mínimo de 40 TOPS. En otras palabras, algunos PCs con NPUs más antiguas no podrán ejecutar estos modelos de IA de manera local.
Según Microsoft, estos nuevos modelos optimizados ayudarán a los desarrolladores a crear e implementar aplicaciones de IA más eficientes, aprovechando al máximo la potencia de las NPU en los PC Copilot+.
"Gracias a nuestro trabajo en Phi Silica, hemos logrado una inferencia altamente eficiente, reduciendo el tiempo de respuesta sin afectar demasiado la batería ni el rendimiento del PC", explica Microsoft en su blog. Además, han integrado Windows Copilot Runtime (WCR) para que estos modelos sean compatibles con una gran variedad de dispositivos Windows mediante el formato ONNX QDQ.
En su blog, Microsoft explica cómo logró que los modelos DeepSeek R1 puedan ejecutarse directamente en PCs con NPU sin depender de la nube.
"Primero, utilizamos un diseño de ventana deslizante que nos permite acelerar el tiempo de respuesta del primer token y ofrecer soporte para contextos largos, incluso sin tensor dinámico en el hardware. Luego, aplicamos un esquema de cuantificación QuaRot de 4 bits para aprovechar al máximo el procesamiento en bits bajos", dice Microsoft.
El modelo 1.5B Distilled R1 estará disponible muy pronto y se podrá acceder a él a través de la extensión AI Toolkit en VS Code. Los desarrolladores también podrán probarlo localmente en PC Copilot+ usando Playground.
Pero eso no es todo: además de ejecutarse en dispositivos locales, Microsoft también llevará estos modelos a la nube a través de Azure AI Foundry.
"Gracias a Azure AI Foundry, DeepSeek R1 estará disponible en una plataforma confiable, escalable y lista para empresas, permitiendo una integración sencilla de IA avanzada con altos estándares de seguridad y cumplimiento", afirma Microsoft.
Podría interesarte leer: ¿DeepSeek supera a ChatGPT? Comparación Completa
DeepSeek R1 y la polémica con OpenAI
Microsoft se ha movido rápido para impulsar DeepSeek R1, justo en un momento en el que algunas grandes empresas tecnológicas de EE.UU. están preocupadas por su crecimiento. De hecho, OpenAI ha acusado a DeepSeek de robar código propietario para desarrollar su modelo de IA, el cual habría costado menos de 10 millones de dólares en total. Esto contrasta fuertemente con los modelos de IA de empresas estadounidenses, que han requerido inversiones de miles de millones de dólares hasta ahora.