Microsoft prefiere un 7 propio que un 10 de OpenAI. Los 13.000 millones invertidos en OpenAI acaban de cobrar sentido

Microsoft prefiere un 7 propio que un 10 de OpenAI. Los 13.000 millones invertidos en OpenAI acaban de cobrar sentido

Microsoft ha lanzado MAI-1, su primer modelo de IA desarrollado completamente en casa. Está en el puesto 13º de LMArena, por debajo de los de Anthropic, DeepSeek, Google y, por supuesto, OpenAI.

No es el mejor modelo y ni siquiera está cerca, pero eso podría ser exactamente lo que Satya Nadella tenía en mente.

Por qué es importante. Las tecnológicas no necesitan la excelencia absoluta para dominar mercados. Necesitan control, integración y márgenes. Microsoft lo ha entendido desde los tiempos de MS-DOS: es mejor poseer un producto suficientemente bueno que depender de la excelencia ajena.

Windows nunca fue el mejor sistema operativo.
Internet Explorer no era el mejor navegador.
Excel sí es el mejor, pero tardó años en superar a Lotus 1-2-3.

Todos, en cualquier caso, acabaron dominando sus mercados porque Microsoft controlaba el desarrollo, la distribución y, sobre todo, la integración con el resto de su ecosistema.

El rastro del dinero. Los 13.000 millones que Microsoft ha invertido en OpenAI empiezan a parecer menos una apuesta y más una matrícula universitaria. Microsoft ha pagado por:

Acceso temprano a la tecnología GPT mientras construía su propia infraestructura.
Tiempo para aprender qué funciona en IA sin la presión de ser pioneros.
La credibilidad instantánea de ofrecer «el mejor modelo» a través de Copilot.
Una excusa perfecta para construir grandes clústers de GPUs que ahora usa para MAI-1.

Suleyman lo ha dejado claro: han entrenado MAI-1 con 15.000 GPUs H100 (Grok usa 100.000, por comparar) y ya tienen operativo un clúster de GB200 de nueva generación.

Esa infraestructura no se construyó para ejecutar modelos de OpenAI. Se construyó para esto.

La situación actual. MAI-1 no compite en capacidades brutas. Pero tiene ventajas que OpenAI nunca podrá ofrecer:

Microsoft controla completamente el desarrollo. Pueden optimizarlo específicamente para Windows, Office y Azure sin pedir permiso a nadie. Pueden ajustar costes, latencia y capacidades según sus necesidades exactas.
La voz es importante. MAI-Voice-1 genera un minuto de audio en menos de un segundo con una sola GPU. No necesitan ser los mejores en procesamiento de texto si dominan la interfaz que creen del futuro: la voz.

Sí, pero. Un modelo en el puesto 13º sigue siendo un modelo en el puesto 13º. Los usuarios empresariales que pagan miles de dólares por Copilot seguramente esperan lo mejor, no lo «suficientemente bueno».

Microsoft lo sabe y por eso no están reemplazando GPT-5 inmediatamente. MAI-1 se está introduciendo gradualmente en «casos de uso específicos» mientras mejora. Esta es su versión 1.0. GPT-5 es la quinta gran iteración de OpenAI. Tienen margen para crecer.

El momento decisivo. La verdadera prueba llegará cuando Microsoft tenga que elegir: ¿renovar el acuerdo con OpenAI o apostar todo a sus modelos propios?

Con MAI-1, Microsoft ha demostrado que tiene una alternativa viable. No necesita ser mejor que GPT-4. Solo necesita ser lo suficientemente buena para que los 250.000 millones de ingresos anuales de Microsoft no dependan de los caprichos de Sam Altman.

En una negociación, la mejor posición es poder levantarte de la mesa. Microsoft acaba de comprarse la silla.

En Xataka | La prueba de la autosuficiencia de China en chips para IA ya está aquí: no ha comprado a NVIDIA ni una sola GPU H20 en el último trimestre

Imagen destacada | Microsoft


La noticia

Microsoft prefiere un 7 propio que un 10 de OpenAI. Los 13.000 millones invertidos en OpenAI acaban de cobrar sentido

fue publicada originalmente en

Xataka

por
Javier Lacort

.