Close Menu
LISTIN DIARIO – RD EN VIVO Noticia de ultimo minutoLISTIN DIARIO – RD EN VIVO Noticia de ultimo minuto

    Subscribe to Updates

    Get the latest creative news from FooBar about art, design and business.

    What's Hot

    Sol, arena y bebés: cuidados antes de ir a la playa en Semana Santa

    31 de marzo de 2026

    Podemos allana la vía de la unidad de la izquierda alternativa en Andalucía

    31 de marzo de 2026

    Petromovil defiende la calidad y acciones legales Jefte Ventura

    31 de marzo de 2026
    Facebook X (Twitter) Instagram
    • Sobre Nosotros
    • Contáctanos
    Facebook X (Twitter) Instagram Pinterest Vimeo
    LISTIN DIARIO – RD EN VIVO Noticia de ultimo minutoLISTIN DIARIO – RD EN VIVO Noticia de ultimo minuto
    • Home
    • Deportes
    • Economía
    • Entretenimiento
    • Internacionales
    • Nacionales
    • Política
    • Salud
    • Tecnología
    LISTIN DIARIO – RD EN VIVO Noticia de ultimo minutoLISTIN DIARIO – RD EN VIVO Noticia de ultimo minuto
    Home»Tecnología»el chip de inferencia de Microsoft que quiere abaratar el coste de la IA en Azure
    Tecnología

    el chip de inferencia de Microsoft que quiere abaratar el coste de la IA en Azure

    LISTIN DIARIO NOTICIA DE HOYBy LISTIN DIARIO NOTICIA DE HOY29 de enero de 2026No hay comentarios8 Mins Read
    Share Facebook Twitter Pinterest LinkedIn Tumblr Reddit Telegram Email
    WWWhat's New
    Share
    Facebook Twitter LinkedIn Pinterest Email

    Cuando hablamos de modelos grandes, solo imaginamos el momento épico del entrenamiento, como si fuera el rodaje de una película. En la práctica, lo que más factura no es grabar, sino emitir la serie cada día a millones de personas. Esa “emisión” se llama inferenciael trabajo de generar respuestas en tiempo real cuando alguien usa un chatbot, un copiloto de productividad o un sistema de atención al cliente.

    Microsoft lleva tiempo insistiendo en que el cuello de botella ya no es solo construir modelos, sino mantenerlos funcionando de forma rentable y consistente en centros de datos. En esa línea se entiende el anuncio de Maia 200ONU acelerador de IA Diseñado con una misión muy concreta: producir “tokens” (las unidades con las que el modelo compone texto) con menos costo y menor consumo energético, sin sacrificar la experiencia de uso. Según Microsoft, su objetivo es recortar el coste de ejecutar modelos a escala y mejorar el rendimiento económico de la infraestructura de inferencia.

    Qué es Maia 200 y por qué llega ahora

    Maia 200 es la segunda generación de chips propios de Microsoft para cargas de trabajo de IA, sucesor de maya 100. La compañía lo presenta como un procesador “hecho a medida” para su nube, con despliegue inicial en centros de datos de Azure empezando por Estados Unidos. La idea es clara: diseñar el silicio pensando en el servicio final, no como una pieza genérica que luego hay que adaptar. Esa filosofía “del silicio al servicio” ya apareció en la estrategia de Maia 100, enfocada a integrarse con la pila de hardware y software de Azure.

    A nivel de fabricación, Microsoft indica que Maia 200 está construida en el proceso de 3 nm de TSMC y que cada chip integra más de 140.000 millones de transistores. Son cifras que lo colocando en la liga de los grandes aceleradores actuales, con un mensaje implícito: hay músculo suficiente para modelos grandes hoy y margen para modelos más exigentes mañana.

    FP4 y FP8: cuando menos precisión significa más velocidad

    Uno de los puntos que más destaca Microsoft es el soporte de cálculos en baja precisión, especialmente FP4 y 8PM. Esto puede sonar contraintuitivo: ¿no queremos máxima precisión? En inferencia, muchas veces lo que se busca es el equilibrio. Es como elegir entre escribir con rotulador o con lápiz ultrafino: el rotulador no sirve para dibujar planos de ingeniería, pero para un cartel grande es más rápido y “suficientemente bueno”.

    Microsoft afirma que Maia 200 supera los 10 petaFLOPS es FP4 y los 5 petaFLOPS es 8PM. Traducido a la vida diaria, es el tipo de potencia que permite responder más rápido, con menor energía por respuesta, en escenarios donde miles o millones de consultas llegan en cascada.

    Este enfoque encaja con cómo se usan hoy muchos modelos de lenguaje: se optimizan para generar texto con calidad estable mientras se recortan milisegundos y vatios. En servicios comerciales, esos “pequeños” ahorros se convierten en una factura muy distinta a final de mes.

    Memoria y ancho de banda: que el modelo no se queda esperando

    En IA, la potencia de cálculo por sí sola no basta. Un modelo grande es como una cocina con chefs rapidísimos… pero con una despensa al otro lado de la ciudad. Si los ingredientes llegan tarde, el servicio se ralentiza igual.

    Maia 200 incorpora 216 GB de memoria HBM3e con un ancho de banda de 7 TB/sjunto con 272MB de SRAM en el propio chip. La HBM3e acelera el acceso a enormes volúmenes de datos, vital cuando el modelo necesita mover pesos y activaciones sin pausa. La SRAM actúa como una zona “VIP” para datos críticos y repetitivos, reduciendo latencias. El resultado buscado es simple: menos esperas internas, más fluidez en inferencia.

    Esta obsesión por la memoria no es casual. En la práctica, muchos problemas de rendimiento en inferencia se parecen a un atasco: no es que falten coches potentes, es que las vías de acceso no dan abasto.

    Escalar en el centro de datos: Ethernet y clústeres enormes

    Otro rasgo clave de Maia 200 es cómo se comporta cuando se apilan muchos chips en una infraestructura real. Microsoft describe un diseño pensado para escalar en clústeres grandes, con 2,8 TB/s de ancho de banda bidireccional por chip y la capacidad de conectar hasta 6.144 aceleradores usando estándar ethernet.

    Esta decisión tiene una lectura práctica: en lugar de depender de interconexiones exóticas o difíciles de integrar, Microsoft apuesta por una red familiar para los operadores de centros de datos. Es como montar un barrio nuevo usando carreteras y rotondas que los equipos de mantenimiento ya conocen, en vez de inventar un tipo de asfalto que exige maquinaria especial. Esa compatibilidad puede simplificar despliegues, mantenimiento y ampliaciones.

    Rendimiento por dólar: la métrica que manda en inferencia

    Microsoft sostiene que Maia 200 ofrece alrededor de un 30% más de rendimiento por dólar que el hardware que usa actualmente en su flota para inferencia. En esta categoría, la frase importante no es “más rápido” sin más, sino “más rápido por lo que cuesta”. Se paga el chip, la energía, la refrigeración, el espacio en rack, la red, la amortización, el personal.

    Un salto en rendimiento por dólar suele traducirse en dos posibilidades: mantener el coste y servir más consultas, o mantener el volumen y reducir gasto. En ambos casos, hay un incentivo directo para integrar estos chips en servicios ampliamente utilizados. Fuentes que han cubierto el anuncio remarcan precisamente ese objetivo de reducir el coste por token y mejorar la economía de la inferencia a gran escala.

    Un SDK para que el ecosistema no empiece desde cero

    El silicio sin software es un coche sin volante. Microsoft acompaña Maia 200 con una vista previa del SDK de Maia 200orientado a que desarrolladores y startups puedan optimizar modelos y cargas de trabajo. Se menciona compatibilidad con PyTorchONU compilador tritónlibrerías de kernels optimizadas y opciones de programación a bajo nivel para quien necesite exprimir cada ciclo.

    La clave aquí es la fricción: si mueve un modelo a un nuevo chip exige reescribirlo desde cero, la adopción se frena. Si el flujo empieza en herramientas conocidas, el cambio se parece más a ajustar la receta para un horno nuevo que a reconstruir la cocina completa.

    De GPT-5.2 a Copilot: para qué servicios se está preparando Microsoft

    Microsoft ha señalado que Maia 200 impulsará modelos recientes como OpenAI GPT-5.2 y que forma parte del músculo que sostiene los productos y experiencias de la compañía. La conexión no sorprende: gran parte de la estrategia de Microsoft en IA pasa por ofrecer capacidades generativas dentro de la suite de productividad y de su nube. Un informe de Yahoo Finance también apunta a su uso en productos como Copiloto de Microsoft 365 y aplicaciones de su ecosistema.

    En paralelo, OpenAI presentó GPT-5.2 como una familia de modelos orientados a trabajo profesional y agentes más persistentes, lo que suele implicar más llamadas, más contexto y más inferencia. Tener herrajes diseñados para servir esa demanda encaja como guante.

    La lectura estratégica: menos dependencia y más control del “coste por token”

    El movimiento de Microsoft se lee también como parte de una tendencia mayor: los gigantes de la nube quieren reducir la dependencia de GPUs de terceros y ganar control sobre su hoja de costes. No significa que vayan a prescindir de proveedores como Nvidia, pero sí que buscan alternativas para cargas concretas, sobre todo inferencia, donde el volumen es enorme y cada punto porcentual importa.

    Medios que han comparado cifras citan afirmaciones de Microsoft sobre cómo se sitúa Maia 200 frente a propuestas de otros grandes actores, con menciones a AWS y Google en el debate público. Aun así, en chips de IA conviene tratar cualquier comparativa con cautela: los resultados dependen de modelos, configuraciones, redes, compiladores y del tipo exacto de consulta. Lo importante es el enfoque: un diseño centrado en inferencia, memoria y escalabilidad en el centro de datos, integrado en el servicio final.

    Qué puede notar una empresa usuaria de Azure

    Para una organización que consume IA en la nube, el impacto suele aparecer en tres sitios: latencia, disponibilidad y costo. Si la infraestructura de inferencia es más eficiente, se abren puertas a respuestas más rápidas, a límites de uso más altos o funciones que antes eran demasiado caras de ofrecer de forma generalizada.

    La expectativa razonable es que Maia 200 ayude a Microsoft a sostener el crecimiento de la demanda sin que la factura se dispare al mismo ritmo. En términos cotidianos, es como cambiar a una flota de furgonetas que gastan menos combustible y cargan más paquetes: el cliente no necesita saber el modelo del motor para notar que las entregas llegan antes y que hay menos “no hay stock” en punta.

    Comparte esto:

    • Haz clic para compartir en Facebook (Se abre en una ventana nueva) Facebook
    • Haz clic para compartir en X (Se abre en una ventana nueva) X

    Me gusta esto:

    Me gusta Cargando...

    Relacionado

    abaratar Azure chip coste inferencia Microsoft quiere
    Share. Facebook Twitter Pinterest LinkedIn Tumblr Email
    Previous ArticleEl decreto
    Next Article Nueva cédula: JCE dejará emitir el formato actual a partir de febrero
    LISTIN DIARIO NOTICIA DE HOY
    • Website

    Related Posts

    Política

    Feijóo no quiere ser Aznar, por Lola García

    29 de marzo de 2026
    Internacionales

    Nueva York quiere limitar el autopago: robos, errores y empleo en el centro del debate

    23 de marzo de 2026
    Entretenimiento

    Cazzu comparte fotos de Inti tras Nodal diciendo que no quiere que exponga a la niña

    17 de marzo de 2026
    Add A Comment

    Deja un comentarioCancelar respuesta

    Our Picks

    Sol, arena y bebés: cuidados antes de ir a la playa en Semana Santa

    31 de marzo de 2026

    Podemos allana la vía de la unidad de la izquierda alternativa en Andalucía

    31 de marzo de 2026

    Petromovil defiende la calidad y acciones legales Jefte Ventura

    31 de marzo de 2026

    Repatriarían a 60 yoleros tras llegar a costas de Puerto Rico

    31 de marzo de 2026
    Stay In Touch
    • Facebook
    • Twitter
    • Pinterest
    • Instagram
    • YouTube
    • Vimeo

    Subscribe to Updates

    Get the latest creative news from SmartMag about art & design.

    Top Posts

    La identidad de las víctimas de feminicidio en Bosa: una madre y sus hijas de 17 y 20 años.

    24 de marzo de 202668 Views

    Mujer encontrada sin vida en Sabana Iglesia tras recibir llamada

    29 de marzo de 202624 Views

    Facultades y obligaciones de los órganos auxiliares en el Nuevo Código Procesal Penal – El Nuevo Diario (República Dominicana)

    19 de diciembre de 202523 Views
    About Us

    Listindiario es tu fuente confiable de noticias en la República Dominicana. Nos dedicamos a ofrecer información actual, precisa y relevante en categorías como Política, Economía, Deportes, Tecnología, Salud, Internacionales y Entretenimiento. Nuestro equipo de periodistas y colaboradores trabaja constantemente para mantenerte informado y conectado con los acontecimientos más importantes del país y del mundo.

    Our Picks

    Sol, arena y bebés: cuidados antes de ir a la playa en Semana Santa

    31 de marzo de 2026

    Podemos allana la vía de la unidad de la izquierda alternativa en Andalucía

    31 de marzo de 2026

    Petromovil defiende la calidad y acciones legales Jefte Ventura

    31 de marzo de 2026

    Subscribe to Updates

    Get the latest creative news from FooBar about art, design and business.

    LISTIN DIARIO – RD EN VIVO Noticia de ultimo minuto
    Facebook X (Twitter) Instagram Pinterest
    • Sobre Nosotros
    • Contáctanos
    • Términos y Condiciones
    • Aviso Legal
    • Política de Privacidad

    © 2025 listindiario.es All rights reserved. Designed by DD.

    Type above and press Enter to search. Press Esc to cancel.

    %d