
Red Hat anunció en su evento anual una serie de lanzamientos, basados en la IA abierta, la nube híbrida y la modernización de la virtualización
BOSTON. El Red Hat Summit, uno de los eventos más importantes para la comunidad open source empresarial, o código abierto, que se llevó a cabo en esta ciudad, reveló los avances más recientes en áreas clave que están redefiniendo el panorama tecnológico global. Entre los temas destacan la Inteligencia Artificial (IA) y el Machine Learning (ML) en entornos de código abierto, así como la creciente adopción de automatización inteligente para optimizar operaciones y procesos en las compañías.
Matt Hicks CEO de Red Hat y Ashesh Badani, Chief Product Officer, fueron los encargados de inaugurar este Summit, en el que ambos delinearon una visión inclusiva y colaborativa para el futuro de la tecnología impulsada por la IA, subrayando el compromiso de Red Hat con la innovación abierta, la transparencia y el poder transformador de las comunicaciones tecnológicas.
Hicks destacó cómo la IA representa una nueva frontera para la innovación abierta, comparando su potencial transformador con el del movimiento de código abierto en sus inicios. Subrayó que, al igual que el código abierto elimina barreras y democratiza el acceso a la tecnología, la IA tiene el poder de desbloquear el potencial humano y empresarial en todo el mundo. En sus palabras: “La Inteligencia Artificial puede desbloquear el potencial humano y empresarial de la misma manera que lo hizo el código abierto. Porque, en su esencia, la IA elimina barreras” .
Además, se abordaron las innovaciones en infraestructura de nube híbrida y multi-nube en el que la compañía está trabajando, los desafíos y soluciones en torno a la seguridad de la cadena de suministro de software, y las mejores prácticas para el desarrollo de aplicaciones nativas de la nube.
Durante este encuentro, se destacó como la IA de código abierto puede democratizar el acceso a herramientas avanzadas, permitiendo que empresas, gobiernos y comunidades construyan soluciones adaptadas a sus necesidades sin depender de plataformas cerradas. Al mismo tiempo, se abordaron los desafíos técnicos y sociales que conlleva esta apertura.
Esta keynote también sirvió como plataforma para anunciar el lanzamiento de Red Hat Enterprise Linux 10 (RHEL 10), la mayor versión mayor del sistema operativo empresarial insignia de la firma, diseñada para responder a las nuevas exigencias de entornos de TI modernos, distribuidos y altamente automatizados. Esto representa un salto significativo en seguridad, rendimiento, eficiencia y soporte para arquitecturas emergentes, con un fuerte enfoque en automatización, contenedores, IA/ML, y operaciones en la nube híbrida y multi-nube.
Esto es lo que ofrece:
Mayor seguridad por defecto: Con mejoras en la cadena de suministro de software, integraciones más profundas con tecnologías como SELinux, y un enfoque reforzado en seguridad desde el diseño.
Optimización para contenedores y Kubernetes: Mejores herramientas y soporte nativo para ejecutar cargas de trabajo en contenedores y gestionar aplicaciones nativas de la nube.
Automatización y eficiencia operativa: Integración más estrecha con Red Hat Ansible y nuevas capacidades de gestión automática del sistema.
Compatibilidad con nuevas arquitecturas: Soporte más robusto para hardware moderno, incluyendo arquitecturas ARM y procesadores especializados para IA.
IA y Machine Learning: Incorporación de herramientas y bibliotecas optimizadas para ejecutar modelos de IA/ML de forma eficiente en entornos empresariales.
Otro anuncio importante es el proyecto llm-d, una iniciativa de código abierto, que busca transformar la inferencia de modelos de lenguaje generativo (LLM) en entornos empresariales. Diseñado para superar las limitaciones de servidores individuales, llm-d permite una inferencia distribuida y escalable, optimizando el rendimiento y reduciendo la latencia en aplicaciones de inteligencia artificial generativa.
De acuerdo con el gigante tecnologico, su arquitectura permite desplegar y gestionar modelos de IA en múltiples entornos de nube híbrida y multinube, facilitando la adopción de IA generativa en diversas industrias.
Entre sus características se encuentran:
Arquitectura nativa de Kubernetes: Facilita la implementación y gestión de cargas de trabajo de inferencia en entornos de nube híbrida.
Inferencia distribuida con vLLM: Permite una ejecución eficiente de modelos de lenguaje, mejorando el rendimiento y reduciendo la latencia.
- Integración de LMCache: Optimiza la gestión de memoria y el almacenamiento en caché, acelerando la generación de tokens y mejorando el rendimiento en contextos largos.
- Compatibilidad con múltiples aceleradores y entornos de nube: Soporta diversos modelos y hardware, incluyendo GPUs y TPUs, en diferentes plataformas de nube.
Y finalmente, Red Hat OpenShift Lightspeed, una innovadora extensión de la plataforma Red Hat OpenShift, la cual está diseñada para integrar capacidades de inteligencia artificial generativa directamente en los flujos de trabajo de desarrollo y operaciones (DevOps), con el objetivo de acelerar la creación, despliegue y gestión de aplicaciones en entornos de nube híbrida.
OpenShift Lightspeed combina el poder de los modelos de lenguaje de gran tamaño (LLMs) con la robustez de OpenShift. Esto permite brindar experiencias asistidas por IA que mejoran la productividad de desarrolladores, administradores de plataformas y equipos de operaciones.
OpenShift Lightspeed ofrece una variedad de funciones como:
- Desarrollo asistido por IA: Genera código automáticamente, proporciona sugerencias inteligentes y ayuda contextual dentro de entornos de desarrollo integrados.
- Automatización operativa: Ofrece sugerencias y correcciones automatizadas para tareas de despliegue, configuración y resolución de errores en clústeres de Kubernetes
- Optimización de infraestructura: Brinda recomendaciones impulsadas por IA para mejorar el uso de recursos, la seguridad y el rendimiento de las aplicaciones.
En este Summit 2025, Red Hat y Meta anunciaron una colaboración estratégica para impulsar la adopción de la inteligencia artificial generativa (GenAI) en el ámbito empresarial. Esta alianza se centra en integrar tecnologías clave, como Llama Stack y vLLM, en la plataforma Red Hat AI, con el objetivo de ofrecer soluciones de inferencia de modelos de lenguaje grandes (LLM) abiertas, escalables y eficientes.
Puntos estratégicos de la colaboración:
- Integración de Llama Stack: Red Hat incorporará Llama Stack, desarrollado por Meta, en su plataforma Red Hat AI. Llama Stack proporciona bloques de construcción estandarizados y APIs para facilitar el desarrollo y despliegue de aplicaciones de GenAI, promoviendo la interoperabilidad y la innovación abierta.
- Soporte para vLLM: Ambas compañías trabajarán conjuntamente en el proyecto vLLM, una plataforma de inferencia de alto rendimiento para LLMs. Red Hat ofrecerá soporte desde el primer día para modelos como Llama 4 en vLLM, optimizando el rendimiento y reduciendo la latencia en entornos empresariales.
- Compromiso con la innovación abierta: Esta colaboración refuerza el compromiso de Red Hat y Meta con la innovación abierta, buscando establecer estándares comunes y fomentar una comunidad vibrante en torno a las tecnologías de GenAI.
De acuerdo con Michael Ferris, vicepresidente senior y director de estrategia de Red Hat, esta alianza tiene como objetivo “realizar una visión de aplicaciones de GenAI más rápidas, consistentes y rentables que puedan ejecutarse en cualquier lugar a través de la nube híbrida. Este es el futuro abierto de la IA, y Red Hat y Meta están listos para afrontarlo”.
Y agregó que esta iniciativa refuerza el compromiso de Red Hat con la innovación abierta y proporciona a las empresas herramientas flexibles y eficientes para desarrollar e implementar soluciones de IA generativa en infraestructuras híbridas y multinube.