Red Hat anunció la ampliación de su colaboración estratégica con Amazon Web Services para acelerar la adopción de inteligencia artificial generativa en entornos empresariales. A través de Red Hat AI en AWS, la compañía integra los chips de IA Trainium e Inferentia de AWS, permitiendo a las organizaciones ejecutar inferencia de alto rendimiento a escala, con mayor eficiencia y libertad para elegir el hardware más adecuado a sus cargas de trabajo.
La expansión responde a una necesidad creciente del mercado. Con el auge de la IA generativa, las empresas están replanteando su infraestructura para soportar inferencia escalable en producción. De acuerdo con proyecciones de IDC, para 2027 cerca del 40 % de las organizaciones utilizará silicio personalizado, incluidos procesadores ARM o chips específicos para IA y machine learning, con el objetivo de optimizar costos, rendimiento y capacidades especializadas.
Uno de los pilares de esta nueva etapa es la habilitación del Red Hat AI Inference Server sobre chips de IA de AWS. Basado en el framework de código abierto vLLM, este servidor podrá ejecutarse en AWS Inferentia2 y AWS Trainium, ofreciendo una capa común de inferencia capaz de soportar distintos modelos de IA generativa. Según Red Hat, esta arquitectura puede lograr una eficiencia hasta 30–40 % superior frente a instancias comparables basadas en GPU, reduciendo latencia y mejorando la rentabilidad de los despliegues a gran escala.
La colaboración también se extiende al ecosistema de Red Hat OpenShift. En conjunto con AWS, la compañía desarrolló el operador AWS Neuron para Red Hat OpenShift, OpenShift AI y Red Hat OpenShift Service on AWS, facilitando a los clientes una ruta más simple y con soporte para ejecutar cargas de trabajo de IA utilizando aceleradores de AWS dentro de una plataforma de aplicaciones totalmente administrada.
Otro componente clave es la simplificación del acceso y la automatización. Red Hat anunció soporte ampliado para los chips de IA de AWS, mejorando la disponibilidad de aceleradores de alta demanda, y lanzó la Colección Ansible Certificada amazon.ai, que permite orquestar y gestionar servicios de IA en AWS desde la Plataforma de Automatización Red Hat Ansible.
El trabajo conjunto también impacta al ecosistema de código abierto. Red Hat y AWS están colaborando para optimizar el plugin de chips de IA de AWS y llevarlo upstream a vLLM. Como uno de los principales contribuidores comerciales de este proyecto, Red Hat busca acelerar tanto la inferencia como el entrenamiento de modelos de IA. Además, vLLM se apoya en la arquitectura llm-d, ahora disponible comercialmente dentro de Red Hat OpenShift AI.
Desde Red Hat destacan que este hito refuerza una colaboración histórica con AWS que abarca desde el centro de datos hasta el edge. El objetivo es acompañar a las organizaciones en la integración de la IA dentro de sus estrategias de nube híbrida, ofreciendo una plataforma abierta que permita pasar de la experimentación a la producción de manera eficiente, gobernada y sostenible.
La disponibilidad del operador comunitario AWS Neuron ya es efectiva a través de OperatorHub para usuarios de Red Hat OpenShift en AWS. En tanto, el soporte del Red Hat AI Inference Server para los chips de IA de AWS está previsto para enero de 2026, inicialmente en versión preliminar para desarrolladores, marcando un nuevo paso en la carrera por llevar la IA generativa a producción con mayor control de costos y desempeño.
