Inferenze AI

Red Hat e AWS, nuova alleanza sull’AI: arrivano le inferenze potenziate

Red Hat rafforza la partnership con Amazon Web Services, annunciando nuove soluzioni per le inferenze di intelligenza artificiale di livello enterprise. L’integrazione tra Red Hat AI, l’infrastruttura cloud AWS e i chip Trainium e Inferentia consente alle aziende di eseguire carichi di lavoro AI più efficienti, flessibili e convenienti, accelerando l’adozione della gen AI in ambienti cloud ibridi.

di Redazione Innovami.news | 16 Dicembre 2025
Foto: Pexels

Red Hat rafforza la collaborazione con Amazon Web Services annunciando nuove inferenze AI potenziate su AWS, pensate per supportare carichi di lavoro di intelligenza artificiale generativa di livello enterprise. L’integrazione tra Red Hat AI, l’infrastruttura cloud AWS e i chip AWS Trainium e Inferentia offre alle aziende maggiore flessibilità, prestazioni elevate ed efficienza economica, accelerando il passaggio dalla sperimentazione alla produzione su larga scala.

Red Hat: inferenze AI più efficienti per il cloud ibrido enterprise

L’evoluzione della gen AI sta spingendo le organizzazioni a ripensare le proprie infrastrutture. Secondo IDC, entro il 2027 il 40% delle aziende utilizzerà chip personalizzati per AI e machine learning per ottimizzare prestazioni, costi e capacità di calcolo. In questo scenario, la collaborazione tra Red Hat e AWS risponde alla crescente esigenza di inferenze scalabili, sostenibili e indipendenti dall’hardware sottostante.

Foto: Pexels

Winter ’26 Edition: Shopify porta l’AI al centro del commercio

Red Hat AI Inference Server sui chip AI AWS

Cuore dell’annuncio è Red Hat AI Inference Server, basato sul framework open source vLLM, ora ottimizzato per funzionare su AWS Inferentia2 e AWS Trainium. Questa combinazione consente di supportare qualsiasi modello di AI generativa, garantendo minore latenza, prestazioni più elevate e un rapporto prezzo/prestazioni fino al 30–40% migliore rispetto alle tradizionali istanze GPU comparabili.

AI enterprise-ready su Red Hat OpenShift

Red Hat e AWS hanno collaborato allo sviluppo dell’AWS Neuron Operator, ora disponibile per Red Hat OpenShift, OpenShift AI e OpenShift Service su AWS. Questo permette alle aziende di eseguire carichi di lavoro AI sugli acceleratori AWS con un percorso più fluido, supportato e coerente con le architetture cloud ibride già esistenti.

Maggiore accesso agli acceleratori e automazione semplificata su AWS

La partnership migliora l’accessibilità ai chip AI ad alta domanda grazie all’integrazione diretta con Red Hat su AWS. Inoltre, la nuova collezione Ansible certificata amazon.ai consente di orchestrare e automatizzare i servizi AI su AWS, riducendo complessità operative e tempi di implementazione.

Red Hat e AWS: open source e contributo upstream

Red Hat e AWS collaborano anche sul fronte upstream, ottimizzando il plugin per i chip AI AWS all’interno di vLLM. In qualità di principale contributore commerciale del progetto, Red Hat punta ad accelerare inferenza e training AI. vLLM è inoltre alla base di llm-d, progetto open source focalizzato sulle inferenze su larga scala, ora disponibile come funzionalità commercialmente supportata in Red Hat OpenShift AI 3.

Foto: Pexels

Una strategia AI pensata per la produzione

La collaborazione si inserisce nella lunga storia di partnership tra Red Hat e AWS, che va dal data center all’edge. Questo nuovo passo rafforza una strategia AI-ready per il cloud ibrido, progettata per accompagnare le aziende dalla fase pilota alla produzione, riducendo costi, colli di bottiglia e time-to-value.

Come sottolinea Joe Fernandes, vicepresidente e general manager AI Business Unit di Red Hat, l’obiettivo è rendere la gen AI più accessibile ed economica mantenendo i valori dell’open source. Dello stesso avviso Colin Brace, vicepresidente di Annapurna Labs AWS, che evidenzia come i chip Trainium e Inferentia siano stati progettati per offrire prestazioni elevate e libertà operativa per i carichi AI mission-critical. L’AWS Neuron Operator è già disponibile su Red Hat OpenShift OperatorHub. Il supporto di Red Hat AI Inference Server per i chip AI AWS sarà accessibile in anteprima per sviluppatori a gennaio 2026.

Gmail, quel piccolo punto accanto ai messaggi nasconde un segreto: Google lo ha finalmente svelato

Change privacy settings
×