Red Hat libera l'intelligenza artificiale di Enterprise Linux ed è davvero utile
Molti programmi di intelligenza artificiale, nonostante tutto il clamore, non sono così utili. D'altra parte, l'intelligenza artificiale di Red Hat Enterprise Linux aiuterà sia gli amministratori di sistema che gli sviluppatori.
Red Hatha ha lanciato ufficialmente l'intelligenza artificiale Red Hat Enterprise Linux (RHEL) rendendola disponibile a livello generale. Questa non è solo un'altra versione del prodotto; è un approccio AI davvero utile che gli amministratori e i programmatori RHEL troveranno eccezionalmente utile.
RHEL AI ha lo scopo di semplificare l'adozione a livello aziendale offrendo un'immagine RHEL avviabile e completamente ottimizzata per le distribuzioni di server in ambienti cloud ibridi. Queste istanze di runtime del modello avviabile ottimizzate funzionano con i modelli Granite e i pacchetti di strumenti InstructLab. Includono librerie di runtime Pytorch ottimizzate e acceleratori GPU per AMD Instinct MI300X, GPU Inteland NVIDIA e framework NeMo.
Questa è la piattaforma AI fondamentale di Red Hat. Il programma è progettato per semplificare lo sviluppo, il test e l'implementazione di modelli di intelligenza artificiale generativa (gen AI). Questa nuova piattaforma fonde la famiglia Granite Large Language Model (LLM) con licenza open source di IBM Research, gli strumenti di allineamento InstructLab basati sulla metodologia LAB e un approccio collaborativo allo sviluppo del modello tramite il progetto InstructLab.
IBM Research è stata pioniera della metodologia LAB, che utilizza la generazione di dati sintetici e l'ottimizzazione multifase per allineare modelli AI/ML senza costosi sforzi manuali. L'approccio LAB, perfezionato attraverso la comunità InstructLab, consente agli sviluppatori di creare e contribuire ai LLM proprio come farebbero con qualsiasi progetto open source.
Con il lancio di InstructLab, IBM ha anche rilasciato modelli selezionati di lingua e codice Granite English sotto una licenza Apache, fornendo set di dati trasparenti per la formazione e i contributi della comunità. Il modello in lingua inglese di Granite 7B è ora integrato in InstructLab, dove gli utenti possono migliorarne le capacità in modo collaborativo.
RHEL AI è inoltre integrato in OpenShift AI, la piattaforma per le operazioni di machine learning (MLOps) di Red Hat. Ciò consente l'implementazione del modello su larga scala nei cluster Kubernetes distribuiti.
Ammettiamolo: l'intelligenza artificiale non è economica. La formazione dei principali modelli linguistici di grandi dimensioni (LLM) sul mercato costa decine di milioni. Questo prima ancora che tu inizi a pensare alla messa a punto per casi d'uso specifici. RHEL AI è il tentativo di Red Hat di riportare sulla terra questi costi astronomici.
Red Hat lo fa parzialmente utilizzando Retrieval-Augmented Generation (RAG). RAG consente ai LLM di accedere alla conoscenza esterna approvata archiviata in database, documenti e altre fonti di dati. Ciò migliora la capacità di RHEL AI di fornire la risposta giusta anziché una risposta che sembra giusta.
Ciò significa anche che puoi addestrare le tue istanze RHEL AI dagli esperti in materia della tua azienda senza bisogno di un dottorato di ricerca. nell'apprendimento automatico. Ciò renderà RHEL AI molto più utile dell'IA generica per portare a termine il lavoro che devi fare invece di scrivere fan fiction di Star Wars.
In una dichiarazione, Joe Fernandes, vicepresidente della Foundation Model Platform di Red Hat, ha affermato: "RHEL AI offre la possibilità agli esperti di dominio, non solo ai data scientist, di contribuire a un modello di intelligenza artificiale di generazione appositamente creato attraverso il cloud ibrido, allo stesso tempo consentendo alle organizzazioni IT di scalare questi modelli per la produzione tramite Red Hat OpenShift AI."
RHEL AI non è legato a nessun singolo ambiente. È progettato per funzionare ovunque risiedano i tuoi dati: on-premise, all'edge o nel cloud pubblico. Questa flessibilità è fondamentale quando si implementano strategie di intelligenza artificiale senza rivedere completamente l’infrastruttura esistente.
Il programma è ora disponibile su Amazon Web Services (AWS) e IBM Cloud come offerta di abbonamento "bring your own (BYO)". Nei prossimi mesi sarà disponibile come servizio su AWS, Google Cloud Platform (GCP), IBM Cloud e Microsoft Azure.
Dell Technologies ha annunciato una collaborazione per portare RHEL AI sui server Dell PowerEdge. Questa partnership mira a semplificare l'implementazione dell'intelligenza artificiale fornendo soluzioni hardware convalidate, incluso il calcolo accelerato NVIDIA, ottimizzate per RHEL AI.
Essendo qualcuno che si occupa di software open source da decenni e che ha giocato con l'intelligenza artificiale quando Lisp era considerato all'avanguardia, penso che RHEL AI offra un cambiamento significativo nel modo in cui le aziende affrontano l'intelligenza artificiale. Combinando la potenza dell'open source con il supporto di livello aziendale, Red Hat si posiziona in prima linea nella rivoluzione dell'intelligenza artificiale.
Il vero test, ovviamente, sarà nell’adozione e nelle applicazioni nel mondo reale. Ma se il track record di Red Hat è qualcosa su cui basarsi, RHEL AI potrebbe benissimo essere la piattaforma che porta l'intelligenza artificiale fuori dal regno dei giganti della tecnologia e nelle mani di aziende di tutte le dimensioni.