banner
Casa / Blog / VMware, il team Nvidia per l'impresa
Blog

VMware, il team Nvidia per l'impresa

Jul 31, 2023Jul 31, 2023

Di Maria Korolov

Scrittore collaboratore, Network World |

Le aziende che tentano di implementare l’intelligenza artificiale generativa oggi hanno un grosso problema. Se utilizzano una piattaforma commerciale come OpenAI, devono inviare i dati nel cloud, il che potrebbe entrare in conflitto con i requisiti di conformità ed è costoso. Se scaricano ed eseguono localmente un modello come Llama 2, devono sapere molto su come ottimizzarlo, come impostare database vettoriali per alimentarlo con dati in tempo reale e come renderlo operativo.

La nuova partnership di VMware con Nvidia mira a risolvere questi problemi offrendo una piattaforma di intelligenza artificiale generativa completamente integrata e pronta all’uso che le aziende possono eseguire on-premise, in strutture di colocation o in cloud privati. La piattaforma includerà Llama 2 o una scelta di altri modelli linguistici di grandi dimensioni, nonché un database vettoriale per fornire informazioni aziendali aggiornate al LLM.

Il prodotto, VMware Private AI Foundation with Nvidia, presenterà software di intelligenza artificiale generativa e elaborazione accelerata di Nvidia e sarà basato su VMware Cloud Foundation e ottimizzato per l'intelligenza artificiale.

La necessità di una piattaforma come questa è drammatica. Secondo lo studio di riferimento globale sull’intelligenza artificiale generativa di Lucidworks pubblicato questo mese, il 96% dei dirigenti e dei manager coinvolti nei processi decisionali sull’intelligenza artificiale stanno attivamente dando priorità agli investimenti nell’intelligenza artificiale generativa e il 93% delle aziende prevede di aumentare la propria spesa per l’intelligenza artificiale nel prossimo anno.

Ma la gestione del rischio è una preoccupazione seria. Il panorama normativo incerto e in evoluzione ha un impatto significativo sulle decisioni di investimento nell’intelligenza artificiale generativa, ha affermato il 77% dei CEO intervistati per un recente sondaggio KPMG. Negli ultimi mesi è aumentata a tutti i livelli la priorità data alla gestione efficace del rischio, ha riferito KPMG, con la protezione dei dati personali e le preoccupazioni sulla privacy in testa alla lista delle priorità con il 63%, seguita dalla sicurezza informatica al 62%.

L’esecuzione di modelli linguistici di grandi dimensioni in sede o all’interno di altri ambienti controllati dall’azienda può alleviare in modo significativo molte di queste preoccupazioni.

"Avere la possibilità di eseguire un modello localmente può aprire molte porte alle aziende a cui era semplicemente vietato utilizzare modelli ospitati pubblicamente, anche se erano ospitati in un cloud pubblico virtuale", afferma Bradley Shimmin, capo analista per piattaforme AI, analisi e gestione dei dati presso la società di ricerca Omdia.

Ciò è particolarmente importante per settori fortemente regolamentati come la finanza, afferma, o per i casi d’uso del governo. I LLM locali possono anche risolvere i problemi di residenza dei dati.

"Avere la possibilità di disporre di modelli all'avanguardia che possono essere eseguiti completamente in sistemi air-gapped è piuttosto interessante", afferma Shimmin. "Si tratta di trasferire il modello ai dati. La gravità dei dati sta guidando l'intero settore."

Se anche i modelli eseguiti localmente sono gratuiti e open source, le aziende potrebbero risparmiare un bel po’ di soldi non dovendo pagare per le chiamate API OpenAI. "La latenza è inferiore, i costi sono inferiori e si ha un maggiore controllo su di essi", afferma Manish Goyal, leader globale di intelligenza artificiale e analisi presso IBM Consulting.

La nuova offerta di VMware è posizionata per cogliere l'onda.

Inoltre, questa settimana alla conferenza VMware Explore 2023, Nvidia e VMware stanno dimostrando come le aziende possono utilizzare i propri strumenti per scaricare LLM gratuiti e open source, personalizzarli e implementare un'intelligenza artificiale generativa di livello produttivo negli ambienti VMware.

La presa? VMware Private AI Foundation non sarà disponibile fino all'inizio del prossimo anno.

"Crediamo che le aziende trasferiranno una parte maggiore dei carichi di lavoro di intelligenza artificiale sui propri dati, anziché spostarli nei servizi cloud pubblici", afferma Paul Turner, vicepresidente della gestione dei prodotti per vSphere e la piattaforma cloud di VMware.

Le aziende possono prendere modelli come Llama 2 di Meta, collocarli nei loro data center accanto ai dati, ottimizzarli e perfezionarli e creare nuove offerte aziendali, afferma. "Aiuta a creare differenziatori aziendali per le aziende."