Cloudera nominata leader nel The Forrester Wave™: Data Fabric Platforms, Q4 2025

Leggi il report
  • Cloudera Cloudera
  • | Partner

    Economia dell'AI scalabile: ottenere un'intelligence ibrida e sicura con Cloudera, AMD e Dell Technologies

    Steve Catanzano
    Due donne che camminano in un ufficio aziendale

    L'interesse delle imprese per l'AI generativa e per l'agentic AI è aumentato notevolmente negli ultimi due anni. Le organizzazioni di tutti i settori stanno esplorando come gli agenti AI, gli assistenti intelligenti e l'automazione possano migliorare la produttività, ottimizzare le operazioni e ricavare insight dai crescenti volumi di dati aziendali. Tuttavia, con l'aumento dell'entusiasmo, aumentano anche le domande su costi, sicurezza e complessità operativa.

    C'è una realtà che sta diventando sempre più chiara: non tutti i carichi di lavoro dell'AI richiedono unità di elaborazione grafica (GPU) o modelli di fondazione massicci. Infatti, molti casi d'uso aziendali ad alto valore possono essere gestiti in modo efficiente utilizzando unità di elaborazione centrale (CPU) e modelli linguistici più piccoli e focalizzati sulle attività, soprattutto quando sono implementati vicino ai dati che servono.

    Un numero crescente di organizzazioni sta ora rivalutando le proprie strategie di AI attraverso questa prospettiva. Piuttosto che perseguire la crescita a tutti i costi, stanno dando priorità al ritorno sull'intelligence: la capacità di implementare soluzioni AI in modo sicuro, economico e su scala. Questo cambiamento sta plasmando il modo in cui le aziende pensano all'infrastruttura, all'architettura dei dati e alla governance, mentre l'AI passa dalla sperimentazione alla produzione.

    Una svolta nell'economia dell'IA aziendale

    Una ricerca di Enterprise Strategy Group (ora parte di Omdia) indica che circa l'80% delle organizzazioni considera gli agenti di IA una priorità aziendale massima o alta. Questi agenti promettono benefici tangibili attraverso automazione, decisioni più rapide e esperienze migliorate per dipendenti e clienti. Tuttavia, molte organizzazioni continuano a lottare con i costi e gli oneri operativi associati alle implementazioni centrate sulle GPU.

    L'infrastruttura GPU può comportare spese di capitale significative, un elevato consumo energetico e vincoli nella catena di approvvigionamento. Per molti carichi di lavoro in tempo reale basati sull'inferenza e sulla conoscenza, questo approccio può risultare non allineato alle esigenze aziendali. Di conseguenza, le aziende stanno esplorando sempre più alternative che meglio abbinano le risorse di calcolo ai requisiti dei carichi di lavoro.

    È qui che l'IA basata su CPU, abbinata a modelli linguistici più piccoli, è emersa come un'opzione pratica. Anziché puntare ai modelli più grandi possibili, le organizzazioni stanno utilizzando le risorse già in loro possesso per affrontare le sfide di budget legate all'acquisto o all'accesso alle GPU. Si tratta di dimensionare correttamente le architetture AI che privilegiano efficienza, sicurezza e scalabilità.

    L'AI correttamente dimensionata e il ruolo dei modelli linguistici di piccole dimensioni

    I modelli linguistici di piccole dimensioni (SLM) sono progettati per svolgere attività aziendali specifiche come la sintesi automatica, la risposta alle domande, la generazione di contenuti e l'assistenza alla scrittura di codice. Poiché contengono in genere molti meno parametri rispetto ai modelli linguistici di grandi dimensioni, gli SLM possono funzionare efficacemente su CPU moderne, offrendo al contempo prestazioni elevate per casi d'uso mirati.

    Questo approccio offre diversi vantaggi. L'inferenza basata su CPU riduce i costi di infrastruttura, abbassa il consumo energetico e semplifica l'implementazione. Consente inoltre alle organizzazioni di eseguire carichi di lavoro di AI all'interno di data center esistenti o ambienti cloud privati, affrontando le problematiche relative alla sovranità dei dati e alla conformità normativa.

    In questo contesto, Cloudera ha posizionato la sua strategia di AI privata attorno alla possibilità per le imprese di distribuire e gestire sistemi AI interamente all'interno dei propri ambienti controllati. Combinando un'architettura open data lakehouse con governance integrata e capacità MLOps, Cloudera supporta uno sviluppo AI che rimane vicino ai dati aziendali.

    Questioni di infrastruttura: CPU e piattaforme aziendali

    L'efficacia dell'AI basata su CPU dipende fortemente dall'infrastruttura sottostante. I progressi nei processori moderni hanno notevolmente migliorato le prestazioni in rapporto al costo per i carichi di lavoro di analisi e inferenza. I processori AMD EPYC™, ad esempio, sono progettati per offrire alta densità di core, una forte larghezza di banda di memoria e caratteristiche di sicurezza integrate, rendendoli particolarmente adatti all'inferenza dell'IA e a carichi di lavoro ad alta intensità di dati.

    Quando vengono distribuiti su sistemi di livello enterprise di Dell Technologies, le organizzazioni possono scalare i carichi di lavoro AI in modo affidabile, sfruttando architetture convalidate ottimizzate per dati e piattaforme AI. Questa combinazione consente alle aziende di modernizzare le funzionalità AI senza dover ricreare l'architettura dell'intera infrastruttura.

    Dal punto di vista operativo, questo modello consente alle organizzazioni di riutilizzare gli investimenti esistenti, accelerare i tempi di implementazione e ridurre la dipendenza da hardware specializzato. In questi scenari, l'enfasi non è sulla dimensione del modello, ma sull'efficienza, la reattività e la fiducia.

    Casi d'uso pratici dell'IA con CPU

    Molte delle applicazioni AI più preziose di oggi possono funzionare in modo efficiente su CPU senza la necessità di modelli di grandi dimensioni o accelerazione GPU. Ecco alcuni esempi:

    Assistenti informativi interni

    Le aziende spesso conservano conoscenze critiche in documenti, email e report. Applicando gli SLM a questi dati, le organizzazioni possono consentire l'accesso in linguaggio naturale alle informazioni interne, migliorando il processo decisionale e mantenendo i dati sensibili in sede.

    Chatbot di assistenza ai dipendenti e agli agenti

    I team di HR, IT e di assistenza clienti devono affrontare domande ricorrenti che possono essere automatizzate attraverso chatbot interni e sicuri. L'AI basata su CPU consente un'assistenza sempre disponibile senza introdurre esposizione di dati esterni.

    Generazione di contenuti e documenti

    I team di marketing, compliance e ingegneria producono frequentemente contenuti ripetitivi. La generazione e la sintesi assistite dall'AI possono accelerare i flussi di lavoro mantenendo al contempo coerenza e governance.

    Supporto allo sviluppo software

    Gli assistenti basati su SLM possono generare frammenti di codice, test e documentazione all'interno dei firewall aziendali, aiutando i team di sviluppo a migliorare la produttività senza inviare proprietà intellettuale ai servizi pubblici di IA.

    Analisi predittiva e ottimizzazione

    Nella produzione e nelle operazioni, i modelli di AI basati sulla CPU analizzano i dati di sensori e operativi per prevedere guasti e ottimizzare le prestazioni, riducendo i tempi di inattività e i costi operativi.

    Gravità dei dati e l'importanza dell'AI on-premise

    Nonostante la diffusa adozione del cloud, una parte significativa dei dati aziendali rimane in locale. Una ricerca di Omdia indica che molte organizzazioni conservano tra il 26% e il 75% dei propri dati in ambienti locali o privati. Questa gravità dei dati presenta sfide quando l’elaborazione dell'AI richiede lo spostamento di informazioni sensibili su piattaforme esterne.

    Le architetture di AI private affrontano questa sfida portando l'AI ai dati anziché il contrario. Eseguendo carichi di lavoro di AI in ambienti esistenti, le organizzazioni riducono la latenza, migliorano le prestazioni e mantengono la conformità a regolamenti come GDPR, HIPAA e obblighi specifici del settore.

    L'approccio di Cloudera integra l'ingestione dei dati, la governance, la gestione dei modelli e il servizio all'interno di un'unica piattaforma. Combinato con un'infrastruttura basata su CPU, questo permette alle aziende di passare in modo più efficiente dai progetti pilota alla produzione di AI.

    Dal progetto pilota alla produzione: misurare i risultati

    Uno degli ostacoli più significativi all'adozione dell'AI è stato il divario tra proof-of-concept e distribuzione in produzione. Le architetture di AI basate su CPU aiutano a colmare questo divario riducendo i costi e la complessità operativa.

    Le organizzazioni che adottano questo approccio riportano diversi risultati:

    • Riduzione del costo totale di proprietà per i carichi di lavoro con uso intensivo dell'inferenza
    • Cicli di implementazione più rapidi, evitando l'acquisto di hardware specializzato
    • Riduzione del consumo energetico in linea con gli obiettivi di sostenibilità
    • ROI migliorato grazie alla selezione delle risorse di calcolo adeguate al carico di lavoro

    Questi vantaggi rafforzano un crescente consenso sul fatto che il successo dell'IA nelle imprese dipenda tanto dall'economia e dalla governance quanto dalle prestazioni del modello.

    Conclusione: un percorso pratico da seguire per l'AI aziendale

    La prossima fase dell'AI aziendale non sarà definita dai modelli più grandi o dall'hardware più potente ma sarà plasmata da organizzazioni che possono implementare l'AI in modo sicuro, economico e su larga scala, utilizzando architetture allineate con le reali esigenze aziendali.

    Combinando la piattaforma di dati e governance di Cloudera con i processori AMD EPYC e l'infrastruttura Dell Technologies, le aziende dispongono di un percorso concreto per rendere operativa l'AI nei propri ambienti. Questo approccio correttamente dimensionato consente alle organizzazioni di concentrarsi sui risultati anziché sulla complessità dell'infrastruttura, e di valorizzare l'AI dove risiedono già i dati.

    Man mano che le aziende continuano a spostare le iniziative di AI dalla sperimentazione alla produzione, le architetture pratiche di AI privata basate sulla CPU probabilmente svolgeranno un ruolo sempre più importante.

    Per saperne di più su come raggiungere un'AI economica con Cloudera, AMD e Dell Technologies, scarica il Brief Omdia Showcase.

    Your form submission has failed.

    This may have been caused by one of the following:

    • Your request timed out
    • A plugin/browser extension blocked the submission. If you have an ad blocking plugin please disable it and close this message to reload the page.