Cloudera nominata leader nel The Forrester Wave™: Data Fabric Platforms, Q4 2025

Leggi il report
  • Cloudera Cloudera
  • Sviluppo e implementazione dell'AI all'avanguardia con la garanzia di sicurezza di tutte le fasi del ciclo di vita.

    Basato sui microservizi NVIDIA NIM, Cloudera AI Inference Service offre prestazioni uniche sul mercato, fornendo un'inferenza fino a 36 volte più veloce sulle GPU NVIDIA e quasi 4 volte il throughput sulle CPU, semplificando la gestione e la governance dell'AI in modo fluido su cloud pubblici e privati.

    Diagramma di AI Inference Service

    Un unico servizio per tutte le tue esigenze di inferenza AI aziendale

    Deployment con un solo clic: porta rapidamente il tuo modello dalla fase di sviluppo alla produzione, indipendentemente  dall'ambiente.

    Un unico ambiente protetto: ottieni una solida sicurezza end-to-end che copra tutte le fasi del ciclo di vita della tua AI.

    Un'unica piattaforma: gestisci senza problemi tutti i tuoi modelli su un'unica piattaforma per tutte le tue esigenze di AI.

    Sportello unico per l'assistenza: ricevi supporto unificato da Cloudera per qualsiasi domanda su hardware e software.

    Caratteristiche principali di AI Inference Service

    Supporto ibrido e multi-cloud

    Abilita la distribuzione in ambienti on premise*, di cloud pubblico e ibridi per soddisfare in modo flessibile le varie esigenze di infrastruttura aziendale.

    Dati dettagliati e model lineage*

    Fornisci un monitoraggio e una documentazione completi delle trasformazioni dei dati e degli eventi del ciclo di vita dei modelli, migliorando la riproducibilità e la verificabilità.

    Sicurezza di livello enterprise

    Implementa robuste misure di sicurezza, tra cui autenticazione, autorizzazione* e crittografia dei dati, per garantire che dati e modelli siano protetti sia in movimento che a riposo.

    Capacità di inferenza in tempo reale

    Ottieni previsioni in tempo reale grazie a bassa latenza ed elaborazione in batch per set di dati di grandi dimensioni, garantendo flessibilità nell'offerta dei modelli AI in base a diverse metriche di prestazione.

    Disponibilità elevata e scalabilità dinamica

    Gestisci in modo efficiente carichi variabili garantendo un servizio continuo con configurazioni ad alta disponibilità e funzionalità di scalabilità dinamica.

    Integrazione flessibile

    Integra facilmente i flussi di lavoro e le applicazioni esistenti con le Open Inference Protocol API per i modelli ML tradizionali e con un'API compatibile con OpenAI per gli LLM.

    Supporto per molteplici framework di AI

    Distribuisci facilmente vari tipi di modelli attraverso l'integrazione dei framework ML più comuni, come TensorFlow, PyTorch, Scikit-learn e Hugging Face Transformers.

    Modelli di implementazione avanzati

    Distribuisci in modo sicuro e incrementale le nuove versioni dei modelli grazie a strategie di distribuzione sofisticate come canary deployment, blue-green deployment* e A/B testing*.

    API aperte

    Distribuisci, gestisci e monitora modelli e applicazioni online* e agevola l'integrazione con le pipeline CI/CD e altri strumenti MLOps grazie alla conformità con gli standard aperti.

    Monitoraggio aziendale*

    Monitora costantemente le metriche dei modelli di GenAI come sentiment, feedback degli utenti e drift, elementi cruciali per mantenere la qualità e le prestazioni dei modelli.

    * Funzionalità in arrivo. Contattaci per maggiori informazioni.

    Caratteristiche principali di AI Inference Service

    Supporto ibrido e multi-cloud

    Abilita la distribuzione in ambienti on premise*, di cloud pubblico e ibridi per soddisfare in modo flessibile le varie esigenze di infrastruttura aziendale.

    Dati dettagliati e model lineage*

    Fornisci un monitoraggio e una documentazione completi delle trasformazioni dei dati e degli eventi del ciclo di vita dei modelli, migliorando la riproducibilità e la verificabilità.

    Sicurezza di livello enterprise

    Implementa robuste misure di sicurezza, tra cui autenticazione, autorizzazione* e crittografia dei dati, per garantire che dati e modelli siano protetti sia in movimento che a riposo.

    Capacità di inferenza in tempo reale

    Ottieni previsioni in tempo reale grazie a bassa latenza ed elaborazione in batch per set di dati di grandi dimensioni, garantendo flessibilità nell'offerta dei modelli AI in base a diverse metriche di prestazione.

    Disponibilità elevata e scalabilità dinamica

    Gestisci in modo efficiente carichi variabili garantendo un servizio continuo con configurazioni ad alta disponibilità e funzionalità di scalabilità dinamica.

    Integrazione flessibile

    Integra facilmente i flussi di lavoro e le applicazioni esistenti con le Open Inference Protocol API per i modelli ML tradizionali e con un'API compatibile con OpenAI per gli LLM.

    Supporto per molteplici framework di AI

    Distribuisci facilmente vari tipi di modelli attraverso l'integrazione dei framework ML più comuni, come TensorFlow, PyTorch, Scikit-learn e Hugging Face Transformers.

    Modelli di implementazione avanzati

    Distribuisci in modo sicuro e graduale le nuove versioni dei modelli con strategie di distribuzione sofisticate come canary deployment, blue-green deployment* e i test A/B*.

    API aperte

    Distribuisci, gestisci e monitora modelli e applicazioni*, facilitando l'integrazione con le pipeline CI/CD e altri strumenti MLOps tramite API aperte conformi agli standard.

    Monitoraggio aziendale*

    Monitora continuamente metriche chiave del modello GenAI come il sentiment, il feedback degli utenti e le derive, cruciali per mantenere qualità e prestazioni di alto livello.

    * Funzionalità in arrivo. Per ulteriori informazioni, contattaci.

    Demo

    Sperimenta in prima persona l'implementazione fluida dei modelli

    Scopri quanto è facile distribuire modelli linguistici di grandi dimensioni con la potenza degli strumenti di Cloudera che consentono di gestire efficacemente applicazioni AI su larga scala.

    Integrazione del registro dei modelli: accedi, archivia, crea versioni e gestisci i modelli senza problemi tramite il repository centralizzato Cloudera AI Registry.

    Configurazione e distribuzione semplici: distribuisci i modelli negli ambienti cloud, configura gli endpoint e regola l'autoscaling per le tue esigenze.

    Monitoraggio delle prestazioni: risolvi i problemi e ottimizza in base a metriche chiave come latenza, throughput, utilizzo delle risorse e integrità del modello.

    headshot of Sanjeev Mohan
    Cloudera AI Inference ti permette di sbloccare il pieno potenziale dei dati su larga scala con l'esperienza AI di NVIDIA e di proteggerli con funzionalità di sicurezza di livello aziendale, in modo da poter salvaguardare i dati in tutta sicurezza ed eseguire carichi di lavoro on premise o nel cloud, implementando modelli AI in modo efficiente con la flessibilità e la governance necessarie.

    —Sanjeev Mohan, Principal Analyst, SanjMo

    Unisciti a noi

    Documentazione

    Risorse e guide per iniziare

    La documentazione di Cloudera AI Inference Service fornisce tutte le informazioni di cui hai bisogno, da descrizioni dettagliate delle funzionalità a utili guide all'implementazione per iniziare più rapidamente.

    Your form submission has failed.

    This may have been caused by one of the following:

    • Your request timed out
    • A plugin/browser extension blocked the submission. If you have an ad blocking plugin please disable it and close this message to reload the page.