ClouderaNOW Scopri gli agenti AI, il cloud Bursting e i Data fabric per l'AI | 8 aprile

Registrati ora
  • Cloudera Cloudera
  • Sviluppo e implementazione dell'AI all'avanguardia con la garanzia di sicurezza di tutte le fasi del ciclo di vita.

    Basato sui microservizi NVIDIA NIM, Cloudera AI Inference Service offre prestazioni uniche sul mercato, fornendo un'inferenza fino a 36 volte più veloce sulle GPU NVIDIA e quasi 4 volte il throughput sulle CPU, semplificando la gestione e la governance dell'AI in modo fluido su cloud pubblici e privati.

    Diagramma di AI Inference Service

    Un unico servizio per tutte le tue esigenze di inferenza AI aziendale

    Deployment con un solo clic: porta rapidamente il tuo modello dalla fase di sviluppo alla produzione, indipendentemente  dall'ambiente.

    Un unico ambiente protetto: ottieni una solida sicurezza end-to-end che copra tutte le fasi del ciclo di vita della tua AI.

    Un'unica piattaforma: gestisci senza problemi tutti i tuoi modelli su un'unica piattaforma per tutte le tue esigenze di AI.

    Sportello unico per l'assistenza: ricevi supporto unificato da Cloudera per qualsiasi domanda su hardware e software.

    Caratteristiche principali di AI Inference Service

    Supporto ibrido e multi-cloud

    Abilita la distribuzione in ambienti on premise, di cloud pubblico e ibridi per soddisfare in modo flessibile le varie esigenze di infrastruttura aziendale.

    Dati dettagliati e model lineage

    Fornisci un monitoraggio e una documentazione completi delle trasformazioni dei dati e degli eventi del ciclo di vita dei modelli, migliorando la riproducibilità e la verificabilità.

    Sicurezza di livello enterprise

    Implementa robuste misure di sicurezza, tra cui autenticazione, autorizzazione* e crittografia dei dati, per garantire che dati e modelli siano protetti sia in movimento che a riposo.

    Capacità di inferenza in tempo reale

    Ottieni previsioni in tempo reale grazie a bassa latenza ed elaborazione in batch per set di dati di grandi dimensioni, garantendo flessibilità nell'offerta dei modelli AI in base a diverse metriche di prestazione.

    Disponibilità elevata e scalabilità dinamica

    Gestisci in modo efficiente carichi variabili garantendo un servizio continuo con configurazioni ad alta disponibilità e funzionalità di scalabilità dinamica.

    Integrazione flessibile

    Integra facilmente i flussi di lavoro e le applicazioni esistenti con le Open Inference Protocol API per i modelli ML tradizionali e con un'API compatibile con OpenAI per gli LLM.

    Supporto per molteplici framework di AI

    Distribuisci facilmente vari tipi di modelli attraverso l'integrazione dei framework ML più comuni, come TensorFlow, PyTorch, Scikit-learn e Hugging Face Transformers.

    Modelli di implementazione avanzati

    Distribuisci in modo sicuro e incrementale le nuove versioni dei modelli grazie a strategie di distribuzione sofisticate come canary deployment, blue-green deployment* e A/B testing*.

    API aperte

    Distribuisci, gestisci e monitora modelli e applicazioni online* e agevola l'integrazione con le pipeline CI/CD e altri strumenti MLOps grazie alla conformità con gli standard aperti.

    Monitoraggio aziendale

    Monitora costantemente le metriche dei modelli di GenAI come sentiment, feedback degli utenti e drift, elementi cruciali per mantenere la qualità e le prestazioni dei modelli.

    * Funzionalità in arrivo. Contattaci per maggiori informazioni.

    Opzioni di distribuzione del servizio di inferenza AI

    Esegui carichi di inferenza on premise o nel cloud senza compromettere le prestazioni, la sicurezza o il controllo.  

    Cloudera su cloud

    • Flessibilità multi-cloud: distribuisci su cloud pubblici ed evita i blocchi dell'ecosistema.
    • Tempo di valorizzazione più rapido: inizia a fare inferenze senza configurare l'infrastruttura, ideale per sperimentazioni rapide.
    • Scalabilità elastica: gestisci il traffico imprevedibile con scalabilità automatica fino a zero e microservizi ottimizzati per GPU.

    Cloudera on premise

    • Sovranità dei dati: mantieni il controllo completo. Mantieni modelli, prompt e risorse completamente dietro il tuo firewall.
    • Pronto per ambienti air-gapped: progettato per ambienti regolamentati come quelli governativi, sanitari e dei servizi finanziari.
    • TCO prevedibile e inferiore: elimina le sorprese con prezzi fissi e un TCO inferiore rispetto alle API cloud basate su token.
    DEMO

    Sperimenta in prima persona l'implementazione fluida dei modelli

    Scopri quanto è facile distribuire modelli linguistici di grandi dimensioni con la potenza degli strumenti di Cloudera che consentono di gestire efficacemente applicazioni AI su larga scala.

    Integrazione del registro dei modelli: 
    accedi, archivia, crea versioni e gestisci i modelli senza problemi tramite il repository centralizzato Cloudera AI Registry.

    Configurazione e distribuzione semplici: distribuisci i modelli negli ambienti cloud, configura gli endpoint e regola l'autoscaling per le tue esigenze.

    Monitoraggio delle prestazioni:
    risolvi i problemi e ottimizza in base a metriche chiave come latenza, throughput, utilizzo delle risorse e integrità del modello.

    headshot of Sanjeev Mohan
    Cloudera AI Inference ti permette di sbloccare il pieno potenziale dei dati su larga scala con l'esperienza AI di NVIDIA e di proteggerli con funzionalità di sicurezza di livello aziendale, in modo da poter salvaguardare i dati in tutta sicurezza ed eseguire carichi di lavoro on premise o nel cloud, implementando modelli AI in modo efficiente con la flessibilità e la governance necessarie.

    —Sanjeev Mohan, Principal Analyst, SanjMo

    Unisciti a noi

    Fai il passo successivo

    Esplora le potenti funzionalità e approfondisci i dettagli con risorse e guide che ti permetteranno di iniziare rapidamente. 

    Tour del prodotto AI Inference Service

    Icona del tour del prodotto

    Ottieni uno sguardo approfondito sul servizio Cloudera AI Inference.

    Inizia subito

    Documentazione del servizio di inferenza AI

    Libreria di documentazione

    Scopri tutto, dalle descrizioni delle funzionalità alle guide utili per l'implementazione.

    Esplora la documentazione

    Esplora altri prodotti

    Cloudera AI


    Accelera il processo decisionale basato sui dati, dalla ricerca alla produzione, con una piattaforma protetta, scalabile e aperta per l'AI aziendale.

    AI Studios


    Sblocca flussi di lavoro privati di AI generativa e agentic AI per qualsiasi livello di competenza, con velocità di sviluppo low-code e controllo completo del codice. 

    AI Assistants


    Porta la potenza dell'AI nella tua azienda in modo sicuro e su larga scala, garantendo che ogni informazione sia rintracciabile, spiegabile e affidabile.

    AMP


    Esplora il framework end-to-end per la creazione, l'implementazione e il monitoraggio istantaneo di applicazioni ML pronte all'uso.

    Your form submission has failed.

    This may have been caused by one of the following:

    • Your request timed out
    • A plugin/browser extension blocked the submission. If you have an ad blocking plugin please disable it and close this message to reload the page.