Archiviare
L’architettura infinitamente scalabile e flessibile di Hadoop è basata sul file system HDFS e permette alle aziende di archiviare e analizzare qualsiasi quantità e tipo di dati; tutto ciò in un’unica piattaforma open source che funziona su hardware standard del settore.
Elabora
Ottieni velocemente un’integrazione con le applicazioni e i sistemi esistenti per spostare i dati nei e dai sistemi relazionali attraverso l’elaborazione di dati di grandi dimensioni (Apache Sqoop) o in tempo reale (Apache Flume, Apache Kafka).
Trasforma dati complessi, su scala, utilizzando varie opzioni di accesso ai dati (Apache Hive, Apache Pig) per processi in batch (MR2) o rapidi in memoria (Apache Spark™). Elabora dati in streaming non appena li ricevi nel tuo cluster affidandoti a Spark Streaming.
Scopri
Gli analisti interagiscono in tempo reale con dati completamente attendibili con Apache Impala, il data warehouse di Hadoop. Grazie ad Impala, gli analisti beneficiano di prestazioni e funzionalità SQL, oltre alla compatibilità con tutti i principali strumenti di business intelligence e alla sua qualità.
Con Cloudera Search, un'integrazione di Hadoop e Apache Solr, gli analisti possono identificare più velocemente dei modelli nei dati indipendentemente dai volumi e formati, specialmente se combinati con Impala.
Modelli
Con Hadoop, gli analisti e gli esperti dei dati hanno la flessibilità di elaborare e iterare sulla base di modelli statistici avanzati utilizzando un insieme di tecnologie partner e framework open source come Apache Spark™.
Raccogli
L'archivio dati distribuito per Hadoop, Apache HBase, è compatibile con le letture/scritture rapide e casuali (dati agili) che richiedono le applicazioni online.
CDH: all’insegna del mondo open source e degli standard aperti
CDH, la distribuzione Hadoop più popolare al mondo, è la piattaforma di Cloudera open source al 100%. Comprende tutti i principali componenti dell'ecosistema Hadoop per archiviare, elaborare, scoprire, modellare e fornire dati illimitati. È inoltre pensato per soddisfare i più elevati standard aziendali in termini di stabilità e affidabilità.
CDH si basa del tutto su standard aperti per un’architettura duratura. E come principale responsabile degli standard aperti in Hadoop, Cloudera ha una comprovata esperienza nel contribuire nuove soluzioni open source alla piattaforma (come Apache Spark™, Apache HBase e Apache Parquet), poi adottate dall'intero ecosistema.
Maggiori informazioni sui componenti CDH