Archiviare

L’architettura infinitamente scalabile e flessibile di Hadoop è basata sul file system HDFS e permette alle aziende di archiviare e analizzare qualsiasi quantità e tipo di dati; tutto ciò in un’unica piattaforma open source che funziona su hardware standard del settore.

Scopri di più su HDFS

Scopri di più su Apache Kudu

Man using computer

Team working on blueprint

Elabora

Ottieni velocemente un’integrazione con le applicazioni e i sistemi esistenti per spostare i dati nei e dai sistemi relazionali attraverso l’elaborazione di dati di grandi dimensioni (Apache Sqoop) o in tempo reale (Apache Flume, Apache Kafka).


Trasforma dati complessi, su scala, utilizzando varie opzioni di accesso ai dati (Apache Hive, Apache Pig) per processi in batch (MR2) o rapidi in memoria (Apache Spark™). Elabora dati in streaming non appena li ricevi nel tuo cluster affidandoti a Spark Streaming.

Scopri di più su Apache Spark™


Scopri

Gli analisti interagiscono in tempo reale con dati completamente attendibili con Apache Impala, il data warehouse di Hadoop. Grazie ad Impala, gli analisti beneficiano di prestazioni e funzionalità SQL, oltre alla compatibilità con tutti i principali strumenti di business intelligence e alla sua qualità.

Con Cloudera Search, un'integrazione di Hadoop e Apache Solr, gli analisti possono identificare più velocemente dei modelli nei dati indipendentemente dai volumi e formati, specialmente se combinati con Impala.

Scopri di più su Apache Impala

Scopri di più su Cloudera Search

Side view of two men looking at computer

three men sitting together, looking at laptop

Modelli

Con Hadoop, gli analisti e gli esperti dei dati hanno la flessibilità di elaborare e iterare sulla base di modelli statistici avanzati utilizzando un insieme di tecnologie partner e framework open source come Apache Spark™.


Raccogli

L'archivio dati distribuito per Hadoop, Apache HBase, è compatibile con le letture/scritture rapide e casuali (dati agili) che richiedono le applicazioni online.

Scopri di più su Apache HBase

Man sitting in office with laptop on lap

CDH: all’insegna del mondo open source e degli standard aperti

CDH, la distribuzione Hadoop più popolare al mondo, è la piattaforma di Cloudera open source al 100%. Comprende tutti i principali componenti dell'ecosistema Hadoop per archiviare, elaborare, scoprire, modellare e fornire dati illimitati. È inoltre pensato per soddisfare i più elevati standard aziendali in termini di stabilità e affidabilità.

CDH si basa del tutto su standard aperti per un’architettura duratura. E come principale responsabile degli standard aperti in Hadoop, Cloudera ha una comprovata esperienza nel contribuire nuove soluzioni open source alla piattaforma (come Apache Spark™, Apache HBase e Apache Parquet), poi adottate dall'intero ecosistema. 

Maggiori informazioni sui componenti CDH

Scopri di più sugli standard aperti e open source

Prova subito

Developers working late

Your form submission has failed.

This may have been caused by one of the following:

  • Your request timed out
  • A plugin/browser extension blocked the submission. If you have an ad blocking plugin please disable it and close this message to reload the page.