Sotto la pressione dell'aumento della produzione e della velocità dei dati, l'analisi dei Big Data si è spostata verso un nuovo paradigma: lo stream computing.

Gli Stream sono set di dati illimitati, non ordinati e su scala globale, che fluiscono dal sito di produzione ai data center. 

Sono spesso indicati come Fast Data, a causa delle loro piccole dimensioni e dell'elevata velocità di elaborazione.

Lo stream computing applica una serie di operazioni a ogni elemento del flusso, in genere seguendo una pipeline del tipo collection / ingestion / processing / store. Pertanto, lo stream computing è in grado di fornire informazioni e risultati il prima possibile, con una latenza minima e un throughput elevato che mantiene il passo rispetto alla ingestion di nuovi dati.

In questo webinar vedremo sia con slide che con una demo cosa cambia nel passaggio di paradigma da Data at Rest a Data in Motion e quale sia il valore aggiunto di strumenti quali Kafka, Nifi e Flink soprattutto se usati insieme.