L'AI è tanto potente quanto l'architettura dei dati che la sostiene.
Nell'episodio 52 di The AI Forecast, Perché gli LLM non bastano e come i fabric di AI cambieranno tutto, il conduttore Paul Muller dialoga con Jake Trippel, preside del College of Business and Technology della Concordia University di St. Paul e cofondatore e CTO di Codename 37, per analizzare cosa impedisce alle aziende di scalare l'AI:
Architettura di dati in silos
Incomprensione del potenziale di machine learning, deep learning e delle reti neurali
Aumento del debito tecnico
La loro conversazione spazia dall'economia del cloud rispetto a quella on-premise fino al prossimo passaggio dalle applicazioni SaaS alle esperienze basate sui bot. Ecco i momenti chiave della loro discussione.
Paul: Raccontaci cosa abbiamo visto in passato con l'AI e le architetture dei dati, e perché dobbiamo ripensarle ora.
Jake: Abbiamo attraversato l'era della trasformazione digitale, cioè la sfida dei dati. Siamo rimasti in silos di dati perché così erano state progettate le nostre piattaforme e così erano organizzati i dati. Poi abbiamo provato a fare una serie di integrazioni. Abbiamo provato a creare tutti questi motori di integrazione di app. Abbiamo cercato di trovare modi ingegnosi per farlo, ma quello che è successo è stato che abbiamo creato un pasticcio tra ELT e ETL, da sistema a sistema.
Ora, facciamo un salto in avanti fino a oggi. La sfida ora è che queste organizzazioni sono incentivate a mantenerci in silos perché ora arrivano i silos di dati AI, i dati sono ancora in silos, ed è qui che entra in gioco la potenza del cloud. Ecco perché siamo orgogliosi di essere partner di Cloudera.
Immaginiamo lo stesso problema, ma amplificato. Ho agenti AI a bizzeffe, fantastico, ma funzionano solo all'interno del loro silo di dati.
Le persone vorranno di più. Vorranno agenti che possano lavorare, parlare e ragionare insieme. Ma come si può fare se i dati sono ancora isolati in silos? Per raggiungere questo stato di data mesh sarà necessario un cambiamento trasformazionale, ed è per questo che Cloudera è una soluzione interessante che può aiutare le persone.
Paul: Quali sono i trucchetti, le procedure ottimali, i consigli o i trucchi che usi per ottenere il massimo da ciò che fai con i dati?
Jake: La cosa più importante è capire che i modelli linguistici di grandi dimensioni non sono la risposta a tutto. L'AI è un mondo enorme.
I modelli linguistici di grandi dimensioni sono fantastici per alcune cose, ma sono davvero pessimi per altre. Le persone devono comprendere la potenza del machine learning, del deep learning e delle reti neurali, che sono in realtà il cuore delle altre due.
La competenza chiave del nostro tempo è la capacità di sviluppare o utilizzare i modelli giusti per i casi d'uso appropriati e di elaborare rapidamente i dati. È lì che le persone devono concentrarsi.
Paul: Secondo la tua opinione e la tua esperienza, come fanno le organizzazioni a iniziare concretamente il percorso che le porterà dal passato al futuro? Come fanno a pulire i loro dati? Esiste un meccanismo che permetta loro di farlo senza causare interruzioni?
Jake: È una domanda impegnativa, quindi cercherò di suddividerla. Ci stiamo lavorando da trent'anni per un motivo. Si vedono ancora AS/400 in circolazione, e funzionano. Bisogna dare credito a IBM.
La sfida che queste organizzazioni devono affrontare, però, è: quanto capitale state investendo? A causa dell'effetto cumulativo di questo debito tecnico, possiamo rimandare anno dopo anno, decennio dopo decennio: il costo non farà che aumentare.
Però, oggi ci sono delle alternative. Possiamo estrarre i dati e farne molto di più di quanto abbiamo mai fatto prima. Invece di eliminare l'approccio a "cerotto", ora possiamo creare qualsiasi tipo di esperienza desideriamo in parallelo, purché abbiamo accesso ai dati e continuiamo ad accedere ai dati.
Paul: Cosa vedi oggi con i tuoi clienti esistenti che cercano di implementare nuovi carichi di lavoro?
Jake: Stiamo assistendo a una massiccia migrazione verso l'on-premise. Non volevi crederci. Non l'avrei mai detto.
Man mano che queste organizzazioni svolgono sempre più attività di sviluppo e addestramento dei modelli e così via, il modello di costi del cloud è semplicemente troppo costoso. Non ho incontrato un solo CFO che fosse contento di dedicare un mese alla formazione di questi modelli.
Quindi scelgono di fare questo investimento: tornare ai data center. Lo ammortizzeranno nei prossimi cinque anni. Lo stiamo vedendo nei dispositivi medici, nei servizi finanziari, nell'aviazione: solitamente è un approccio ibrido, ma per determinati carichi di lavoro, in particolare training e sviluppo, è molto più conveniente.
Paul: Cosa si sta osservando nel mondo accademico e come si prepara la forza lavoro del futuro?
Jake: L'intelligenza artificiale è un amplificatore. Amplificherà il bene e amplificherà il male.
Il lato positivo è che le persone impareranno 10, 20 volte più velocemente di quanto abbiano mai fatto prima. Ho costruito modelli in grado di leggere libri in tre secondi netti. Ora posso immergermi nei dati e creare qualsiasi tipo di esperienza di apprendimento che desidero adattare al mio stile di apprendimento.
Il lato negativo è che sono gli studenti a scegliere, io non devo fare nulla. Posso lasciare che l'AI faccia tutto il lavoro per me e io non imparerò nulla. Questa è la parte che mi spaventa.
Le competenze del nostro tempo sono: spero che ti piaccia imparare perché dovrai farlo ogni singolo giorno per il resto della tua carriera.
Ascolta la conversazione completa con Jake Trippel a The AI Forecast su Spotify, Apple Podcasts e YouTube.
This may have been caused by one of the following: