Cloudera nominata leader nel The Forrester Wave™: Data Fabric Platforms, Q4 2025

Leggi il report
  • Cloudera Cloudera
  • | Tecnico

    Oltre lo schermo: Deepfake, fiducia e la prossima frontiera della sicurezza informatica

    Cloudera Author Profile Picture
    Finestra e scena di un treno

    La fiducia è il fondamento della cooperazione, del commercio e del processo decisionale aziendale. Nell'era digitale, si stabilisce attraverso firme, voci e interazioni virtuali. Ma con il rapido progresso della tecnologia dei deepfake, questa fiducia si sta erodendo, creando nuovi rischi che vanificano decenni di investimenti nella sicurezza informatica.  

    In questo episodio di The AI Forecast, Paul Muller parla con Jim Brennan, Chief Product and Technical Officer di GetReal Security, su come le minacce all'autenticità basate sull'AI modifichino l'equazione della sicurezza aziendale. La loro conversazione rivela perché i deepfake sono il nuovo volto del social engineering, perché la tecnologia (e non l'occhio umano) deve guidare la difesa e come i leader possono proteggere le loro aziende e le loro persone.    

    Il livello umano è diventato l'anello debole  

    Paul: Decenni di trasformazione digitale ci hanno dato la possibilità di collaborare istantaneamente. Ma ora proprio ciò su cui facciamo affidamento – la piccola finestra sui nostri schermi – è diventata la nuova superficie di attacco. Se non posso fidarmi di ciò che vedo, l'unico ripiego sono le interazioni fisiche, costose e lente.  

    Jim: Un CIO mi ha detto: "Questa finestrella è il punto da cui gestisco la mia attività e ora non posso più fidarmi di nulla che la attraversi." È un concetto profondo. L'occhio umano non è più in grado di rilevare questo livello di sofisticazione. La maggior parte delle persone ipotizza una probabilità del 50/50. Ecco perché la tecnologia, e non l'istinto, deve guidare la difesa.  

    La fiducia alimenta la cooperazione, e la cooperazione alimenta il business. Ma i deepfake minano questa fiducia al livello più personale: le conversazioni quotidiane e le videochiamate da cui i leader dipendono. Jim descrive questo come un nuovo livello di interazione rivolto all'uomo, che chiama "livello di visualizzazione", e Paul ha scherzosamente soprannominato "Liar 8", una superficie di attacco completamente nuova. A differenza dei firewall e dei sistemi di rilevamento delle intrusioni, questo non è un livello tecnico ma umano. Il mezzo che i dirigenti utilizzano per comunicare e prendere decisioni è ora soggetto a manipolazione.  

    I consigli di amministrazione rispondono a minacce reali, non a trame hollywoodiane  

    Paul: I consigli di amministrazione rischiano di liquidare i deepfake come qualcosa che non potrebbe mai accadere loro?  

    Jim: Basta vederlo una volta per convincersi. Tuttavia, la vera sfida è mostrare agli amministratori cosa ciò significhi per la loro attività. Se parli di storie sensazionali, potrebbero ignorarle. La realtà è che incidenti più piccoli e quotidiani stanno già accadendo e hanno una risonanza molto più elevata.  

    Cita le assunzioni fraudolente come esempio principale. Gli aggressori utilizzano i deepfake per impersonare candidati e aggirare i processi HR. A volte la motivazione è semplicemente un guadagno finanziario, come intascare un bonus di assunzione. Altre volte, è molto più grave: attori statali che piazzano impostori all'interno delle aziende per spionaggio o frodi su larga scala. ' 

    Jim: Negli ultimi tre mesi, tutte le aziende Fortune 500 e 1000 con cui ho parlato ci hanno detto di avere avuto problemi di assunzioni fraudolente. I team delle risorse umane non sono strutturati per pensare come aggressori, il che rende questa fase aziendale un bersaglio facile.    

    La tecnologia deve guidare la lotta per l'autenticità digitale 

    Paul: Abbiamo sempre usato la tecnologia per combattere la tecnologia: firewall, antivirus, rilevamento intrusioni. Possiamo fare lo stesso contro i deepfake?  

    Jim: Non possiamo semplicemente allenarci per risolvere questo problema. Non basta creare un modello black-box e alimentarlo con esempi reali e falsi. L'approccio migliore è usare la digital forensics per studiare gli artefatti lasciati dai deepfake, che si tratti di distorsioni facciali, rumori audio o incongruenze nell'illuminazione, e poi usare il machine learning per trovare quei segnali su larga scala.  

    Jim ha spiegato che le difese efficaci devono andare oltre l'AI generica, guardando gli strumenti generativi "sotto la lente di ingrandimento" per identificare tracce e artefatti più sottili. In pratica, le aziende possono distribuire queste protezioni attraverso le API di piattaforme come Zoom o Teams, evitando installazioni di endpoint e mantenendo le difese scalabili. Allo stesso tempo, la consapevolezza è fondamentale: webinar, dimostrazioni e simulazioni offrono ai dipendenti il contesto necessario per fermarsi a riflettere prima di agire. Tecnologia e formazione costituiscono i due livelli necessari per proteggere la fiducia digitale. 

    Riflessioni conclusive per i leader aziendali 

    Jim: Viviamo in un'epoca in cui non ci si può fidare di nulla in questa finestra o in questo schermo. Sono necessarie nuove politiche per le organizzazioni e anche nuovi modi di operare. 

    Il panorama delle minacce è cambiato. I deepfake non rappresentano solo un rischio futuristico: sono qui e minano sia il processo decisionale aziendale che la sicurezza personale. Dalle assunzioni fraudolente alle chiamate di riscatto clonate con l'AI, la fiducia digitale oggi non è più garantita. 

    Il percorso da seguire è triplice: 

    • Formare i consigli di amministrazione con esempi credibili e pertinenti che si adattino ai quadri di gestione del rischio esistenti 
    • Fornire ai dipendenti la consapevolezza che "vedere" e "sentire" non sono più sufficienti per stabilire la verità
    • Implementare una tecnologia in grado di rilevare e rispondere alle minacce di autenticità in tempo reale

    Segui la conversazione completa con Jim Brennan su The AI Forecast su Spotify, Apple Podcasts e YouTube

    Your form submission has failed.

    This may have been caused by one of the following:

    • Your request timed out
    • A plugin/browser extension blocked the submission. If you have an ad blocking plugin please disable it and close this message to reload the page.