Skip to main content
Intelligenza umana o artificiale? Per la sicurezza, meglio tutte e 2
Intelligenza umana o artificiale? Per la sicurezza, meglio tutte e 2

Intelligenza umana o artificiale? Per la sicurezza, meglio tutte e 2

| Giorgio Giacinto | Cybersecurity

Articolo letto 1534 volte
#CybersecurityCafé

di Giorgio Giacinto, Università di Cagliari

Il ruolo del machine learning nella sicurezza informatica sta diventando sempre più importante e la ragione è molto semplice: abbiamo enormi moli di dati da analizzare, che rendono insufficiente l’azione anche del migliore esperto umano, che semplicemente non può stare dietro a tutto.

Insufficiente però non vuol dire superflua, né obsoleta. Anzi, almeno per quanto riguarda la cybersecurity, il giorno in cui gli algoritmi sostituiranno gli umani è ancora molto lontano.

Innanzi a tutto, bisogna considerare che queste tecnologie non sono ancora mature per il settore, anche se oggi c’è un rinnovato interesse per l’applicazione del deep learning e più in generale delle reti neurali: approccio che conosce oggi una nuova fortuna grazie alla maggiore disponibilità di risorse computazionali, fondamentali per la sua applicazione e che sicuramente ha del potenziale per la cybersecurity. Infatti la comunità scientifica sta verificando se le stesse architetture sviluppate con le reti neurali in altri campi come la visione automatica siano adeguate ad individuare gli eventi di interesse in diversi ambiti della cybersecurity. Così è frequente utilizzare diverse tipologie di algoritmi di machine learning, che consentono di classificare numerosi eventi di sicurezza ma, come vedremo, dipendono molto dai dati utilizzati per il loro addestramento.

Nell’ambito della cybersecurity il machine learning è spesso utilizzato non per sostituire l’esperto umano, ma per indirizzarne l’attenzione su casi “sospetti”, correlare eventi anomali da diverse sorgenti per capire dove l’attacco abbia avuto inizio e quale ne sia stata la dinamica, in modo di progettare al meglio la difesa. Un altro utilizzo tipico è quello di analizzare verticalmente una applicazione per determinare se sia benevola o malevola o se siano presenti delle vulnerabilità. Anche qui siamo lontani dal poter escludere completamente l’esperto, ma gli algoritmi consentono di classificare velocemente una grande quantità di casi “facili” permettendo di focalizzare l’attenzione dell’esperto su quelli dubbi. Un altro campo in cui spesso si sente invocare l’uso degli algoritmi di machine learning è l’individuazione delle fake news, ma bisogna considerare che in questo caso le zone grigie sono ancora maggiori perché non esiste una definizione generale di fake news. L’analisi automatica può evidenziare aspetti problematici in una notizia, ma l’intervento dell’esperto è indispensabile. Gli algoritmi, diversamente dagli umani, diventano infatti molto polarizzati sui dati che vengono utilizzati per progettare il sistema: ma se mentre nel caso del malware è possibile individuare con un’alta precisione i campioni di applicazioni malevole, nel caso delle fake news c’è una variabilità molto più elevata che può ingannare facilmente l’algoritmo.

Non bisogna dimenticare poi che gli algoritmi di machine learning non sono utilizzati esclusivamente a scopo difensivo, potendo essere utilizzati, come ogni strumento, anche a scopo offensivo. Ad esempio, li si può usare per produrre variazioni nel malware che consentano di superare le difese. In questo caso l’obiettivo è “scavalcare” il confine che è stato stabilito dall’algoritmo difensivo fra le caratteristiche delle attività legittime e quelle malevole, o creando contenuti malevoli con caratteristiche considerate legittime dall’algoritmo, o inserendo contenuto malevolo in eventi apparentemente legittimi. Approcci analoghi possono essere usati per studiare i comportamenti tipici di utenti anche attraverso l’analisi delle attività che avvengono sulla rete, in modo da simulare un comportamento “normale” che dunque possa passare inosservato. La mimesi è un comportamento tipico per il malware e l’adattamento dell’algoritmo malevolo avviene in modo non dissimile dal mondo naturale.

Ma c’è anche un modo più sottile in cui gli algoritmi possono giocare a sfavore del difensore, ed è la convinzione che l’uso del machine learning ci ponga automaticamente al riparo dai pericoli, alimentando la percezione di falsa sicurezza. Il problema può essere sintetizzato affermando che fidarsi (del tuo algoritmo) è bene, ma fidarsi troppo no. È invece importante conoscere i limiti, le debolezze degli algoritmi ed essere consapevoli che possono venire sfruttate, ma anche ricordare che scopo di chi difende non è tanto quello di rendere impenetrabile un sistema (che è impossibile) ma mitigare il rischio rendendo gli attacchi difficili e costosi. La manutenzione dei sistemi di difesa è quindi un aspetto fondamentale della sicurezza: non solo nel senso di mantenere i propri sistemi aggiornati, ma soprattutto nel continuo approfondimento, verifica e revisione di qualunque soluzione difensiva sia stata realizzata.

Il paradosso però è che solo se un sistema è sufficientemente semplice è possibile procedere ad effettuare delle verifiche formali, ma questo è sempre meno realistico perché i nostri sistemi sono sempre più complessi e - attenzione - non parliamo solo di sistemi informatici, ma del sistema più complesso che è dato da essi, da chi li utilizza e dagli altri sistemi (informatici e non) con cui entrano in relazione . E in questo caso il diavolo è nelle interazioni.

La complessità occasionalmente può fare il gioco dei difensori, perché scoprire la via migliore per un attacco, in un sistema complesso, può non essere semplice. Ma più frequentemente fa il gioco dell’attaccante, perché se la complessità non è governata e conosciuta si rischia di lasciare parecchi varchi di accesso disponibili senza la necessaria sorveglianza. Molte organizzazioni hanno ormai preso coscienza di questo e hanno intrapreso la via di governare i processi, codificandoli e controllandoli. Ma la strada è ancora lunga, a causa delle resistenze a cambiare il proprio modus operandi accettando vincoli, limitazioni e protocolli.

Governare i processi è particolarmente importante perché nella continua rincorsa tra chi attacca un sistema e chi lo difende, spesso si nota che il fattore umano rappresenta l’anello debole, e quindi uno dei bersagli preferiti dei malintenzionati: il social engineering è ormai saldamente al primissimo posto degli attacchi. Oggi i falsi diventano sempre più accurati e difficili da distinguere a prima vista. Il malware sempre più spesso raggiunge la propria destinazione passando attraverso l’inganno di utenti, attraverso messaggi che fanno leva tipicamente su attività caratteristiche di una categoria o un settore lavorativo (ad esempio, attraverso messaggi email falsi apparentemente inviati da settori della propria organizzazione). Si assiste sempre più frequentemente anche a campagne mirate dove vengono sfruttate specifiche relazioni lavorative (ad esempio attraverso “tracce” lasciate in documenti di progetto, pubblicazioni, partecipazione a eventi, persino foto di gruppo) oppure anche interessi personali, di cui spesso inconsapevolmente lasciamo traccia nel web e nei social.

Un’altra fonte di vulnerabilità è il fatto che sempre più di frequente sistemi e applicazioni deleghino all’utente la decisione sull’attendibilità e sicurezza di richieste come l’utilizzo delle applicazioni o lo scaricamento di file. Ma non è detto che l’utente sia competente o sufficientemente informato per poter prendere questa decisione, senza contare che se queste richieste si ripetono troppo frequentemente si rischia di abbassare il suo livello di guardia, inducendolo all’accettare automaticamente.

C’è bisogno, e in fretta, di formare i cittadini a un comportamento consapevole per la sopravvivenza in termini di sicurezza. L’evoluzione ha fatto sì che le nostre competenze sociali nel mondo reale siano estremamente raffinate nell’interazione diretta con i nostri simili. Faccia a faccia non è poi così facile ingannarci perché ci sono una serie di segnali che possiamo cogliere nella comunicazione non verbale e nel contesto. Nello spazio virtuale molti di questi indizi vanno perduti: dobbiamo quindi evolvere nuove competenze per stabilire la fiducia nel mondo virtuale.
Sono necessari più che mai programmi per aumentare la consapevolezza a partire dai bambini, anche in età pre-scolare, ma nello stesso tempo avere presente che non parliamo solo di scuola, ma di programmi che raggiungano tutte le fasce di età, in grado di adeguarsi velocemente, anche in considerazione della velocità con cui evolvono gli attacchi.

Il tema del falso e dell’inganno è assai più antico dei computer e della rete, ma è vero che il filtro della virtualità e la nostra stessa iperconnessione rischiano di renderne molto più estese le conseguenze, soprattutto perché diventa sempre più difficile ottenere le informazioni che ci permetterebbero di verificare l’attendibilità di quello che riceviamo. Questo ha già cambiato il nostro modo di lavorare ed interagire sia con gli altri che con le macchine e continuerà a farlo. L’iperconnessione sta provocando profonde mutazioni e forse occorrerà ancora del tempo affinché si possa comprendere appieno come gestire il rapporto fra vita nel mondo fisico e vita nel mondo virtuale. Intanto, possiamo restare affascinati dall’intelligenza artificiale ma senza delegare le nostre capacità umane.

Giorgio Giacinto, qui alla conferenza GARR 2018, è professore ordinario presso il DIEE dell’Università di Cagliari.

Ti è piaciuto questo articolo? Faccelo sapere!
Dai un voto da 1 a 5, ne terremo conto per scrivere i prossimi articoli.

Voto attuale:

Ultimi articoli in rubrica