La scorsa settimana, scatenando una notevole eco mediatica, le cronache americane hanno riportato due notizie riguardanti l’impiego delle tecnologie di intelligenza artificiale nel dominio della sicurezza e della difesa.
Partiamo da quella che ha avuto maggior eco, probabilmente perché ha avuto come protagonista Amazon e il suo software di riconoscimento facciale Rekognition.
Secondo quanto cita testualmente il primo paragrafo della pagina italiana di Amazon: “Amazon Rekognition semplifica l’aggiunta di funzionalità di analisi di immagini e video alle applicazioni. È sufficiente fornire un’immagine o un video all’API Rekognition e il servizio può identificare oggetti, persone, testo, scene e attività, oltre che rilevare eventuali contenuti non appropriati. Amazon Rekognition offre inoltre analisi facciale ad elevate precisione su immagini e video. È possibile rilevare, analizzare e confrontare volti per diversi casi d’uso, ad esempio verifica degli utenti, conteggio delle persone e pubblica sicurezza.”
Ed è forse proprio sulla base delle ultime due parole che l’American Civil Liberties Union (ACLU) ha deciso di verificare la qualità di Amazon Rekognition (un test che ha richiesto un investimento di soli 12 dollari).
Ha confrontato 25mila foto segnaletiche presenti in un database pubblico con le fotografie dei 535 senatori e deputati americani attualmente in carica. Impostando un livello di confidenza pari all’80% (leggasi livello di certezza che il software ha determinato), Amazon Rekognition ha segnalato ben 28 corrispondenze.
Si tratta tecnicamente di falsi positivi, ovvero di politici che sono stati erroneamente associati a foto di schedati presenti nell’archivio. Un palese errore che diventa ancora più clamoroso se si considera che i falsi positivi hanno riguardato i politici di colore in modo proporzionalmente più significativo rispetto ai politici bianchi…
La risposta di Amazon è sintetizzabile nel seguente concetto “la soglia di confidenza dell’80% è appropriata per il riconoscimento di oggetti, mentre per riconoscere le persone è consigliabile considerare il 95%”. Come prevedibile, la dichiarazione non è servita a placare la polemica facendo emergere in modo ancora più evidente perplessità e proteste contro gli evidenti bug di un software potenzialmente in grado di condizionare la libertà di ognuno di noi.
Il secondo fatto riguarda la DARPA, l’agenzia di ricerca del Ministero della Difesa USA che ha avviato un bando per finanziare la terza ondata (generazione) di soluzioni di intelligenza artificiale.
Per capire meglio, pur rischiando un’eccessiva banalizzazione di come funzionano tecnologie così complesse, qualche esempio può aiutare a comprendere gli obiettivi della DARPA. La maggior parte delle tecnologie di intelligenza artificiale ricade in quella che viene definita come “prima ondata” e comprende principalmente software basati su regole, come quelli capaci di sfidarci a scacchi.
La seconda generazione dell’intelligenza artificiale, invece, si basa su algoritmi che “apprendono” (il cosiddetto machine learning): estraggono da un ricco campione di esempi le logiche che poi utilizzano per fornire una risposta. Così funzionano i software di riconoscimento delle immagini, che sanno individuare un gatto perché hanno “macinato” centinaia di immagini di gatti, associate alla parola gatto. Questi algoritmi sono però delle “black box” e, dunque, non sapremo mai perché l’algoritmo ha associato o no un gatto ad una immagine.
La DARPA ora ha ambizioni molto più elevate e finanzierà la ricerca di nuove tecnologie in grado di motivare i meccanismi e le logiche che usano per ragionare.
Non solo i nuovi algoritmi dovranno cioè riconoscere la presenza di un gatto in una foto, ma dovranno essere in grado di spiegare questa deduzione, dicendo ad esempio che si tratta di un animale a quattro zampe, con coda e pelliccia, di determinate dimensioni, ecc..
Potremmo così capire perché il volto di un innocente senatore è stato associato a quello di un pericoloso criminale. E comprendere quindi come migliorare il risultato finale aggiustando la logica della intelligenza artificiale.
Eugenio Santagata, Andrea Melegari
PS: Nel frattempo, come già scritto più volte, l’opinione di chi scrive propende convintamente per l’utilizzo dell’intelligenza artificiale, anche nel dominio della difesa e sicurezza, purché nella piena consapevolezza dei vantaggi e dei limiti che possono derivarne. In sintesi: maneggiare con cura !!!
Fonte: https://www.analisidifesa.it