Articolo di Bruno Siciliano - Security Manager
Il 2025 segna una svolta epocale per la sicurezza pubblica: l’Intelligenza Artificiale (IA) è ormai entrata stabilmente nelle strategie operative delle forze dell’ordine e nelle politiche nazionali ed europee. Lungi dall’essere una tecnologia di nicchia, l’IA rappresenta oggi un vero e proprio ecosistema che abbraccia la prevenzione del crimine, il contrasto alla criminalità organizzata e informatica, la gestione dell’ordine pubblico e la cooperazione internazionale. Tuttavia, insieme alle promesse, emergono anche rischi concreti: bias algoritmici, minacce alla privacy, dipendenza tecnologica e possibili abusi da parte delle autorità. In questo articolo analizzeremo in profondità le sfide e le opportunità dell’uso dell’IA in polizia, con uno sguardo alle implicazioni etiche, giuridiche e operative, arricchendo la trattazione con casi studio concreti dall’Italia e dal mondo.
1. L’IA come strumento di prevenzione e analisi predittiva
Uno degli ambiti di maggiore interesse è l’uso dell’IA per la cosiddetta polizia predittiva. Attraverso l’elaborazione di grandi quantità di dati – denunce, statistiche storiche, variabili socioeconomiche, flussi urbani – gli algoritmi sono in grado di individuare i cosiddetti crime hot spots, ovvero aree e orari in cui la probabilità di reati è più elevata.
Caso studio: Milano e il progetto “Città Sicura”
Nel 2024 il Comune di Milano ha lanciato un progetto pilota di analisi predittiva in collaborazione con il Politecnico. Gli algoritmi, basati su dati storici e su indicatori sociali (tasso di disoccupazione, densità abitativa, flussi turistici), hanno permesso di ottimizzare i turni delle pattuglie. Nei quartieri di maggiore criticità, come alcune aree periferiche, si è registrata una riduzione del 15% di furti con scasso in un anno. Tuttavia, associazioni per i diritti civili hanno denunciato il rischio di “profilazione territoriale”, sostenendo che la maggiore presenza di pattuglie possa aumentare la tensione sociale.
Caso studio internazionale: Chicago
A Chicago il sistema “PredPol” è stato adottato già dal 2016 e continua ad evolversi. Nonostante i miglioramenti, il software è stato criticato per il suo bias nei confronti di comunità afroamericane e latinoamericane, con conseguente rafforzamento di stereotipi e tensioni. Questo caso dimostra come l’uso dell’IA in polizia richieda non solo strumenti tecnici, ma anche monitoraggio indipendente e trasparenza.
2. Videoanalisi intelligente e riconoscimento automatico
La diffusione di telecamere intelligenti e di Body-Worn Cameras (BWC) equipaggiate con sistemi di IA è un altro dei fronti caldi del 2025. Oggi, le forze dell’ordine possono contare su algoritmi in grado di:
- riconoscere volti e targhe;
- rilevare oggetti sospetti o abbandonati;
- analizzare flussi di persone e comportamenti anomali.
Caso studio: Aeroporto di Linate
Nel 2025, l’aeroporto di Linate è stato teatro di un acceso dibattito: il Garante per la Privacy ha sospeso temporaneamente il riconoscimento facciale utilizzato ai gate di sicurezza. L’azienda che gestiva il sistema sosteneva che l’IA avrebbe ridotto i tempi di attesa e aumentato l’efficienza dei controlli. Tuttavia, i critici hanno evidenziato i rischi di sorveglianza di massa e la possibilità di errori di identificazione, con conseguenze potenzialmente gravi per i passeggeri.
Caso studio internazionale: Londra
La Metropolitan Police utilizza sistemi di riconoscimento facciale dal vivo (Live Facial Recognition, LFR) durante eventi pubblici e grandi manifestazioni. Nel 2024 un’indagine indipendente ha mostrato che, pur avendo portato ad alcuni arresti mirati, il sistema aveva un tasso di falsi positivi del 30%. Le critiche hanno spinto le autorità britanniche a rafforzare i protocolli di verifica e a introdurre controlli più stringenti.
3. Cybersecurity e lotta alla criminalità digitale
Se la videosorveglianza riguarda la dimensione fisica della sicurezza, la vera sfida del 2025 si gioca sul fronte digitale. L’IA è divenuta strumento cruciale per contrastare minacce informatiche sempre più sofisticate, tra cui:
- attacchi DDoS ad alta intensità;
- ransomware evoluti;
- deepfake e frodi basate su voci sintetiche;
- phishing automatizzato multilingue.
Caso studio: Agenzia per la Cybersicurezza Nazionale (Italia)
L’Agenzia per la Cybersicurezza Nazionale (ACN) ha sviluppato un sistema basato su IA per monitorare e prevenire attacchi contro la Pubblica Amministrazione. Nel 2025, grazie a questo strumento, è stato sventato un attacco ransomware contro il sistema sanitario di una grande regione italiana. Il software ha individuato in tempo reale un pattern anomalo nei flussi di rete e ha isolato i server compromessi, evitando danni milionari e possibili conseguenze sulla salute dei cittadini.
Caso studio internazionale: Estonia
L’Estonia, considerata pioniera nella digitalizzazione dei servizi pubblici, utilizza già da anni sistemi avanzati di IA per la difesa cyber. Nel 2023 un attacco mirato proveniente da un gruppo criminale internazionale è stato intercettato da algoritmi di anomaly detection, che hanno identificato attività sospette prima che i sistemi fossero compromessi. Questo episodio è spesso citato come modello di resilienza digitale.
4. Normative e quadro giuridico
La cornice normativa è uno dei punti più rilevanti. L’AI Act europeo, entrato in vigore progressivamente a partire dal 2025, stabilisce una classificazione dei sistemi di IA in base al rischio. Gli usi in ambito di sicurezza e polizia rientrano nelle categorie ad alto rischio, con conseguenti obblighi di:
- trasparenza e documentazione;
- audit periodici;
- controlli indipendenti;
- limitazioni severe in caso di riconoscimento facciale o sorveglianza biometrica.
Caso studio: applicazione in Francia
La Francia ha recepito rapidamente l’AI Act e lo ha integrato con una normativa nazionale che prevede un comitato etico per ogni progetto di IA utilizzato dalle forze dell’ordine. Questo approccio punta a garantire un controllo continuo e multidisciplinare, che coinvolge giuristi, tecnici ed esperti di diritti civili.
5. Etica e rischi sociali
L’impiego dell’IA in polizia non è una questione meramente tecnica: tocca aspetti etici e sociali di primo piano. Tra i principali rischi:
- Bias algoritmico: se non monitorato, può portare a discriminazioni di intere comunità.
- Sorveglianza di massa: l’uso pervasivo di telecamere e riconoscimento facciale rischia di minare le libertà fondamentali.
- Dipendenza tecnologica: un’eccessiva fiducia negli algoritmi può ridurre la capacità critica degli operatori umani.
- Opacità delle decisioni: molti sistemi di IA funzionano come “scatole nere”, difficili da spiegare e controllare.
Caso studio: Amnesty International e il monitoraggio dei diritti umani
Nel 2024 Amnesty International ha pubblicato un report in cui denuncia l’uso sproporzionato dell’IA in contesti autoritari, dove le tecnologie di sorveglianza vengono impiegate per controllare dissidenti e oppositori politici. Questo esempio ricorda come i rischi non siano solo teorici, ma concreti e già in atto in diversi paesi.
6. Cooperazione internazionale
Il crimine non conosce confini, e lo stesso vale per le tecnologie. Nel 2025, la cooperazione internazionale è sempre più centrale. INTERPOL ha dedicato il tema della Giornata Internazionale della Cooperazione di Polizia proprio all’uso delle ICT e dell’IA, sottolineando la necessità di condividere strumenti, dati e buone pratiche tra diverse forze dell’ordine.
Caso studio: Europol e il contrasto al traffico di esseri umani
Europol ha sviluppato una piattaforma basata su IA che analizza annunci online sospetti, incrociandoli con dati di intelligence e segnalazioni di polizia locale. Grazie a questo sistema, nel 2025 sono state smantellate diverse reti di traffico di esseri umani operanti tra l’Europa orientale e l’Italia. L’algoritmo ha permesso di individuare collegamenti invisibili a un’analisi manuale.
7. Verso la “polizia aumentata”
Il futuro sembra orientato verso un modello di polizia aumentata, dove l’IA non sostituisce l’agente umano, ma lo affianca come “collega digitale”. In questa visione:
- gli algoritmi elaborano e filtrano enormi quantità di dati;
- gli operatori restano responsabili delle decisioni finali;
- la tecnologia diventa supporto e non surrogato.
Caso studio: Tokyo 2025
La polizia di Tokyo ha adottato un sistema integrato di IA per la gestione dei grandi eventi, come i Giochi Paralimpici del 2025. Il sistema combina dati di sorveglianza, sensori ambientali e flussi social per prevedere potenziali criticità (assembramenti, emergenze sanitarie, rischi di disordine pubblico). Il successo del progetto ha mostrato come l’IA possa essere usata non solo per il contrasto al crimine, ma anche per la gestione preventiva della sicurezza collettiva.
Conclusione
L’Intelligenza Artificiale è destinata a trasformare in profondità la sicurezza e l’attività di polizia. I suoi vantaggi sono innegabili: maggiore capacità di prevenzione, analisi predittiva, supporto decisionale, contrasto al cybercrime. Ma i rischi sono altrettanto concreti: bias, sorveglianza di massa, opacità e possibili abusi. Nel 2025 la sfida principale non è tanto tecnologica quanto culturale e giuridica: costruire un sistema che sappia coniugare innovazione e diritti fondamentali.
L’IA sarà dunque il futuro della polizia? Probabilmente sì, ma non come strumento di sostituzione: piuttosto come tecnologia di potenziamento, che rende gli agenti più rapidi, informati e consapevoli. La differenza la farà la capacità delle istituzioni di regolare l’uso, vigilare sui rischi e coinvolgere i cittadini in un dibattito aperto e trasparente.


