Di Pietro Ricci
8 Maggio 2024
Tempo di lettura: 8 minuti
English version below
Lungi dall’essere un mero concetto futuristico, l’Intelligenza Artificiale è diventata una realtà tangibile che permea diversi settori, tra cui la finanza, la sanità, la giustizia penale e, in particolare, la sicurezza nazionale. Quest’ultimo campo è stato significativamente rinnovato dall’avvento di questa tecnologia, che ha portato progressi significativi ma allo stesso tempo ha aperto la strada a nuove minacce e conseguenze complesse che devono essere considerate e contrastate per evitare danni potenzialmente irreversibili.
L’intelligenza artificiale sta rivoluzionando le strategie di difesa nazionale: La capacità dell’intelligenza artificiale di analizzare i big data consente di elaborare grandi quantità di dati a velocità senza precedenti, potenzialmente in tempo reale. Questa capacità è destinata a rivoluzionare l’analisi dell’intelligence, offrendo ai leader militari e ai loro team la possibilità di ottenere efficienza e conoscenze senza precedenti (Davenport, 2017).
Allo stesso tempo, come l’IA accelererà il ritmo della guerra, porterà anche a nuove sfide nella sicurezza informatica. L’aumento di malware sofisticati e in costante evoluzione e di vulnerabilità precedentemente sconosciute richiede un’evoluzione sostanziale dei meccanismi di difesa. Per contrastare tali minacce, è necessaria una revisione delle infrastrutture di cybersecurity esistenti, incorporando sistemi di intelligenza artificiale basati su cloud con capacità cognitive. Si prevede che questi sistemi avanzati possiedano un meccanismo di difesa “pensante”, che consenta loro di imparare dalle minacce passate e di proteggere meglio le reti attraverso un adattamento e un addestramento continuo (Allen e West, 2023). Inoltre, l’avvento dell’intelligenza artificiale e delle tecnologie digitali ha trasformato in modo significativo la sorveglianza delle frontiere e il controllo dell’immigrazione. Nonostante l’Unione Europea abbia rafforzato le frontiere esterne con un aumento del personale di sicurezza, torri di sorveglianza e soluzioni tecnologiche avanzate, la gestione della migrazione irregolare rimane una sfida persistente.
In risposta, l’UE ha implementato sistemi di monitoraggio elettronico completi come il Sistema d’informazione Schengen (SIS), Eurodac e il Sistema d’informazione visti (VIS). Questi archivi digitali sono diventati fondamentali per la supervisione della sicurezza delle frontiere e per il monitoraggio della migrazione all’interno dei confini (Broeders, 2007). Eurodac e il Sistema d’informazione Schengen II (SIS II) sono stati determinanti nel rivoluzionare la gestione e la sorveglianza delle frontiere all’interno dell’Unione Europea. Questi sistemi hanno ridisegnato il panorama della sorveglianza delle frontiere e del controllo dell’immigrazione nell’UE, consentendo la rapida condivisione di dati biometrici, rafforzando la sicurezza transfrontaliera, promuovendo la cooperazione tra gli Stati membri, prevenendo gli abusi del sistema di asilo e migliorando la gestione dei flussi migratori. Il risultato è stato un quadro più sicuro, collaborativo ed efficiente per gestire la migrazione e garantire la sicurezza delle frontiere.
È quindi innegabile che l’IA abbia portato vantaggi significativi in termini di efficienza e sicurezza; tuttavia, tali progressi richiedono una gestione attenta. Le considerazioni etiche, in particolare sulla gestione dei dati personali e sul rispetto dei diritti individuali, devono essere valutate più che mai. Ciò implica non solo la creazione di solidi sistemi di protezione dei dati che ne impediscano l’uso improprio, ma anche la garanzia di trasparenza e responsabilità nelle applicazioni di IA. In effetti, è altrettanto vero che le tecnologie dell’IA hanno il potenziale per influire negativamente sui diritti umani, sulla democrazia e sullo Stato di diritto (Leslie et al., 2021). La sorveglianza diffusa ha un prezzo elevato: violare i diritti delle persone e impedire la crescita di democrazie dinamiche e pluralistiche (Ufficio dell’Alto Commissario delle Nazioni Unite per i diritti umani, 2022).
Nell’ultimo rapporto sulla privacy nell’era digitale dell’Ufficio delle Nazioni Unite per i diritti umani, una delle preoccupazioni più esaminate riguarda la sorveglianza delle aree pubbliche. Secondo questo rapporto, la raccolta e l’analisi automatizzata dei dati su larga scala, insieme ai nuovi sistemi di identità digitale e ai vasti database biometrici che facilitano notevolmente l’ampiezza di tali misure di sorveglianza, hanno spazzato via le precedenti limitazioni pratiche sulla portata della sorveglianza (Ufficio dell’Alto Commissario delle Nazioni Unite per i diritti umani, 2022).
Un esempio eclatante può essere osservato nell’inchiesta di Amnesty International, riguardante l’uso della tecnologia di riconoscimento facciale (FRT) da parte delle autorità israeliane nei confronti di milioni di palestinesi che vivono in Cisgiordania, compresa Gerusalemme Est e nella Striscia di Gaza. La tecnologia di riconoscimento facciale (FRT) viene utilizzata ai posti di blocco nella città di Hebron per catturare le informazioni biometriche delle persone che vi transitano. È interessante notare che anche se una persona non si è registrata volontariamente o consapevolmente al sistema di sorveglianza, la tecnologia tiene comunque traccia delle sue informazioni personali. Ciò solleva notevoli preoccupazioni per quella che sembra essere una violazione illimitata dell’identità delle persone, al di fuori della loro volontà o del loro controllo. In precedenza, l’FRT era limitato ai posti di blocco, ma dal 2021 questa tecnologia è stata integrata nei dispositivi mobili dei soldati israeliani, che ora possono usare i loro telefoni per catturare i volti dei cittadini palestinesi sul posto e ottenere accesso istantaneo a una serie di dati personali sulle persone scansionate. Inoltre, la polizia israeliana ha ampliato i propri sforzi di sorveglianza a Gerusalemme Est, in particolare nella Città Vecchia, con una rete completa di riconoscimento facciale nota come “Mabat 2000”. Questo sistema, rafforzato da una rete sempre più fitta di telecamere, consente alle autorità di perseguire i manifestanti e di mantenere un controllo continuo sui palestinesi, influenzando la loro vita quotidiana e i loro movimenti. (Amnesty International, 2023). L’impatto negativo di questi sistemi è quindi evidente e drammatico: non solo invadono la privacy personale, ma minano anche i principi fondamentali dei diritti umani, come l’uguaglianza e il diritto alla libertà di espressione, oltre a incidere sul diritto di riunione e associazione pacifica.
L’ambiente che si viene a creare è quello di coercizione, in cui la vita quotidiana e i movimenti degli individui sono costantemente monitorati, trasformando le attività di routine in atti di sfida sotto il controllo dello Stato.
Efficienza, ma a quale costo evitare che i costi etici e dei diritti umani siano maggiori dei benefici economici e sociali più ampi che ne derivano?
L’Intelligenza Artificiale ha indubbiamente portato una pletora di vantaggi in vari settori della nostra società, dalla finanza alla sicurezza nazionale. Tuttavia, come spesso accade nel campo della sicurezza e della sorveglianza, c’è sempre un velo molto labile che separa la necessità di una maggiore sicurezza per la nostra società dalla salvaguardia dei nostri diritti fondamentali.
Quando la capacità di sorveglianza dell’IA invade la privacy personale, rischia di minare i diritti umani fondamentali, come l’uguaglianza e la non discriminazione, e può persino influire sul diritto di riunione e associazione pacifica. Queste preoccupazioni non sono solo teoriche, ma sono evidenziate da casi reali in cui l’uso improprio dell’IA ha portato a dei “chilling effects”, dissuadendo la libera espressione e associazione per paura della sorveglianza. Pertanto, per sostenere lo Stato di diritto, è fondamentale lo sviluppo di leggi che regolino l’utilizzo dell’IA per garantire che la sua implementazione sia in linea con gli standard etici e i principi dei diritti umani. Tali leggi dovrebbero affrontare il tema della privacy, eliminare i pregiudizi, garantire la trasparenza dei processi decisionali in materia di IA e stabilire chiare linee di responsabilità. Queste misure sono essenziali non solo per preservare lo stato di diritto, ma anche per garantire che l’IA rimanga un alleato nella nostra ricerca di una società più sicura, equa e aperta. Ci permetteranno di sfruttare le vaste capacità dell’IA salvaguardando le libertà che costituiscono il fondamento delle nostre democrazie. In altre parole, ci aiuteranno a evitare che i benefici economici e sociali più ampi apportati dall’IA non vadano a discapito dell’erosione dei diritti umani.
By Pietro Ricci
May 8th, 2024
Reading time: 8 minutes
Far from being a mere futuristic concept, Artificial Intelligence has become a tangible reality permeating various sectors including finance, health care, criminal justice, and, notably, national security. This last field has been significantly reshaped by the entrance of this technology which brought significant advancements but at the same time opened the way to new complex threats and consequences that must be considered and counteracted to avoid potentially irreversible damages. Artificial Intelligence is revolutionizing national defense strategies: AI’s capability for big data analytics enables to process vast quantities of data at unprecedented speeds, potentially in real time. This capability is set to revolutionize intelligence analysis, offering military leaders and their teams to achieve unparalleled efficiency and insights (Davenport, 2017).
At the same time, as AI will accelerate the pace of warfare it will also bring forth new challenges in cybersecurity. The rise of sophisticated, constantly changing malware and previously unknown vulnerabilities demands a substantial evolution in defense mechanisms. To counter such threats, an overhaul of existing cybersecurity infrastructures is necessary, incorporating cloud-based AI systems with cognitive capabilities. These advanced systems are envisioned to possess a “thinking” defense mechanism: enabling them to learn from past threats and better protect networks through continuous adaptation and training (Allen and West, 2023). Furthermore, the advent of AI and digital technologies, have significantly transformed border surveillance and immigration control. Despite the European Union’s bolstered external borders with increased security personnel, surveillance towers, and advanced technological solutions, managing irregular migration remains a persistent challenge.
In response, the EU has implemented comprehensive electronic monitoring systems like the Schengen Information System (SIS), Eurodac, and the Visa Information System (VIS). These digital repositories have become pivotal in the oversight of both border security and the monitoring of migration within the borders (Broeders, 2007). Eurodac and the Schengen Information System II (SIS II) have been instrumental in revolutionizing border management and surveillance within the European Union. These systems have reshaped the landscape of border surveillance and immigration control in the EU, by enabling the swift sharing of biometric data, strengthening cross-border security, fostering cooperation among member states, preventing asylum system abuse, and enhancing migration flow management.
This resulted in a more secure, collaborative, and efficient framework for managing migration and ensuring border security.
It is therefore undeniable that AI brought significant advantages in terms of efficiency and security, however, such advancements require careful management. Ethical considerations, in particular in managing personal data and respecting individual rights, must be appraised more than ever. This involves not only establishing robust data protection frameworks that prevent misuse but also ensuring transparency and accountability in AI applications.
Indeed, it is also true that AI technologies have the potential to adversely affect human rights, democracy, and the rule of law (Leslie et al, 2021).
Widespread surveillance has a high price: violating people’s rights and impeding the growth of dynamic, pluralistic democracies (UN Human Rights office of the High Commissioner, 2022).
In the last report on privacy in the digital age by the UN Human Rights Office, one of the most analyzed concerns regards the surveillance of public areas. According to this report, the large-scale automated data collection and analysis, along with new digital identity systems and vast biometric databases that greatly facilitate the breadth of such surveillance measures, have swept away previous practical limitations on the scope of surveillance (UN Human Rights Office of the High Commissioner, 2022).
A striking example can be observed in the inquiry of Amnesty International, regarding the use of facial recognition technology (FRT) by the Israeli authorities against millions of Palestinians living in the West Bank, including East Jerusalem and the Gaza Strip. Facial recognition technology (FRT) is used at checkpoints in the city of Hebron to capture biometric information from individuals who pass through. Interestingly, even if a person hasn’t voluntarily or knowingly registered with the surveillance system, the technology nonetheless keeps track of their personal information. This raises significant concerns over what appears to be an unlimited breach of people’s identities beyond their will or control. Previously, FRT was confined to checkpoints, but since 2021, this technology has been integrated into the mobile devices of Israeli soldiers, who can now use their phones to capture the faces of Palestinian citizens on the spot and get instant access to a wealth of personal data about the individuals scanned. Additionally, Israeli police have expanded their surveillance efforts in East Jerusalem, particularly throughout the Old City, with a comprehensive facial recognition network known as “Mabat 2000”. This system, bolstered by an increasingly dense web of cameras, enables the authorities to pursue protestors and maintain a continuous watch over Palestinians, impacting their daily lives and movements (Amnesty International, 2023). The negative impact of these systems is therefore evident and dramatic: they are not only invading personal privacy but are also undermining core human rights principles such as equality and the right to freedom of expression, as well as impacting the right to peaceful assembly and association. The environment they create is one of coercion, where the daily lives and movements of individuals are constantly monitored, turning routine activities into acts of defiance under state scrutiny.
Efficiency, but at what cost avoid that the ethical and human rights costs are greater than the economic and wider-societal benefits it brings?
Artificial Intelligence (AI) has undoubtedly brought a plethora of advantages across various sectors of our society from finance to national security. However, as is often the case in the field of Security and Surveillance, there is always a very labile veil separating, the necessity for our society for greater security from the safeguarding of our fundamental rights.
When AI’s surveillance capacity encroaches upon personal privacy, it risks undermining core human rights, such as equality and non-discrimination, and may even affect the right to peaceful assembly and association. These concerns are not only theoretical but are evidenced by real-world cases where AI’s misuse has led to “chilling effects” dissuading free expression and association due to fear of surveillance. Therefore, to uphold the rule of law, the development of laws regulating the use of AI to ensure that its implementation is in line with ethical standards and human rights principles is crucial. Such laws should address privacy, eliminate bias, ensure transparency in AI decision-making processes, and establish clear lines of accountability. These measures are essential not only to preserve the rule of law but also to ensure that AI remains an ally in our pursuit of a more secure, equitable, and open society. They will enable us to harness AI’s vast capabilities while safeguarding the freedoms that form the bedrock of our democracies. In other words, they will help avoid the economic and wider societal benefits brought by AI do not come at the cost of erosion of human rights.
Allen, J.R., West, D.M. (2023) “How Artificial Intelligence is transforming the world” Brookings
Amnesty International (2023), Automated Apartheid, p. 6-10, url: https://www.amnesty.org/en/documents/mde15/6701/2023/en/
Broeders, B., “The New Digital Borders of Europe: EU Databases and the Surveillance of Irregular Migrants”, International Sociology, Vol. 22 - Issue 1, 71
Christian Davenport. (2017) “Future Wars May Depend as Much on Algorithms as on Ammunition, Report Says,” Washington Post.
Leslie, D., Burr, C., Aitken, M., Cowls, J., Katell, M., & Briggs, M. (2021). Artificial intelligence, human rights, democracy, and the rule of law: a primer. arXiv preprint arXiv:2104.04147.
UN Human Rights Office (2022) Spyware and surveillance: Threats to privacy and human rights growing, UN report warns
Pietro è uno studente di Cybersecurity Governance della Leiden University, già laureato in Politics: Philosophy and Economics (PPE) alla LUISS Guido Carli. Ha lavorato con il dipartimento Governance e Cybersecurity Engineering di ELT Group S.p.A. nell’ analisi dello standard internazionale ISO/IEC 27001:2022. Junior Member dell’AIPSA – Associazione Italiana Professionisti Security Aziendale. Da sempre appassionato di Geopolitica, Storia Contemporanea e del mondo dell’Intelligence. Pietro fa volontariato con Manalive un’organizzazione non profit nata con l'obiettivo di portare un aiuto concreto materiale e spirituale, con cui nel 2022 ha partecipato ad una missione umanitaria in Ucraina. Altre sue passioni sono la politica, la sicurezza informatica e le relazioni internazionali.