La campagna “Stop Killer Robots”: cosa chiedono le Ong. Ieri al Senato l’incontro per fermare le armi autonome letali
Sembrerebbe fantascienza, ma il rischio che diventino operativi a breve non è così lontano. Sono i killer robots, sistemi militari avanzati che attraverso l’intelligenza artificiale possono identificare e neutralizzare bersagli senza che nessun essere umano prema un grilletto o prenda una decisione finale. Una realtà che fino a ieri apparteneva ai romanzi distopici, ma che oggi bussa al presente, sollevando questioni che toccano l’etica, il diritto internazionale e la stessa concezione di umanità. La questione è stata affrontata ieri durante un incontro al Senato, dove esperti, attivisti e parlamentari si sono confrontati sul tema “Fermare la minaccia delle armi letali autonome: idee e prospettive per una regolamentazione internazionale”. All’’iniziativa hanno partecipato la Rete Italiana Pace e Disarmo e l’Istituto di Ricerche Internazionali Archivio Disarmo, nell’ambito della campagna globale Stop Killer Robots.
La sfida del controllo umano nelle decisioni di vita o morte
Il nodo centrale della questione riguarda il controllo umano. Quando una macchina decide autonomamente chi colpire, chi risparmiare e quando agire, si attraversa una linea rossa invalicabile. Come ha sottolineato Nicole van Rooijen, direttrice della campagna internazionale Stop Killer Robots, delegare ad algoritmi e processori decisioni che comportano la vita o la morte di esseri umani rappresenta una deriva inaccettabile. La responsabilità morale e giuridica di tali azioni non può essere trasferita a una macchina, per quanto sofisticata. Per Francesco Vignarca, coordinatore delle campagne della Rete Italiana Pace e Disarmo, non si tratta più di scenari futuribili, ma di tecnologie che potrebbero essere impiegate nei conflitti a breve termine. Del resto, l’intelligenza artificiale ha già fatto il suo ingresso in diversi teatri di guerra, compresa la Striscia di Gaza, dimostrando che il confine tra sperimentazione e utilizzo concreto è sempre più sottile.
L’appello della comunità scientifica e dei difensori dei diritti umani
Anche il mondo scientifico si fa sentire. Giorgio Parisi, premio Nobel per la Fisica, ha definito la problematica estremamente seria e troppo spesso sottovalutata. Non è una posizione isolata: già nel 2015, figure del calibro di Stephen Hawking e Elon Musk avevano firmato una lettera aperta per mettere in guardia contro una corsa agli armamenti basata sull’intelligenza artificiale militare. Riccardo Noury, portavoce di Amnesty International Italia, ha invece posto l’accento sulle ricadute sui diritti umani. Senza regole precise e vincolanti a livello internazionale, si corre il rischio di assistere a un impiego indiscriminato di queste tecnologie, non solo nei conflitti armati ma anche nel controllo delle frontiere e nelle operazioni di ordine pubblico. Con conseguenze che potrebbero essere devastanti per le popolazioni civili.
Il ruolo dell’Italia nei negoziati internazionali
Dall’incontro in Senato è emersa la necessità che l’Italia assuma un ruolo da protagonista nelle trattative internazionali pronte a regolamentare o vietare i killer robots. Il Paese ha l’opportunità di guidare i negoziati, sostenendo con decisione un trattato che limiti in modo stringente, se non proibisca del tutto, l’utilizzo di queste armi. Ieri, Fabrizio Battistelli, presidente dell’Istituto di Ricerche Internazionali Archivio Disarmo, ha insistito sulla necessità di raggiungere un accordo internazionale nel quadro delle Nazioni Unite. La richiesta rivolta alla classe politica italiana è quella di tradurre le preoccupazioni etiche e umanitarie in azioni concrete. Servono parlamentari di tutti gli schieramenti disposti a farsi carico della questione e a portarla con forza nei consessi internazionali. Non basta esprimere preoccupazione: occorre costruire un fronte comune capace di influenzare le decisioni globali prima che sia troppo tardi.
Una campagna globale contro la disumanizzazione
La campagna Stop Killer Robots rappresenta oggi il principale movimento internazionale di contrasto allo sviluppo delle armi letali autonome. Nata nell’ottobre 2012 dall’unione di dieci organizzazioni non governative e lanciata pubblicamente nell’aprile 2013, questa coalizione conta ormai più di duecentocinquanta membri sparsi in oltre sessanta paesi. Tra le organizzazioni del comitato direttivo figurano nomi di peso come Amnesty International, Human Rights Watch e Handicap International. L’obiettivo è ottenere un trattato internazionale vincolante che vieti sviluppo, produzione e impiego di armi autonome completamente letali. La campagna ha già raccolto il sostegno di ventisette paesi favorevoli a un divieto e ha ricevuto riconoscimenti importanti, come lo Ypres Peace Prize nel 2020.
Le implicazioni etiche di una guerra algoritmica
Al di là degli aspetti tecnici e giuridici, ciò che preoccupa maggiormente è la dimensione etica. Affidare a un algoritmo il potere di decidere chi deve vivere e chi deve morire rappresenta una forma di disumanizzazione della guerra in rottura con secoli di pensiero filosofico e giuridico. Il diritto internazionale umanitario, infatti, si basa sul principio della distinzione tra combattenti e civili, sulla proporzionalità nell’uso della forza e sulla possibilità di attribuire responsabilità per eventuali crimini di guerra. La preoccupazione non riguarda solo i campi di battaglia tradizionali. Queste tecnologie potrebbero essere impiegate anche in contesti di sicurezza interna, nelle operazioni di polizia o nel controllo dei flussi migratori, amplificando il rischio di violazioni dei diritti fondamentali. Senza il controllo umano diventa impossibile garantire che l’uso della forza rispetti i principi di necessità e proporzionalità che dovrebbero governare ogni intervento delle autorità.
TUTTE LE ALTRE NOTIZIE SU SPAZIO50.ORG
© Riproduzione riservata
