Per contenere la minaccia terroristica mondiale è utile mettere al bando le armi letali di ultima generazione? Ne sono convinti 116 leader dell’industria informatica (IT) di 24 paesi che hanno chiesto formalmente all’ONU di intervenire. Il timore è che i cosiddetti robot killer progettati per uso militare possano essere usati da gruppi terroristici per uccidere a comando e a distanza grandi quantità di persone. In apertura della 26/a Conferenza Internazionale Congiunta sull’Intelligenza Artificiale, ieri a Melbourne, i pionieri della robotica e dell’intelligenza artificiale, fra cui Elon Musk della Tesla e Mustafa Suleyman di Google, hanno firmato una lettera aperta in cui avvertono che la tecnologia delle armi letali autonome è in fase di rapido sviluppo e minaccia la sicurezza mondiale. E chiedono che siano aggiunte alla lista di armi messe al bando dalla convenzione Onu del 1983, che include le armi chimiche e le armi laser intenzionalmente accecanti.
“Le armi letali autonome minacciano di diventare la terza rivoluzione nella guerra. Una volta sviluppate, permetteranno ai conflitti armati di essere combattuti in una scala più grande che mai, e con tempi più rapidi di quanto gli umani possano comprendere – scrivono i firmatari – Possono essere armi di terrore, che terroristi e despoti possono usare contro popolazioni innocenti, e che con l’hackeraggio possono agire in maniere indesiderabili… Non abbiamo molto tempo per agire. Una volta aperto, questo Vaso di Pandora sarà difficile da chiudere”.
L’Assemblea Generale delle Nazioni Unite ha votato di recente di iniziare discussioni formali su tali armi, che includono droni, carri armati e mitragliatrici automatizzate. E’ stato quindi formato un gruppo Onu di esperti governativi per studiare la diffusione e i rischi dei sistemi di armi letali autonome.