Cervelloni vanno in guerra

© 2018 FdR

Considerato ciò di cui è capace l'essere umano in guerra, i timori che i robot (o sistemi autonomi armati letali) lo supereranno è come pensare che i nuovi vicini di casa possano davvero comportarsi peggio di quelli che hanno (finalmente) traslocato altrove.

Questa è un'opinione.

Ecco i fatti: da oggi al 31 agosto, le Nazioni Unite nella loro sede di Ginevra organizzano un Convegno sulle armi convenzionali. In inglese, il titolo dell'appuntamento ripropone la stessa (sfortunata) combinazione lessicale: Convention on Conventional Weapons. Rappresentanti di oltre 70 paesi cercheranno di affrontare la sfida che pone la ricerca in materia di armamenti capaci di decidere e agire da soli sul campo di battaglia. Rientrano, indirettamente, nella categoria delle armi convenzionali perché sui campi di battaglia agiranno con polvere da sparo e piombo. La differenza è che avranno un "cervello" tutto loro.

26 paesi chiedono la messa al bando di questo tipo di armamenti (di quelli, pochi, già esistenti e di quelli che saranno sviluppati in un prossimo futuro). 100 paesi sono favorevoli a una legislazione che definisca i margini del loro impiego a livello internazionale. Questa proposta è stata respinta da Francia, Israele, Russia, Regno Unito e Stati Uniti in occasione del precedente incontro, tenutosi nell'aprile di quest'anno.

Non si tratta di armamenti semiautonomi, quali lo sono i droni aerei o marittimi o alcuni sistemi di sminamento attualmente in uso. I cosiddetti killer-robot saranno dotati di “intelligenza” artificiale, insomma di un software sulla base del quale decideranno quando aprire il fuoco, sganciare una bomba o sparare una cannonata. Lo stesso “cervello” dovrebbe renderli capaci di distinguere fra gli amici e i nemici. Se, dentro la stessa testa, verrà inserita qualche informazione in più, anche contro i buoni e i cattivi.

Le organizzazioni per i diritti umani si sono già mobilitate. Nel 2013 fu lanciata la Campaign to Stop Killer Robots. Le preoccupazioni sono sostanzialmente due.

La prima: lasciare che una macchina decida della vita e della morte di qualcuno senza essere consapevole del valore della vita oltrepassa una linea rossa.

La seconda: in caso di violazioni del diritto internazionale e umanitario commesse da un robot, chi sarà ritenuto responsabile?

La ricerca per rendere totalmente autonomi alcuni tipi di armamento è in pieno corso. Procede di pari passo (anche se su binari diversi) con il progresso dell'industria automobilistica (si veda la NZZ di oggi) e dell'industria in generale. L'intelligenza artificiale e la sua applicabilità è al centro dei processi innovativi: i diversi settori coinvolti beneficiano vicendevolmente e a fasi alterne dei progressi compiuti.

La probabilità che si giunga a un divieto dei sistemi di armamento autonomo è uguale a zero. Il loro utilizzo sui campi di battaglia sarà graduale (è già in corso). Non ci saranno guerre combattute esclusivamente fra robot: questi ultimi assisteranno, invece, gli esseri umani negli scenari bellici. Non sono inoltre da escludere applicazioni in ambito civile, quali operazioni antiterrorismo e più in generale di polizia.

FdR pubblicherà il documento conclusivo del congresso in corso a Ginevra.