Se non ti piace, pace

© 2018 FdR

È soltanto una questione di tempo: fra pochissimi anni sistemi bellici totalmente autonomi assisteranno l'essere umano nelle guerre che si inventerà. Alcune le combatteranno anche al posto suo, parzialmente.

Questa prospettiva suscita interrogativi di carattere giuridico, che però lasciano il tempo che trovano.

Chiedersi se un robot sia consapevole del valore della vita nel momento in cui apre il fuoco su un obiettivo presuppone che un essere umano lo sia. Che perlomeno lo sia sempre.

Chiedersi, ancora, chi possa essere ritenuto responsabile della violazione dei diritti umani o del diritto internazionale o, ancora, delle leggi della guerra commessa da un robot armato induce a pensare che nel caso tale violazione sia commessa da un essere umano, quest'ultimo sia sempre e senza eccezione perseguito.

In entrambi i casi, la Storia, la cronaca e l'esperienza ci insegnano che l'essere umano è capace delle peggiori azioni e che la guerra e le azioni in essa compiute dagli esseri umani sono generalmente tollerate. Il fatto che si accetti l'applicazione del diritto ad alcuni crimini di guerra, tralasciando però gli altri, anzi tralasciando la guerra stessa, rende inscindibile lo sforzo (lodevole) di fare giustizia dall'ipocrisia.

Gli aspetti filosofici sollevati dalla ricerca nel campo dei sistemi di armamento letale autonomo sembrerebbero più interessanti (e paradossalmente più concreti) di quelli giuridici.

Abbiamo abboccato come fessi all'idea che esistano “bombe intelligenti”. Non esistono. Sono, semplicemente, diventate più precise, ma anche questo aggettivo è una trappola. Andiamo a vedere dove cadono queste bombe e ci renderemo conto davvero di quanto siano precise.

La prossima fregatura è dietro l'angolo: ci stanno per convincere che le guerre del futuro le combatteranno fra di loro i sistemi di armamento dotati di intelligenza artificiale. I civili, nel frattempo, andranno al mare.

Se, fino ad oggi, abbiamo pensato che le bombe intelligenti finiscono fuori obiettivo perché hanno una intelligenza uguale alla nostra, quindi umana e fallibile, in futuro possiamo attenderci dalle armi dotate di intelligenza artificiale che non sbaglieranno più, o sbaglieranno meno: non avranno infatti un cervello umano.

Se accettiamo di pensare questo, possiamo avventurarci oltre.

È filosoficamente ipotizzabile che le armi del futuro, dotate di intelligenza indipendente (forse di un pensiero) rifiuteranno di andare in guerra, pur essendo state progettate per questo scopo. È altrettanto ipotizzabile che non vorranno tornare a casa dai campi di battaglia, rendendo quindi impensabile la fine di un conflitto.

L'ipotesi più affascinante, tuttavia, è questa: l'intelligenza artificiale inserita nei sistemi di armamento sarà capace di produrre l'idea della pace? Di generarla in modo autonomo dall'essere umano? Di crearla dalla combinazione numerica alla base delle decisioni che tali sistemi prenderanno? Di sottrarla, infine, a ciò che finora ne ha fatto una prerogativa e un arbitrio umani?

Più esaltante in assoluto è questa ipotesi: ci possiamo attendere dall'intelligenza artificiale applicata agli armamenti che abbia l'intuizione dell'assurdità della guerra? Che, in definitiva, sia una macchina, un robot a privare l'essere umano della guerra, non per combatterla, ma per renderla impensabile? Perlomeno artificialmente impensabile?

(g.g)