00:05 UN APPELLO DI OLTRE MILLE SCIENZIATI PER FERMARE LA CORSA ALLE ARMI PROGRAMMATE PER PRENDERE DECISIONI DA SOLE—1. DA REPUBBLICA DI OGGI ; 2. DA WIRED

 

ATTENZIONE! E’ IL FRATELLO!

[audio:http://www.neldeliriononeromaisola.it/wp-content/uploads/2015/07/A.-Marcello-Adagio-dal-Concerto-in-Do-minore-per-Tromba-e-Orchestra-Guy-TOUVRON1.mp3|titles=A. Marcello – Adagio dal Concerto in Do minore per Tromba e Orchestra – Guy TOUVRON]

 

 

 

1.  repubblica di oggi

 

MONDO
Hawking,Wozniak e Chomsky firmano un appello contro le armi che uccidono da sole: “Al bando prima che diventino realtà”
Gli scienziati: basta robot-killer umanità a rischio
ANNA LOMBARDI

FERMIAMO i Terminator. È l’appello di oltre mille scienziati di tutto il mondo che chiedono di frenare, prima che sia troppo tardi, la corsa alle armi programmate per prendere da sole la decisione di uccidere. Le stesse appena prospettate da un report del Pentagono intitolato “Visualizzare il campo di battaglia tattico del 2050”, raccontato ieri da
Repubblica . Intelligenze artificiali prive di etica o empatia, robot che obbediscono solo ai ciechi algoritmi impostati da programmatori militari. Droni, missili e quant’altro, incapaci di fermarsi proprio come i Terminator della saga cinematografica di James Cameron.
No, non è un film di fantascienza: ma il cuore di un appello promosso dal Future of Life Institute — organizzazione che mira a “mitigare i rischi che minacciano l’umanità” — sottoscritto da esperti di tutto il mondo, Italia compresa. Una lettera diretta alle Nazioni Unite, presentata ieri alla conferenza sull’Intelligenza Artificiale Ijcai 2015 di Buenos Aires, per chiedere di mettere al bando le armi del futuro: prima che siano realizzate. Perché, scrivono gli studiosi, anche se queste macchine non esistono ancora «la tecnologia è ormai tale che il loro sviluppo non è più questione di decenni ma di pochi anni».
A sottoscrivere l’appello, alcune fra le menti più brillanti della nostra epoca: come il leggendario astrofisico Stephen Hawking, lo studioso immobilizzato su una sedia a rotelle cui Hollywood ha da poco dedicato-
La teoria del tutto . Primo firmatario insieme a Stuart Russell capo del Center for Intelligent Systems di Berkeley e fra i massimi esperti di Ai. E poi il cofondatore di Apple Steve Wozniak, il filosofo cognitivista Daniel Dennett, il linguista-attivista Noam Chomsky, il direttore delle ricerche di Google Peter Norvig, il capo delle ricerche di Microsoft Eric Horvitz, e perfino quel miliardario visionario chiamato Elon Musk, capo di Tesla Motors e della società privata spaziale Space X, che pochi mesi fa ha donato ben 10 milioni di dollari al Future of Life Institute per finanziare studi che si occupino di «allineare le ricerche nel campo delle intelligenze artificiali ai valori umani».
Secondo gli studiosi — molti dei quali si erano già mobilitati in gennaio contro le armi “intelligenti” — le buone intenzioni non bastano. Creare armi capaci di prendere autonomamente la decisione di uccidere significa creare tecnologie che nelle mani sbagliate sarebbero non solo letali, ma vero strumento di terrore. «Provate a immaginarle nelle mani di terroristi» ha spiegato il professor Stuart Russell a Tech Insider . «O nelle mani di dittatori per opprimere i loro popoli. No, sarebbero scenari da non augurare a nessuno ». Nelle mani sbagliate, prosegue, armi del genere faranno passare in secondo piano perfino il pericolo nucleare: «Non avendo bisogno di materiali costosi per essere realizzate, saranno facili da procurare».
Armi semiautonome, dotate cioè di funzioni che permettono di agire da sole, in realtà esistono già. E se per ora è pur sempre un essere umano ad innescarne l’azione, il confine si fa sempre più labile: come nel caso di certi missili antinave a lungo raggio creati da Lockheed Martin che una volta lanciati scelgono autonomamente il loro obiettivo. Secondo il New York Times , poi, Gran Bretagna, Norvegia e Israele avrebbero già sviluppato missili e droni capaci di attaccare navi, radar e carri armati senza bisogno di indicazioni umane. I Terminator insomma sono alle porte. Tant’è che si sta già lavorando per portare la questione sul tavolo della “Convenzione sulla proibizione o la limitazione dell’uso di armi convenzionali di Ginevra”. Il messaggio degli scienziati è che bisogna fare in fretta: bandire le armi “autonome” prima che diventino realtà, sul modello dei bandi del 1995 alle mine antiuomo e alle armi laser. O, proprio come in un film di fantascienza, rischiamo di restare ostaggio di robot da noi stessi creati.


 

Musk, Hawking e Wozniak contro l’intelligenza artificiale militare

Una lettera aperta firmata da centinaia di ricercatori ed esperti di intelligenza artificiale chiede alle nazioni del mondo di bandire l’utilizzo bellico dell’intelligenza artificiale

Simone Valesini 

Pubblicato

luglio 28, 2015

terminator

Da pellicole storiche come TerminatorScreamersWar Games, fino al più recente Age of Ultron, il tema delle macchine assassineè un autentico classico della fantascienza. Un pericolo che siamo abituati a proiettare lontano nel futuro, ma che invece potrebbe essere già ad un passo dal trasformarsi in realtà. A esserne convinti sono centinaia di ricercatori ed esperti di intelligenzaartificiale (tra cui troviamo nomi illustri come quelli di Elon Musk,Stephen HawkingSteve WozniakNoam Chomsky) che in unalettera aperta presentata lunedì 27 luglio durante la International Joint Conference on Artificial Intelligence di Buenos Aires hanno chiesto di bandire a livello globale per lo sviluppo dei cosiddettiarmamenti autonomi. Una decisione che gli esperti giudicano essenziale per impedire un’escalation militare paragonabile a quelle avvenute con lo sviluppo delle armi da fuoco e l’avvento delle bombe atomiche.

Leggi anche:Il robot Da Vinci alle prese con gli origami

 

I firmatari del testo spiegano che le autonomous weapons, o “armi autonome” sono dispositivi bellici in grado di scegliere e ingaggiare i propri bersagli senza la guida di un operatore umano. Non parliamo quindi di missilidroni teleguidati, ma di apparecchi che possono prendere decisioni autonomamente, e che potrebbero essere utilizzati per esempio per pattugliare una determinata area, e attaccare qualunque obiettivo (parliamo di persone ovviamente) che risponda a determinati criteri prestabiliti (abbigliamento, gruppo etnico di appartenenza, ecc…) che lo identifichino come nemico. Grazie ai recenti sviluppi nel campo dell’intelligenza artificiale, assicurano gli esperti nella lettera, dispositivi di questo tipo potrebbero ormai essere prodotti nel giro di pochi anni.

Armi di questo tipo ovviamente porterebbero notevoli benefici in campo bellico, riducendo fortemente le perdite umane negli eserciti che le impieghino, e con una minore necessità di personale rispetto a missilidroni controllati in remoto. Al contempo, riflettono gli autori della lettera, un minor costo umano potrebbe spingere le potenze mondiali a muovere guerra più facilmente, e l’utilizzo di queste nuove armami da parte di una delle super potenze porterebbe inevitabilmente ad una corsa agli armamenti mondiale.

Se anche una sola delle principali potenze militari portasse avanti lo sviluppo dell’intelligenza artificiale a scopo bellico, una corsa agli armamenti è virtualmente inevitabile, e il punto di arrivo di questo percorso tecnologico è ovvio: gli armamenti autonomi diventerebbero il Kalashnikov del futuro”, scrivono i firmatari della lettera.

Gli studi nel campo dell’intelligenza artificiale potrebbero avere un impatto formidabile in campi strategici come la medicina, lalotta alla povertà e lo sviluppo di tecnologie per intervenire in caso di disastri naturali, ma la possibilità che vengano utilizzate in campo bellico, avvertono gli esperti, potrebbe rallentare fortemente gli sviluppi futuri perché molti ricercatori sono consapevoli dei rischi che rappresenterebbero per l’umanità.

Per questi motivi, gli esperti chiedono a tutte le potenze mondiali di firmare un trattato che vieti la ricerca e lo sviluppo ditecnologie belliche che impieghino l’intelligenza artificiale, come è avvenuto in campi come la chimica, con il trattato sull’utilizzo delle armi chimiche, e nella fisica, con i trattati internazionali sull’utilizzo delle testate atomiche.

 

 

 

Condividi
Questa voce è stata pubblicata in GENERALE. Contrassegna il permalink.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.