Continua la lunga analisi di Giancarlo Elia Valori su Intelligenza Artificiale e geopolitica del mondo presente e futuro. Una appassionante disamina dei problemi ma anche delle grandi opportunità che...

IA e nuovo ordine mondiale: i sei principi dell’Intelligenza artificiale. Di Giancarlo Elia Valori.

Tecnologia postato da Adolfo Tasinato || 7 mesi fa

Se guardiamo al mondo dalla prospettiva del gioco a somma zero e della ricerca della sicurezza assoluta, non c’è dubbio che l’intelligenza artificiale diventerà il nuovo fulcro della competizione tra le maggiori potenze, proprio come le bombe atomiche e i satelliti fra gli anni Quaranta e Cinquanta del sec. XX. Essa sarà la forza principale che dividerà il pianeta in due, oppure la forza trainante di molteplici ordini paralleli. Però se adottiamo la prospettiva di una comunità con un futuro condiviso per l’umanità e guardiamo alle questioni basate sul concetto di sicurezza comune, non è difficile rendersi conto che le sfide alla sicurezza e alla governance poste dalla tecnologia dell’intelligenza artificiale sono questioni che devono essere affrontate da tutta l’umanità. In questo modo, non sarà difficile discutere congiuntamente norme accettabili per tutte le parti interessate in uno spirito di consultazione paritaria. Quindi l’intelligenza artificiale sarà quella sfida in stile “invasione attraverso wormhole” – rammentata in un mio precedente passo – che unisce Repubblica Popolare della Cina, Stati Uniti d’America, Russia e il resto del mondo? Anni fa, Dave J. Farber, professore d’informatica e codirettore del Cyber Civilization Research Center all’Università Keio in Giappone, ed ex membro della Commissione federale delle comunicazioni degli Stati Uniti d’America, ha chiesto l’istituzione di norme internazionali per l’intelligenza artificiale il prima possibile, per evitare che si ripeta la tragedia causata dall’arrivo tardivo del consenso e dell’autodisciplina internazionale quando fu prodotta la tecnologia delle armi nucleari, e le sue gravi conseguenze fino ad oggi. La realtà è che gli scambi e la cooperazione tra Pechino e Washington nel campo della ricerca scientifica e tecnologica sono piuttosto approfonditi checché se ne dica. Le discussioni e le ricerche internazionali su questioni correlate sono state approfondite passo dopo passo. Ad esempio: le discussioni del gruppo di esperti governativi della Commissione per il disarmo dell’Organizzazione delle Nazioni Unite implicano: l’attenzione al possibile impatto sulla sicurezza internazionale; una corsa agli armamenti attraverso la tecnologia; un crescente divario tecnologico tra Paesi sviluppati e in via di sviluppo; ed il possibile abbassamento della soglia per l’uso della forza. C’è l’obbligo morale da parte della giurisdizione degli Stati per una maggiore responsabilità onde raggiungere un’intesa generale informale. Ciò vuol dire esplorare lo sviluppo di uno strumento giuridicamente vincolante per vietare preventivamente l’adozione dell’IA come arma, adottando una forma di protocollo simile alle Convenzione su alcune armi di distruzione di massa. Una nuova generazione di studiosi d’intelligenza artificiale sta sorgendo in ogni parte del mondo, imprimendo nuovo slancio allo sviluppo economico e sociale e cambiando profondamente la produzione e lo stile di vita delle persone. Per cogliere questa opportunità di sviluppo e affrontare le nuove questioni sollevate dall’intelligenza artificiale in materia di diritto, sicurezza, occupazione, etica e governo, i Paesi devono approfondire la cooperazione e discutere insieme. Si deve essere disposti a promuovere lo sviluppo, salvaguardare la sicurezza e condividere i risultati con altri Paesi nel campo dell’intelligenza artificiale. Sei sono i principi su cui si dovrebbero basare l’adozione e l’uso dell’intelligenza artificiale: Il primo è il principio del benessere. Lo sviluppo dell’intelligenza artificiale dovrebbe servire il welfare e gli interessi comuni dell’umanità, e le sue progettazioni e applicazioni devono seguire l’etica di base della società umana e conformarsi alla dignità e ai diritti umani. Il secondo è il principio di sicurezza. L’intelligenza artificiale non deve nuocere agli esseri umani, in quanto necessaria per garantire la sicurezza, l’applicabilità e la controllabilità dei suoi sistemi, ossia proteggere la riservatezza personale e prevenire la fuga di dati e l’abuso; oltre a garantire la tracciabilità e la trasparenza degli algoritmi IA, nonché prevenire la discriminazione fra i Paesi. Il terzo è il principio della condivisione. La prosperità economica creata dall’intelligenza artificiale dovrebbe servire tutta l’umanità. Costruire un meccanismo ragionevole per consentire a più persone di beneficiare dello sviluppo della sua tecnologia, godere delle relative comodità ed evitare l’emergere del divario digitale. Il quarto è il principio della pace. La tecnologia dell’intelligenza artificiale deve essere utilizzata per scopi umanitari: ci si deve impegnare a promuovere la trasparenza e le misure di rafforzamento della fiducia reciproca, quali promuovere il suo uso non bellico e prevenire una corsa a qualsiasi tipo di arma comprese quelle letali autonome (i.e. non nucleari). Il quinto è il principio dello Stato di diritto. L’uso della tecnologia dell’intelligenza artificiale dovrebbe essere conforme agli scopi della Carta dell’Organizzazione delle Nazioni Unite e ai principi fondamentali del diritto internazionale come l’uguaglianza sovrana di tutti i Paesi, la risoluzione pacifica delle controversie; il divieto dell’uso della forza; e la non interferenza negli affari interni. Il sesto è il principio di cooperazione. Tutti i Paesi del mondo dovrebbero promuovere gli scambi riguardo all’intelligenza artificiale e alle visite reciproche di talenti e studiosi, in maniera da promuovere e standardizzare il miglioramento della tecnologia in un ambiente aperto. Questi principi possono servire come base per discutere e formulare regole internazionali per l’IA. Sebbene tali sei punti siano ancora vaghi e astratti, è necessario perfezionarli e discuterne approfonditamente fra esperti di vari Paesi per trovare il massimo comune divisore, pur s’è ancora un obiettivo che richiede tempo per essere raggiunto. Vale la pena notare che molti giovani esperti impegnati nella ricerca scientifica di alto livello hanno sollevato la questione dell’autodisciplina attiva per gli interessi comuni dell’umanità e molti uomini d’affari affermano che dovrebbero porre in primis, consapevolmente, i fattori morali nella ricerca sulla tecnologia IA e la produzione di relativi prodotti, senza impegnarsi in lavori di ricerca e sviluppo che siano dannosi per il benessere umano. Tutti speriamo che la discussione internazionale su questi temi continui ad approfondirsi, e si auspica pure che i think tank e gli ambienti scientifici e tecnologici possano contribuire agli sforzi congiunti globali in tal direzione. Affinché l’intelligenza artificiale rispecchi l’etica, essa deve essere completamente comprensibile. Per sviluppare una strategia di intelligenza artificiale che sia allo stesso tempo trasparente, spiegabile e di comune cognizione, gli studiosi, l’industria, le aziende devono aprire la “scatola nera” del codice per far comprendere come ciascun nodo dell’algoritmo arrivi alle sue conclusioni e interpreti i propri risultati. Pur se sembra semplice, per raggiungere questo obiettivo è necessario un quadro tecnico solido in grado di spiegare il comportamento del modello e dell’algoritmo esaminando il codice per mostrare le diverse sotto-previsioni generate. Su questo punto chiunque: pubblico, privato o semplice cittadino può fare affidamento su framework open source per valutare modelli di intelligenza artificiale e meta language (metalinguaggio o linguaggio di programmazione) su più dimensioni, tra cui: 1. Analisi delle funzionalità: per valutare l’impatto dell’applicazione di nuove funzionalità a un modello esistente; 2. Analisi nodale: spiegazione dei sottoinsiemi di previsioni; 3. Analisi locale: interpretazione delle previsioni individuali e delle caratteristiche di corrispondenza, migliorando così i risultati. 4. Analisi globale: fornisce una revisione dall’alto verso il basso del comportamento generale del modello e delle caratteristiche principali. L’intelligenza artificiale è una tecnologia complessa che presenta molte potenziali insidie – su cui spesso mi sono soffermato – e a cui bisogna prestare molta attenzione non dando per scontati risultati sempre “positivi”. Un modello di intelligenza artificiale di successo dovrebbe dare priorità all’etica fin dal primo momento, senza ripensamenti. In tutti i settori e le imprese, l’intelligenza artificiale non ha lo stesso valore e uso per tutti, ma l’unica fattore accomunante che dovrebbe fare passi avanti è l’impegno verso previsioni trasparenti e imparziali. (8. continua) Giancarlo Elia Valori, Manager, economista e professore straordinario presso la Peking University