Il documento è stato sottoscritto dalla maggioranza dei agenzie dei vari paese interessati e si tratta del primo atto congiunto per un uso sicuro dell’intelligenza artificiale
Se è vero che la tecnologia ha semplificato diverse attività della nostra vita, è anche vero che con l’avvento più recente della AI è tornata prepotente la paura di non saperla gestire, come profetizzato da un’innumerevole quantità di romanzi e di film a carattere fantascientifico, o meglio di non poterla gestire, parlando quindi della possibilità che i sistemi digitali possano sfuggire al controllo umano e auto organizzare le proprie attività.
Per stabilire quindi dei limiti e una sorta di codice di condotta per gli operatori del sistema, l’Agenzia per la cybersicurezza nazionale (ACN) ha deciso di aderire alle “Linee guida per uno sviluppo sicuro dell’Intelligenza Artificiale”, promosse dal National Cyber Security Centre del Regno Unito. Si tratta di un documento sottoscritto da 23 Agenzie di 18 Paesi, pensato per assicurare un uso sicuro dell’Intelligenza Artificiale. Le linee guida aiuteranno gli sviluppatori a creare un’IA responsabile, etica e sicura. I Paesi che hanno contribuito alle linee guida sono: Australia, Canada, Cile, Corea del Sud, Estonia, Francia, Germania, Giappone, Israele, Italia, Nigeria, Norvegia, Nuova Zelanda, Polonia, Regno Unito, Repubblica Ceca, Singapore e Stati Uniti.
Il futuro appartiene alla IA
A questo proposito è intervenuto il Direttore Generale di ACN, prefetto Bruno Frattasi: “L’Intelligenza Artificiale è una sfida a cui l’Agenzia non vuole e non può sottrarsi. Per questo abbiamo aderito con convinzione a questa iniziativa. È una sfida che può essere vinta solo tutti assieme: dobbiamo mettere a disposizione le migliori energie, intellettuali e strumentali del nostro Paese e di tutti gli altri Paesi che si apprestano ad affrontare, a partire dal prossimo G7 a guida italiana, questa impresa così altamente impegnativa per l’intera umanità”. Gli esperti del mondo istituzionale e delle aziende da 18 Paesi hanno cominciato a mettere a punto i primi indirizzi comuni dopo il “AI Safety Summit” tenutosi il primo e 2 novembre nel Regno Unito, con lo scopo di supportare gli sviluppatori di qualsiasi sistema basato sull’IA, che sono poi stati sviluppati più puntualmente nelle ultime settimane fino ad arrivare alla pubblicazione del documento.
Ecco di cosa si tratta
Si tratta di un insieme di criteri e di precetti che bonificano la giungla tecnologica, fissando standard qualitativi e criteri etici e politici per rendere queste tecniche non più solo patrimonio dei proprietari, ma sistemi aperti dove ognuno potrà intervenire ed estendere queste attività. L’obiettivo principe è garantire un cyberspazio più sicuro. Il documento inglese, recepito dall’Anc italiana, spiega che “i sistemi di Intelligenza artificiale sono soggetti a nuove vulnerabilità di sicurezza che devono essere considerate insieme alle minacce standard alla sicurezza informatica”. Norme di sicurezza che prevedono anche i principi di base che rendono ogni sistema digitale controllabile e condivisile, alzando inevitabilmente la soglia di controllo di eventuali manomissioni e alterazioni.