Un anno di ChatGpt: la corsa all’intelligenza artificiale è appena iniziata

ChatGpt compie un anno e ancora molte sono le controversie rispetto all’utilizzo, alle potenzialità e ai rischi dell’ultima creatura di OpenAI.

 

 

Il 30 novembre 2022 è stata lanciato sul mercato ChatGpt, il sistema di intelligenza artificiale avente caratteristiche e capacità simili a quelle di un essere umano. La nascita della nuova “creatura” di OpenAI ha innescato una rivoluzione tecnologica a livello mondiale incentivando da un lato la corsa delle Big Tech agli “armamenti”, dall’altro suscitando timori nelle grandi potenze mondiali sulle conseguenze circa l’uso di simili strumenti.
Non è un caso che a fine marzo 2023 l’Italia abbia deciso di vietare ChatGPT a causa delle prime notizie sulla raccolta dei dati personali dalle chat e la mancanza di verifica dell’età durante la registrazione. Alla luce di tutto questo, è importante chiedersi quale sia il migliore approccio per sviluppare l’Intelligenza Artificiale.

La corsa all’AI delle Big tech si è acuita a partire dal recente lancio del ChatGPT finanziato da Microsoft, che ha indotto Google e la società cinese Baidu a promettere sistemi simili. Al momento, il sistema è potenzialmente accessibile in tutto il mondo e si stima una diffusione ancor più rapida quando Microsoft lo incorporerà nei suoi prodotti; “potenzialmente” in quanto la fruibilità di queste tecnologie è limitata a quei Paesi aventi quantomeno un accesso ad Internet, generando le prime grandi disparità a livello macro. Il rapido cambiamento tecnologico deve andare poi di pari passo con politiche di welfare in grado di tutelare i lavoratori e prevenire disuguaglianze sul mercato del lavoro. Il tema è quello di concepire l’AI come strumento integrativo del lavoro umano e non sostitutivo.

Le disuguaglianze a livello mondiale, le difficoltà nel mondo del lavoro e potenziali usi impropri dei dati dell’AI da parte degli utenti hanno evidenziato la necessità di regolamentarne l’uso.

 

 

I rischi di lasciare che il mercato diffonda la tecnologia dell’Intelligenza Artificiale scatenando una corsa agli investimenti tra i concorrenti sono infatti evidenti. A tal fine, l’UE ha avviato un processo di regolamentazione dell’AI attraverso il pacchetto legislativo AI Act, e i relativi standard, al fine di classificare i sistemi in base a quattro livelli di rischio: inaccettabile, elevato, limitato e minimo/zero. Ciò segna un cambiamento di rotta rispetto ai prestiti governativi e agli investimenti pubblici finora elargiti, che hanno sostenuto e incentivato in parte le grandi aziende nell’attività di ricerca imprenditoriale. Non è ancora chiaramente evidente come regolamentare efficacemente questa tecnologia; sembrerebbe molto difficile anche per i creatori stessi del sistema regolamentarne l’uso e la funzionalità.

Il tentativo dell’UE di creare norme e standard per promuovere un’AI etica e sostenibile potrebbe fungere da catalizzatore per le altre grandi potenze mondiali. La speranza è che la regolazione dell’UE evolva rapidamente e abbia effetti di normalizzazione del mercato. Tuttavia, il coinvolgimento delle aziende cinesi rende ostico questo processo: è probabile che il governo autoritario cinese intenda utilizzare la tecnologia dell’Intelligenza Artificiale per la sorveglianza e la repressione. È difficile, pertanto, immaginare che l’Oriente si conformi volontariamente alle normative dell’UE. Il mercato interno cinese, inoltre, è abbastanza grande da consentire lo sviluppo della tecnologia AI in tempi rapidi e secondo regole e norme autonome e completamente diverse da quelle degli Stati Uniti o dell’Europa. Questo potrebbe spingere progressivamente l’UE fuori dalla competizione e portare, di contro, Paesi come Stati Uniti e Cina, storicamente meno interessati alle norme, agli standard industriali e alle linee guida etiche, a fare grandi salti in avanti.

Infine, alcuni analisti considerano la regolamentazione dell’Intelligenza Artificiale come un ostacolo all’innovazione. Resta il fatto che i mercati non sono in grado, ad oggi, di contrastare gli effetti negativi dell’AI, di distribuire equamente il valore economico creato dalla tecnologia ne di incorporare considerazioni di carattere politico o sociale all’interno delle proprie logiche. Come al solito, le scelte di mercato raramente sono guidate da considerazioni di carattere etico o sociale.

Per condividere questo articolo: