top of page
  • Immagine del redattorePaolo Benanti

Cina e AI generativa: la censura si sposta sulle fonti

La Cina ha appena pubblicato una bozza di regolamento di sicurezza per le aziende che forniscono servizi di intelligenza artificiale generativa (AI), che prevede restrizioni sulle fonti di dati utilizzate per l'addestramento dei modelli di AI. La bozza di regolamento sottolinea che i dati soggetti a censura su Internet in Cina non devono servire come materiale di addestramento per questi modelli. La cosa si rivela interessante sotto più profili.


 

Lo scorso mercoledì 11 ottobre, il Comitato nazionale per la standardizzazione della sicurezza informatica, composto da rappresentanti della Cyberspace Administration of China (CAC), del Ministero dell'Industria e della Tecnologia dell'Informazione e delle forze dell'ordine, ha pubblicato una nuova proposta di regolamento.



L'AI generativa, come esemplificato dai risultati di ChatGPT di OpenAI, acquisisce la capacità di eseguire compiti attraverso l'analisi di dati storici e genera nuovi contenuti, come testo e immagini, sulla base di questa formazione. Oggi, dopo la pandemia, la guerra in Ucraina e lo scoppiare di nuovi conflitti come quelli in Africa e Medioriente appare chiaro come gli strumenti dell’intelligenza artificiale applicati alle comunicazioni stiano cambiando completamente lo scenario: ci suggeriscono cosa leggere, ci profilano creando per noi una sorta di panorama digitale personalizzato, creano fake news, cioè testi, immagini e anche video falsi indistinguibili da prodotti veri. Il potere nelle comunicazioni di massa delle AI è così forte e pervasivo da generare quello che potremmo chiamare un quinto potere. Quello che c’è in ballo è la capacità di formare in maniera pervasiva e sistematica l’opinione pubblica. Se torniamo al 2008 è interessante rileggere quello che l’allora CEO di Google, Erich Schmidt, decise sul supporto che la compagnia avrebbe dato ai candidati alle presidenziali. E scelse i democratici e Barack Obama.


Schmidt ha detto apertamente che Obama raggiunse il successo almeno in parte grazie a Internet: “Quando ha iniziato, non aveva abbastanza soldi per le pubblicità televisive a tappeto”, ha detto Schmidt, sottolineando che Obama ha quindi utilizzato Internet per raccogliere consensi e donazioni e probabilmente i servizi di profilazione di Google per sapere chi contattare. Da allora sappiamo che un sistema Platform può essere determinante nei risultati elettorali.



Anche Trump si è servito con la sua macchina elettorale di internet e non senza polemiche. Più di uno spot pro-Trump ha utilizzato filmati propagandistici di provenienti dalla Russia e dalla Bielorussia in importanti campagne pubblicitarie. A questo poi sono seguite tutte le polemiche e le indagini sulle operazioni del mercato degli annunci internet operate dall’estero e dai russi.


Internet è politica. Internet, le Platform, Google e oggi le AI generative che si nutrono di Internet e delle sue espressioni sono strumenti di un enorme potere, non solo teorico ma anche quella che si dimostra come una prassi nel vivere democratico del secondo decennio di questo secolo.


Sorge così una “preoccupazione” geopolitica. Gli effetti e il potere di questo nuovo Bignami della fine degli anni 20 di questo secolo, può farne non solo uno strumento che rispecchia nei risultati il senso comune ma il vero nuovo produttore dell’opinione pubblica. Questa preoccupazione, specie per effetti di idee che possano venire distribuite in maniera pervasiva dalle nuove AI generative è giunto anche in Cina.



Schermata della pubblicazione del National Information Security Standardization Committee (NISSC).


Il documento del comitato cinese raccomanda di eseguire una valutazione della sicurezza sui contenuti utilizzati per addestrare i modelli generativi di IA accessibili al pubblico. I contenuti che superano il "5% di informazioni illegali e dannose", si legge nel testo che abbiamo tradotto grazie a sistemi automatici, saranno inseriti in una specifica blacklist. Questa categoria comprende contenuti che incitano al terrorismo, alla violenza, alla sovversione del sistema socialista, a danneggiare la reputazione del Paese e ad azioni che minano la coesione nazionale e la stabilità della società.


La bozza di regolamento sottolinea anche che i dati soggetti a censura su internet cinese non devono servire come materiale di formazione per questi modelli. Questo sviluppo arriva poco più di un mese dopo che le autorità di regolamentazione hanno concesso il permesso a diverse aziende tecnologiche cinesi, tra cui l'importante motore di ricerca Baidu, di introdurre i loro chatbot generativi guidati dall'IA al grande pubblico.



Da aprile, la CAC ha costantemente comunicato la sua richiesta alle aziende di fornire valutazioni di sicurezza agli organi di regolamentazione prima di introdurre servizi generativi basati sull'AI al pubblico. A luglio, l'autorità di regolamentazione del cyberspazio aveva pubblicato una serie di linee guida che regolano questi servizi, che gli analisti del settore hanno notato essere molto meno onerose rispetto alle misure proposte nella bozza iniziale di aprile.


La bozza di sicurezza recentemente presentata prevede che le organizzazioni impegnate nell'addestramento di questi modelli di AI ottengano il consenso esplicito delle persone i cui dati personali, comprese le informazioni biometriche, vengono utilizzati per l'addestramento. Inoltre, le linee guida includono istruzioni complete sulla prevenzione delle violazioni della proprietà intellettuale.


Le nazioni di tutto il mondo sono alle prese con la definizione di quadri normativi per questa tecnologia. La Cina considera l'AI come un settore in cui aspira a competere con gli Stati Uniti e si è prefissata di diventare leader mondiale in questo campo entro il 2030.


La sfida è lanciata. Troverà l’algoretica uno spazio in questa battaglia?



1.181 visualizzazioni3 commenti

Post recenti

Mostra tutti
bottom of page