🎂 Due anni dal 21 aprile 2021
Sono passati due anni da quel 21 aprile 2021 in cui la Commissione europea ha pubblicato la proposta di regolamento sull’intelligenza artificiale, l’AI Act.
Da allora il Parlamento e il Consiglio hanno iniziato i lavori in modo parallelo, con il Consiglio che li ha portati a termine a novembre 2022 e il Parlamento che dovrebbe votare a breve la sua posizione finale, permettendo di dare il via ai triloghi, il momento in cui Parlamento, Consiglio e Commissione iniziano le trattative per arrivare ad una versione condivisa.
✋ Un attimo di pausa
Ormai alla vigilia del voto del parlamento, gli eurodeputati dei diversi gruppi parlamentari che si stanno occupando dell’AI Act, hanno firmato una lettera, indirizzata alla presidente della Commissione europea Ursula Von Der Leyen e al presidente degli Stati Uniti Joe Biden, che chiede loro di istituire con urgenza un global summit sull’AI, per guidare e coordinare gli sforzi globali, sotto la guida dell’Unione europea e degli Stati Uniti. Oggetto del tavolo di lavoro sarà la ricerca di norme comuni che regolino la cosiddetta General purpose AI e i powerful foundation models. Sembrerebbe dunque che la mossa del Garante italiano della privacy abbia davvero scosso le coscienze dei legislatori che si sono resi conto che il modello dell’AI Act, fondato sul rischio, potrebbe difficilmente regolare in modo appropriato i casi di ChatGPT e simili.
“’Foundation model’ means an AI system model that is trained on broad data at scale, is designed for generality of output, and can be adapted to a wide range of distinctive tasks”
General purpose AI is deemed an “AI system that can be used in and adapted to a wide range of applications for which it was not intentionally and specifically designed.”
European Parliament’s Compromise proposal on General Purpose AI systems and value chain
(fonte: Euractiv)
ChatGPT e tutti quei sistemi di AI che sono stati allenati su dataset molto grandi, consistenti in testi presi dalla rete, rientrerebbero nella categoria dei foundation model.
Per questa categoria i provider dovranno mitigare i rischi per la “salute, la sicurezza, i diritti fondamentali, l’ambiente, la democrazia e lo stato di diritto con l’aiuto di esperti esterni”, documentando i rischi che non sono riducibili.
Tra le altre obbligazioni, riporta Euractiv, se il foundation model rientra anche nella categoria di Generative AI, saranno previste ulteriori richieste di trasparenza, inclusa la dichiarazione sull’uso di dati tutelati dal copyright. Inoltre, i provider dovranno fare in modo che l’output generato da queste AI non violi il diritto europeo.
Nel caso dei foundation model si dovrà conservare la documentazione relativa alla creazione del sistema per 10 anni. Dal punto di vista ambientale si dovrà dichiarare il consumo energetico per allenare questi sistemi, nonchè il poter computazionale richiesto. Da ultimo, questi sistemi saranno registrati nel database europeo, già previsto per le AI ad alto rischio e quelle usate dalla Pubblica amministrazione.
©️ 🇩🇪 AI e copyright
Un altro punto che non era stato troppo tenuto in considerazione nè nell’AI Act, nè nella direttiva di riforma del copyright del 2019, è l’uso di materiale protetto da copyright nei sistemi di AI simili a ChatGPT. Sul punto, riporta Reuters, 42 associazioni tedesche, rappresentanti oltre 140.000 autori, hanno scritto alle tre istituzioni europee di rafforzare la tutela degli autori nell’AI Act.
“L'uso non autorizzato di materiale formativo protetto, la sua elaborazione non trasparente e la prevedibile sostituzione delle fonti con i risultati dell'IA generativa sollevano questioni fondamentali in materia di responsabilità e remunerazione, che devono essere affrontate prima che si verifichino danni irreversibili.”
Le associazioni chiedono che i provider che offrono questi sistemi siano responsabili legalmente degli output in violazione del copyright, nonchè nei casi di discriminazione e disinformazione.
Tutti questi nuovi sviluppi potrebbero portare ad uno slittamento del voto previsto in commissione parlamentare il 26 aprile. Ad ogni modo il voto finale del parlamento dovrebbe comunque arrivare prima dell’estate, in modo da iniziare i triloghi al ritorno in autunno.
Da segnalare
Rocco Panetta su AI e copyright
A chi appartengono i diritti dell’opera creata con l’intelligenza artificiale?
Rocco Panetta ne ha parlato nell’articolo di Simone Cosimi su StartupItalia!
A quanto ammonta l’elemento creativo nell’opera finale? Se l’output è tutto o in gran parte sull’AI, i diritti garantiti dal copyright non sono riconosciuti. Un esempio potrebbe essere il risultato di tale richiesta all’AI: ‘disegna una casa al mare come lo farebbe Picasso’
Vincenzo Tiani su AI e disinformazione
L’ANSA ha riportato del panel che Vincenzo Tiani ha tenuto al Festival Internazionale del Giornalismo di Perugia sul ruolo dell’AI nella disinformazione.
"In pochi minuti o secondi si possono creare notizie che, se non verificate, possono invadere i media. È quindi fondamentale - spiegano i relatori - che i media conservino la loro capacità e autorevolezza di identificare una notizia, verificarla e quindi essere certi di dare ai lettori e alle persone notizie che siano reali"
⏰ Da parte nostra è tutto, ci vediamo insAIde, lunedì prossimo, alle 08:00.
Rocco Panetta, Federico Sartore, Vincenzo Tiani, Davide Montanaro