Numero 30 [Policy&Drama]: Che confusione! sarà perché tIAmo 🎵
Da San Francisco a Bruxelles è stata la settimana dei terremoti nell'AI
🎵 Da leggere ascoltando Bob Marley & The Wailers - Three Little Birds
Wow. Pensavamo di goderci un weekend tranquillo, dopo due giorni di Congresso IAPP a Bruxelles, e invece sono arrivate due valanghe: quella di OpenAI e quella sull’AI Act.
🇺🇸 OpenAI: 3 CEO in 3 giorni
Per chi fosse appena ritornato da un weekend di digital detox, venerdì Sam Altman è stato licenziato dal suo ruolo di CEO di OpenAI, e con lui il co-founder e presidente del board Greg Brockman. La notizia è arrivata con grande sorpresa di tutti i dipendenti e addetti ai lavori, che non si spiegano la scelta del board di allontanare Altman. Ad essere nominata CEO ad interim è stata la n. 2 di Altman, la CTO Mira Murati. Da quanto riferito nella nota di OpenAI,
“l'abbandono di Altman fa seguito a un processo di revisione deliberativa da parte del Consiglio di amministrazione, che ha concluso che egli non è stato costantemente sincero nelle sue comunicazioni con il Consiglio di amministrazione, ostacolando la capacità di quest'ultimo di esercitare le proprie responsabilità. Il Consiglio non ha più fiducia nella sua capacità di continuare a guidare OpenAI.”
Come ci spiega meglio Riccardo Luna su Repubblica, c’è Ilya Sutskever dietro questa scelta. Se Altman è quello entusiasta, che crede che con l’evolversi dell’AI andrà tutto bene, Sutskever è quello cauto, per alcuni catastrofista, che ritiene occorra soffermarsi di più sul modo in cui l’AI è costruita, per far sì che non si sfoci in uno scenario apocalittico alla Terminator.
Ma si sa com’è la Silicon Valley, anche se i ragazzi sono cresciuti, la tendenza del Move fast and break things non è mai sopita. È così che ieri mattina spunta fuori Satya Nadella, CEO di Microsoft, che pare possegga il 49% di OpenAI, ad annunciare che Sam e Greg entreranno a Microsoft a guida di un nuovo dipartimento di ricerca avanzata sull’AI. Nadella è già a conoscenza di quanto avvenuto in quelle ore (domenica sera nella west coast), ovvero l’elezione di Emmett Shear, co-founder di Twitch, a nuovo CEO di OpenAI.
Chi pensasse che con questo annuncio la parola fine sia stata messa a tuta la vicenda, si sbaglierebbe. È infatti iniziata a circolare la lettera dei dipendenti di OpenAI, firmata ormai da tutti i dipendenti, ad annunciare che se Altman non tornerà ad essere CEO di OpenAI e il board non si sarà dimesso, loro sono pronti a seguire Altman a Microsoft, che pare abbia già dato disponibilità ad accoglierli. Prima firmataria, Mira Murati. Firmatario n. 12, Ilya Sutskever, che nel frattempo ha cambiato idea.
E, poiché come vi avevamo anticipato, le cose si muovono in fretta, torniamo su questo paragrafo (che avevamo chiuso) per annunciare che in realtà Sam Altman potrebbe tornare ad essere CEO di OpenAI, visto che l’accordo con Microsoft non è ancora chiuso, e visto che, essendo comunque il principale partner di OpenAI, una certa flessibilità sul da farsi è ragionevole in questo momento.
Ad ogni modo, complice anche il fuso orario con la California, nel momento in cui leggete queste righe, tutto potrebbe essere di nuovo cambiato.
🇪🇺 Intanto a Bruxelles si prepara la colazione della pace
🇪🇸 Proseguono in modo imprevisto e altalenante i lavori sull’AI Act a Bruxelles nei dialoghi tra Commissione, Consiglio e Parlamento. La presidenza Spagnola, si sa, non vuole perdere l’occasione di intestarsi questa vittoria e può farlo solo se l’accordo sul testo finale sarà raggiunto entro fine anno che, viste le feste di Natale e i tempi tecnici, vuol dire entro le prossime 3 settimane. Ma questa eventualità sembra meno probabile di quanto lo fosse solo due settimane fa.
🇫🇷 🇮🇹 🇩🇪 Il motivo è che alcuni Stati non supportano più l’idea di regolare i foundation model nell’AI Act. Questi non erano presenti nel primo testo della Commissione del 2021 ma furono aggiunti un anno fa dal Parlamento dopo il successo di ChatGPT che diede un assaggio delle potenzialità di questa tecnologia. Se sul punto sembrava esserci un compromesso, Francia, Italia e Germania hanno fatto circolare una lettera non ufficiale con la loro posizione comune che respinge maggiori obblighi per i foundation model. Almeno per la Francia, le recenti dichiarazioni dell’ex ministro Cedric O, ora lobbista per una startup francese che si occupa proprio di large language models, potrebbero aver fatto breccia. Cedric ha infatti dichiarato che lo stato attuale dell’AI Act potrebbe far chiudere la loro impresa. Ad ogni modo, poiché, come detto dal co-relatore dell’AI Act Brando Benifei sul palco di IAPP, il Parlamento non permetterà che non vi sia alcuna regolamentazione di questi modelli, si sta lavorando ad un nuovo compromesso. Tra le novità che circolano, sembra esserci la previsione di alcune “model card” che dovrebbero creare uno standard per la condivisione di informazioni anche con le aziende che useranno questa AI, in modo che siano consapevoli del loro funzionamento. Non si menzionano sanzioni invece.
☕️ Come riferisce l’ottimo Luca Bertuzzi, il trilogo di oggi non tratterà i foundation model che saranno invece argomento di una riunione di giovedì, preceduta da una colazione di lavoro domani. Oggi invece si torna su un altro tema caldo, quello dell’Articolo 5 sugli usi proibiti. Sul punto sembrava esserci un accordo con il parlamento per l’uso del riconoscimento biometrico in tempo reale da parte delle forze dell’ordine, a condizione che i crimini e i minimi edittali previsti per il suo uso fossero più alti della versione originale della Commissione. Staremo a vedere.
🇺🇳 L’ONU manda una lettera all’UE per chiedere più tutela sui diritti fondamentali
Visto che ancora il nodo sulla valutazione dei diritti fondamentali non è ancora sciolto, il Commissario ONU per i diritti umani Turk, ha inviato il 9 dicembre una lettera all’Unione Europea con alcune raccomandazioni e preoccupazioni sullo sviluppo dell’AI Act. Di seguito i punti della lettera:
Classificazioni ad alto rischio: L'OHCHR è favorevole a salvaguardare maggiormente le applicazioni di IA ad alto rischio, in base al loro impatto negativo reale o prevedibile sui diritti umani. La lettera esprime la preoccupazione di consentire alle aziende di autodeterminare il livello di rischio dei loro sistemi di IA, sottolineando l'importanza di una supervisione indipendente in grado di affrontare gli impatti reali o prevedibili sui diritti umani.
Sorveglianza biometrica e previsione dei reati: L'OHCHR chiede limiti rigorosi alle pratiche di sorveglianza altamente invasive, in particolare la sorveglianza biometrica a distanza. Sostiene il divieto dei sistemi di intelligenza artificiale che classificano gli individui in base a caratteristiche protette e di quelli che deducono emozioni o forniscono previsioni di crimini individualizzati.
Valutazioni d'impatto sui diritti fondamentali (FRIA): L'OHCHR sostiene con forza le valutazioni d'impatto complete per gli attori pubblici e privati dell'IA, sottolineando la necessità di trasparenza, partecipazione degli stakeholder e coinvolgimento di autorità indipendenti nelle valutazioni d'impatto.
Standard tecnici: La lettera evidenzia il ruolo centrale delle organizzazioni che definiscono gli standard nel dimostrare la conformità alla legge sull'IA e sottolinea l'importanza della trasparenza, dell'accesso delle parti interessate e dei meccanismi di responsabilità nel processo di definizione degli standard. “I recenti rapporti dell'OHCHR hanno poi dimostrato che sono urgentemente necessari ulteriori sforzi per integrare meglio le competenze in materia di diritti umani nei processi tecnici di definizione degli standard.”
Approccio olistico ai pericoli e danni dell'IA: L'OHCHR esprime preoccupazione per le esenzioni proposte per i sistemi di IA utilizzati per la sicurezza nazionale, l'applicazione della legge e il controllo delle frontiere. L'OHCHR sostiene che questi settori necessitano di maggiori tutele e garanzie di un giusto processo e che le esenzioni creerebbero un vuoto sostanziale nella protezione dei diritti umani.
🚨 Eventi del nostro team
🇪🇺 Il 15 novembre Vincenzo Tiani era a Bruxelles per moderare il panel di IAPP sull’avanzamento dell’AI Act. Con lui anche Alberto Di Felice di DigitalEurope, Brando Benifei, MEP, co-relatore dell’AI Act e Fanny Hidvegi di Access Now. Qui maggiori informazioni.
Il 19 novembre Rocco Panetta era a Udine per partecipare al Fake News festival, dove ha parlato di AI e disinformazione. Il festival è organizzato dal nostro Gabriele Franco, mentre PANETTA Studio Legale è partner dell’evento.
⏰ Da parte nostra è tutto, ci vediamo insAIde, martedì prossimo, alle 08:00.
Rocco Panetta, Federico Sartore, Vincenzo Tiani, Davide Montanaro, Gabriele Franco