La Commissione Europea ha introdotto il Codice di Condotta per la regolamentazione dell’intelligenza artificiale, con l’obiettivo di supportare le aziende nel processo di conformazione all’AI Act. Questo codice disciplina lo sviluppo e l’utilizzo dell’IA, promuovendo la trasparenza algoritmica, la sicurezza tecnica, la responsabilità per i fornitori di modelli di IA generativa e la tutela del diritto d’autore.
Cosa comporterebbe l’adesione al Codice di Condotta?
L’adesione al Codice di Condotta è volontaria, ma stabilisce criteri chiari per i modelli di IA, consentendo alle imprese di conformarsi in modo più sicuro all’AI Act. Questo approccio offre una maggiore protezione legale, mentre i fornitori che non aderiscono saranno soggetti a un numero maggiore di ispezioni.
Le aziende che decidono di aderire dovranno rispettare diversi obblighi, come la fornitura e l’aggiornamento regolare della documentazione relativa ai propri strumenti e servizi di intelligenza artificiale. Inoltre, sono previsti divieti per gli sviluppatori, come quello di non addestrare i sistemi di IA su contenuti piratati e di non utilizzare opere protette da copyright nei propri dataset.
In sintesi, l’adesione al Codice di Condotta offre minore burocrazia e maggiore certezza normativa, rappresentando un impegno delle aziende verso un approccio etico, il che può generare fiducia tra i terzi.
Le motivazioni di Meta
Meta ha scelto di non aderire al Codice di Condotta dell’Unione Europea, temendo che le linee guida possano ostacolare lo sviluppo di modelli di intelligenza artificiale generativa. Joel Kaplan, in un comunicato, ha spiegato che il Codice contiene misure che superano quanto previsto dall’AI Act, creando incertezze legali per gli sviluppatori. Kaplan ha anche affermato che “l’Europa sta imboccando la strada sbagliata in tema di IA”.
Secondo Meta, le misure ritenute eccessive potrebbero rallentare lo sviluppo e l’implementazione di modelli di intelligenza artificiale, ostacolando le aziende e soffocando l’innovazione sotto un’eccessiva regolamentazione. Questo potrebbe rendere l’Europa meno competitiva rispetto ad altre regioni dove le aziende possono sviluppare tecnologie di IA generativa con regole meno restrittive.
Cosa ne pensano le altre Big Tech?
La posizione di Meta ha creato una frattura con le istituzioni europee, già oggetto di dibattito. Molte aziende del settore esprimono preoccupazione per una regolamentazione percepita come troppo rigorosa, come dimostrato da una lettera firmata da 44 aziende che chiedevano la sospensione del Codice.
Tuttavia, ci sono anche imprese che hanno confermato la loro adesione, vedendo nel Codice di Condotta un’opportunità per allinearsi al mercato europeo. Queste aziende possono “etichettare” i loro modelli come accessibili e sicuri, dimostrando che è possibile rispettare il quadro normativo europeo senza compromettere l’innovazione.
La decisione di Meta rappresenta quindi un ulteriore capitolo in un braccio di ferro tra aziende tecnologiche e Unione Europea, che non intende retrocedere, vedendo nell’AI Act una legge fondamentale per coniugare innovazione e rispetto dei diritti e della sicurezza dei cittadini.
Regole o innovazione? Il vero nodo del dibattito sull’IA
Questa situazione evidenzia le diverse opinioni riguardo allo sviluppo delle tecnologie di intelligenza artificiale. Da un lato, ci sono coloro che ritengono essenziale stabilire regole chiare per garantire un utilizzo sicuro dell’IA. Dall’altro, ci sono quelli che vedono nell’eccessiva regolamentazione un rischio di soffocamento dello sviluppo tecnologico, ostacolando il raggiungimento di standard elevati.
