Intelligenza artificiale, ecco cosa sta per cambiare nelle nuove regole: i dettagli e le curiosità della vicenda
Il mondo dell’AI sta vivendo momenti cruciali con l’inizio della strutturazione dell’AI Act, il nuovo regolamento europeo dedicato all’intelligenza artificiale. Con la pubblicazione della prima bozza del codice di condotta riguardante i sistemi di AI per uso generale , fissata al 14 novembre, l’Unione Europea sta tracciando un percorso normativo innovativo. La bozza si occupa di modelli in grado di eseguire diverse funzioni, come la generazione di testi o immagini, ed è stato sviluppato un contesto di riferimento per gli sviluppatori. Con alle sue spalle megadati non categorizzati, i GPAI, come il noto GPT-4 di OpenAI e il Gemini di Google, sono al centro di un dibattito cruciale su come governare questa tecnologia emergente.
Codice di condotta per gli sviluppatori: obblighi e tempistiche
Il recente codice di condotta, che si inserisce in un quadro di regolamentazione più ampio, presenta delle linee guida fondamentali per gli sviluppatori di GPAI, proiettandosi verso l’entrata in vigore dei primi obblighi attesi ad agosto 2025. A partire da quel momento, fino all’adozione degli standard nel 2027, gli sviluppatori saranno chiamati a seguire indicazioni specifiche. Tuttavia, è essenziale notare che, sebbene le linee guida siano di grande importanza, non hanno valore legale immediato. Saranno, però, utili per allinearsi ai principi stabiliti dal regolamento e come “prova di conformità” in caso di contestazioni in ambiti dove la legge non è ancora attiva. Da notare, il codice dovrà essere finalizzato entro aprile dell’anno prossimo, il che rende la tempistica fondamentale per i professionisti del settore. Questo approccio rappresenta, quindi, una sorta di “carta di intenti” che potrebbe sempre influenzare maggiormente come le aziende modellano e sviluppano i loro prodotti AI.
L’AI Act e il suo approccio ai rischi
Il testo dell’AI Act, redatto da un comitato di esperti, si sviluppa su 36 pagine che sintetizzano contributi significativi da oltre 430 organizzazioni. Ora è necessario che venga discusso da un’ampia gamma di enti – più di mille – che rappresentano il business, gli ambienti accademici e la consulenza legale. Questa nuova regolamentazione è strutturata attorno a un sistema che classifica i vari modelli AI in base al loro livello di rischio. I GPAI, in tal senso, saranno considerati modelli ad alto rischio e dovranno seguire regole più stringenti.
Per definire modelli di AI generale con un impatto elevato, l’AI Act introduce sette criteri peculiari sia di natura tecnica che di mercato. Questi includono aspetti come la qualità dei set di dati utilizzati e il potere computazionale. Tale potere non si misura solo dal numero di operazioni eseguite, ma anche dal tempo e dai costi energetici necessari per l’addestramento. Si considerano anche fattori come il numero di utenti registrati e l’impatto commerciale. Se le norme non vengono rispettate, gli sviluppatori di GPAI potrebbero affrontare sanzioni significative, fino al 3% del fatturato globale o 15 milioni di euro se il fatturato supera tale cifra. È una sfida che richiede attenzione e rispetto di normative sempre più complesse.
Trasparenza e responsabilità: un nuovo standard
Particolarmente rilevante nel codice di condotta è la questione della trasparenza. Gli sviluppatori, infatti, sono chiamati a fornire una nutrita serie di informazioni che definiscono chiaramente il funzionamento dei loro sistemi AI. Ciò include dettagli sul potere computazionale, sul consumo energetico e sui risultati dei test condotti. Un altro aspetto fondamentale riguarda la politica d’uso accettabile che deve chiarire gli usi permessi e quelli vietati. Inoltre, si stabilisce anche la modalità per segnalare eventuali violazioni delle norme o chiudere i profili degli utenti non rispettosi.
Questa nuova dimensione di responsabilità verso l’utente segna un passo importante verso un’AI più etica e consapevole. Infatti, ci si aspetta che tali misure possano contribuire a una maggiore consapevolezza e protezione della privacy, un tema sempre più caldo nel contesto digitale attuale. Con simili linee guida, l’AI Act si prefigge di stabilire standard operativi alle aziende operanti nel settore, promuovendo un ambiente tecnologico più equo e trasparente.
Diritto d’autore e tutela: oltre le responsabilità
Infine, il codice di condotta si occupa del tema caldo del diritto d’autore in relazione ai contenuti utilizzati per l’addestramento dei modelli di AI. Uno dei punti salienti riguarda la necessità per i sviluppatori di accertarsi di chi detenga la proprietà intellettuale dei materiali utilizzati nel processo di formazione. Questo non è solo una forma di protezione legale; è anche un passo verso una maggiore chiarezza in un settore che ha visto frequenti battaglie legali.
Inoltre, il codice si prefigge di limitare i rischi legati alla violazione del copyright da parte delle piattaforme stesse. Ciò si traduce nella necessità di implementare sistemi che si conformino a regole precise sul data mining, facilitando l’accesso legittimo. Non va dimenticato che l’intelligenza artificiale, pur offrendo enormi opportunità, porta con sé delle sfide significative che necessitano di un’attenzione costante e di un aggiornamento normativo. L’AI Act rappresenta dunque un tentativo di fornire risposte tangibili a tali interrogativi, definendo un quadro di riferimento che, speriamo, guiderà le future innovazioni nel rettangolo dell’intelligenza artificiale.