Primo Piano

Meta dice no al Codice Ue sull’IA: “Regole vaghe e troppo restrittive”

L’IA svolge tanti lavori e tanti funzioni, eppure alcune aziende o realtà, come Meta, preferiscono non sottostare a certe regole.

Il 10 luglio 2025 la Commissione europea ha annunciato la pubblicazione della versione finale del codice di buone pratiche sull’intelligenza artificiale per finalità generali. Una sorta di guida, non obbligatoria ma fortemente consigliata, pensata per aiutare chi sviluppa modelli IA ad adeguarsi alla nuova normativa europea, in arrivo tra pochissimo. Il tutto è frutto del lavoro congiunto di 13 esperti e di oltre mille contributori, dai tecnici agli attivisti, dalle PMI agli accademici.

L’obiettivo, chiaramente, è uno: far sì che i modelli IA più sofisticati, quelli che alimentano intere filiere tecnologiche, siano affidabili e gestiti con criterio. Il codice è uno strumento volontario, ma ha una certa importanza, anche strategica. Chi lo adotta potrà infatti dimostrare più facilmente la propria conformità alla nuova legge sull’IA, riducendo pastoie burocratiche e incertezze legali.

C’è da dire che il codice non è un blocco unico, ma un insieme ben articolato: tre capitoli, ciascuno dedicato a un aspetto chiave. Il primo riguarda la trasparenza, il secondo il rispetto del diritto d’autore, mentre il terzo si concentra sulla sicurezza dei modelli più avanzati. Una suddivisione pensata per rispondere a diverse esigenze operative, e per offrire modelli replicabili.

Già in questa fase, il codice rappresenta un banco di prova per capire come sarà il futuro dell’intelligenza artificiale in Europa. Con l’entrata in vigore della normativa il 2 agosto 2025, e l’attivazione dell’Ufficio europeo per l’IA entro il 2026 per i nuovi modelli (e il 2027 per quelli esistenti), chi sviluppa intelligenza artificiale dovrà farsi trovare pronto. Meglio quindi prepararsi da subito. Eppure, alcuni colossi come Meta, hanno rifiutato tutto ciò perché, come riportato da TechCrunch, è stato definito non idoneo per ciò che concerne l’AI, in quanto creerebbe più danni che altro. Diciamo che, secondo loro, “hanno esagerato” e preferiscono.

Cosa troverai in questo articolo:

Una guida per orientarsi

Come riportato dal comunicato della Commissione europea, il primo blocco del codice affronta un tema fondamentale: la trasparenza. I modelli di IA per finalità generali sono ovunque, spesso invisibili, ma fondamentali per il funzionamento di sistemi più complessi. Il codice offre un modulo preimpostato per raccogliere tutte le informazioni rilevanti in un unico posto, rendendo più semplice il lavoro dei fornitori e più leggibile quello dei valutatori. Un modo, insomma, per fare ordine e chiarezza in un settore che corre a ritmi vertiginosi.

Segue il capitolo sul diritto d’autore, pensato per aiutare gli sviluppatori a non incorrere in violazioni involontarie. È un aspetto spesso sottovalutato ma cruciale: un dataset costruito male, o una fonte senza licenza chiara, possono causare grossi guai. Il codice propone soluzioni concrete e orientamenti pratici per costruire policy interne allineate alle regole europee. E lo fa con un linguaggio tecnico ma accessibile, proprio per non lasciare nessuno indietro.

Illustrazione dell’AI (Canva FOTO) – managementcue.it

Meta non accetta tutto ciò

Come riportato dal comunicato della Commissione europea, il capitolo più sensibile riguarda la sicurezza, e non a caso è indirizzato solo ai fornitori dei modelli più avanzati. Quelli, per intenderci, che hanno un impatto potenzialmente sistemico. Si parla di rischi reali, come l’uso improprio per la progettazione di armi chimiche o biologiche, oppure scenari dove il controllo umano sul sistema si indebolisce. Il codice suggerisce come valutare questi pericoli e, ancora più importante, come mitigarli.  

Eppure, Meta ha deciso di chiamarsi fuori. Come riportato da TechCrunch, niente firma sul Codice di condotta europeo dedicato all’intelligenza artificiale, almeno per ora. L’annuncio è arrivato direttamente da Joel Kaplan, vicepresidente per gli affari globali dell’azienda, che ha definito il documento non conforme a quelle che sono le loro regole. In pratica, secondo Meta, Bruxelles avrebbe esagerato, andando oltre quanto previsto dalla legge ufficiale sull’IA. Una mossa che, nel loro scenario, rischierebbe di ostacolare la crescita del settore in Europa. Il cuore del problema starebbe proprio nel fatto che questo Codice, pur essendo formalmente volontario, viene percepito come una scorciatoia per anticipare regole che dovrebbero entrare in vigore più avanti. Meta teme che un eccesso di norme preventive finisca per rallentare il ritmo dell’innovazione. 

Published by
Mattia Paparo