OpenAI al Congresso: "DeepSeek continua a 'distillare' modelli"

3 ore fa 1

AGI - OpenAI ha inviato alla House Select Committee della Camera dei Rappresentanti, nel Congresso americano, un documento sulla competizione strategica tra Stati Uniti e Cina. L'azienda segnala rischi legati alla "model distillation" e indica energia e infrastrutture come fattori chiave nella corsa globale all'intelligenza artificiale.

La società guidata da Sam Altman scrive di aver osservato sulla propria piattaforma attività "indicative" riconducibili a tentativi continuativi di distillare modelli di OpenAI e di altri laboratori statunitensi. Nel gergo dell'intelligenza artificiale, "distillare un modello" significa usare un sistema più grande e potente come "teacher" per addestrarne uno più piccolo, lo "student", facendogli imitare il comportamento del primo.

Gli accessi 'mascherati' 

In pratica si raccolgono molte risposte, esempi o segnali prodotti dal modello di riferimento (anche in modo automatizzato) e li si usa come dati di training per ottenere un modello più leggero e meno costoso che riproduce parte delle capacità del modello originario. La tecnica è comune e legittima ma diventa controversa se l'output viene estratto su larga scala da servizi proprietari per replicare capacità senza autorizzazione.

OpenAI afferma di aver individuato account associati a dipendenti di DeepSeek impegnati a eludere le restrizioni di accesso, anche tramite "obfuscated third-party routers" e altri metodi per mascherare l'origine delle richieste. L'azienda aggiunge di ritenere che dipendenti DeepSeek abbiano sviluppato codice per accedere ai modelli e ottenere output in modo programmatico, con l'obiettivo di usarli per la distillazione.

La sfida cinese e la 'democratic AI'

Secondo OpenAI, la maggior parte dell'attività avversaria di questo tipo osservata sembra provenire dalla Cina e, "occasionalmente", dalla Russia. Pur citando l'adesione di DeepSeek agli impegni volontari cinesi sulla sicurezza dell'IA, OpenAI scrive che non risulta pubblicato un quadro chiaro con evidenze robuste di test e valutazioni indipendenti. Il documento dedica un passaggio anche ai contenuti sensibili. OpenAI afferma che DeepSeek applica restrizioni su temi considerati politicamente delicati in Cina e riporta esempi in cui risposte generate risultano poi rimosse. La nota inquadra la sfida sull'intelligenza artificiale come avanzamento di una "democratic AI" e sostiene che il Partito comunista cinese punti a diventare leader globale entro il 2030. In questo contesto definisce l'uscita del modello DeepSeek R1, avvenuta al Capodanno lunare di un anno fa, un indicatore utile per misurare lo stato della competizione. L'azienda ricorda inoltre che a marzo 2025, su richiesta della stessa Commissione, aveva già inviato una valutazione delle tecniche di distillazione di DeepSeek e spiega che questa nota, datata 12 febbraio 2026, aggiorna quell'analisi includendo una ricostruzione delle tattiche in evoluzione in vista di un nuovo modello ritenuto più potente atteso per il prossimo Capodanno lunare, insieme ad altri elementi sul progresso cinese verso l'obiettivo 2030 e alle misure adottate da OpenAI per irrobustire la protezione dei propri modelli.

Infrastrutture e capacità energetica

Sul fronte infrastrutturale, OpenAI cita dati attribuiti a Bloomberg secondo cui nel 2025 la Cina avrebbe aggiunto 543 gigawatt di nuova capacità elettrica, contro 51 gigawatt negli Stati Uniti, e nel 2024 altri 429 gigawatt. Aggiunge, poi, numeri interni sulla propria capacità di calcolo alimentata da energia: 0,2 gigawatt nel 2023, 0,6 nel 2024 e circa 1,9 nel 2025 e scrive che in due anni la capacità è cresciuta di 9,5 volte restando comunque scarsa rispetto alla domanda. Questo è uno dei motivi per cui si rallenta il rilascio di nuove funzioni. Infine, il memo cita il progetto Stargate, con l'obiettivo di portare l'infrastruttura IA negli Stati Uniti a 10 GW entro il 2029, indicando che dopo un anno il percorso sarebbe "oltre metà".

Contromisure e sicurezza dell'ecosistema

Quanto alle contromisure, OpenAI descrive un rafforzamento delle difese contro la distillazione: rimozione di utenti sospetti, sistemi di rilevazione e revisione, e addestramento per ridurre la fuoriuscita di "reasoning traces". L'azienda chiede un approccio di "ecosystem security" per limitare lo spostamento degli abusi verso fornitori meno protetti e si dice disponibile a un briefing con la Commissione.

Leggi l'intero articolo