ئەخباری
Monday, 23 February 2026
Breaking

L'IA 'Safety First' di Anthropic si scontra con il Pentagono mentre Claude si espande negli agenti autonomi

La società di IA affronta un bivio etico mentre la domanda m

L'IA 'Safety First' di Anthropic si scontra con il Pentagono mentre Claude si espande negli agenti autonomi
7DAYES
18 hours ago
13

Stati Uniti - Agenzia stampa Ekhbary

L'IA 'Safety First' di Anthropic si scontra con il Pentagono mentre Claude si espande negli agenti autonomi

Anthropic, un'azienda leader nell'intelligenza artificiale fondata sul principio della "sicurezza prima di tutto" (safety first), si trova a un bivio critico nel suo rapporto con il Dipartimento della Difesa degli Stati Uniti (il Pentagono). Con il recente rilascio dei suoi agenti autonomi più sofisticati, la domanda militare per queste capacità avanzate si sta intensificando, presentando una sfida profonda agli impegni etici fondamentali dell'azienda e alla sua strategia di espansione globale.

Il 5 febbraio, Anthropic ha svelato Claude Opus 4.6, il suo modello di IA più potente fino ad oggi. Una caratteristica chiave di questa release è la sua capacità di coordinare team di agenti autonomi, più IA che possono dividere compiti e lavorare in parallelo per raggiungere obiettivi complessi. Solo dodici giorni dopo il rilascio di Opus 4.6, l'azienda ha introdotto Sonnet 4.6, un modello più conveniente che rivaleggia con Opus nelle competenze di codifica e informatiche. Mentre i primi modelli di Anthropic capaci di controllare computer, introdotti alla fine del 2024, riuscivano a malapena a gestire un browser web, Sonnet 4.6 ora dimostra capacità a livello umano nel navigare applicazioni web e compilare moduli, secondo l'azienda. Entrambi i modelli vantano una memoria di lavoro sufficientemente ampia da contenere una piccola libreria, consentendo operazioni più complesse e sostenute.

Il settore enterprise costituisce attualmente circa l'80 percento dei ricavi di Anthropic, e l'azienda ha recentemente concluso un round di finanziamento da 30 miliardi di dollari, raggiungendo una valutazione sbalorditiva di 380 miliardi di dollari. Secondo tutte le metriche disponibili, Anthropic si posiziona come una delle aziende tecnologiche a più rapida crescita nella storia. Tuttavia, sotto la superficie dei grandi lanci di prodotti e delle impressionanti valutazioni, si cela una minaccia significativa: il Pentagono ha indicato che potrebbe designare Anthropic come "rischio per la catena di approvvigionamento" – un'etichetta tipicamente riservata agli avversari stranieri – a meno che l'azienda non allenti le sue restrizioni sull'uso militare. Tale designazione potrebbe effettivamente costringere gli appaltatori del Pentagono a rimuovere Claude da progetti sensibili, ostacolando potenzialmente la sua adozione in applicazioni di difesa critiche.

Le tensioni sono escalate a seguito di un'operazione del 3 gennaio, durante la quale le forze per le operazioni speciali statunitensi hanno condotto un raid in Venezuela, portando alla cattura di Nicolás Maduro. I resoconti del Wall Street Journal suggeriscono che Claude è stato utilizzato durante questa operazione attraverso la partnership di Anthropic con l'appaltatore della difesa Palantir. Axios ha inoltre riferito che questo incidente ha esacerbato negoziati già tesi riguardo agli usi precisi consentiti di Claude. Quando un dirigente di Anthropic ha contattato Palantir per chiedere se la tecnologia fosse stata coinvolta nel raid, la domanda avrebbe innescato allarmi immediati all'interno del Pentagono. Sebbene Anthropic abbia contestato che tale contatto fosse inteso a segnalare disapprovazione per l'operazione specifica, un alto funzionario dell'amministrazione ha dichiarato ad Axios che il Segretario alla Difesa Pete Hegseth è "vicino" a interrompere i legami, aggiungendo: "Ci assicureremo che paghino un prezzo per averci messo alle strette in questo modo".

Questa collisione evidenzia una domanda fondamentale: un'azienda fondata con la missione di prevenire una catastrofe legata all'IA può mantenere la sua integrità etica quando i suoi strumenti più potenti – agenti autonomi capaci di elaborare enormi set di dati, identificare schemi e agire sulle loro conclusioni – iniziano a operare all'interno di reti militari classificate? Un'IA "la sicurezza prima di tutto" è veramente compatibile con un cliente che richiede sistemi capaci di ragionare, pianificare e agire autonomamente su scala militare?

Anthropic ha stabilito due linee rosse esplicite: vietare la sorveglianza di massa degli americani e vietare le armi completamente autonome. Il CEO Dario Amodei ha dichiarato che Anthropic sosterrà "la difesa nazionale in tutti i modi tranne quelli che ci renderebbero simili ai nostri avversari autocratici". Mentre altri importanti laboratori di IA, tra cui OpenAI, Google e xAI, hanno accettato di allentare le garanzie per l'uso nei sistemi non classificati del Pentagono, i loro strumenti non sono ancora distribuiti all'interno delle reti classificate dell'esercito. Il Pentagono, al contrario, insiste sul fatto che le capacità dell'IA debbano essere disponibili "per tutti gli scopi legali".

Questo attrito mette direttamente alla prova la tesi centrale di Anthropic. L'azienda è stata fondata nel 2021 da ex dirigenti di OpenAI che ritenevano che l'industria non stesse dando sufficiente priorità alla sicurezza. Hanno posizionato Claude come l'alternativa eticamente responsabile. Alla fine del 2024, Anthropic ha reso Claude accessibile su una piattaforma Palantir con un livello di sicurezza cloud fino a "segreto", rendendo Claude, secondo resoconti pubblici, il primo modello linguistico di grandi dimensioni a operare all'interno di sistemi classificati.

L'attuale stallo impone un esame critico della questione se un'identità "la sicurezza prima di tutto" sia sostenibile una volta che una tecnologia è integrata in operazioni militari classificate e se tali linee rosse siano praticamente applicabili. Emelia Probasco, ricercatrice senior presso il Center for Security and Emerging Technology della Georgetown University, osserva: "Queste parole sembrano semplici: la sorveglianza illegale degli americani. Ma quando ci si scava dentro, ci sono interi eserciti di avvocati che cercano di interpretare quella frase".

Anche il contesto storico è rilevante. A seguito delle rivelazioni di Edward Snowden, il governo degli Stati Uniti ha difeso la raccolta di massa di metadati telefonici – registrazioni delle chiamate che dettagliano chi ha chiamato chi, quando e per quanto tempo – sostenendo che tali dati non portavano le stesse protezioni della privacy del contenuto delle conversazioni. Il dibattito sulla privacy allora si concentrava sugli analisti umani che esaminavano tali registri. Ora, immaginate un sistema di IA che interroga vasti set di dati, mappando reti, individuando schemi e segnalando persone di interesse. L'attuale quadro giuridico è stato progettato per un'era di revisione umana, non per l'analisi su scala di macchina.

"In un certo senso, qualsiasi tipo di raccolta dati di massa che si chiede a un'IA di esaminare è sorveglianza di massa per definizione", afferma Peter Asaro, co-fondatore del Comitato internazionale per il controllo delle armi robotiche. Axios ha riferito che un alto funzionario ha sostenuto che esiste una "significativa area grigia" attorno alle restrizioni di Anthropic e che è "impraticabile per il Pentagono dover negoziare casi d'uso individuali" con l'azienda. Asaro offre due interpretazioni di questa lamentela: un'interpretazione generosa che suggerisce che la definizione di sorveglianza sia veramente impossibile nell'era dell'IA, e un'interpretazione pessimistica secondo cui "vogliono davvero usarle per la sorveglianza di massa e le armi autonome e non vogliono dirlo, quindi la chiamano area grigia".

Per quanto riguarda la seconda linea rossa di Anthropic, le armi autonome – definite in modo restrittivo come sistemi che selezionano e ingaggiano bersagli senza supervisione umana – la definizione potrebbe sembrare gestibile. Tuttavia, Asaro percepisce un'area grigia più preoccupante. Indica i sistemi israeliani "Lavender" e "Gospel", che secondo quanto riferito utilizzano l'IA per generare enormi elenchi di bersagli presentati agli operatori umani per l'approvazione prima che vengano effettuati gli attacchi. "Avete automatizzato, essenzialmente, l'elemento di targeting", spiega Asaro, "che è qualcosa che ci preoccupa molto ed è strettamente correlato, anche se esce dalla definizione stretta". La domanda cruciale è se Claude, operando all'interno dei sistemi di Palantir su reti classificate, possa svolgere funzioni simili – elaborare intelligence, identificare schemi e segnalare persone di interesse – senza che Anthropic sia in grado di delineare con precisione dove finisce il lavoro analitico e dove inizia il targeting.

L'operazione Maduro funge da caso di prova critico per questa distinzione. "Se stai raccogliendo dati e intelligence per identificare i bersagli, ma gli umani stanno decidendo, ‘Ok, questa è la lista dei bersagli che bombarderemo davvero’ – allora hai quel livello di supervisione umana che stiamo cercando di richiedere", dice Asaro. "D'altra parte, stai ancora diventando dipendente dal sistema per il processo decisionale." Ciò solleva preoccupazioni sulla potenziale evoluzione dei sistemi verso la quasi autonomia, anche con un umano nel ciclo. La sfida di Anthropic sta nel garantire che le sue linee rosse rimangano chiare e applicabili man mano che la sua tecnologia viene integrata in ambienti militari complessi e ad alto rischio in cui velocità e precisione sono fondamentali, e i confini tra analisi dell'intelligence e targeting sono in continua evoluzione.

Tag: # Anthropic # Claude # AI # Pentagon # agenti autonomi # sicurezza IA # IA militare # etica IA # Palantir # regolamentazione IA # politica IA