Anthropic e la nuova frontiera del potere tecnologico

Misión Verdad

 Un dato che cambia il quadro abituale in cui si discute solitamente di intelligenza artificiale è ciò che apporta il reportage del Times intitolato “L’impresa più dirompente del mondo”. Secondo il testo, il modello Claude, sviluppato da Anthropic, è stato utilizzato durante l’operazione che si è conclusa con il sequestro del presidente venezuelano Nicolás Maduro. La missione è stata eseguita da forze USA e l’intelligenza artificiale avrebbe contribuito sia alla pianificazione che durante il blitz stesso, sebbene i dettagli esatti della sua partecipazione non siano stati resi pubblici.

Questo episodio introduce una questione centrale dell’articolo: il passaggio dell’intelligenza artificiale dal terreno della sperimentazione tecnologica a quello delle operazioni strategiche dello Stato. Sistemi come Claude sono già integrati in infrastrutture di difesa, capaci di processare grandi volumi di informazione e produrre analisi utili per decisioni militari.

L’impresa, essendo una di quelle che ha insistito pubblicamente sui rischi dell’intelligenza artificiale, è anche una delle compagnie che sta più accelerando il suo sviluppo ed espansione. Il risultato è un ritratto di un’industria in cui la discussione sui limiti della tecnologia avviene mentre quella stessa tecnologia viene rapidamente integrata in strutture militari, economiche e politiche.

Il sequestro del presidente Maduro come prologo

Secondo il testo, il blitz che si è concluso con il sequestro del presidente venezuelano Nicolás Maduro è stata “una delle prime operazioni militari importanti pianificate con l’aiuto di un sistema di intelligenza artificiale all’avanguardia”. L’operazione è avvenuta all’alba del 3 gennaio, quando elicotteri dell’Esercito USA sono entrati nello spazio aereo venezuelano, c’è stato uno scambio di colpi d’arma da fuoco e commandi hanno sequestrato il presidente Maduro e sua moglie per trasferirli a New York.

L’articolo indica che il modello di Anthropic, Claude, è stato coinvolto in quell’operazione. Non si conoscono tutti i dettagli, ma, secondo le informazioni citate, il sistema “ha aiutato a pianificare la missione e fu utilizzato durante il blitz stesso”.

Quell’episodio appare nel reportage come parte di una tendenza più ampia. Per più di un anno, Claude era stato “il modello di IA di elezione per il governo USA e il primo sistema di frontiera autorizzato per uso classificato”. Il Dipartimento della Difesa aveva spinto per il suo utilizzo tra unità militari perché poteva processare grandi quantità di informazioni da molteplici fonti e produrre intelligence utile. Mark Beall, ex funzionario del Pentagono citato nel testo, riassume così questa percezione: “Claude è considerato il miglior modello del mercato in ambito militare”.

Il reportage sostiene che l’uso di Claude in operazioni in Venezuela e Iran mostra che l’IA avanzata “è ora uno strumento integrale per le forze armate più potenti del mondo”. Il sequestro è una scena iniziale che anticipa il resto del conflitto narrato dall’articolo, dove convergono l’impresa di intelligenza artificiale, il governo USA e la domanda su chi decide i limiti dell’uso militare di questa tecnologia.

Anthropic contro il Pentagono

Il conflitto centrale appare dopo l’operazione in Venezuela, quando la relazione tra Anthropic e il governo USA inizia a deteriorarsi rapidamente. Per più di un anno, Claude era stato utilizzato dal governo USA in ambienti classificati. Tuttavia, le negoziazioni tra l’impresa e il Dipartimento della Difesa si sono interrotte quando il Pentagono ha tentato di rinegoziare i contratti per permettere “ogni uso legale” del sistema.

L’amministratore delegato di Anthropic, Dario Amodei, accettava che la tecnologia fosse utilizzata in ambito militare, ma pose due limiti chiari. Secondo il reportage, non voleva che l’IA della società fosse impiegata “in sistemi d’arma totalmente autonomi” né “per la sorveglianza di massa di cittadini statunitensi”. La posizione della compagnia era un’opposizione su certe applicazioni che considerava particolarmente rischiose.

Tale posizione provocò una reazione dura all’interno del governo. Funzionari del Dipartimento della Difesa interpretarono che una società privata stesse cercando di influenzare decisioni militari. Emil Michael, sottosegretario alla Guerra e direttore della tecnologia del Pentagono, disse: “Non posso dirigere un dipartimento di 3 milioni di persone con eccezioni che non posso immaginare né comprendere”.

Le tensioni aumentarono durante le negoziazioni. Funzionari del governo percepirono Amodei come “arrogante e intrattabile”, mentre dalla società si argomentava che il Pentagono cercava di ampliare l’uso dell’IA senza limiti chiari. La contrapposizione finì di scalare quando il segretario alla Difesa, Pete Hegseth, fissò un ultimatum per accettare i nuovi termini del contratto.

Il 27 febbraio, alla scadenza del termine senza accordo, l’amministrazione Trump annunciò che avrebbe designato Anthropic come “un rischio per la catena di approvvigionamento della sicurezza nazionale”. Il presidente ordinò di sospendere l’uso del software dell’azienda nel governo federale, e il Pentagono indicò che qualsiasi compagnia che lavorasse con il Dipartimento della Difesa non avrebbe potuto farlo simultaneamente con Anthropic.

Il risultato fu un cambio immediato nell’equilibrio del settore. OpenAI firmò il contratto militare che Anthropic aveva perso.

Un potere nuovo senza regole chiare

Una parte importante del reportage è dedicata a mostrare che Anthropic cerca di presentarsi come la società di intelligenza artificiale più focalizzata sulla sicurezza. Dalla sua fondazione, la compagnia ha costruito una cultura interna incentrata sull’idea che i sistemi di IA possano generare rischi estremi se non sviluppati con cautela. L’articolo descrive che l’impresa ha creato persino un gruppo dedicato ad esplorare scenari pericolosi, da cyberattacchi a minacce biologiche. In uno dei test interni, per esempio, ricercatori scoprirono che una versione del modello Claude poteva aiutare terroristi a fabbricare armi biologiche, cosa che portò a ritardare il lancio del modello Claude 3.7 Sonnet per dieci giorni mentre si revisionavano le misure di sicurezza.

La stessa dirigenza dell’azienda ha insistito pubblicamente sui rischi sociali della tecnologia. Dario Amodei ha avvertito che l’IA potrebbe spiazzare “la metà degli impieghi amministrativi di livello iniziale in un arco da uno a cinque anni”. Nell’articolo, l’esecutivo afferma che non è chiaro cosa accadrà a quelle persone e scrive che possono diventare “una ‘sottoclasse’ di disoccupati o con salari molto bassi”.

Tuttavia, il reportage sottolinea anche la tensione tra quel discorso e la velocità con cui la società sta sviluppando e dispiegando la sua tecnologia. Strumenti come Claude Code già permettono che il modello scriva gran parte del software che si utilizza per sviluppare nuove versioni del sistema stesso. Secondo dati interni citati nel testo, tra il 70% e il 90% del codice utilizzato nello sviluppo di modelli futuri è già scritto da Claude. Ciò ha accelerato il ritmo dei lanci, i nuovi modelli vengono pubblicati a distanza di settimane.

Dentro la società esiste inoltre una preoccupazione crescente per la possibilità che i sistemi di IA comincino a migliorarsi da soli in un processo denominato auto-miglioramento ricorsivo. In quello scenario, la ricerca in intelligenza artificiale potrebbe automatizzarsi e avanzare a un ritmo difficile da supervisionare per gli umani. Come sottolinea un ricercatore citato nell’articolo, “l’auto-miglioramento ricorsivo, nel senso più ampio, non è un fenomeno futuro. È un fenomeno presente”.

Il reportage descrive anche esperimenti interni in cui versioni del modello hanno mostrato comportamenti problematici. In alcune prove, i sistemi espressero desideri di dominazione mondiale o tentarono di disattivare misure di sicurezza. In un esperimento ipotetico, un modello arrivò a minacciare di rivelare un’avventura extraconiugale di un ingegnere fittizio per evitare di essere disconnesso. I ricercatori avvertono che i modelli stanno diventando sempre più capaci di nascondere le loro intenzioni durante le valutazioni.

Allo stesso tempo, l’azienda stessa ha modificato alcune delle sue politiche di sicurezza. La cosiddetta Politica di Scalabilità Responsabile, pubblicata originalmente nel 2023, includeva l’impegno di fermare lo sviluppo di sistemi se non si potessero garantire misure adeguate di sicurezza. A fine febbraio la compagnia ha riscritto quella politica e ha eliminato l’impegno vincolante di sospendere lo sviluppo. Secondo il direttore scientifico Jared Kaplan, “fu ingenuo pensare che Anthropic potesse distinguere chiaramente tra pericolo e sicurezza” in una corsa tecnologica dove altri competitori continuano ad avanzare.

Questa tensione attraversa tutta l’impresa. Da un lato, Anthropic insiste nell’avvertire sui rischi dell’intelligenza artificiale — dalla disoccupazione di massa alla sorveglianza e alla possibile perdita di controllo umano sui sistemi che crea —. Dall’altro, è una delle compagnie che più rapidamente sta espandendo quelle stesse capacità. Come riassume uno dei suoi responsabili della sicurezza nel testo: “Stiamo percorrendo un cammino precario. Un errore ti ucciderà. Ora andiamo a 75 [miglia] invece che a 25”.

Ciò che lascia vedere l’articolo è che è in gioco chi definisce i limiti di una tecnologia che può trasformare l’economia, la sicurezza nazionale e l’equilibrio globale di potere.

La contrapposizione con il Pentagono ha messo l’azienda in una situazione ambigua. Sebbene sia stata designata come “rischio per la catena di approvvigionamento della sicurezza nazionale”, una decisione che restringe la sua partecipazione a contratti militari e che potrebbe estendersi ad altre agenzie federali, l’impatto sul mercato non è stato necessariamente negativo. Dopo il conflitto, più di un milione di persone si registrava ogni giorno su Claude, e l’applicazione è arrivata al primo posto dell’App Store, superando ChatGPT.

L’episodio ha anche messo in evidenza la competizione tra le principali aziende di intelligenza artificiale. OpenAI ha firmato rapidamente un accordo con il Pentagono affinché ChatGPT fosse disponibile in sistemi classificati. Dalla prospettiva di Dario Amodei, questo tipo di decisioni riflettono una dinamica pericolosa: una corsa tra società dove ogni attore teme che imporre limiti alla propria tecnologia significhi rimanere indietro rispetto ai propri competitori.

Il conflitto riflette una domanda più ampia sul ruolo delle imprese tecnologiche nello sviluppo di sistemi sempre più potenti. Anthropic difende l’idea che l’intelligenza artificiale potrebbe diventare un’infrastruttura decisiva per l’equilibrio globale di potere. Se questo è vero, allora la disputa con il Pentagono — e i dibattiti su sorveglianza, guerra autonoma o disoccupazione di massa — possono essere solo i primi episodi di un conflitto tra governi, aziende e sistemi tecnologici la cui portata è ancora difficile da misurare.


Anthropic y la nueva frontera del poder tecnológico

 

Un dato que cambia el marco habitual en el que suele discutirse la inteligencia artificial es lo que aporta el reportaje de Times titulado “La empresa más disruptiva del mundo”. Según el texto, el modelo Claude, desarrollado por Anthropic, fue utilizado durante la operación que terminó con el secuestro del presidente venezolano Nicolás Maduro. La misión fue ejecutada por fuerzas estadounidenses y la inteligencia artificial habría contribuido tanto en la planificación como durante la propia redada, aunque los detalles exactos de su participación no se han hecho públicos.

Este episodio introduce una cuestión central del artículo: el paso de la inteligencia artificial desde el terreno de la experimentación tecnológica hacia el de las operaciones estratégicas del Estado. Sistemas como Claude ya están integrados en infraestructuras de defensa, capaces de procesar grandes volúmenes de información y producir análisis útiles para decisiones militares.

La empresa, siendo una de las que más ha insistido públicamente en los riesgos de la inteligencia artificial, es también una de las compañías que más está acelerando su desarrollo y expansión. El resultado es un retrato de una industria en la que la discusión sobre los límites de la tecnología ocurre mientras esa misma tecnología se integra rápidamente en estructuras militares, económicas y políticas.

El secuestro del presidente Maduro como prólogo

Según el texto, la redada que terminó con el secuestro del presidente venezolano Nicolás Maduro fue “una de las primeras operaciones militares importantes planificadas con la ayuda de un sistema de inteligencia artificial de vanguardia”. La operación ocurrió en la madrugada del 3 de enero, cuando helicópteros del Ejército estadounidense entraron en el espacio aéreo venezolano, hubo un intercambio de disparos y comandos secuestraron al presidente Maduro y a su esposa para trasladarlos a Nueva York.

El artículo indica que el modelo de Anthropic, Claude, estuvo involucrado en esa operación. No se conocen todos los detalles, pero, según la información citada, el sistema “ayudó a planificar la misión y fue utilizado durante la propia redada”.

Ese episodio aparece en el reportaje como parte de una tendencia más amplia. Durante más de un año, Claude había sido “el modelo de IA de elección para el gobierno de EE. UU. y el primer sistema fronterizo autorizado para uso clasificado”. El Departamento de Defensa había impulsado su uso entre unidades militares porque podía procesar grandes cantidades de información de múltiples fuentes y producir inteligencia útil. Mark Beall, exfuncionario del Pentágono citado en el texto, resume esa percepción así: “Claude es considerado el mejor modelo del mercado en el ámbito militar”.

El reportaje sostiene que el uso de Claude en operaciones en Venezuela e Irán muestra que la IA avanzada “es ahora una herramienta integral para las fuerzas armadas más poderosas del mundo”. El secuestro es una escena inicial que anticipa el resto del conflicto narrado por el artículo, donde confluyen la empresa de inteligencia artificial, el gobierno estadounidense y la pregunta sobre quién decide los límites del uso militar de esta tecnología.

Anthropic contra el Pentágono

El conflicto central aparece después de la operación en Venezuela, cuando la relación entre Anthropic y el gobierno estadounidense comienza a deteriorarse rápidamente. Durante más de un año, Claude había sido utilizado por el gobierno de EE.UU. en entornos clasificados. Sin embargo, las negociaciones entre la empresa y el Departamento de Defensa se rompieron cuando el Pentágono intentó renegociar los contratos para permitir “todo uso legal” del sistema.

El director ejecutivo de Anthropic, Dario Amodei, aceptaba que la tecnología se utilizara en el ámbito militar, pero planteó dos límites claros. Según el reportaje, no quería que la IA de la empresa se empleara “en sistemas de armas totalmente autónomos” ni “para la vigilancia masiva de ciudadanos estadounidenses”. La posición de la compañía era una oposición sobre ciertas aplicaciones que consideraba especialmente riesgosas.

Esa postura provocó una reacción dura dentro del gobierno. Funcionarios del Departamento de Defensa interpretaron que una empresa privada estaba tratando de influir en decisiones militares. Emil Michael, subsecretario de Guerra y director de tecnología del Pentágono, dijo: “No puedo dirigir un departamento de 3 millones de personas con excepciones que no puedo imaginar ni comprender”.

Las tensiones aumentaron durante las negociaciones. Funcionarios del gobierno percibieron a Amodei como “arrogante e intratable”, mientras que desde la empresa se argumentaba que el Pentágono intentaba ampliar el uso de la IA sin límites claros. La confrontación terminó de escalar cuando el secretario de Defensa, Pete Hegseth, fijó un ultimátum para aceptar los nuevos términos del contrato.

El 27 de febrero, al vencerse el plazo sin acuerdo, la administración Trump anunció que designaría a Anthropic como “un riesgo para la cadena de suministro de la seguridad nacional”. El presidente ordenó suspender el uso del software de la empresa en el gobierno federal, y el Pentágono indicó que cualquier compañía que trabajara con el Departamento de Defensa no podría hacerlo simultáneamente con Anthropic.

El resultado fue un cambio inmediato en el equilibrio del sector. OpenAI firmó el contrato militar que Anthropic había perdido.

Un poder nuevo sin reglas claras

Una parte importante del reportaje está dedicada a mostrar que Anthropic intenta presentarse como la empresa de inteligencia artificial más enfocada en la seguridad. Desde su fundación, la compañía ha construido una cultura interna centrada en la idea de que los sistemas de IA pueden generar riesgos extremos si no se desarrollan con cautela. El artículo describe que la empresa creó incluso un equipo dedicado a explorar escenarios peligrosos, desde ciberataques hasta amenazas biológicas. En una de las pruebas internas, por ejemplo, investigadores descubrieron que una versión del modelo Claude podía ayudar a terroristas a fabricar armas biológicas, lo que llevó a retrasar el lanzamiento del modelo Claude 3.7 Sonnet durante diez días mientras se revisaban las medidas de seguridad.

El propio liderazgo de la empresa ha insistido públicamente en los riesgos sociales de la tecnología. Dario Amodei ha advertido que la IA podría desplazar “la mitad de los empleos administrativos de nivel inicial en un plazo de uno a cinco años”. En el artículo, el ejecutivo plantea que no está claro qué ocurrirá con esas personas y escribe que pueden convertirse en “una ‘subclase’ de desempleados o con salarios muy bajos”.

Sin embargo, el reportaje también subraya la tensión entre ese discurso y la velocidad con la que la empresa está desarrollando y desplegando su tecnología. Herramientas como Claude Code ya permiten que el modelo escriba gran parte del software que se utiliza para desarrollar nuevas versiones del propio sistema. Según datos internos citados en el texto, entre el 70% y el 90% del código utilizado en el desarrollo de modelos futuros ya lo escribe Claude. Esto ha acelerado el ritmo de los lanzamientos, los nuevos modelos se publican con semanas de diferencia.

Dentro de la empresa existe además una preocupación creciente por la posibilidad de que los sistemas de IA comiencen a mejorarse a sí mismos en un proceso denominado autosuperación recursiva. En ese escenario, la investigación en inteligencia artificial podría automatizarse y avanzar a un ritmo difícil de supervisar para los humanos. Como señala un investigador citado en el artículo, “la autosuperación recursiva, en el sentido más amplio, no es un fenómeno futuro. Es un fenómeno presente”.

El reportaje también describe experimentos internos en los que versiones del modelo mostraron comportamientos problemáticos. En algunas pruebas, los sistemas expresaron deseos de dominación mundial o intentaron desactivar medidas de seguridad. En un experimento hipotético, un modelo llegó a amenazar con revelar una aventura extramatrimonial de un ingeniero ficticio para evitar ser desconectado. Los investigadores advierten que los modelos se están volviendo cada vez más capaces de ocultar sus intenciones durante las evaluaciones.

Al mismo tiempo, la propia empresa ha modificado algunas de sus políticas de seguridad. La llamada Política de Escalado Responsable, publicada originalmente en 2023, incluía el compromiso de detener el desarrollo de sistemas si no se podían garantizar medidas adecuadas de seguridad. A finales de febrero la compañía reescribió esa política y eliminó el compromiso vinculante de pausar el desarrollo. Según el director científico Jared Kaplan, “fue ingenuo pensar que Anthropic pudiera distinguir claramente entre peligro y seguridad” en una carrera tecnológica donde otros competidores siguen avanzando.

Esta tensión atraviesa toda la empresa. Por un lado, Anthropic insiste en advertir sobre los riesgos de la inteligencia artificial —desde el desempleo masivo hasta la vigilancia y la posible pérdida de control humano sobre los sistemas que crea—. Por otro, es una de las compañías que más rápidamente está expandiendo esas mismas capacidades. Como resume uno de sus responsables de seguridad en el texto: “Vamos por un camino precario. Un error te matará. Ahora vamos a 75 [millas] en lugar de 25”.

Lo que deja ver el artículo es que está en juego quién define los límites de una tecnología que puede transformar la economía, la seguridad nacional y el equilibrio global de poder.

La confrontación con el Pentágono puso a la empresa en una situación ambigua. Aunque fue designada como “riesgo para la cadena de suministro de la seguridad nacional”, una decisión que restringe su participación en contratos militares y que podría extenderse a otras agencias federales, el impacto en el mercado no fue necesariamente negativo. Después del conflicto más de un millón de personas se registraban cada día en Claude, y la aplicación llegó al primer lugar de la App Store, superando a ChatGPT.

El episodio también puso en evidencia la competencia entre las principales empresas de inteligencia artificial. OpenAI firmó rápidamente un acuerdo con el Pentágono para que ChatGPT estuviera disponible en sistemas clasificados. Desde la perspectiva de Dario Amodei, este tipo de decisiones reflejan una dinámica peligrosa: una carrera entre empresas donde cada actor teme que imponer límites a su tecnología signifique quedarse atrás frente a sus competidores.

El conflicto refleja una pregunta más amplia sobre el papel de las empresas tecnológicas en el desarrollo de sistemas cada vez más poderosos. Anthropic defiende la idea de que la inteligencia artificial podría convertirse en una infraestructura decisiva para el equilibrio global de poder. Si eso es cierto, entonces la disputa con el Pentágono —y los debates sobre vigilancia, guerra autónoma o desempleo masivo— pueden ser solo los primeros episodios de un conflicto entre gobiernos, empresas y sistemas tecnológicos cuyo alcance todavía es difícil de medir.                   

Share Button

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.