Mentre i conflitti infuriano nel mondo reale, Anthropic rifiuta l’accordo con il Pentagono per l’utilizzo militare del suo modello Claude.
Una rottura istituzionale quella tra Anthropic e la Difesa statunitense che si è presto trasformata in un vantaggio competitivo: Claude ha conquistato rapidamente popolarità tra gli utenti, scalzando il celebre chatbot di OpenAI, ChatGPT, dal podio delle applicazioni più scaricate negli Stati Uniti.
La rivincita commerciale di Claude sembra il risultato di una controffensiva etica che ha premiato l’audacia di Anthropic nel voler impedire che l’intelligenza artificiale diventi un ingranaggio della macchina bellica.
Dopo il “no” di Anthropic, OpenAI ha invece raggiunto un’intesa con il Dipartimento della Difesa statunitense per l’utilizzo dei propri modelli nelle reti più riservate. Secondo il CEO Sam Altman, nel corso delle trattative il Pentagono avrebbe dimostrato un “profondo rispetto per la sicurezza”.
Il caso Claude dimostra come, in un settore sempre più strategico, le scelte etiche possano tradursi in fattori di posizionamento competitivo. La sostenibilità e la responsabilità non sono soltanto valori morali ma leve reputazionali che incidono sulla fiducia degli utenti e, di conseguenza, sulla crescita economica.
