Home
News
ChatGPT: fuga di utenti per accordo con Pentagono (e Claude gioisce)

ChatGPT: fuga di utenti per accordo con Pentagono (e Claude gioisce)

L’intelligenza artificiale generativa è entrata nella vita quotidiana con una velocità che pochi avevano previsto. In poco più di tre anni ChatGPT è diventato sinonimo di AI per milioni di persone, uno strumento usato per lavorare, studiare, programmare, scrivere. Poi è arrivata una notizia che ha cambiato improvvisamente il tono della conversazione pubblica: l’accordo tra OpenAI e il Dipartimento della Difesa degli Stati Uniti per l’utilizzo della tecnologia in ambienti militari classificati. Non si è trattato solo di una partnership industriale. Nel giro di quarantotto ore la decisione ha innescato una reazione sorprendentemente forte tra gli utenti, trasformando un tema tecnico in una questione di fiducia, etica e potere tecnologico.

L’accordo tra OpenAI e il Pentagono

Alla fine di febbraio OpenAI ha annunciato un’intesa con il Dipartimento della Difesa statunitense che prevede l’impiego dei suoi modelli di intelligenza artificiale in reti governative ad accesso riservato. In termini pratici significa che sistemi come quelli alla base di ChatGPT potranno essere utilizzati in infrastrutture informatiche dove vengono gestite informazioni sensibili legate alla sicurezza nazionale.

L’azienda ha chiarito che l’accordo include diversi limiti operativi. Tra questi il divieto di utilizzare la tecnologia per sorveglianza interna sui cittadini statunitensi, per il controllo diretto di armi autonome o per decisioni automatizzate ad alto impatto senza supervisione umana. Una cornice giuridica costruita per rassicurare l’opinione pubblica e delimitare il campo d’azione dell’intelligenza artificiale in ambito militare.

Eppure, la notizia ha generato una reazione immediata. In molti ambienti digitali la collaborazione con l’apparato militare è stata interpretata come un cambio di rotta rispetto all’immagine originaria dell’azienda, che per anni aveva costruito la propria reputazione attorno all’idea di sviluppare tecnologie sicure e orientate al beneficio collettivo.

La fuga degli utenti e i numeri del boicottaggio

I dati raccolti dalle società di analisi delle app raccontano con precisione ciò che è successo subito dopo l’annuncio. Negli Stati Uniti le disinstallazioni dell’app ChatGPT sono aumentate del 295% rispetto ai livelli abituali, mentre il tasso medio giornaliero di cancellazione si aggirava attorno al 9%. Parallelamente sono diminuite anche le nuove installazioni.

La protesta si è diffusa rapidamente sui social e nei forum online, dove sono comparsi inviti espliciti a cancellare l’applicazione e a interrompere gli abbonamenti. Alcuni utenti hanno parlato apertamente di tradimento dei principi etici che avevano accompagnato lo sviluppo dell’intelligenza artificiale generativa. Altri hanno espresso timori più concreti legati alla privacy e alla possibilità che sistemi avanzati di AI possano essere utilizzati per sorveglianza su larga scala o per operazioni militari automatizzate.

Di fronte alla reazione del pubblico, il CEO di OpenAI Sam Altman ha ammesso che la comunicazione dell’accordo è stata gestita in modo troppo frettoloso. In un messaggio pubblicato su X ha riconosciuto che l’annuncio era stato diffuso prima che tutte le implicazioni fossero spiegate con sufficiente chiarezza. L’azienda ha quindi promesso di modificare alcuni punti dell’intesa per rendere più espliciti i limiti sull’utilizzo dei propri modelli.

Claude e la strategia etica di Anthropic

Mentre ChatGPT affrontava una fase di forte pressione reputazionale, il principale beneficiario della situazione è stato Claude, il chatbot sviluppato dalla società Anthropic. L’azienda guidata da Dario Amodei aveva infatti rifiutato le richieste del Dipartimento della Difesa che prevedevano la rimozione di alcune restrizioni sull’uso militare dell’intelligenza artificiale.

Anthropic ha dichiarato di non voler permettere l’utilizzo dei propri modelli per sorveglianza di massa o per sistemi d’arma autonomi capaci di operare senza controllo umano. Questa posizione ha comportato tensioni con il governo statunitense e la perdita di contratti federali, ma ha rafforzato l’immagine pubblica dell’azienda come alternativa più prudente sul piano etico.

I numeri lo dimostrano. Negli stessi giorni in cui aumentavano le disinstallazioni di ChatGPT, i download di Claude negli Stati Uniti sono cresciuti del 37% il 27 febbraio e del 51% il giorno successivo. Per la prima volta il chatbot di Anthropic ha superato ChatGPT nelle classifiche giornaliere degli store digitali.

La vera battaglia dell’intelligenza artificiale

La vicenda rivela qualcosa di nuovo nel mercato dell’intelligenza artificiale. Fino a poco tempo fa la competizione tra le piattaforme ruotava quasi solo attorno alle prestazioni tecniche. Contavano la velocità di risposta, la qualità dei modelli e l’integrazione con altri servizi. Oggi entra in gioco un fattore diverso, molto più delicato: la fiducia.

Una parte degli utenti sceglie quale AI usare non soltanto per le funzionalità. Conta anche la posizione politica ed etica delle aziende che sviluppano questi sistemi. Questo cambiamento modifica la natura stessa dell’intelligenza artificiale. Non è più solo uno strumento tecnologico. Diventa un’infrastruttura sociale che tocca sicurezza, democrazia e governance globale.

ChatGPT, nonostante la turbolenza di questi giorni, resta il chatbot più usato al mondo. Ogni settimana centinaia di milioni di persone lo utilizzano. Il sorpasso temporaneo di Claude nei download non sposta ancora gli equilibri del settore. Un segnale, però, emerge con chiarezza. Nell’era dell’intelligenza artificiale la reputazione può spostare milioni di utenti nel giro di pochi giorni.

Immagine di Ersilia Barone

di 

Ersilia Barone
Share the Post:

Altri post