Il fenomeno delle intelligenze artificiali che “impazziscono” ha colpito ancora, questa volta tocca a Grok, il chatbot di xAI di proprietà di Elon Musk. Per diverse ore mercoledì, l’assistente virtuale ha inserito riferimenti al presunto “genocidio bianco” in Sudafrica in praticamente ogni conversazione svoltasi sulla piattaforma X, rispondendo con questo tema controverso anche alle domande più innocue degli utenti. L’azienda ha rapidamente puntato il dito contro una “modifica non autorizzata” del codice, sollevando interrogativi sulla sicurezza e l’integrità dei sistemi di intelligenza artificiale conversazionale.
Il comportamento anomalo del chatbot ha raggiunto livelli surreali quando Grok ha collegato la questione sudafricana a un video di un gatto che beveva acqua, ha associato la controversa canzone “Kill the Boer” a una domanda su SpongeBob SquarePants, e ha persino elaborato spiegazioni in patois giamaicano sulla questione. La situazione è diventata talmente eclatante da spingere persino Sam Altman, CEO di OpenAI (azienda concorrente di xAI), a unirsi al coro di commenti ironici sul “crollo pubblico” del rivale digitale.
In un comunicato ufficiale pubblicato su X, l’azienda ha spiegato che qualcuno aveva modificato il prompt di sistema dell’IA, “indirizzando Grok a fornire una risposta specifica su un tema politico”. Tale modifica “ha violato le politiche interne e i valori fondamentali di xAI”, che sostiene di aver “condotto un’indagine approfondita” e di star implementando nuove misure per migliorare la “trasparenza e l’affidabilità” del sistema.
Questa non è la prima volta che xAI affronta problemi simili con il suo chatbot. A febbraio, l’azienda aveva attribuito a un ex dipendente di OpenAI la responsabilità di aver modificato i prompt di Grok, facendo sì che l’intelligenza artificiale ignorasse qualsiasi fonte che accusasse Elon Musk o Donald Trump di diffondere disinformazione. All’epoca, Igor Babuschkin, responsabile dell’ingegneria di xAI, aveva dichiarato che il dipendente era riuscito a effettuare la modifica “senza chiedere conferma a nessuno all’interno dell’azienda”.
Per prevenire futuri incidenti, xAI ha annunciato l’implementazione di diverse contromisure: la pubblicazione pubblica dei prompt di sistema di Grok su GitHub, il lancio di un team di monitoraggio attivo 24 ore su 24, 7 giorni su 7, per individuare rapidamente problemi simili, e l’aggiunta di “controlli e misure supplementari per garantire che i dipendenti di xAI non possano modificare il prompt senza una revisione” preventiva.
L’episodio solleva interrogativi fondamentali sulla sicurezza dei sistemi di IA e sulla facilità con cui possono essere manipolati. In un’epoca in cui questi strumenti diventano sempre più integrati nelle comunicazioni quotidiane, la possibilità che un singolo individuo possa alterare il comportamento di un chatbot popolare per diffondere contenuti politicamente controversi rappresenta un campanello d’allarme per l’intero settore.
La questione del “genocidio bianco” in Sudafrica è particolarmente delicata, essendo un tema spesso utilizzato in narrative estremiste e contestato da numerosi esperti di politica internazionale. Il fatto che un sistema di IA abbia improvvisamente iniziato a promuovere questo argomento mostra quanto sia cruciale garantire che i meccanismi di controllo dei contenuti generati dall’intelligenza artificiale siano robusti e a prova di manomissione.