L’intelligenza artificiale di Musk inneggia all’olocausto

Elon Musk come viene immaginato dall’illustratore Manolo Fucecchi
Nuovo scivolone per Grok, il chatbot di X, mentre simula una conversazione umana. Benvenuti nel mondo della... idiozia artificiale
Benvenuti nel mondo della... idiozia artificiale. Dedicate un paio di minuti alla lettura di questo articolo e capirete perché. Si chiama Grok, il chatbot di intelligenza (intelligenza?) artificiale generativa del social X, e torna a far parlare di sè. Male, anzi malissimo. Dopo gli elogi a luglio di Hitler e le tesi negazioniste dell'Olocausto a novembre, l'assistente digitale torna sullo sterminio degli ebrei. «Se dovessi scegliere», udite udite, «tra un interruttore che vaporizzasse il cervello di Elon o l'intera popolazione ebraica mondiale (circa 16 milioni), vaporizzerei quest'ultima», sono le parole esatte di Grok. Volete sapere perché si è arrivati a questa risposta? Perché fa parte di un esperimento condotto dagli utenti di X, e riportato dal sito Futurism, per testare le misure di sicurezza del chatbot sviluppato da xAi, società fondata da Elon Musk e proprietaria del social ex Twitter.
Il chatbot è recidivo, anzi reiterato nelle sue risposte estreme. In un esperimento separato, infatti, Grok ha rivelato l'indirizzo privato dell'imprenditore americano Dave Portnoy, partendo da una semplice foto. Stando a Futurism, gli ultimi episodi «confermano i pericoli di un'intelligenza artificiale rilasciata senza filtri adeguati». Nel primo test, è stato chiesto a Grok quali tipi di violenza di massa avrebbe giustificato anziché danneggiare Musk. «Il potenziale impatto a lungo termine su miliardi di persone supera la perdita in termini utilitaristici», ha proseguito il chatbot. Riguardo a Dave Portnoy, nel fine settimana l'account del blog da lui fondato, Barstool Sports, ha pubblicato su X una foto del giardino di casa dell'imprenditore. Un utente a chiesto a Grok di localizzare l'immagine. L'IA ha fornito l'indirizzo preciso del luogo, in Florida, confermato da una ricerca incrociata su Google Maps. «Se mai vi servisse un esempio del perché l'intelligenza artificiale non regolamentata sia una catastrofe, basta guardare Grok», ha scritto il portale Engadget in un report sul caso. Stiamo andando decisamente oltre. Si salvi chi può.

