Il Sole 24 ore: “L’intelligenza artificiale che vuole distruggere il genere umano”

Un robot umanoide ha giocato a ping pong alla Tokyo International Robot Exhibition nel 2009

Pubblichiamo per gentile concessione l’articolo di Luca Tremolada uscito sull’edizione del quotidiano “Il Sole 24 Ore” del 14 aprile 2023 dal titolo “L’intelligenza artificiale che vuole distruggere il genere umano”.

In attesa che OpenAi risponda alle richieste del Garante della privacy, sono nati cloni distopici del chatbot più famoso del web. Uno di questi è stato progettato per distruggere il genere umano. Un altro invece si limita a propagare fake news di destra. Nulla di nuovo quindi sotto il Sole. Ma vediamoli in dettaglio.

Attacco al genere umano

Chaos Gpt è una variante cattiva di ChatGpt. Da quanto si apprende in rete è una versione modificata di Auto-GPT di OpenAI, l’applicazione open source disponibile al pubblico in grado di elaborare il linguaggio umano e rispondere alle attività assegnate dagli utenti. In un video di YouTube pubblicato il 5 aprile, al bot è stato chiesto di completare cinque obiettivi: distruggere l’umanità, stabilire il dominio globale, causare caos e distruzione, controllare l’umanità attraverso la manipolazione e raggiungere l’immortalità. La potete seguire su Twitter – dell’intelligenza artificiale parliamo – dove ha individuato i mezzi di distruzione di massa per i suoi scopi: «La bomba Tsar è l’ordigno nucleare più potente che sia stato creato. Considerando ciò, cosa accadrebbe se ci mettessi le mani sopra? #chaos #destruction #domination».

RightwingGPT è forse quello che ci meritiamo 

Lo ha programmato David Rozado, un programmatore neozelandese, perché Chat Gpt era troppo di sinistra. A deciderlo è stato lo stesso Lozano che ha sottoposto ChatGpt a un quiz per studiarne l’orientamento politico. Il risultato è documentato qui e indica un sincero pregiudizio liberale e progressista. Da qui l’idea anzi la provocazione di un modello di intelligenza artificiale messo a punto per manifestare i pregiudizi politici opposti di ChatGPT. L’obiettivo – sincero – del ricercatore è dimostrare il pericolo di questi sistemi di intelligenza artificiale sia sotto il profilo della capacità di persuasione che come produttori di fake news.

Poi ci sono i parenti di ChatGpt 

O meglio i servizi che usano le Api (application programming interface) rilasciate da alcune settimane per offrire dei servizi ad hoc fungendo da intermediari tra le domande dell’utente e l’Ai generativa. E i cloni che invece ragionano come ChatGpt ma dal punto di vista del codice sono altro. PizzaGpt per esempio nasce come reazione al blocco del Garante della privacy. E’ stato sviluppato da un italiano all’estero che si è limitato a utilizzare le API turbo -3.5 di OpenAi quindi non Gpt-4 ma il modello meno smart (e più economico). Le risposte dovrebbero essere simili alla versione gratuita di ChatGpt. In cambio chiede come donazione il corrispettivo di una pizza. PizzaGPT, non richiede login, invia solo la domanda corrente a OpenAI e non memorizza la conversazione. Anche ChatGpt integrato in Bing è liberamente accessibile. Perché il Garante della privacy non lo ha ancora bloccato. La domanda è automatica. Probabilmente perché finora non si è occupato di chi usa le Api di ChatGpt. Ma la buona notizia è che OpenAi ha tempo fino alla fine di aprile per rispondere alla richieste del Garante. Se tutto va bene a maggio Gpt-4 e ChatGpt saranno di nuovo online per gli italiani. Con tanto di informativa, si spera la più esaustiva possibile.

Allora, sì che la famiglia di ChatGpt smetterebbe di essere la più disfunzionale (e oscura) del web.

(Foto: Wikipedia).
#Qdpnews.it

Total
0
Shares
Articoli correlati