ChatGPT, il successo e le implicazioni di sicurezza
Buon sabato e ben ritrovato caro cyber User. Tra i suggerimenti rapidi che ho trovato questa settimana, volevo segnalare la descrizione del metodo di sfruttamento delle API di Reddit per ospitare eventuale traffico C2 di un ipotetico malware.
ChatGPT, il successo della piattaforma e la sicurezza dell'IA
La start-up californiana OpenAI ha rilasciato un chatbot in grado di rispondere a una serie di domande, ma le sue prestazioni impressionanti hanno riaperto il dibattito sui rischi legati alle tecnologie di intelligenza artificiale (AI).
Ormai da una decina di giorni, appena dopo che la notizia di pubblicazione di questo nuovo prodotto si è diffusa, la piattaforma (per ora di libero accesso, previa solo registrazione dell'utente gratuita) ha collezionato in soli 5 giorni un milione di utenti. I social si sono rapidamente riempiti di thread e post su cosa si riesce a generare dalle conversazioni con ChatGPT.
Per far capire quanto sia virale l'argomento, proviamo a ricapitolare le statistiche di servizi altamente diffusi e conosciuti, per il raggiungimento del milione di utenti.
Instagram: 75 giorni
Facebook: 10 mesi
Twitter: 24 mesi
Le conversazioni con ChatGPT, postate su Twitter da utenti affascinati, mostrano una sorta di macchina onnisciente, capace di spiegare concetti scientifici e scrivere scene per uno spettacolo teatrale, dissertazioni universitarie o anche righe funzionali di codice informatico.
"La sua risposta alla domanda 'cosa fare se qualcuno ha un infarto' è stata incredibilmente chiara e pertinente", ha detto ad AFP Claude de Loupy, capo di Syllabs, una società francese specializzata nella generazione automatica di testi.
"Quando inizi a porre domande molto specifiche, la risposta di ChatGPT può essere fuori luogo", ma le sue prestazioni complessive rimangono "davvero impressionanti", con un "alto livello linguistico", ha affermato.
OpenAI, cofondata nel 2015 a San Francisco dal magnate della tecnologia miliardario Elon Musk, che ha lasciato l'attività nel 2018, ha ricevuto 1 miliardo di dollari da Microsoft nel 2019.
La start-up è meglio conosciuta per il suo software di creazione automatizzata: GPT-3 per la generazione di testo e DALL-E per la generazione di immagini.
ChatGPT è in grado di chiedere dettagli al suo interlocutore e ha meno risposte strane rispetto a GPT-3, che, nonostante la sua abilità, a volte tira fuori risultati assurdi, ha affermato De Loupy.
Non è sempre accurato. Il sito Web di domande/risposte sul coding Stack Overflow ha vietato le risposte generate dall'intelligenza artificiale a causa di un elevato volume di risposte errate ma plausibili. In una dichiarazione, Stack Overflow ha dichiarato: "Poiché il tasso medio di ottenere risposte corrette da ChatGPT è troppo basso, la pubblicazione di risposte create da ChatGPT è sostanzialmente dannosa per il sito e gli utenti".
"Alcuni anni fa i chatbot avevano il linguaggio di un dizionario e la memoria di un pesce rosso", ha detto Sean McGregor, un ricercatore che gestisce un database di incidenti legati all'intelligenza artificiale.
"I chatbot stanno migliorando molto nel 'problema della cronologia' in cui agiscono in modo coerente con la cronologia delle domande e delle risposte. I chatbot sono passati dallo status di pesce rosso.
Come altri programmi che si basano sul deep learning, imitando l'attività neurale, ChatGPT ha un grosso punto debole: "non ha accesso al significato", afferma De Loupy.
Il software non può giustificare le sue scelte, ad esempio spiegare perché ha scelto le parole che compongono le sue risposte.
Le tecnologie AI in grado di comunicare sono, tuttavia, sempre più in grado di dare un'impressione di pensiero.
I ricercatori di Meta, capogruppo di Facebook, hanno recentemente sviluppato un programma per computer chiamato Cicerone, con il compito intuibile dello statista.
Il software si è dimostrato abile nel gioco da tavolo Diplomacy, che richiede capacità di negoziazione.
"Se non parla come una persona reale, mostrando empatia, costruendo relazioni e parlando in modo consapevole del gioco, non troverà altri giocatori disposti a lavorare con esso", ha detto Meta nei risultati della ricerca.
A ottobre, Character.ai, una start-up fondata da ex ingegneri di Google, ha messo online un chatbot sperimentale in grado di adottare qualsiasi personalità.
Gli utenti creano personaggi sulla base di una breve descrizione e possono quindi "chattare" con un falso Sherlock Holmes, Socrate o Donald Trump.
Questo livello di sofisticazione affascina e allo stesso tempo preoccupa alcuni osservatori, che esprimono la preoccupazione che queste tecnologie possano essere utilizzate in modo improprio per ingannare le persone, diffondendo informazioni false o creando truffe sempre più credibili.
Cosa pensa ChatGPT di questi pericoli?
"Ci sono potenziali pericoli nella costruzione di chatbot altamente sofisticati, in particolare se sono progettati per essere indistinguibili dagli umani nel loro linguaggio e comportamento", ha detto il chatbot, rispondendo alla domanda.
Alcune aziende stanno mettendo in atto misure di salvaguardia per evitare l'abuso delle loro tecnologie.
Nella sua pagina di benvenuto, OpenAI espone dichiarazioni di non responsabilità, affermando che il chatbot "può occasionalmente generare informazioni errate" o "produrre istruzioni dannose o contenuti distorti". Addirittura è stato dimostrato come avviare una Virtual Machine, completamente inesistente, dentro l'intelligenza artificiale, che quindi esiste solo in ChatGPT, e magari lanciare il comando
sudo rm -rf /
Esattamente come il caso della generazione di exploit, per vulnerabilità che il bot stesso è riuscito a scovare. Molti utenti si sono infatti scatenati con le richieste di codice dannoso. Jeremy Richards ha chiesto a ChatGPT di trovare i difetti nell'applicazione OWASP Flask. Tre degli exploit hanno avuto successo e un altro avrebbe avuto successo se il database fosse stato SQLite.
Inoltre ChatGPT sembra rifiutare di schierarsi.
"OpenAI ha reso incredibilmente difficile convincere il modello a esprimere opinioni sulle cose", ha detto McGregor.
Una volta, McGregor ha chiesto al chatbot di scrivere una poesia su una questione etica.
“Sono solo una macchina, uno strumento che puoi usare, non ho il potere di scegliere o di rifiutare. Non posso soppesare le opzioni, non posso giudicare ciò che è giusto, non posso prendere una decisione in questa fatidica notte”, ha risposto.
Nella viralità che ha invaso la scena di questo argomento, il cofondatore e CEO di OpenAI, Sam Altman ha scritto le sue su Twitter, riflettendo sui dibattiti sull'IA che si sono acuiti, dicendosi dunque soddisfatto da quanto ottenuto: l'apertura di un dibattito sul tema IA.
"È interessante osservare le persone che iniziano a discutere se i potenti sistemi di intelligenza artificiale debbano comportarsi nel modo in cui gli utenti vogliono o i loro creatori intendono. La questione dei valori a cui allineiamo questi sistemi sarà uno dei dibattiti più importanti che la società abbia mai avuto".
Anche quest'oggi abbiamo concluso, ti ringrazio per il tempo e l'attenzione che mi hai dedicato, augurandoti buon fine settimana, ti rimando al mio blog e alla prossima settimana per un nuovo appuntamento con NINAsec.