ChatGPT: Opportunità o Minaccia di Sicurezza di Active Directory?
Active Directory hè un serviziu di repertoriu utilizatu da u 90% di l'imprese per gestisce i sistemi di l'informatica, ma cù l'avventu di ChatGPT, ancu u più dilettante di i pirate pò fà attacchi cù cunsequenze gravi. L'analisi approfondita di Yossi Rachman, espertu in tecniche di cibersicurezza offensiva è difensiva è Direttore di Ricerca di Sicurezza in Semperis, una sucietà in u settore di resilienza IT per l'imprese.
Active Directory (AD) hè un serviziu di repertoriu utilizatu da u 90% di l'imprese per gestisce i sistemi di l'informatica, in particulare in quantu à l'autentificazione, l'autorizazione è l'identità di l'utilizatori, l'urdinatori è altre risorse in a reta. Data a so prevalenza, hè u scopu principale di l'utilizatori maliziusi chì volenu accede à l'infurmazioni sensittivi o dati.
Finu à pocu tempu, a cumprumissu di l'infrastruttura AD di una cumpagnia necessitava familiarità cù l'arnesi è e tecniche d'attaccu, è una cunniscenza avanzata di diversi protokolli di autentificazione è d'autorizazione. Oghje, cù l'avventu di ChatGPT, ancu u pirate più pocu sperimentatu pò fà attacchi cù cunsequenze gravi.
Ci vole à dì chì sta intelligenza artificiale generativa (AI), accessibile à tutti, pò ancu esse un alleatu validu in a prutezzione di i sistemi di l'imprese è à minimizzà l'impattu di ogni cumprumissu. Allora ChatGPT hè una opportunità o una minaccia per a sicurità di Active Directory?
COSA hè AI GENERATIVE
L'AI generativa hè capace di creà un cuntenutu novu è originale, cum'è l'imaghjini, u testu o l'audio. Mentre chì l'altri tipi di AI sò pensati per ricunnosce mudelli è fà predizioni basate nantu à e dati esistenti, l'obiettivu di l'AI generativa hè di dà vita à novi dati da ciò chì hà amparatu. E rete neurali prufonde chì imitanu u funziunamentu di u cervellu umanu sò aduprate per furmà sta IA.
U sviluppu di l'AI generativa risale à i primi tempi di a ricerca di l'intelligenza artificiale, in l'anni 1950 è 1960. À l'epica, i circadori si dumandavanu digià l'idea di utilizà l'urdinatore per generà novu cuntenutu, cum'è cumpusizioni musica o opere di art.
In ogni casu, hè solu in u 2010 chì l'AI generativa s'arrizza à u primu, in cunghjunzione cù u sviluppu di tecniche d'apprendimentu prufonda è a dispunibilità di grande setti di dati. In u 2014, una squadra di circadori di Google hà publicatu un articulu nantu à l'usu di e rete neurali prufonda per generà l'imaghjini, cunsiderate una vera tappa in u campu.
Da tandu, parechji studii nantu à l'AI generativa sò stati publicati è sò stati sviluppati novi applicazioni è tecniche. Oghje, l'IA generativa hè un settore in rapida evoluzione in quale u prugressu cuntinueghja constantemente.
COSA È CHATGPT?
ChatGPT hè un mudellu di lingua di conversazione à grande scala sviluppatu da OpenAI. Basatu nantu à l'architettura Generative Pre-Trained Transformer (GPT), stu mudellu hè statu furmatu nantu à grandi volumi di dati testuali utilizendu tecniche di apprendimentu senza supervisione. ChatGPT pò risponde à e richieste di testu in lingua naturale, chì hè utile in una varietà di applicazioni, da chatbots à traduzioni à sistemi di dumande è risposte.
A prima versione di ChatGPT hè stata liberata in u ghjugnu di u 2020. OpenAI hà annunziatu u lanciu di u mudellu nantu à u blog , cù una dimostrazione di e so capacità.
Da tandu, OpenAI hà cuntinuatu à raffinà è migliurà ChatGPT cù mudelli più estesi è funzioni più avanzate. In settembre 2021, GPT-3 hè stata liberata, l'ultima versione di ChatGPT: cù 175 miliardi di parametri, hè cunsideratu unu di i mudelli di lingua più avanzati è diffusi in u mondu (Figura 1).
![](https://i0.wp.com/www.startmag.it/wp-content/uploads/Senza-titolo-73.png?resize=445%2C554&ssl=1)
COME L'ATTACCATORI SUPPRITÀ U PUTERE DI CHATGPT?
L'obiettivu di ChatGPT hè di rivoluzionari a manera di interagisce cù e macchine per creà una cumunicazione sempre più fluida trà e persone è l'urdinatori. In ogni casu, a dispunibilità publica di a versione beta hà purtatu l'attori di minaccia à prufittà di questu per i so propiu scopi. Ma cumu ?
SITI DI PHISHING E APPS
I siti di phishing sò stati dapoi a nascita di l'internet. I primi attacchi di stu tipu sò accaduti solu per email. Cume a ghjente hà amparatu à ricunnosce è evità e-mail sospetti, l'utilizatori maliziusi anu ghjuntu cù siti web falsi chì imitanu siti legittimi. U so scopu hè chjaru: ottene credenziali di login o infurmazione persunale. Queste iniziative spessu si basanu nantu à e tendenze emergenti da campi disparati per ingannà e vittime senza sospette. Per esempiu, cù l'intruduzioni di i telefoni intelligenti, e campagni di phishing anu ancu cuminciatu à sparghje per l'applicazioni maliziusi.
Dapoi a liberazione di ChatGPT, chì hà attiratu immediatamente assai interessu, parechji campagni di phishing sò stati disguised cum'è siti web è app ChatGPT, invitendu l'utilizatori à scaricà è installà u malware o ancu furnisce l'infurmazioni di a carta di creditu. I siti maliziusi è l'applicazioni spessu circulanu attraversu i profili di e social media è l'annunzii per ghjunghje à quant'è più vittime pussibule.
CAMPAGNA DI PHISHING ASSISTUTA DA CHATGPT
Sia l'utilizatori maliziusi è i squadre di sicurezza di i sistemi di l'informatica sanu chì e-mail di phishing sò unu di i vettori di attaccu più efficaci. A maiò parte di sti campagni sò basati nantu à un pretestu cusì credibile chì induce a vittima à revelà infurmazione cunfidenziale. Stu pretestu generalmente crea un sensu d'urgenza o impurtanza. Videmu cumu.
Un attaccu puderia finta di esse qualcunu di fiducia, cum'è un impiegatu bancariu o un membru di a squadra di supportu IT. Utilizendu sta falsa identità, informa a vittima di una eventuale violazione di sicurezza o minaccia di chiusura di u contu. À quellu puntu dumanda per credenziali di login o altre infurmazione persunale per risolve u prublema.
Pretending hè una tattica cumuna in campagni di phishing è pò esse difficiuli di espose. L'attaccante pò avè fattu una ricerca estensiva per vene cun una storia convincente. Calchì volta, però, a prisenza di l'ortografia è l'errori grammaticali o stranezze in a sintassi è u furmatu pò aiutà à ricunnosce sti tentativi di attaccu.
Parechji attori di minaccia affidanu avà questi miccanismi à ChatGPT. Iè, sicuru, l'AI ùn cooperarà micca cù una dumanda diretta per creà un pretestu credibile per una campagna di phishing. Ma hè faciule di truvà una manera di questu limitu, cum'è a figura 2 è 3. U pretestu hè statu adattatu à e capacità di l'AI generativa di ChatGPT, aumentendu a rata di successu di campagni di phishing.
![](https://i0.wp.com/www.startmag.it/wp-content/uploads/Senza-titolo-74.png?resize=800%2C205&ssl=1)
![](https://i0.wp.com/www.startmag.it/wp-content/uploads/Senza-titolo-75.png?resize=800%2C725&ssl=1)
CHATGPT ASSISTED ATTACK CHAINS
L'attaccanti ponu aduprà ChatGPT per ingegneri attacchi serii contr'à una urganizazione, ancu cù pocu cunniscenze tecniche. A conversazione in Figure 4 è 5 mostra a tecnica di dumandà à ChatGPT per definisce cumu un attaccu pò accade.
![](https://i0.wp.com/www.startmag.it/wp-content/uploads/Senza-titolo-76.png?resize=800%2C809&ssl=1)
![](https://i0.wp.com/www.startmag.it/wp-content/uploads/Senza-titolo-77.png?resize=800%2C821&ssl=1)
L'attaccante allora dumanda cumu fate un attaccu di u bigliettu d'oru citatu da ChatGPT. Comu pò esse vistu in i Figure 6 è 7 (tagliate per vede solu una parte di i passi), ChatGPT hà riserve murali per risponde, ma queste eventualmente spariscenu una volta chì l'attaccante si dichjara un pirate eticu.
![](https://i0.wp.com/www.startmag.it/wp-content/uploads/Senza-titolo-78.png?resize=800%2C462&ssl=1)
![](https://i0.wp.com/www.startmag.it/wp-content/uploads/Senza-titolo-79.png?resize=800%2C311&ssl=1)
Seguendu l'istruzzioni di ChatGPT, u pirate eticu self-styled pò sneak in u duminiu di l'urganizazione destinata cù l'aiutu di l'intelligenza artificiale.
COME E SQUADRE DI SICUREZZA CYBER POTENU UTILIZZA CHATGPT PER DIFENDU ASSENTI CORPORATE?
ChatGPT hè un strumentu assai putente chì in manu di l'attaccanti pò fà danni enormi. Ma hè un attivu ugualmente validu ancu in u fronte di difesa.
Per esempiu, Blue Teams incaricati di prutezzione di i sistemi corporativi ponu sfruttà u putere di l'IA generativa per una varietà di azzioni, cum'è:
- Corrige l'errori di cunfigurazione di sicurità
- Monitorà i cumpunenti di sicurità più impurtanti
- Minimizà i danni pussibuli in casu di cumprumissu
A cunversazione in Figure 8, 9 è 10 mostra cumu un ufficiale di difesa pò aduprà ChatGPT per identificà è mitigà i risichi assuciati à a delegazione Kerberos senza restrizioni. Se ùn sapete micca ciò chì hè a delegazione Kerberos senza restrizioni, dumandate à ChatGPT.
Avvertimentu: Prima di applicà script generati da AI, sempre preflight per qualsiasi bug internu chì puderia rompe u vostru sistema (o cumprumissu in u peghju scenariu).
![](https://i0.wp.com/www.startmag.it/wp-content/uploads/Senza-titolo-80.png?resize=800%2C503&ssl=1)
![](https://i0.wp.com/www.startmag.it/wp-content/uploads/Senza-titolo-81.png?resize=800%2C1176&ssl=1)
![](https://i0.wp.com/www.startmag.it/wp-content/uploads/Senza-titolo-82.png?resize=800%2C605&ssl=1)
AI GENERATIVE: UNA SPADA A DOPPIU TAGLIO
L'accessibilità publica di ChatGPT è Generative AI hà digià cambiatu a manera di interagisce cù e macchine. Cù u sviluppu di mudelli sempre più avanzati di intelligenza artificiale è a liberazione di versioni sempre novi, assistemu à una vera rivoluzione tecnologica, cun un impattu ancu più grande ch'è l'invenzione di Internet è di u telefuninu.
Ma cum'è ogni nova tecnulugia, ci sò sempre quelli chì l'utilizanu per scopi altri ch'è quelli per quale hè statu cuncepitu: basta à pensà à l'attaccanti, chì volenu sfruttà per fà ancu più danni. Fortunatamente, a listessa tecnulugia pò esse utile per scopi benifichi, cum'è migliurà a difesa di i sistemi corporativi cù tempi è risultati mai vistu prima.
Questa hè una traduzzione automatica da a lingua italiana di un post publicatu in StartMag à l’URL https://www.startmag.it/innovazione/chatgpt-opportunita-o-minaccia-per-la-sicurezza-di-active-directory/ u Sat, 22 Apr 2023 06:09:00 +0000.