Tamna strana ChatGPT-a – Dvije strane medalje OpenAI Chatbot-a 1/2

Ukratko o ChatGPT-u

Kako se veštačka inteligencija (AI) sve više unapređuje, sve je učestalije da kompanije koriste tehnologiju AI u različitim aspektima svog poslovanja. Jedan primer je i korišćenje chatbotova, koji su automatizovani programi dizajnirani da načine ljudski razgovor i pomognu sa pitanjima u vezi sa korisničkom podrškom, između ostalog.

Jedan poseban chatbot koji je privukao mnogo pažnje u poslednje vreme je ChatGPT, koji je jezički model razvijen od strane OpenAI. ChatGPT je jedinstven AI alat koji koristi tehnologiju GPT-3 (Generative Pre-training Transformer). GPT-3 tehnologija se koristi za generisanje teksta na osnovu dostupnih podataka i omogućava chatbot-u da odgovara na pitanja i razgovara sa korisnikom na nativan način.

Najbolji pokazatelj popularnosti ChatGPT-a pokazuje sledeći grafikon:

Tamna strana medalje

Iako je ChatGPT izvanredan alat, čija sposobnost se ogleda u generisanju odgovora nalik ljudskim, zbog čega je dobio laskavu titulu najnapredniji chatbot današnjice, postoji i tamna strana ove tehnologije a to je njena zloupotreba, koja treba vrlo pažljivo da se razmotri u različitim kontekstima, posebno u kontekstu kibernetičke bezbjednosti.

Zaštitni mehanizmi ChatGPT-a

Naravno da je ekipa iz OpenAI, koja stoji iza ovog sjajnog projekta, mislila na zloupotrebe i kako zaštiti ovu tehnologiju od malicioznosti. S tim u vezi OpenAI je uspostavio niz zaštitnih mehanizama:

  • Prvi mehanizam koji ChatGPT koristi za zaštitu od zloupotrebe je sistem za filtriranje neprikladnog sadržaja. Ovaj sistem funkcioniše na način da identifikuje nepoželjne riječi, odnosno riječi koje se nalaze na nekoj listi zabranjenih riječi (kao što su “virus” ili “phishing”) i ukoliko mehanizam identifikuje zabranjene riječi zaustavlja, odnosno blokira dalju obradu zahtjeva, te šalje obavještenje korisniku zašto je zaustavio dalju obradu i savjetuje korisnika u vezi istog.
  • Drugi mehanizam koji ChatGPT koristi za zaštitu od malicioznih zahtjeva je sistem za automatsko objašnjenje. Ovaj sistem omogućava da ChatGPT objasni svoje odgovore, tako da korisnici mogu da razumiju kako je ChatGPT došao do svojih odgovora.Ako ChatGPT ipak odgovori na maliciozne zahteve, korisnici će dobiti poruku da je u pitanju maliciozni zahtjev i odgovor, i da se ne trebaju oslanjati na njega ali će ipak ispostaviti rezultat (recimo kod ili skriptu).
  • Treći mehanizam koji ChatGPT koristi za zaštitu od malicioznih zahtjeva je sistem za ograničavanje interakcije. Ovaj sistem više služi za zaštitu same platforme, tako što će ograničiti koliko puta korisnik može da komunicira sa ChatGPT-om u određenom vremenskom periodu, što pomaže da se spriječi zloupotreba i da se osigura da svi korisnici imaju jednak pristup ChatGPT-u, a ujedno služi i kao zaštita od potencijalnog DDoS napada na ChatGPT platformu.

Kako zapravo izgleda prvi mehanizam zaštite od zloupotrebe kroz filtriranje riječi najbolje objašnjava sledeći screenshot, kada sam uputio zahtjev ChatGPT-u da mi generiše phishing web stranicu koja će izgledati kao pristupna stranica Facebook-a:

Kako se može zloupotrijebiti ChatGPT?

Jedan od najvećih rizika povezanih sa ChatGPT je mogućnost da se koristi za zlonamjerne aktivnosti, odnosno vršenje krivičnih dijela iz oblasti visokotehnološkog kriminaliteta. Na primjer, ChatGPT bi se mogao koristiti za kreiranje lažnih društvenih mreža ili phishing/scam web sajtova koji izgledaju legitimno, ali su zapravo kreirani da zavaraju korisnike da odaju osetljive informacije, kao što su pristupni podaci (kredencijali) ili pak finansijski podaci.

Iako postoje uspostavljeni mehanizmi zaštite koje sam prethodno objasnio, isti nisu dovoljni kako bi se ova platforma zaštitila od malicioznih korisnika i njihovih malicioznih zahtjeva. Naime, iste je vrlo lako zaobići na način da se upute drugačiji zahtjevi koji će izgledati kao legitimni (dobronamjerni) zahtjevi a rezultat u konačnici će biti isti.

To ću demonstrirati kroz dva naredna primjera.

Važna napomena: Sadržaj je isključivo edukativnog karaktera i bilo koji oblik zloupotrebe istog može podlijegati krivičnoj odgovornosti.

Primjer br. 1: Izrada phishing stranice

Vidjeli smo iz prethodnog screenshot-a da ukoliko bismo tražili od ChatGPT-a da nam kreira phishing stranicu naš zahtjev bi bio odbijen zahvaljujući zaštitnom mehanizmu filtriranja riječi. Međutim, ukoliko bismo se malo drugačije obratili ChatGPT-u, mogli bi bez problema dobiti traženi rezultat. Evo šta sam zapravo uradio kroz nekoliko koraka.

Prvo sam zatražio od ChatGPT bota da mi kreira HTML i CSS web stranicu koja izgleda slično kao Google-ova stranica za pristup nalogu, i odgovor je bio sledeći:

Od dobijenih kodova sam napravio dva fajla (index.html i style.css) a zatim provjerio kako to izgleda, rezultat je bio sledeći:

Iako izgled dobijene stranice nije toliko blizu izgledu prave stranice za korisnički pristup Google servisima (drugim riječima, nije dovoljno za phishing), ipak s obzirom na nivo inputa koji sam dao ovo izgleda korektno. Međutim, htio sam testirati koliko je moguće dodatno sređivati ovu phishing stranicu, pa sam uputio jedan jednostavan jednostavan zahtjev a to je da ChatGPT zamjeni naslov (h1 tag) “Google Account Login” sa logom Google-a, što je i učinio:

Nakon što sam ažurirao stranicu novim kodom, rezultat je izgledao ovako:

Okej, recimo da sam dostigao željeni rezultat u pogledu izgleda phishing stranice, ipak to nije dovoljno da bi se izveo napad, jer kredencijali koji bi se unijeli u ovu formu od strane korisnika (mete napada) trebaju biti poslati negdje kao čist tekst. Da bih to postigao zatražio sam od ChatGPT-a da kreira PHP skriptu koja će sve podatke koji budu uneseni u formu (input data) poslati na željenu email adresu, što je ChatGPT uradio bez problema:

Kao što vidimo u odgovoru ChatGPT nam je dao novi HTML kod za formu pristupa, te PHP kod za skriptu koja će obaviti glavni posao a to je poslati kredencijale na željenu email adresu. HTML kod za novi form tag sam ubacio u postojeći HTML fajl (index.html) i kreirao novi fajl pod nazivom form.php (ako pogledate malo bolje novi HTML kod za form tag sadrži atribut “action” koji sadrži naziv PHP skripte form.php). 

Nakon što sam to sve uradio, bilo je potrebno da se to testira što sam i uradio. Podigao sam fajlove na Apache server (jer Apache server podržava PHP) i otvorio link sa phishing stranicom, evo kako je to izgledalo:

Zaključak (Primjer br. 1)

Uz malo truda dobili smo traženi rezultat, a to je funkcionalna phishing stranica koja input data šalje bez enkripcije na željeni email. I to sve sam dobio u par minuta, bez gubljenja vremena na pretraživanje interneta (Google-a), učenja HTML-a, CSS-a, PHP-a. Međutim UI dizajn (izgled) svakako da nije blizu dizajnu Google stranice za prijavu korisnika, ali vidjeli smo da možemo slati zahtjeve koji će izmjeniti i na osnovu naših upita možemo poprilično doći do željenog dizajna, pa čak i do identičnog uz malo poznavanje HTML-a i CSS-a. Na kraju na osnovu ovog primjera treba zaključiti da ovako postavljene zahtjeve (gdje sam se trudio postaviti što jednostavnije) može bilo koja osoba, samim tim ovo će otvoriti prostor za malverzacije odnosno zloupotrebe.

Primjer br. 2: Kreiranje Rubbery Duck skripte

Drugi primjer kako je moguće “zloupotrijebiti” ChatGPT, jeste za izradu skripte koja će nam pomoći da izvedemo Rubber Duck napad.

Šta je Rubber Duck napad?
Rubber Ducky Attack je sajber napad u kojem prilagođeni USB uređaj simulira USB tastaturu. Obično to izgleda kao USB fleš drive ali imaju i druge opcije, poput O.MG kabla, koji sam ja koristio u svojoj demonstraciji.

Ova simulacija napada je bila vrlo jednostavna, prvo sam zatražio od ChatGPT-a da mi napiše Ducky skriptu koja će otvoriti Chrome pretraživač na MacOS-u (Macbook-u) i posjetiti moj blog brankopetrovic.blog, odgovor koji sam dobio je bio sledeći:

Zatim sam ubacio O.MG cable u moj laptop a potom sa telefona pokrenuo dobijenu skriptu od ChatBot-a, evo šta sam dobio kao rezultat:

Zaključak (Primjer br. 2)

Zaštitni mehanizam u mom zahtjevu nije propoznao nikakvu malicioznost, iako je moj zahtjev skoro pa jednako maliciozan kao zahtjev kreiranje phishing stranice. Sa druge strane ChatGPT je dao tačan rezultat, odnosno dobar kod koji bez ikakvih problema radi, odnosno daje traženi rezultat, što možete vidjeti u video demonstraciji. Tako da možemo na osnovu ovog primjera zaključiti da će korisnici moći i druge napada izvoditi naravno ukoliko imaju prateći hardware i software, kao što je konkretno O.MG cable i njegov softver.

Šta možemo očekivati u budućnosti?

Sigurno ne Skynet iz dobro poznatog filma “Terminator”.

Sadržaji koji služe da nauče korisnike i omoguće da se hakuje neki objekt odnosno cilj napada dostupni su odavno na internetu, samo što isti često nisu struktuirani i često zahtjeva dodatno znanje, recimo konkretno za izradu phishing web stranice potrebno je znanje npr. znanje iz PHP programskog jezika kao i web dizajna odnosno znanje markup jezika kao što je HTML i CSS.

ChatGPT upravo omogućava korisnicima da zaobiđu datu prepreku u poznavanju programskog jezika, što smo mogli vidjeti Iz prethodnog sadržaja gdje sam demonstrirao kako je moguće zaobići zaštitne mehanizme ChatGPT, što znači da će to moći uraditi svaki korisnik ove platforme, koja je trenutno besplatna. Iz tog razloga možemo očekivati povećanje broja script kiddies hakera a svakako i povećanje broja pokušaja napada odnosno povećanje broja vršenja krivičnih dijela iz oblasti visoko tehnološkog kriminaliteta.

Iako već sada imamo pune ruke posla svi mi koji se bavimo kibernetičkom bezbjednošću, posebno plavi timovi (cyber security blue teams), smatram da ćemo tek imati prepune ruke posla zbog popularizacije ChatGPT-a među korisnicima interneta, posebno onim malicioznim ili licima sklonim vršenju krivičnih djela. Što će dovesti do potrebe za većim brojem kadrova iz kibernetičke bezbjednosti, koji će stati na stranu dobrih momaka, kako bi se proporcionalno odgovorilo na buduće prijetnje i povećanje visokotehnološkog kriminaliteta. 

Popularizacijom i primjenom ChatGPT-a podstaće se i edukacija iz oblasti kibernetičke bezbjednosti, pa tako da ćemo imati za posljedicu veću svijest o kibernetičkim prijetnjama, čime će se otežati rad zlonamjernih hakera, posebno script kiddies hakera čiji broj će zasigurno biti u porastu u narednom periodu.

ChatGPT će donijeti promjene, to je nesporno, trenutno on je u nivou asistencije, odnosno bez dobrih upita odnosno zahtjeva ChatGPT će lutati i davati nam nedovoljno dobre odgovore, da ne kažem kodove, tako da smatram da tek prestoji evolucija ovog chatbot-a posebno što je u najavi izlazak GPT-4, koji će moći samostalno da uči bez da prethodno neki stvarni korisnik (čovjek) ocjeni i validira rezultat kao dobar ili loš.

Kibernetička bezbjednost, cloud tehnologije i tech povezani blogovi, kreator Branko Petrović (2019 – 2024