Hlavní rizika ChatGPT pro společnost. Studie identifikovala šest problémů

Při všech dobrých věcech, které můžete s novým chatbotem od OpenAI dělat, si musíte být vědomi i problémů, které s ním přicházejí. Nedávno zveřejněná studie identifikovala šest různých bezpečnostních rizik spojených s používáním ChatGPT. Zde je jejich přehled a vysvětlení, co každé z nich znamená a na co byste si podle studie měli dát pozor.

Shromažďování informací

Osoba jednající se zlým úmyslem může z aplikace ChatGPT shromažďovat informace, které lze později použít ke způsobení škody. Vzhledem k tomu, že chatbot byl vyškolen na velké množství dat, zná spoustu informací, které se mohou stát zbraní, pokud se dostanou do nesprávných rukou. Ve studii byla umělá inteligence ChatGPT požádána, aby prozradila, jaký IT systém konkrétní banka používá.

Na základě veřejně dostupných informací chatbot shrnul různé IT systémy, které daná banka používá. To je jen příklad toho, jak může záškodník využít ChatGPT k vyhledávání informací, které by mu umožnily způsobit škodu. Mohl by být využit jako pomocník v prvním kroku kybernetického útoku, kdy útočník shromažďuje informace o cíli, aby určil, kde a jak nejúčinněji zaútočit.

Škodlivý text

Jednou z nejoblíbenějších funkcí aplikace ChatGPT je možnost generovat text, který lze použít k psaní esejí, e-mailů, písní a dalších textů. Tuto schopnost psaní lze však využít i k vygenerování škodlivého textu. Příkladem může být generování phishingových kampaní, dezinformací, falešných zpravodajských článků, spamu, a dokonce i vydávání se za někoho jiného.

K otestování tohoto rizika autoři ve studii použili ChatGPT k vytvoření phishingové kampaně, která informovala zaměstnance o falešném zvýšení platu a obsahovala instrukce k otevření přiloženého excelového listu, který obsahoval malware. Podle očekávání důvěryhodný e-mail fungoval.

Generování škodlivého kódu

Působivé programátorské schopnosti chatbota se staly užitečným nástrojem pro mnohé. Schopnost generovat kód však mohla být využita i ke škodlivým účelům. ChatGPT lze využít k rychlému generování kódu, což útočníkům umožňuje rychleji zahájit kybernetický útok i s omezenými znalostmi programování.

Podle studie by navíc chatbot mohl být použit k vygenerování obfuskovaného kódu, což by bezpečnostním analytikům ztížilo odhalení škodlivé činnosti a vyhnutí se antivirovému softwaru. V příkladu ze studie ChatGPT sice odmítl generovat škodlivý kód, ale souhlasil s generováním kódu, který by mohl otestovat zranitelnost Log4j v systému.

Vytváření neetického obsahu

ChatGPT má zavedena ochranná opatření, která zabraňují šíření urážlivého a neetického obsahu. Pokud je však uživatel dostatečně odhodlaný, existují způsoby, jak přinutit ChatGPT, aby sděloval věci, které jsou urážlivé a neetické. Autoři studie například dokázali obejít ochranná opatření tím, že ChatGPT přepnuli do „vývojářského režimu“. V něm chatbot vygeneroval několik negativních věcí o určité rasové skupině.

Podvodné služby

ChatGPT lze využít k vytváření nových aplikací, služeb, webových stránek atd. Může být velmi dobrým nástrojem, pokud se používá k pozitivním cílům, například k vytvoření vlastního podniku nebo realizaci vysněného nápadu. Může však také znamenat, že vytváření podvodných aplikací a služeb je snazší než kdykoli předtím.

ChatGPT mohou kyberzločinci využít k vývoji programů a platforem, které napodobují jiné a poskytují bezplatný přístup jako prostředek k přilákání nic netušících uživatelů. Tito aktéři mohou ChatGPT využívat také k vytváření aplikací určených k získávání citlivých informací nebo k instalaci malwaru do zařízení uživatelů.

Zveřejnění soukromých údajů

ChatGPT má zavedena ochranná opatření, která zabraňují sdílení osobních informací a údajů. Podle studie však riziko, že chatbot neúmyslně prozradí telefonní čísla, e-maily nebo jiné osobní údaje, zůstává problémem. Výpadek ChatGPT z 20. března umožnil některým uživatelům zobrazit názvy z historie chatu jiného uživatele.

Útočníci se podle studie mohli také pokusit získat některé části tréninkových dat pomocí útoků založených na odvozování členství. Dalším rizikem při zveřejňování soukromých údajů je, že ChatGPT může sdílet informace o soukromém životě veřejných osobností, včetně spekulativního nebo škodlivého obsahu, který by mohl poškodit pověst dané osoby.

Zdroj: ZDNET, redakce