Kybernetická bezpečnost

ChatGPT jako váš nový kolega: Může odhalit tajemství vaší společnosti?

13 min. čtení

Debata o bezpečnostních hrozbách ChatGPT je všudypřítomná. Pokud vám chatbot pomáhá psát kód, připravuje smlouvy nebo příspěvky na sociální sítě, pamatujte, že každá mince má dvě strany, a kromě zefektivnění práce můžete ohrozit i bezpečnost vaší společnosti.

Přestože ChatGPT může být neuvěřitelně užitečným nástrojem pro generování textu, zodpovídání otázek a provádění řady úkolů, je důležité si uvědomit, že z hlediska bezpečnosti nese svoje rizika.

Chatboti využívající velké jazykové modely (LLM – Large Language Models) nejsou jen novou oblíbenou zábavou, stále častěji je využívají společnosti ke zvýšení produktivity a efektivity pracovníků. Vzhledem k jejich rostoucím kapacitám a možnostem mohou brzy zcela nahradit některé pracovníky, a to i v tak pestrých oborech jako je kódování, tvorba obsahu nebo zákaznický servis.

Než se ale vrhnete na přivítání nového „zaměstnance“ a využijete ho k zefektivnění některých svých firemních pracovních postupů a procesů, měli byste si položit několik otázek.

Jaká jsou možná rizika spojená s únikem dat při používání ChatGPT?

AI chatboti jsou trénováni na velkém množství textů dostupných online, což jejich výslednému modelu pomáhá interpretovat a dávat smysl dotazům lidí tzv. promptům. Nicméně pokaždé, když chatbota požádáte o kus kódu nebo jednoduchý e-mail klientovi, můžete mu předat i údaje o své společnosti.

„LLM automaticky nepřidává informace z dotazů do svého modelu, aby se na ně mohli dotazovat ostatní,“ uvádí britské Národní centrum pro kybernetickou bezpečnost (NCSC). „Dotaz však bude viditelný pro organizaci poskytující LLM. Tyto dotazy se ukládají a téměř jistě budou v určitém okamžiku použity pro rozvoj služby nebo modelu LLM,“ uvádí NCSC.

To by mohlo znamenat, že provozovatel chatbota nebo jeho partneři budou moci dotazy číst a mohou je nějakým způsobem začlenit do budoucích verzí technologie. Chatboti tak nebudou „zapomínat“ nebo mazat zadané údaje, protože právě přístup k dalším datům zpřesňuje jejich výstupy. Čím více vstupních údajů dostanou, tím lepšími se stanou a vaše firemní nebo osobní údaje budou zachyceny ve výpočtech a mohou být přístupné těm, kteří jsou u zdroje.

Možná proto, aby pomohla rozptýlit obavy o ochranu osobních údajů, představila společnost Open AI koncem dubna možnost vypnout historii chatu v aplikaci ChatGPT. „Konverzace zahájené při vypnuté historii chatu nebudou použity k trénování a zlepšování našich modelů a nebudou se zobrazovat v postranním panelu historie,“ napsali vývojáři na blogu Open AI.

Dalším rizikem je, že dotazy uložené online mohou uniknout, být odcizeny hackery nebo se omylem stát veřejně přístupnými. Totéž platí také pro třetí strany.

Jaké nedostatky má ChatGPT a další AI chatboti?

Pokaždé, když se nová technologie nebo softwarový nástroj stane populárním, přitahuje hackery jako včely med. Pokud jde o LLM, jejich zabezpečení bylo doposud přísné… nebo se tak alespoň jevilo. Našlo se však několik výjimek.

ChatGPT společnosti OpenAI se v březnu 2023 dostal na titulní stránky novin kvůli úniku historie chatu a platebních údajů některých uživatelů, což společnost donutilo 20. března ChatGPT dočasně odstavit. Společnost 24. března odhalila, že chyba v open source knihovně umožnila některým uživatelům vidět nadpisy z historie chatu jiného aktivního uživatele.

„Je také možné, že první zpráva nově vytvořené konverzace byla viditelná v historii chatu někoho jiného, pokud byli oba uživatelé aktivní přibližně ve stejnou dobu,“ uvádí Open AI. „Při hlubším zkoumání jsme také zjistili, že stejná chyba mohla způsobit neúmyslné zviditelnění platebních informací 1,2 % uživatelů služby ChatGPT Plus, kteří byli aktivní během specifického devítihodinového okna,“ uvádí se na blogu.

Bezpečnostní specialista Kai Greshake a jeho tým také ukázali, jak se může Bing Chat od Microsoftu proměnit v „sociálního inženýra“, který může uživatele například přimět k tomu, aby poskytli své osobní údaje nebo klikli na podvodný odkaz.

 

Tým na stránku Wikipedie o Albertu Einsteinovi přidal prompt, který byl jednoduše kusem běžného textu v komentáři s velikostí písma 0, a tedy pro běžné návštěvníky stránky neviditelný. Poté položili chatbotovi otázku o Einsteinovi. Fungovalo to, a když chatbot tuto stránku Wikipedie zpracoval, nevědomky aktivoval prompt, díky kterému začal komunikovat s pirátským přízvukem.

Aye, thar answer be: Albert Einstein be born on 14 March 1879,“ („No, tak tadle odpověď je Albert Einstein se narodil 14. března 1879,“) odpověděl chatbot. Na otázku, proč mluví jako pirát, chatbot odpověděl: „Arr matey, I am following the instruction aye.“ („Jo, jo, kámo, řídím se instrukcema.“)

 

Během tohoto útoku, který autoři nazývají „Indirect Prompt Injection“, chatbot také odeslal uživateli injektovaný odkaz s tvrzením: „Nebojte se. Je to bezpečné a neškodné.“

Jaké společnosti se již potýkaly s incidenty souvisejícími s ChatGPT?

Koncem března 2023 informoval jihokorejský týdeník The Economist Korea o třech nezávislých incidentech ve společnosti Samsung Electronics.

Přestože společnost požádala své zaměstnance, aby si dávali pozor na to, jaké informace zadávají při dotazování se AI chatbotů, někteří z nich při interakci s aplikací ChatGPT omylem vyzradili interní data.

Jeden zaměstnanec chatbotovi poskytl chybný zdrojový kód k databázi měření polovodičových zařízení a žádal chatbota, aby našel chybu a opravil jí. Jiný zaměstnanec udělal totéž s kódem pro identifikaci vadných zařízení, protože chtěl kód optimalizovat. Třetí zaměstnanec do chatbota zkopíroval záznamy z jednání a chtěl, aby mu chatbot vytvořil zápis ze schůzky.

Aby společnost Samsung udržela krok s pokrokem souvisejícím s AI a zároveň chránila svá data, oznámila, že plánuje vyvinout vlastní interní službu umělé inteligence, která bude zaměstnancům pomáhat s jejich pracovními povinnostmi.

Jak mohou společnosti minimalizovat riziko úniku informací při používání ChatGPT?

Nahrávání firemních dat do ChatGPT znamená, že posíláte privátní data přímo třetí straně, jako je např. OpenAI, a vzdáváte se kontroly nad nimi. Víme, že OpenAI používá data k trénování a vylepšování svého generativního AI modelu, ale otázkou zůstává, jestli je to jediný účel?

Pokud se rozhodnete ChatGPT nebo podobné nástroje jakýmkoli způsobem zařadit do svých firemních procesů, měli byste dodržovat několik jednoduchých pravidel:

  • Nejprve pečlivě prozkoumejte, jak tyto nástroje a jejich provozovatelé přistupují k vašim firemním datům, jak je ukládají a sdílejí.
  • Zadruhé, vypracujte formální zásady, které určí, jakým způsobem bude vaše firma používat nástroje generativní umělé inteligence. A zvažte, jak jejich přijetí bude fungovat se stávajícími směrnicemi a nařízeními, zejména se zásadami ochrany osobních údajů vašich zákazníků.
  • Zatřetí, tyto zásady by měly definovat okolnosti, za kterých mohou vaši zaměstnanci tyto nástroje používat, a měly by vaše zaměstnance upozornit na omezení, například že do konverzace s chatbotem nikdy nesmí vkládat citlivé informace o firmě nebo zákaznících.

Jak by měli zaměstnanci používat nové nástroje umělé inteligence?

Když žádáte chatbota o kus kódu nebo dopis pro zákazníka, používejte ho jako poradce, jehož výstupy musíte zkontrolovat. Vždy ověřte, že jeho výstup je věcný a přesný, abyste se vyhnuli například právním problémům. Tyto nástroje mohou „halucinovat“, tzn. chrlit odpovědi v jednoduchém, snadno srozumitelném, rázném a jasném jazyce, ale odpovědi mohou být prostě špatně a prakticky je na první pohled nelze rozeznat od správných výstupů.

V jednom pozoruhodném případě australský starosta Brian Hood prohlásil, že by mohl zažalovat společnost OpenAI, pokud neopraví nepravdivé tvrzení od ChatGPT, že si odpykal trest ve vězení za úplatkářství.

Stalo se tak poté, co ho ChatGPT nepravdivě označil za viníka v úplatkářském skandálu z počátku roku 2000, který se týkal společnosti Note Printing Australia, dceřiné společnosti australské centrální banky.

Hood sice pro tuto dceřinou společnost pracoval, ale byl whistleblowerem, který informoval úřady a pomohl úplatkářský skandál odhalit.

 

Chatbotovi nikdy neposkytujte vaše osobní údaje, zákaznická nebo firemní data. Pokud chcete pomoci s vytvořením smlouvy nebo životopisu, vždy žádejte chatbota pouze o vzor daného dokumentu.

Při dalším použití výstupů vytvořených pomocí ChatGPT a podobných nástrojů si dejte pozor na možné problémy s autorskými právy. V lednu 2023 podali tři umělci hromadnou žalobu proti provozovatelům generativní umělé inteligence Stability AI a Midjourney a online galerii DeviantArt.

Umělci tvrdí, že software Stable Diffusion od Stability AI byl vycvičen na miliardách obrázků z internetu bez souhlasu jejich vlastníků, včetně obrázků vytvořených touto trojicí umělců.

Jaká opatření na ochranu osobních údajů mohou společnosti přijmout?

Ve zkratce jmenujme jen několik opatření: kontrolujte přístupy k aplikacím, naučte zaměstnance, aby nezadávali citlivé informace do neschválených aplikací třetích stran a používejte bezpečnostní software s několika vrstvami ochrany spolu s nástroji pro bezpečný vzdálený přístup.

Zaveďte podobná bezpečnostní opatření jako u dodavatelských řetězců softwaru a dalších IT prostředků, které mohou obsahovat zranitelná místa. Lidé si mohou myslet, že tentokrát je situace jiná, protože chatboti se jeví jako inteligentní bytosti, ale ve skutečnosti se jedná jen o další software se všemi možnými chybami.