Kybernetická bezpečnost

Jaké jsou nejčastější obavy spojené s používáním umělé inteligence?

8 min. čtení

Přední odborníci z oblasti technologií varovali, že umělá inteligence může vést k oslabení lidstva. Vyhnout se tomuto scénáři by podle nich mělo být společenskou prioritou stejně jako riziko pandemie nebo jaderné války. Prohlášení zveřejnilo Centrum pro bezpečnost umělé inteligence.

Výzvu podpořili vedoucí představitelé předních společností zabývajících se vývojem umělé inteligence. Například Sam Altman, generální ředitel společnosti OpenAI, která vyvinula ChatGPT, sdílí obavy, že se situace vymkne kontrole. Mezi další odborníky, kteří bijí na poplach, patří Demis Hassabis, generální ředitel společnosti Google DeepMind nebo Dario Amodei ze společnosti Anthropic.

Odborníci varují před několika možnými černými scénáři souvisejícími s umělou inteligencí:

  • Umělá inteligence by se mohla změnit ve zbraň – například nástroje pro vývoj léků by mohly být použity k výrobě chemických zbraní.
  • Dezinformace vytvářené umělou inteligencí by mohly destabilizovat společnost a „podkopat kolektivní rozhodování“.
  • Kontrola nad umělou inteligencí by se mohla soustředit do stále menšího počtu rukou, což by režimům umožnilo prosazovat své hodnoty prostřednictvím dohledu a cenzury.
  • Oslabení lidstva v důsledku závislosti na umělé inteligenci, podobně jako ve filmu Vall-I.

Přehnané obavy?

Výzvu Centra pro bezpečnost umělé inteligence podpořili také Dr. Geoffrey Hinton a profesor Yoshua Bengio, kteří jsou spolu s profesorem Yannem LeCunem označováni za kmotry AI. Za svou průkopnickou práci společně získali v roce 2018 Turingovu cenu, která se uděluje za mimořádný přínos v oblasti počítačových věd.

Profesor LeCun, který pracuje ve společnosti Meta, však považuje apokalyptická varování svých kolegů za přehnaná. Na Twitteru uvedl, že výzkumníci v oblasti umělé inteligence se při proroctvích soudného dne chytají za hlavu.

Umělá inteligence a kybernetická bezpečnost

Ačkoli se v současné době jedná o relativně malou hrozbu, prohlášení předních odborníků o vyhynutí lidstva naznačuje, že bychom se měli mít na pozoru. Kybernetičtí zločinci již nyní stále častěji využívají umělou inteligenci k usnadnění svých útoků. Mohou ji využívat k vylepšování částí svého škodlivého kódu nebo ke zvyšování kvality i kvantity phishingových útoků. Tomuto vývoji se musí přizpůsobit i bezpečnostní nástroje.

„Dobrou zprávou je, že umělá inteligence čelí v tomto boji podobným nástrojům na straně obrany. Umělá inteligence se již dlouho používá v bezpečnostních řešeních k odhalování podezřelého chování nebo škodlivého kódu. Očekáváme, že bude stále častěji nasazována v bezpečnostních mechanismech, které budou řešit rostoucí spektrum hrozeb,“ vysvětluje Vladimíra Žáčková, specialistka kybernetické bezpečnosti společnosti ESET. 

Se současným výpočetním výkonem a pokrokem v chápání a začlenění AI a ML prakticky do jakékoli oblasti technologií je přirozené, že tyto modely zvyšují efektivitu. Nesmíme však zapomínat, že veškerá tréninková data a výsledné algoritmy reagují na to, co již dříve viděly. Prediktivní umělá inteligence může být slibnou technologií, ale potenciálně může vést k obrovskému množství falešně pozitivních výsledků.

To má za následek opak toho, co bylo původním cílem – bezpečný a nepřetržitý chod systémů. To znamená, že se musíme i nadále spoléhat na kvalifikované pracovníky v oblasti kybernetické bezpečnosti, kteří budou ověřovat výstupy AI a dohlížet na její činnost.

Lidé jsou stále potřeba

Umělá inteligence se neobejde bez lidského zásahu a kontroly. Ve světě kybernetické bezpečnosti je klíčem k úspěšné obraně kombinace technologií a lidských znalostí.

Dalším příkladem potřeby lidské kontroly je chatbot ChatGPT, který si často vymýšlí (tzv. halucinuje) odpovědi na otázky, na které nezná odpověď. Známé jsou již případy, kdy si ChatGPT vymyslel neexistující články od The Guardian nebo neexistující soudní procesy, které poté u amerického soudu citoval právník, který použil výstup z ChatGPT bez dalšího ověření.

Obavy mohou přispět k regulaci

Kritici varují, že i samotná umělá inteligence by se v určitém okamžiku mohla rozhodnout jednat proti svým tvůrcům. Lidský dohled a řízení jsou proto nezbytné pro zachycení chybných rozhodnutí umělé inteligence již v zárodku, než se promění v lavinu dalších chybných rozhodnutí.

Z nedávné minulosti jsme si zvykli, že legislativa nedokáže včas reagovat na jevy v oblasti technologií. Příkladem jsou sociální média, která umožnila bezuzdné šíření dezinformací a nenávistného obsahu, ale také oblast trhu s kryptoměnami, který působil netransparentně a pokulhával i v oblasti zabezpečení.

14.6.2023 přijal Evropský parlament vyjednávací postoj k aktu o umělé inteligenci (AI Act). Nyní začnou jednání se zeměmi EU o konečné podobě zákona, jehož cílem je zajistit lepší podmínky pro rozvoj a využívání této inovativní technologie, a také lidský dohled, bezpečnost, soukromí, transparentnost, nediskriminaci a sociální a environmentální blahobyt.  

Dohody o podobě zákona se má dosáhnout do konce roku 2023.

 

Intenzivní debata, která v současnosti probíhá o umělé inteligenci, je proto pozitivní.

„ChatGPT a další nástroje založené na LLM jsou sice v některých ohledech působivé, ale jsou stále ještě v plenkách. Regulace v této fázi je však důležitou součástí procesu a může pomoci usměrnit bezpečnější využívání této technologie pro budoucí generace,“ uzavírá Vladimíra Žáčková.