Kybernetická bezpečnost

AI: Jaké jsou nejčastější obavy z rizik umělé inteligence?

11 min. čtení

Přední technologičtí odborníci varovali, že umělá inteligence může vést k oslabení lidstva. Vyvarovat se rizik AI by dle nich mělo mít globální prioritu stejně jako riziko pandemie nebo jaderné války. Prohlášení zveřejnilo Centrum pro bezpečnost umělé inteligence.

Výzvu podpořili vedoucí představitelé předních společností zabývajících se vývojem umělé inteligence. Například Sam Altman, generální ředitel společnosti OpenAI, která vyvinula ChatGPT, sdílí obavy z rizika, že se situace vymkne kontrole. Mezi další odborníky, kteří bijí na poplach, patří Demis Hassabis, generální ředitel společnosti Google DeepMind nebo Dario Amodei ze společnosti Anthropic.

Odborníci varují před několika možnými černými scénáři souvisejícími s umělou inteligencí:

  • Umělá inteligence by se mohla změnit ve zbraň – například vývoj umělé inteligence v oblasti medicíny by mohl někdo zneužít k výrobě chemických zbraní.
  • Dezinformace a deepfakes vytvářené pomocí umělé inteligence by mohly destabilizovat společnost a „podkopat kolektivní rozhodování“.
  • Kontrola AI systémů by se mohla soustředit do stále menšího počtu rukou, což by režimům umožnilo prosazovat své hodnoty prostřednictvím dohledu a cenzury.
  • Oslabení lidstva v důsledku závislosti na umělé inteligenci, podobně jako ve filmu Vall-I.

Přehnané obavy z vývoje umělé inteligence?

Výzvu Centra pro bezpečnost umělé inteligence podpořili také Dr. Geoffrey Hinton a profesor Yoshua Bengio, kteří jsou spolu s profesorem Yannem LeCunem označováni za kmotry AI (Artificial Intelligence). Za svou průkopnickou práci společně získali v roce 2018 Turingovu cenu, která se uděluje za mimořádný přínos v oblasti počítačových věd. 

Profesor LeCun, který pracuje ve společnosti Meta, však považuje apokalyptická varování před zneužitím AI za přehnaná. Na Twitteru uvedl, že výzkumníci v oblasti AI se při proroctvích soudného dne chytají za hlavu.

Rizika AI a kybernetická bezpečnost

Ačkoli se v současné době jedná o relativně malou hrozbu, prohlášení předních odborníků o vyhynutí lidstva naznačuje, že bychom se měli mít na pozoru. Kybernetičtí zločinci již nyní stále častěji využívají umělou inteligenci k tomu, aby si usnadnili přípravu svých útoků. Mohou ji využívat k vylepšování částí svého škodlivého kódu nebo ke zvyšování kvality i kvantity phishingových útoků. Tomuto vývoji využívání AI se musí přizpůsobit i bezpečnostní nástroje.

Dobrou zprávou je, že umělá inteligence čelí v tomto boji podobným nástrojům na straně obrany. Umělá inteligence se již dlouho používá v bezpečnostních řešeních k odhalování podezřelého chování nebo škodlivého kódu. Očekáváme, že bude stále častěji nasazována v bezpečnostních mechanismech, které budou řešit rostoucí spektrum hrozeb“ vysvětluje Vladimíra Žáčková z MSD. 

Se současným výpočetním výkonem a pokrokem v chápání a začlenění AI a ML (Machine Learning – strojové učení) prakticky do jakékoli oblasti technologií je přirozené, že tyto modely zvyšují efektivitu. Nesmíme však zapomínat, že veškerá tréninková data a výsledné algoritmy reagují na to, co již dříve viděly. Prediktivní umělá inteligence může být slibnou technologií, ale potenciálně může vést k obrovskému množství falešně pozitivních výsledků.

To má za následek opak toho, co bylo původním cílem – bezpečný a nepřetržitý chod systémů. To znamená, že se musíme i nadále spoléhat na kvalifikované pracovníky v oblasti kybernetické bezpečnosti, kteří budou ověřovat AI systémy a dohlížet na jejich činnost a výstupy.

Lidé jsou po boku AI stále potřeba

Umělá inteligence se neobejde bez lidského zásahu a kontroly. Ve světě kybernetické bezpečnosti je klíčem k úspěšné obraně kombinace technologií a lidských znalostí. 

Dalším příkladem potřeby lidské kontroly je chatbot ChatGPT, který si často vymýšlí (tzv. halucinuje) odpovědi na otázky, na které je doopravdy nezná. Známé jsou již případy, kdy si chatbot vymyslel neexistující články od The Guardian nebo neexistující soudní procesy, které poté u amerického soudu citoval právník, který použil výstup z ChatGPT bez dalšího ověření.

Obavy z rizik mohou přispět k regulaci

Kritici varují, že i samotná umělá inteligence by se v určitém okamžiku mohla rozhodnout jednat proti svým tvůrcům. Lidský dohled a řízení jsou proto nezbytné pro zachycení chybných rozhodnutí umělé inteligence již v zárodku, než se promění v lavinu dalších chybných rozhodnutí a opravdová bezpečnostní rizika. 

Z nedávné minulosti jsme si zvykli, že legislativa nedokáže včas reagovat na jevy v oblasti vývoje technologií. Příkladem jsou sociální média, která umožnila bezuzdné šíření dezinformací, deepfake a nenávistného obsahu, ale také oblast trhu s kryptoměnami, který působil netransparentně a pokulhával i v oblasti zabezpečení.

Nový právní předpis týkající se umělé inteligence AI Act vstoupil v platnost 1. srpna 2024. Jedná se o nařízení Evropské unie a v plném rozsahu by mělo být platné do 24 měsíců, tedy v roce 2026.

Nový právní předpis regulující umělou inteligenci se však nebude vztahovat pouze na země EU. Dodržovat ho musí všechny společnosti, které se v unii rozhodnou prodávat a provozovat AI nástroje, a přitom se jejich hlavní sídla nacházejí mimo EU. Povinnosti plynoucí z nové regulace systémů umělé inteligence přitom dopadnou nejen na samotné vývojáře v různých oborech a odvětvích, ale také třeba na prodejce AI produktů. V konečném důsledku bude mít nařízení dopad také na jednotlivce.

 

Intenzivní debata, která v současnosti probíhá kolem AI, je proto pozitivní.

„ChatGPT a další nástroje založené na LLM jsou sice v některých ohledech působivé, ale jsou stále ještě v plenkách. Regulace v této fázi je však důležitou součástí procesu a může pomoci usměrnit bezpečnější využívání této technologie pro budoucí generace,“ uzavírá Vladimíra Žáčková.

Buďte v souladu s regulacemi a předpisy

Zajímá vás, jaká další preventivní opatření může vaše firma zavést, abyste snížili kybernetická rizika na minimum?

ZJISTIT VÍCE