Zdroj: Pexels - Anete Lusina

Jak se umělá inteligence může stát zbraní kybernetických teroristů

Nadšení z umělé inteligence pomalu střídají obavy o budoucnost lidstva. Média se zajímají nejen o ChatGPT, ale i Google Bard, Dall-E, Midjourney nebo čínskou verzi AI – Tongyi Qianwen. Se svou umělou inteligencí může prakticky každý stát. AI přitom dokáže být velice přesvědčivá a působit až děsivě lidsky. Máme se opravdu čeho obávat?

Kybernetická kriminalita se rychle vyvíjí a technologie, jako je ChatGPT, ji pohánějí raketovým tempem. Vstupní bariéra do světa kybernetické kriminality se tím významně snížila, protože díky AI umí vlastní program vygenerovat i absolutní začátečník. Stačí jen správně formulovat příkaz pro AI. Bezpečnostní hrozbou se díky tomu stává každý člověk s klávesnicí.

Své obavy už vyjádřila i technologická elita. Asi 1 300 odborníků v otevřeném dopise požadovalo zastavení práce na vývoji AI alespoň na 6 měsíců. Psal o tom IT magazín WebhostingCentrum.

Velká očekávání i pokusy o regulaci

Dnešní svět skutečně čelí velké hrozbě. Svoji AI si může vytvořit každý. Stačí mu k tomu dostatek financí a technologického zázemí. Vlastní AI už vytvořila komunistická Čína – na umělé inteligenci jménem Tongyi Qianwen pracuje čínská společnost Alibaba, která pro svou generativní AI využívá stejnou technologii jako ChatGPT. Generální ředitel společnosti Alibaba Group Daniel Zhang uvedl, že „tato technologie přinese velké změny do způsobu, jakým vyrábíme, jakým pracujeme a jak žijeme.“

Z obav o bezpečnost se některé státy pokoušejí AI regulovat, a to i v Evropě. Například Itálie nařídila provozovateli chatovacího robota ChatGPT, aby uživatelům z této země přístup znemožnil. Toto opatření lze však jednoduše obejít s využitím VPN, s níž snadno změníte geolokaci zařízení, aniž byste opustili daný stát.

Pexels - David Peterson

Jak konkrétně AI ohrožuje kybernetickou bezpečnost

Generativní umělá inteligence dokáže rychle načerpat nové informace a ty přetvořit do věrohodné a přesvědčivé podoby. Znamená to rychlejší vytváření deepfake dat, jako jsou realisticky upravená videa, fotografie nebo audio nahrávky, které vypadají jako autentické.

V nedávné době jsme mohli na internetu zaznamenat například manipulativně sestříhané video prezidenta Petra Pavla, které mělo vzbudit obavu, že se prezidentský kandidát snaží zatáhnout ČR do války. Ve skutečnosti však říkal pravý opak.

V tomto případě nešlo u skutečný deepfake vytvořený pomocí AI. Nicméně s využitím umělé inteligence bude daleko jednodušší produkovat podobná falešná videa, ve kterých uvidíme politiky či celebrity, aniž by to byli oni sami, protože vytvořit si mluvící hlavu z fotografie nebo z kousku videa rovněž nebude problém.

Smyslem deepfake videí je šíření dezinformací a manipulace davu. Umělá inteligence je pro kyberzločince účinným nástrojem. Může komplikovat jejich odhalení, hackerům pomůže s vytvářením lepšího malware, s hádáním hesel či s napodobováním lidské identity.

Válka mezi hodnou a zlou AI

V rukách dezinformátorů, marketérů, vlád nebo hackerů se umělá inteligence může stát zničujícím nástrojem pro lidstvo. Na druhé straně však také může kybernetickou bezpečnost různými způsoby zlepšit a posílit.

„Hodná“ umělá inteligence může pomoci v boji proti té „zlé“, páchající kybernetický zločin, například analýzami identit, detekcí podvodů a hrozeb či analýzami chování. Znamená to však její implementaci napříč různými nástroji a systémy. Podle výzkumné společnosti Meticulous Research trh s technologiemi kybernetické bezpečnosti, jako jsou služby zabezpečení sítí, cloudů či aplikací, poroste do roku 2030 skoro 24% tempem a bude mít hodnotu 46,6 miliardy dolarů.

Unsplash - towfiqu barbhuiya

Mělo by lidstvo zatnout AI tipec?

AI je pouze nástroj, který nám může pomáhat, ale také škodit. Z historie víme, že lidé si dokážou navzájem nesmírně ubližovat a bojovat spolu, aniž by si uvědomovali, že jsou manipulovatelní. A manipulátorům AI nesmírně usnadní práci. V současné době však není schopna objevit něco sama. Není superinteligentní, takže se teď hlavně učí od nás lidí.

Tento nástroj pravděpodobně rozdělí společnost na více táborů. Politici a dezinformátoři toho nejspíš využijí pro šíření poplašných zpráv. Jenže věci už jsou v pohybu a zastavit je nejspíš nepůjde.