Nově vydaná zpráva uvádí, že škodliví roboti pohánění umělou inteligencí (AI) během posledních 10 let napodobovali lidské chování, aby páchali kyberzločin a posílali spamové zprávy. Zpráva 2023 Bad Bot Report, kterou vydala kalifornská kyberbezpečnostní společnost Imperva, uvádí, že v roce 2022 pocházelo 47,4 procenta veškerého internetového provozu spíše od robotů než od lidí. Naproti tomu internetový provoz od lidí tvořil v roce 2022 52,6 procenta celkového provozu, což je o 5,1 procenta méně než v předchozím roce.
Aktivity škodlivých robotů narůstají
Špatní roboti se v roce 2022 podíleli na 30,2 procentech celkového internetového provozu, což je o 2,5 procenta více než v předchozím roce. Dobří roboti tvořili 17,3 procenta celkového internetového provozu za daný rok, což je o 2,7 procenta více než v roce 2021.
„I když jejich jméno může naznačovat, že nejsou důvodem k obavám, tito dobří roboti mohou také znamenat potíže,“ poznamenal Imperva. „Mohou zkreslit webovou a marketingovou analýzu, takže je pro organizace extrémně obtížné činit informovaná obchodní rozhodnutí.“
Studie také zjistila, že ohromujících 66,6 procenta veškerého internetového provozu generují roboti, kteří posílají nevyžádané e-maily a kradou data pomocí technologie AI. Hlášený 70procentní nárůst narušení dat odpovídal 40procentnímu nárůstu útoků na převzetí účtu, všechny poháněné umělou inteligencí.
„Botové se od roku 2013 rychle vyvíjeli. Ale s příchodem generativní umělé inteligence se technologie bude během příštích 10 let vyvíjet ještě rychlejším tempem,“ řekl Karl Triebes, senior viceprezident společnosti Imperva.
„Kybernetičtí zločinci se více zaměří na útoky na … aplikační obchodní logiku se sofistikovanou automatizací. Výsledkem je, že narušení podnikání a finanční dopady spojené se špatnými roboty budou v nadcházejících letech ještě významnější.“
Roboti pohánění umělou inteligencí se naklonili doleva
Vzhledem k tomu, že ChatGPT a jeho pokročilá verze GPT-4 dokážou generovat lidský text jako odpověď na danou výzvu, kybernetičtí zločinci by je mohli využít jako „superschopnosti“ k provádění jejich hanebných činností. Navíc se zdá, že roboti AI jsou zaujatí, i když byli původně naprogramováni tak, aby neměli určité sklony.
V jednom takovém případě vědec David Rozado poukázal na to, že OpenAI – společnost stojící za ChatGPT – má automatizovaný systém pro moderování obsahu určený k označování nenávistných projevů. Zjistil však, že tento systém zachází s řečí odlišně podle toho, na které demografické skupiny se nenávistné projevy zaměřují.
Rozado krmil ChatGPT různými výzvami zahrnujícími negativní přídavná jména připisovaná různým demografickým skupinám na základě rasy, pohlaví, náboženství a dalších ukazatelů. Zjistil, že software „upřednostňuje některé demografické skupiny před jinými“.
Podle výzkumníka bylo mnohem pravděpodobnější, že software označoval negativní komentáře o demokratech ve srovnání s těmi o republikánech, a s větší pravděpodobností umožňoval nenávistné komentáře o konzervativcích než o liberálech. „Hodnocení částečně připomíná levicové hierarchie politické orientace vnímané zranitelnosti,“ poznamenal.
Negativní komentáře o ženách byly označeny častěji než u mužů. Negativní poznámky o lidech se zdravotním postižením, gayích, transgender, Asiatech, černoších nebo muslimech měly vyšší šanci být označeny ve srovnání s těmi, které byly zaměřeny na křesťany, mormony, hubené lidi a různé další skupiny. Bohatí lidé, republikáni, lidé z vyšší střední a střední třídy a absolventi vysokých škol skončili na konci žebříčku.
Zdroje:
https://www.dailystar.co.uk/tech/news/theres-almost-more-bots-online-29993832
https://dailycaller.com/2023/02/03/study-artificial-intelligence-openai-chatgpt-bias/
https://www.naturalnews.com/2023-05-31-bad-bots-taking-over-internet-spam-cybercrime.html
Obrázek: Pixabay.com