Nový server 404 Media, který se zaměřuje převážně na technologie a zpravodajství, v posledních týdnech sužuje problém, kvůli kterému musel projít technickými úpravami. Některé články jeho novinářů se totiž začaly objevovat na falešných spamových stránkách. V lehce pozměněné podobě se navíc ve vyhledávání Google občas zobrazují výše než skutečné texty redaktorů. Na problémovou situaci upozornil server Business Insider.
Nejde o omyl, ale o vychytralou strategii internetových podvodníků. Ti obvykle zkopírují obsah zpravodajského webu, změní jméno autora a z reklam, které k textu přiloží, dostávají peníze. Aby nešla kopie tak snadno rozeznat, využívají umělou inteligenci.
Jeden z nástrojů, který přivádí podvodníky k zisku, se nazývá SpinRewriter. Pouhým kliknutím dokáže vytvořit zhruba tisíc mírně odlišných verzí stejného článku a pomocí placeného pluginu je automaticky publikovat na libovolném počtu webů skrz systém WordPress. Další AI generátor textů s názvem Byword na svých stránkách uvádí, že díky falešným článkům sebral své konkurenci z řad zpravodajských webů zhruba 3,6 milionu celkové návštěvnosti.
Falešné články nejsou jediným problémem, který s rozmachem umělé inteligence přichází. O něco ponuřejším tématem spojeným s generovaným obsahem jsou nekrology, obvykle plné chyb.
Nejedná se o žádnou novinku. Už v roce 2021, ještě před vznikem nástroje ChatGPT, informoval server Wired o tom, že ve snaze přijít k penězům takzvaní "piráti nekrologů" kopírují webové stránky pohřebních ústavů, na kterých mohou pozůstalí hledat informace o zemřelých.
Riziku v souvislosti s falešnými weby čelí nejen uživatelé internetu, ale i společnost Google. Ta podle serveru Business Insider ve výsledku nechtěně předhazuje uživatelům podvodný obsah. Podle deníku The New York Times společnost problém řeší.
Svlékací aplikace znepokojily i Bílý dům
Umělá inteligence může ohrožovat také bezpečnost internetových uživatelů. Pomáhá totiž podvodníkům téměř bez námahy vytvářet falešné fotografie a videa. Fotomontáže nejsou ničím novým. V minulosti za nimi obvykle stáli zkušení grafici, kteří do tvorby snímků investovali hodiny času. Dnes obrázek do několika minut vygeneruje jeden z mnoha běžně dostupných nástrojů umělé inteligence.
"Deepfakes", jak se těmto realisticky vyhlížejícím videím a fotkám říká, jsou čím dál populárnější. Podle serveru BBC došlo od roku 2019 k 550procentnímu nárůstu jejich tvorby mezi internetovými uživateli.
Po sítích kolují i takzvané "svlékací aplikace". Nástroj využívající schopnosti umělé inteligence využívají lidé k tomu, aby zbavili oblečení třeba své oblíbené celebrity. To se v minulém týdnu stalo i popové zpěvačce Taylor Swiftové. Na sociálních sítích se její falešné explicitní snímky rozšířily tak rychle, že se platforma rozhodla v zájmu zamezení jejich šíření zcela zablokovat jméno hudebnice ve vyhledávání.
Událost upoutala pozornost Bílého domu, který v pátek označil šíření fotografií vytvořených umělou inteligencí za "alarmující". "Víme, že laxní vymáhání práva má nepřiměřený dopad na ženy a bohužel dopadá i na dívky, které jsou převážně terčem podvodníků," uvedla tisková mluvčí Bílého domu Karine Jean-Pierreová.
Podle Jean-Pierreové by měla existovat legislativa zabývající se zneužíváním technologie umělé inteligence na sociálních sítích. Platformy by také měly přijmout vlastní opatření k zákazu takového obsahu na svých stránkách.