Sieť X Elona Muska má problém. Rozmohol sa tu rafinovaný podvod
- Spamové roboty predstavujú pre používateľov sociálnych platforiem značné riziko
- Obsah generovaný AI môže zhoršiť kvalitu internetových informácií
- Spamové roboty predstavujú pre používateľov sociálnych platforiem značné riziko
- Obsah generovaný AI môže zhoršiť kvalitu internetových informácií
Spamové roboty môžu užívateľom internetových stránok či sociálnych platforiem spôsobiť veľké problémy. Výskumníci z Indiana University Bloomington objavili botnet poháňaný ChatGPT, fungujúci na X, sociálnej sieti Elona Muska predtým známej ako Twitter, v máji tohto roku.
V rámci svojho objavu podrobne opisujú negatívne využívanie AI. Botnet vedci nazvali Fox8. Tento názov dostal pre jeho prepojenie s kryptomenovými webovými stránkami nesúcimi určitú variáciu rovnakého mena. Spomínaný botnet pozostával z 1 140 účtov.
Botnety predstavujú siete stoviek škodlivých robotov a spamových kampaní na sociálnych médiách, ktoré súčasné antispamové filtre neodhalia. Sú „nasadené“ z mnohých dôvodov. V tomto konkrétnom prípade na propagáciu podvodných kryptomien a NFT.
Ich účty sa snažia presvedčiť ľudí, aby investovali do falošných kryptomien, a môžu dokonca kradnúť z už existujúcich kryptopeňaženiek.
Sieť, na ktorú vedci natrafili na X, obsahovala viac ako 1 000 aktívnych robotov. Tie pozorovali a odpovedali na svoje príspevky pomocou výstupov ChatGPT, pričom často zverejňovali selfie ukradnuté z ľudských profilov, aby vytvorili falošné osoby.
Zdá sa, že ChatGPT najčastejšie používajú na vytváranie príspevkov na sociálnych sieťach a na vzájomné odpovedanie na príspevky. Automaticky generovaný obsah pravdepodobne navrhli tak, aby nalákal nič netušiacich ľudí, aby klikli na odkazy na kryptohypingové stránky.
V správe o štúdii sa uvádza, že botnet Fox8 mohol byť rozľahlý, ale jeho použitie ChatGPT určite nebolo sofistikované.
„Jediným dôvodom, prečo sme si všimli tento konkrétny botnet, je to, že boli nedbalé,“ informuje Filippo Menczer, profesor na Indiana University Bloomington, ktorý výskum vykonal s Kai-Cheng Yangom, študentom, ktorý nastúpi na Northeastern University ako postdoktorandský výskumník nadchádzajúci akademický rok.
Spamové roboty oklamú platformu aj používateľov
OpenAI neodpovedala na žiadosť o komentár o botnete v čase odoslania. Pravidlá používania modelov AI zakazujú ich používanie na podvody alebo dezinformácie.
ChatGPT a ďalšie špičkové chatboty používajú na generovanie textu v reakcii na výzvu to, čo je známe ako veľké jazykové modely.
S dostatkom tréningových údajov (veľa z nich zozbieraných z rôznych zdrojov na webe), dostatočným výkonom počítača a spätnou väzbou od ľudských testerov dokážu roboty ako ChatGPT prekvapivo sofistikovane reagovať na širokú škálu vstupov. Zároveň môžu vypúšťať nenávistné správy či prejavovať sociálne predsudky.
Menczer zároveň dodáva, že správne nakonfigurovaný botnet založený na ChatGPT by bolo ťažké nájsť. Bol by totiž schopnejší podvádzať používateľov a efektívnejší pri hraní algoritmov používaných na uprednostňovanie obsahu na sociálnych médiách.
Wired uvádza, že k dnešnému dňu však existuje len málo konkrétnych príkladov zneužívania veľkých jazykových modelov vo veľkom rozsahu. Niektoré politické kampane však už používajú AI, pričom prominentní politici zdieľajú hlboko falošné videá, ktorých cieľom je znevážiť ich oponentov. Príkladom môže byť aj daný príspevok na sociálnej platforme X.
Donald Trump became a household name by FIRING countless people *on television*
But when it came to Fauci… pic.twitter.com/7Lxwf75NQm
— DeSantis War Room 🐊 (@DeSantisWarRoom) June 5, 2023
Ak algoritmus sociálnych médií zistí, že príspevok má veľkú interakciu (aj keď ide o zapojenie z iných účtov robotov), zobrazí príspevok viacerým ľuďom. „Presne preto sa tieto roboty správajú tak, ako sa správajú. A vlády, ktoré chcú viesť dezinformačné kampane, s najväčšou pravdepodobnosťou už vyvíjajú alebo zavádzajú takéto nástroje,“ vysvetľuje Menczer.
Výskumníci sa už dlho obávajú, že technológia za ChatGPT môže predstavovať dezinformačné riziko a OpenAI pre takéto obavy dokonca odložila vydanie predchodcu systému.
Zdroje: Cornell University, Wired, X/DeSantis War Room