Tiež nenávidíte svoj hlas AI
Ťažko si predstaviť predvolebný sľub nepríjemnejší ako zdražovanie piva. Ale to hovorí Mikael Simeka, líder Strany Progresívneho Slovenska. Bolo to zaznamenané Urobí tak tri dni pred slovenskými voľbami 30. septembra 2023. Malo to len jeden háčik: Shimeka nič také nesľúbil. Namiesto toho jeho „zaznamenaný“ návrh vygeneroval model strojového učenia, ktorý bol trénovaný na napodobňovanie jeho hlasu. Hoci fact-checkers nahrávku rýchlo označili za falošnú, o deň neskôr začala po slovenských weboch kolovať ďalšia falošná nahrávka Shimekovho hlasu. V tomto novom zvukovom klipe je to široko a rovnomerne zdieľané Znova uverejnené Shimeka plánuje kúpiť si hlasy prominentného novinára, aby zmanipuloval nadchádzajúce voľby bývalým poslancom parlamentu.
Klonovanie hlasu, prax trénovania modelu umelej inteligencie (AI) na napodobňovanie hlasu a rečových vzorov jednotlivca, v posledných rokoch dramaticky pokročilo. Nedávna štúdium University College London zistila, že účastníci dokázali identifikovať, či vybraný hlas bol generovaný AI, iba 73 % času. Navyše vďaka technologickým spoločnostiam ako ElevenLabs a Speechify je technológia na duplikovanie hlasov čoraz dostupnejšia a dostupnejšia. To je problém: naša schopnosť rozlišovať medzi skutočným a umelým tvorí základ nášho svetonázoru, politického presvedčenia a rozhodovania. Čo sa stane, keď ho stratíte?
Vďaka širokému využívaniu a zvýšenej sofistikovanosti je najvyšší čas pripraviť sa na nadchádzajúcu éru klonovania hlasu. Aj keď má táto technológia dôležité praktické aplikácie, najmä v zábave a preklade, má tiež vysoký strop pre zneužitie, čo varuje technologické spoločnosti a tvorcov politík, aby si to rýchlo všímali. Nový abstrakt výskumu Od Democratic Reporting International.
Vytváranie konkrétnejších dezinformácií
Ako sa ukázalo v slovenských voľbách, zvyšujúca sa sofistikovanosť hlasového klonovania predstavuje vážnu výzvu pre demokracie. Riešenie dezinformácií na vysokej úrovni môže byť obzvlášť ťažké v malých demokraciách, ako je Slovensko, kde agentúry na kontrolu faktov a výbory na kontrolu obsahu, ktoré poznajú miestny jazyk, pozostávajú len z niekoľkých ľudí. Takéto nebezpečenstvá sú, samozrejme, obzvlášť zlé na X – predtým Twitter – plnom moderátorských tímov boli prepustení. Keď slovenská vláda a Európska komisia pozvali predstaviteľov sociálnych médií do Bratislavy, aby diskutovali o volebných dezinformáciách, predstavitelia X Ani sa neunúval ukázať.
Nie je prekvapením, že niektoré z najhlasnejších hlasov, ktoré vystupujú proti tejto technológii, sú slávne a rozpoznateľné hlasy. Problémy s autorskými právami, ktoré vytvorila hudba AI, boli osobitným problémom pre známych umelcov, ako je Drake, ktorého hlas bol použitý na jej vytvorenie. Na TikTok sa to stalo virálnym V apríli 2023. Popularita piesne vyvolala vlnu online hudby pomocou klonov hlasov populárnych umelcov. Odhliadnuc od bohatých a slávnych, súčasný nedostatok právnej ochrany pred napodobeninami generovanými AI robí menších umelcov – tých, ktorí nemajú veľké právne tímy – obzvlášť zraniteľnými voči zneužívaniu.
Momentálne sa nachádzame na „divokom západe“ AI, kde regulačné a právne definície stále zaostávajú za rýchlym pokrokom v technológii. Zákonodarcovia ešte musia jasne definovať zákonné limity používania cudzieho hlasu, zatiaľ čo spoločnostiam s umelou inteligenciou chýbajú procesy preverovania, ktoré používateľom umožňujú uplatniť svoje právo na používanie hlasu skôr, ako bude možné ho naklonovať.
Potom hrozí skreslenie. Vďaka technológii klonovania hlasu môže tvorca počúvať populárne hlasy podporujúce jednotlivca, produkt, podvod alebo ideológiu podľa vlastného výberu. Vaše želanie Hudobné video Transphobic Make-America-Great-Again Zobraziť rapperov s malou obrazovkou? Pridajte vokálne klony Drakea a 21 Savagea a prinútiť ich spievať o vlastenectve a hlasovaní za Donalda Trumpa v roku 2024 (ani občania USA). Britský herec Stephen Fry najlepšie zhrnul potenciál zneužitia, keď sa zistilo, že umelá kópia jeho hlasu, ktorá rozprávala všetkých sedem audiokníh Harryho Pottera, kolovala online. „Takže môžem čítať čokoľvek od výziev na útok na Parlament až po tvrdé pornografické obrázky bez môjho vedomia a bez môjho súhlasu.“
Podvádzať banky aj starých rodičov
Ale hlasy generované AI nie sú hrozbou pre kreatívny talent. Hlasové klonovanie má rôzne kriminálne aplikácie, najmä krádeže identity a podvody. Už boli použité hlasové klony Vykonajte prvotriedne bankové lúpeže, odráža hlasy dôveryhodných manažérov schvaľovať transakcie v hodnote miliónov dolárov. Zatiaľ čo najlepšie hlasové klony možno trénovať na hodinách zvukového obsahu, menej sofistikované kópie je možné vytvárať len pomocou niekoľkých sekúnd niečího nahraného hlasu. Ak ste niekedy nahrali video na sociálne médiá, aj keď hovoríte krátko, podvodníci môžu vytvoriť klon vášho hlasu. Ako keď posielate do bánk Alebo aj blízkych.
Vo svetle týchto hrozieb už mnohé banky zvyšujú svoju kybernetickú bezpečnosť vyžadovaním viacfaktorovej autentifikácie vrátane používania AI na overenie biometrie tváre a hlasu. Ale veľké finančné inštitúcie ako banky môcť A túžba Jednotlivci sú vystavení značnému riziku, že podniknú kroky na svoju ochranu. V marci 2023 veľa kanadských seniorov boli oklamaní Drátoval tisíce dolárov podvodníkom, ktorí používali hlasové klony na vydávanie sa za svoje vnúčatá a žobrali o peniaze na zaplatenie kaucie. Tieto takzvané „podvody od starých rodičov“ sú účinným podvodom pre podvodníkov, pretože sa zameriavajú na populáciu, ktorá do značnej miery nevie o existencii technológie klonovania hlasu.
Zdravá dávka skepticizmu a potom trochu
Klonovanie hlasu a generatívna AI tu zostanú a musíme sa tomu prispôsobiť. Momentálne sa nachádzame na „divokom západe“ AI, kde stále existujú regulačné a právne hranice Zatlačte späť Rýchly pokrok v technológii. Zákonodarcovia ešte musia jasne definovať zákonné limity používania cudzieho hlasu, zatiaľ čo spoločnostiam s umelou inteligenciou chýbajú procesy preverovania, ktoré používateľom umožňujú uplatniť svoje právo na používanie hlasu skôr, ako bude možné ho naklonovať.
Naliehavá potreba lepšieho povedomia o zvyšujúcich sa schopnostiach AI a väčšej pozornosti voči tomu, čo vidíme a počujeme. Vek sledovania videa alebo počúvania nahrávky a jej vnímania ako nominálnej hodnoty sa skončil – a už nejaký čas trvá. Ak vám zavolá milovaná osoba, ktorá vás požiada o tisíce darčekových kariet, zavolajte späť na ich osobný mobilný telefón. Ak uvidíte video politika, ktorý hovorí, že chce zvýšiť cenu pollitra, skontrolujte, či to nehlásili nejaké dôveryhodné spravodajské zdroje.
V tejto novej ére dezinformácií umelej inteligencie budú zásady obsahu sociálnych médií, revízne tabule a overovatelia faktov dôležitejšie ako kedykoľvek predtým. Preto je dôležité, aby debunkers boli vybavené znalosťami a technológiou na identifikáciu umelých médií. Mnoho technologických spoločností už existuje ohlásené plány Vytvoriť automatizované diagnostické nástroje AI. Tieto nástroje, ktoré využívajú modely trénované na veľkých súboroch údajov obrázkov, videí a zvuku generovaných AI, dokážu odhaliť a označiť umelý obsah hneď po jeho zverejnení. Aj keď sú tieto investície dôležité, spoločnosti sociálnych médií by sa mali zamerať na prebudovanie geograficky odlišných skupín dôvery a bezpečnosti, ktoré sú odolné voči vznikajúcim dezinformáciám.
Medzitým by sme si však my ostatní mali uplatniť zdravú dávku skepticizmu a potom ešte trochu. Technológia neustále napreduje a my sa musíme uistiť, že môžeme držať krok. Tak to hláste ďalej a uvidíte svoju babičku.
Jemne očarujúci mysliteľ. Tv ninja. Oceňovaný twitterový fanatik.