Veda

V deepfakes je niečo zaujímavé s očami

Našli výskumníci práve skutočnú stopu?

pri odraze

Výskumníci objavili nový a zaujímavý spôsob, ako zistiť, či ľudský portrét vytvorila AI alebo nie., Pomocou rovnakých techník, aké používajú astronómovia na analýzu pozorovaní galaxií.

Ako je podrobne uvedené vo výskume prezentovanom tento rok Národné astronomické stretnutie Kráľovskej astronomickej spoločnostiTím vedený Adejumoke Owolabi, postgraduálnym študentom na University of Hull, zistil, že svetelné obrazy v hlboko falošných ľudských očiach nie sú zarovnané.

Kevin Pimblett, profesor astrofyziky na Univerzite v Hull, v štúdii povedal: „Obrazy v očných bulvách sú konzistentné pre skutočnú osobu, ale nepresné (z hľadiska fyziky) pre falošnú osobu.“ vyhlásenie,

Ide o dômyselnú a nekonvenčnú aplikáciu vedeckého výskumu, ktorá by mohla mať užitočné výsledky, pretože generátory obrázkov AI sa stali veľmi dobrými vo vytváraní fotorealistických obrázkov ľudí, ktorí neexistujú, čo vedie k alternatívnym vesmírom reality a deepfakes rozmazané.

Obrazový kredit: Adejumoke Owolabi

hranaté oči

Podľa Pimbletta pomocou metód tradične používaných na „meranie veľkosti galaxií“ jeho tím zistil, že obrázky z oboch očí na hlbokých falošných snímkach nemajú rovnakú konzistenciu.

„Automaticky zisťujeme odrazy a spúšťame ich morfologické charakteristiky prostredníctvom CAS [concentration, asymmetry, smoothness] „Na porovnanie podobnosti medzi ľavým a pravým okom sme použili Giniho index,“ vysvetľuje Pimblett. „Zistenia naznačujú, že medzi týmito dvoma očami sú pri deepfakes určité rozdiely.“

Giniho koeficient meria distribúciu svetla v akomkoľvek danom obrázku galaxie. Zoraďuje pixely podľa ich jasu a porovnáva výsledky s dokonale rovnomerným rozložením.

Je dôležitejšie ako kedykoľvek predtým, aby ste dokázali spoľahlivo rozlíšiť deepfake obrázky od skutočných fotografií, pretože majú potenciál zavádzať, šíriť dezinformácie a podporovať politické programy.

Žiaľ, najnovšia metóda výskumníkov nie je úplne spoľahlivá.

„Je dôležité poznamenať, že toto nie je spoľahlivé riešenie na detekciu falošných obrázkov,“ povedal Pimblett. „Existujú falošne pozitívne aj falošne negatívne výsledky; nebude vedieť všetko. Ale tento prístup nám poskytuje základňu, plán útoku, v pretekoch v zbrojení, aby sme odhalili falšovanie.“

Viac o deepfakes: YouTube vám teraz umožňuje požiadať o odstránenie obsahu AI vytvoreného na vaše meno

Related Articles

Pridaj komentár

Vaša e-mailová adresa nebude zverejnená. Vyžadované polia sú označené *

Back to top button
Close
Close