Napisz do nas

TechPolska.pl

Znajdziesz nas

FakeCatcher – taką nazwę nosi wykrywacz deep fake’ów, który Intel zaprezentował światu. Narzędzie rzekomo charakteryzuje się bardzo wysoką skutecznością w namierzeniu tego typu materiałów w czasie rzeczywistym.

Oprogramowanie Intela wykrywa fałszywe wideo w kilka milisekund

Deep fake to, najprościej mówiąc, technologia polegająca na obróbce obrazu przy pomocy sztucznej inteligencji tak, aby generować realistycznie wyglądające podróbki. Chodzi tutaj na przykład o wykonywanie fałszywych wideo, na których znane osoby wygłaszają jakieś przemówienia.

Całość wygląda realistycznie, zarówno, jeśli chodzi o twarze, jak i chociażby ruchy warg, ale są to nieprawdziwe nagrania wytworzone na podstawie materiałów z wcześniejszych przemów i innych wydarzeń, którymi “nakarmiono” oprogramowanie w procesie uczenia maszynowego.

Deep fake’i są teraz wszędzie. Prawdopodobnie już je widzieliście; filmy, na których celebryci robią lub mówią rzeczy, których nigdy naprawdę nie robili – Ilke Demir starsza badaczka w Intel Labs

Podróbki wykonane za pomocą słabo wytrenowanego oprogramowania są łatwe do rozpoznania już na pierwszy rzut oka, ale te bardziej profesjonalne wymagają już głębszej analizy, która zresztą nie zawsze przynosi pożądane rezultaty. Intel pochwalił się, że FakeCatcher ma rzekomo 96%-ową skuteczność, co jest naprawdę dobrym wynikiem.

Szczególnie, jeśli weźmiemy pod uwagę, że na analizę nagrania i wydanie werdyktu oprogramowanie potrzebuje zaledwie ułamków sekund. Nie musi więc na przykład wcześniej przebrnąć przez wiele godzin prawdziwych nagrań danej osoby, aby móc porównać je z potencjalną podróbką. Już wyjaśniamy, jak to możliwe.

 

Fake Catcher wykrywa deep fake’i na podstawie… przepływu krwi

Większość wykrywaczy deep fake’ów skupia się na tym, żeby odkryć, co dokładnie zostało w wideo zmienione, np. ruch warg. Twórcy FakeCatchera (badaczka Intela Ilke Demir i Umur Ciftci ze State University of New York w Binghamton) zastosowali inne podejście.

Cały proces wykrywania podróbek opiera się na fotopletyzmografii (PPG), to jest na metodzie określania zmiany przepływu krwi w tkance ludzkiej. Gdy w wideo pojawia się prawdziwa osoba (a tak zwykle bywa w deep fake’ach), jej tkanka zmieni kolor mikroskopijnie, gdy w żyłach będzie pompowana krew.

FakeCatcher dokładnie skanuje piksele w obszarze twarzy postaci występujących w filmiku i sprawdza, czy wszystko wygląda tak, jak powinno. Biorąc pod uwagę wysoką skuteczność oprogramowania w wykrywaniu deep fake’ów, wygląda na to, że (póki co) oprogramowanie do tworzenia podrobionych nagrań nie radzi sobie zbyt dobrze z symulowaniem przepływu krwi w twarzy.

Co o tym wszystkim sądzicie? Natknęliście się już na jakieś deep fake’i (i byliście w stanie rozpoznać, że są fałszywe, czy jednak niekoniecznie)? Dajcie znać w komentarzach!

Share:

administrator

Redaktor naczelna TechPolska od 2019 roku. W przerwach między nabijaniem kolejnych setek godzin w Genshin Impact recenzuje każdy kawałek elektroniki, który wpadnie jej w ręce.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.