Roboty
Nie chcesz być bohaterem DeepFake’ów i pożywką dla AI? Fawkes cię ochroni

Naukowcy z Uniwersytetu Chicagowskiego pracują właśnie nad narzędziem do ochrony naszych zdjęć przed systemami rozpoznawania twarzy i innym nieautoryzowanym przez nas wykorzystaniem.

Chociaż na początku wszyscy byli zachwyceni możliwościami technologii rozpoznawania obrazu, to szybko stała się ona jednym z największych zagrożeń dla naszej prywatności, szczególnie w kontekście wielu firm dążących do komercyjnego wykorzystania tego rozwiązania i naszych zdjęć w sieci. Wystarczy tylko wspomnieć o Clearview AI, które korzysta ze zdjęć umieszczonych na Twitterze, Facebooku i Google, żeby stworzyć bazę danych dla technologii rozpoznawania twarzy i nie pyta nikogo o zgodę. Dziś okazuje się, że jest rozwiązanie tego problemu, ale jego efektywność zależy od tego, jak największe platformy, codziennie karmione naszymi fotkami, np. Facebook czy Instagram, podejdą do jego implementacji i popularyzacji wśród użytkowników.

A mowa o narzędziu stworzonym przez naukowców University of Chicago, dającym użytkownikom szansę ochrony zdjęć wrzucanych przez nich do sieci, które nazwane zostało Fawkes. Wykorzystuje ono fakt, że modele maszynowego uczenia muszą być trenowane na wielu zdjęciach w odpowiedniej kolejności, żeby nauczyć się rozpoznawać konkretne cechy z dużą dokładnością. Fawkes wprowadza więc małe zmiany na poziomie pikseli, które są nie do wychwycenia przez ludzkie oko, ale jednocześnie skutecznie “zakrywają” naszą twarz, uniemożliwiając sztucznej inteligencji wykorzystanie takiej fotografii. 

Naukowcy zaprezentowali możliwości swojego rozwiązania za pomocą zdjęć Gwyneth Paltrow chronionych “zasłoną” z twarzy jej kolegi po fachu, Patricka Dempseya, co uniemożliwiło sieci GAN stworzenie modelu rozpoznającego aktorkę na niechronionych w żaden sposób zdjęciach - udało się w ten sposób oszukać nawet systemy rozpoznawania twarzy Facebooka, Microsoftu, Amazona i Megvii. Jednakże Fawkes nie jest idealne, bo nie jest w stanie zrobić nic z modelami, które zostały już stworzone na podstawie niezmienionych zdjęć, jak te wykorzystywane już choćby przez organy ścigania czy wspomniane Clearview AI. 

Co ciekawe, wydaje się też, że Fawkes jest nieskuteczne przeciwko systemowi rozpoznawania twarzy od tego ostatniego, a co więcej jego CEO zdecydował się na komentarz w tej sprawie, zauważając coś bardzo istotnego: - Jest niemal na pewno zdecydowanie za późno, żeby dopracować do perfekcji technologię jak Fawkes i udostępnić ją na szeroką skalę - tłumaczy Hoan Ton-That. Niemniej Fawkes jest dostępne do pobrania na stronie projektu i zostało już ściągnięte ponad 100 tysięcy razy, więc jakieś zainteresowanie jest. Co więcej, jego powstanie może skłonić największych gigantów społecznościowych do pozyskania albo stworzenia podobnej technologii, by chronić zdjęcia swoich użytkowników, zyskują tym samym sporo na wizerunku.  

Źródło: GeekWeek.pl/uchicago.edu / Fot. nVidia