W zeszłym roku opublikowane zostały dokumenty dotyczące programu SKYNET agencji NSA, ujawnione przez Edwarda Snowdena. W jego ramach sztuczna inteligencja - algorytmy uczenia maszynowego - przegląda dane dotyczące 55 milionów osób i wskazuje potencjalnych terrorystów. I na tej podstawie zabijani są ludzie.

Patri Ball z Human Rights Data Analysis Group wskazuje, że twierdzenia NSA dotyczące skuteczności SKYNET-u są kompletną bzdurą - wyniki te po prostu nie trzymają się kupy, a właśnie trzeba mieć na uwadze, że na ich podstawie wybierane są cele dla dronów, a możemy tu mówić nawet o kilkunastu tysiącach osób, spośród których wiele zostało wskazanych przez AI.

SKYNET działa w ten sposób, że przegląda ogromne zbiory danych gromadzonych na serwerach NSA - dane te dotyczą głównie korzystania z sieci telefonii komórkowej, kto dzwonił do kogo, ile trwało połączenie, skąd było wykonywane i kiedy, czy ktoś często zmienia karty SIM etc. Na tej podstawie tworzone są profile przepuszczane następnie przez algorytmy uczenia maszynowego - komputer stara się dostrzec tam pewne wzory mogące wskazywać na potencjalnych terrorystów i na tej podstawie Amerykanie wydają wyroki śmierci bardzo sprawnie realizowane z pomocą bezzałogowych maszyn latających, ale nie tylko - pomagają im też naziemne szwadrony śmierci.

Już w zeszłorocznym przecieku widać było, że najważniejszym celem jaki udało się w ramach SKYNET-u zlikwidować był Ahmad Zaidan - niesłusznie zabity dziennikarz kanału Al-Jazeera. Jego zachowanie faktycznie dla komputera mogło wyglądać na zachowanie terrorysty - poruszał się on po tych samych obszarach co członkowie Al-Kaidy czy IS, często komunikował się z podejrzanymi, ale wszystko to robił w ramach swojej dziennikarskiej pracy, aby dostarczyć opinii publicznej informacji o działaniu radykalnych islamistów.

Problem może tu leżeć nie w samych algorytmach ale w danych - aby bowiem mógł się on skutecznie uczyć trzeba posiadać informacje o terrorystach, ale tych z wiadomych przyczyn nie ma zbyt wiele. Przez to siada cała matematyka stojąca za nawet najbardziej poprawnie napisanych algorytmem i wskazywani do zabicia są niewinni ludzie, a jeśli proces ich ręcznej weryfikacji nie działa także zbyt dobrze to rezultat możecie sobie sami wyobrazić.

Według Balla, optymistyczne założenia (czyli 0.008% fałszywych wskazać) pozwalają nam stwierdzić, że aż 15 tysięcy całkowicie niewinnych osób mogło zostać w ten sposób "terrorystami".

Cóż, algorytmy rządzą naszym życiem, jednak na zachodzie zależy od nich głównie to jaką reklamę zobaczymy w sieci. W innych częściach świata stawka pomyłki maszyny jest jednak dużo wyższa.

Źródło: ZME Science