Szefostwo serwisu YouTube chwali się, że w ciągu ostatnich 3 miesięcy moderatorzy i algorytmy sztucznej inteligencji wspólnie usunęli 8 milionów niezgodnych z regulaminem filmów, na których znalazły się treści pedofilskie czy rasistowskie. 5 milionów z nich zostało usuniętych jeszcze przed ich opublikowaniem, więc nikt ich nie zdążył zobaczyć.

Sztuczna inteligencja jest znacznie skuteczniejsza od żywych moderatorów, bo na 8 milionów niestosownych treści oznaczyła aż 6,7 miliona. Pomimo tego, YouTube zainwestował ostatnio w cały oddział ludzkich moderatorów, aby wspomagali AI, które często daje się oszukać.

Do końca roku ma rozpocząć pracę blisko 10 tysięcy dodatkowych ludzi, a firma ma już ściśle współpracować z blisko 150 instytucjami na co dzień walczącymi z niestosownymi treściami rozpowszechnianymi w globalnej sieci.

Oczywiście wciąż blokowane i kasowane będą tylko takie treści, które niezgodne są z poglądami i wizją świata założycieli YouTube. Szefostwo serwisu podejmuje najróżniejsze próby walki z wulgaryzmami, ale wciąż nie przeszkadza to im w monetyzacji kanałów promujących nazizm, fałszywe wiadomości, nienawiść czy pedofilię.

maxrererresdefaulterer YouTube nie radzi sobie z blokowaniem nieodpowiednich treści. Fot. Twitter.

Kilka dni temu ponad 300 firm, w tym Facebook, Amazon, Adidas, Netflix czy Apple poskarżyło się władzom YT, że ich reklamy wyświetlane są na tego typu kanałach, a serwis nic z tym faktem nie robi i nawet czerpie z tego zyski.

YouTube jednak stara się bronić i powtarza jak mantrę, że współpracuje z własnymi reklamodawcami i zaostrza zasady wyświetlania treści sponsorowanych. Niestety, ten system mocno kuleje, ale i też jest on świadomym działaniem władz YT.

Przecież gdyby serwis blokował wszystkie nieodpowiednie treści, to zwyczajnie poszedłby z torbami, bo nie jest tajemnicą, że 80 procent jego zasobów to zwykły śmietnik.

Źródło: GeekWeek.pl/CNN/TheNextWeb / Fot. YouTube