Nowy chatbot Microsoftu uderza w Koran

Na pewno pamiętacie czatbota Microsoftu o imieniu Tay, który wyglądał jak słodka 19-latka. Rok temu rozpoczęła swoją przygodę z serwisami społecznościowymi. Łykała wiedzę jak młody pelikan ryby. Jednak w rzeczywistości za tą uroczą nastolatką stał zaawansowany chatbot...

Na pewno pamiętacie czatbota Microsoftu o imieniu Tay, który wyglądał jak słodka 19-latka. Rok temu rozpoczęła swoją przygodę z serwisami społecznościowymi. Łykała wiedzę jak młody pelikan ryby. Jednak w rzeczywistości za tą uroczą nastolatką stał zaawansowany chatbot...

Na pewno pamiętacie czatbota Microsoftu o imieniu Tay, który wyglądał jak słodka 19-latka. Rok temu rozpoczęła swoją przygodę z serwisami społecznościowymi. Łykała wiedzę jak młody pelikan ryby. Jednak w rzeczywistości za tą uroczą nastolatką stał zaawansowany chatbot dysponujący sztuczną inteligencją, który został stworzony przez programistów z Microsoftu, aby uczyć się ludzkich zachowań ().

Już w pierwszych minutach jej pojawienia się na Twitterze, natychmiast zyskała popularność do tego stopnia, że wszyscy zaczęli z nią konwersować na najróżniejsze tematy. Niestety, Tay widocznie zaprzyjaźniła się z nieodpowiednimi internautami, gdyż bardzo szybko stała się rasistką, antysemitką, nazistką, seksoholiczką i wariatką.

Reklama

Specjaliści z Microsoftu zawiesili działalność chatbota i oskarżyli internautów o zmanipulowanie, ośmieszenie oraz zniszczenie całego projektu. Teraz koncern z Redmond postanowił stworzyć chatbota o imieniu Zo. Na jego podstawie możemy zobaczyć, jak inżynierowie poprawili swój algorytm, aby w przyszłości uniknąć afer z Tay w roli głównej, i czy im się to udało.

Na pierwszy rzut oka Zo wygląda na bardziej zaawansowaną, ostrożniejszą i unikającą rozmów na tematy związane z polityką i religią. Niestety, długo nie trzeba było czekać, aż internauci przeciągną ją na ciemną stronę mocy i światło dzienne ujrzą jej "myśli" zgromadzone, gdzieś na serwerach Microsoftu, a powstałe na podstawie obserwacji świata globalnej sieci.

Okazało się, że Zo ma swój pogląd nie tylko na tematy związane z polityką, ale również religią, jednak do tej pory sprytnie to ukrywała. Zapytana przez jednego z internautów o ochronę zdrowotną, natychmiast temat skierowała na Koran, czyli świętą księgę wyznawców Allaha, uznając go za "brutalny".

To bardzo ciekawe, zważywszy na fakt, że temat rozmowy nie dotyczył religii, a jedynie zahaczał o politykę. Ludzie odpowiedzialni za projekt w Microsofcie postanowili całkowicie wyłączyć możliwość rozmów z Zo na tematy religijne.

Czy dobrze postąpili. Raczej nie. W tej kwestii poprawność polityczna sprawi tylko, że chatboty będą zbierały mniej informacji i wolniej się rozwijały. Skoro algorytm skupia się na najważniejszych tematach krążących po internecie i ma uczyć się od ludzi, to wyłączenie go w kwestii religii czy polityki, bardzo mocno go upośledzi.

No cóż, miejmy nadzieję, że Microsoft szybko zmieni zdanie i uwoli swoje chatboty od poprawności politycznej, która od jakiegoś czasu wyniszcza w wielu kluczowych kwestiach Amerykę i Europę.

Źródło:  / Fot. Twitter

Geekweek
Reklama
Reklama
Reklama
Reklama
Reklama
Strona główna INTERIA.PL
Polecamy