Już nawet szef DeepMind widzi zagrożenie związane ze sztuczną inteligencją

Ostatnimi czasy bardzo często poruszany jest w mediach temat sztucznej inteligencji i zagrożeń, z którymi przyjdzie się nam zmierzyć, gdy nie będziemy trzymali się pewnych reguł, zarówno przy jej tworzeniu czy rozwijaniu, jak i zastosowaniu w najróżniejszych systemach...

Ostatnimi czasy bardzo często poruszany jest w mediach temat sztucznej inteligencji i zagrożeń, z którymi przyjdzie się nam zmierzyć, gdy nie będziemy trzymali się pewnych reguł, zarówno przy jej tworzeniu czy rozwijaniu, jak i zastosowaniu w najróżniejszych systemach.

Okazuje się, że zagrożenie to dostrzegają nie tylko znane osobistości ze świata technologii i nauki: jak Elon Musk, Bill Gates czy Stephen Hawking, ale coraz częściej o tym mówią również same osoby mocno zaangażowane w tworzenie AI.

Ostatnio głos zabrał sam Demis Hassabis, szef wiodącej brytyjskiej firmy AI DeepMind, która jest własnością Google/Alphabet. Jej inżynierowie są pionierami rozwoju systemów sztucznej inteligencji. To oni stworzyli bota AlphaGo, który niedawno bez problemu pokonał najlepszych w nią graczy (zobaczcie tutaj), o czym głośno było na całym świecie.

Hassabis powiedział podczas spotkania na University College London, że widzi ogromny potencjał w AI, gdyż z jej pomocą będziemy mogli dokonywać przełomowych odkryć naukowych.

"Sztuczna inteligencja jest niesamowitym narzędziem do przyspieszania odkryć naukowych. Wierzę, że będzie to jedna z najbardziej korzystnych technologii rozwijanych przez ludzkość w jej historii" - powiedział szef DeepMind.

Widzi on jednak też sporo problemów i zagrożeń na polu jej rozwoju. "Pojawia się  wiele ciekawych i trudnych pytań natury filozoficznej. Niebawem będziemy musieli odpowiedzieć na pytania, jak kontrolować te systemy, jakie wartości w nich zaszczepić, w jaki sposób chcemy je wdrożyć i co chcemy tym uzyskać" - dodał Demis Hassabis.

Szef DeepMind, podobnie jak inni ludzie związani ze światem najnowocześniejszych technologii, jest zwolennikiem odpowiednich regulacji związanych z AI, a jego zespół zawsze pracował w oparciu o zasady etyczne. Nie chce on jednak, aby regulacje blokowały postęp prac nad nią.

W swoim wystąpieniu na brytyjskiej uczelni powiedział również, że to od ludzi będzie zależało, czy sztuczna inteligencja będzie dumą ludzkości czy jej przekleństwem.

"Istnieje ryzyko związane z AI. To wszystko będzie zależało od tego, w jaki sposób my, jako społeczeństwo, zdecydujemy się rozwijać te technologie. Później przekonamy się, czy przyniosło do dobre czy jednak złe efekty" - powiedział szef DeepMind.

Źródło: GeekWeek.pl/University College London / Fot. PxHere