Naukowcy nie mogli się powstrzymać i dali sztucznej inteligencji dostęp do broni. Na szczęście tylko w grze wideo. Co więcej, obecnie radzi sobie z nią kiepsko.
Niejaki Adrian de Wynter, naukowiec z Microsoftu i badacz na Uniwersytecie w Yorku, postanowił przetestować możliwości GPT-4, każąc AI grać w Dooma bez wcześniejszego szkolenia. Wyniki wskazały, że sztuczna inteligencja może grać w grę z pewnym stopniem skuteczności. Należy jednak zaznaczyć, że konieczne jest użycie interfejsu GPT-4V oraz dodanie Matplotlib i Pythona, aby umożliwić wprowadzanie danych.
AI może i strzela, ale za to nic nie pamięta
Według oryginalnej publikacji, sztuczna inteligencja GPT-4 grająca w Doom może otwierać drzwi, walczyć z wrogami i strzelać z broni. Podstawowe funkcje rozgrywki, w tym nawigacja po świecie, są w zasadzie opanowane. Jednakże, AI nie ma praktycznie żadnej pamięci – jak tylko wróg zniknie z ekranu, bot o nim zapomina. Nawet jeśli dołączono instrukcje, co zrobić, jeśli wróg poza ekranem wyrządza obrażenia, model nie jest w stanie zareagować na cokolwiek poza jego wąskim zakresem możliwości.
Mówiąc o wnioskach swoich badań, De Wynter zauważa:
„To dość niepokojące, jak łatwo było mi napisać kod, który sprawił, że AI strzela do czegoś i robi to celnie, nie zastanawiając się nad instrukcjami. […] Więc, choć jest to bardzo interesujące badanie planowania i rozumowania, które może mieć zastosowanie w automatycznym testowaniu gier wideo, jest jasne, że ten model nie jest świadomy tego, co robi. Gorąco zachęcam wszystkich do przemyślenia, jakie konsekwencje dla społeczeństwa niesie wdrożenie tych modeli i ich potencjalne nadużycia”.
Adrian de Wynter
Na szczęście, ludzkość nie produkuje jeszcze morderczych robotów z celnością i rozumowaniem porównywalnym do najlepszych graczy FPS, nie mówiąc już o niepowstrzymanej sile przeciętnego T-800 znanego z filmów. Na chwilę obecną głównym „atakem AI”, o którym większość osób się martwi, jest AI generatywne i jego wpływ na niezależnych twórców i przemysł jako całokształt.
Niemniej, fakt, że GPT-4 nie wahał się strzelać do obiektów w kształcie ludzi, nadal jest niepokojący. To dobry czas, aby przypomnieć czytelnikom, że „Prawa Robotyki” Isaaca Asimova, nakazujące, by roboty nie szkodziły ludziom, zawsze były fikcyjne. Miejmy nadzieję, że osoby realizujące projekty związane z AI, znajdą sposoby na właściwe zakodowanie ochrony dla ludzkości do swoich modeli, zanim Skynet wejdzie w życie.
Najnowsze Komentarze