OpenAI ogłosiło, że buduje nowy zespół, który będzie składał się z najlepszych badaczy i inżynierów zajmujących się uczeniem maszynowym. Jego celem będzie opracowanie metod szkoleniowych zapewniających, że sztuczna inteligencja nie zbuntuje się.
OpenAI stwierdziło, że superinteligencja będzie „najbardziej wpływową technologią”, jaką kiedykolwiek stworzył człowiek i pomoże ona rozwiązać wiele problemów świata. Firma uważa też, że sAI może być bardzo niebezpieczne i potencjalnie doprowadzić do wyginięcia ludzi. Twierdzi również, że obecnie nie ma sposobu na sterowanie lub kontrolowanie superinteligentnej sztucznej inteligencji.
Skynet znany z uniwersum terminatora przestaje być science-fiction?
W przypadku obecnych modeli AI wykorzystywane jest uczenie przez wzmacnianie i informacje zwrotne od ludzi nadzorujących sztuczną inteligencję. Ostatecznie OpenAI nie sądzi, by ludzie byli w stanie niezawodnie nadzorować systemy AI w przyszłości. Aby sprostać temu wyzwaniu, OpenAI tworzy nowy zespół Superalignment, którego cele są następujące:
- Opracowanie skalowalnej metody uczenia;
- Walidacja wynikowego modelu;
- Przetestowanie w warunkach skrajnych całego procesu dopasowywania.
Ponieważ jest to tak ważna kwestia dla firmy, nowy zespół będzie miał dostęp do 20% mocy obliczeniowej posiadanej przez OpenAI. Grupa „Superalignment” będzie miała cztery lata, aby rozwiązać problem dostosowania i okiełznania superinteligencji.
Należy pamiętać, że super AI niekoniecznie będzie złośliwe. Istnieje jednak taka możliwość i właśnie o to martwi się OpenAI. Firma uważa, że superinteligencja może zostać osiągnięta w tej dekadzie i twierdzi, że mogą być pewne problemy z jej kontrolowaniem.
Najnowsze Komentarze