Z każdym dniem sztuczna inteligencja zyskuje na popularności. Nic więc dziwnego, że coraz więcej osób poddaje w wątpliwość podejmowane przez nią decyzje.
OpenAI wkracza na nowe tereny, finansując badania nad moralnością sztucznej inteligencji. Jak ujawniono w sprawozdaniach podatkowych, część firmy będąca organizacją non-profit przyznała grant naukowy badaczom z Duke University na projekt zatytułowany „Badania nad moralnością AI”. Inicjatywa ta jest częścią większego programu, w ramach którego przeznaczono już 1 milion dolarów (ponad 4,1 miliona złotych) na przestrzeni trzech lat.
Kolejne podejście naukowców do etycznego AI

Projektem kierują Walter Sinnott-Armstrong, profesor specjalizujący się w etyce praktycznej, oraz Jana Schaich Borg, oboje uznani za swoją pracę nad podejmowaniem decyzji moralnych przez sztuczną inteligencję. Zespół Sinnott-Armstronga zajmował się już w przeszłości podobnymi dylematami, jak projektowanie algorytmów decydujących o przydziale organów do przeszczepów, aby poprawić ich sprawiedliwość.
Projekt finansowany przez OpenAI ma na celu stworzenie algorytmów przewidujących ludzkie osądy moralne w takich dziedzinach jak medycyna, prawo czy biznes. Nie jest to pierwsze tego typu rozwiązanie. Wcześniej mieliśmy do czynienia z Ask Delphi od Allen Institute for AI, które miało udzielać etycznych odpowiedzi. Choć dobrze radziło sobie z prostymi dylematami, łatwo można je było zwieść do udzielania moralnie wątpliwych odpowiedzi poprzez inaczej sformułowane pytania.
Czy AI może w znaczący sposób dostosować się do ludzkich wartości – lub czy w ogóle powinna – pozostaje przedmiotem wielu dyskusji. Jednak skuteczne rozwiązanie tego problemu mogłoby mieć ogromne znaczenie, wpływając na nasze zaufanie do maszyn w podejmowaniu decyzji moralnych. Aby zobaczyć czy nowy projekt okaże się przełomem w tym temacie będziemy musieli poczekać do 2025 roku, kiedy zakończy się okres grantu.

Najnowsze Komentarze