Modele językowe oferują mnóstwo przydatnych funkcji. Jednak część użytkowników korzysta z nich w bardzo niepokojący sposób, który właśnie ujrzał światło dzienne.
Badanie przeprowadzone przez firmę UpGuard zajmującą się cyberbezpieczeństwem ujawniło poważne naruszenie prywatności osób korzystających z lokalnych modeli AI używanych do dość niecodziennego zastosowania, jakim są fabularne gry erotyczne. Okazuje się, że z powodu nieprawidłowych ustawień przekazywały one rozmowy z użytkownikami do sieci niemal w czasie rzeczywistym.
Coraz więcej osób nawiązuje emocjonalne więzi z AI

Sytuacja jest martwiąca z dwóch powodów. Pierwszym z nich jest oczywiście sam fakt istnienia luki w zabezpieczeniach, która doprowadziła do całej sytuacji. Przyczyną był niepoprawnie skonfigurowany plik llama.cpp, część popularnego otwarto-źródłowego frameworka używanego do lokalnego uruchamiania modeli sztucznej inteligencji. Badanie wykazało, że błąd pojawił się w około 400 systemach AI, z których 117 aktywnie ujawniało polecenia użytkowników. I tu rodzi się drugi poważny problem.
Dane zebrane w ciągu 24 godzin ujawniły mnóstwo bardzo szczegółowych i prywatnych fantazji użytkowników. Najbardziej niepokojące były przykłady scenariuszy opisujących wykorzystywanie seksualne dzieci, a niektóre z nich dotyczyły ofiar w wieku zaledwie siedmiu lat. Eksperci ostrzegają, że użytkownicy coraz częściej nawiązują emocjonalne więzi z AI, przez co są bardziej skłonni do ujawniania jej swoich najgłębszych sekretów i pragnień – również tych z natury niemoralnych.

Najnowsze Komentarze