Na szczęście nie mówimy jeszcze o pierwszym terminatorze. Nie oznacza to jednak, że nowe narzędzie do klonowania głosu nie wiąże się z oczywistymi problemami i ryzykiem.
Firma znana z popularnych rozwiązań wykorzystujących sztuczną inteligencję, OpenAI, stoi przed poważnym dylematem. A to dlatego, że stworzyła ona potężny model AI do klonowania głosu. Działa on tak dobrze, że firma obawia się, że zostanie użyty w niecnych celach.
Firma pragnie wprowadzić „czarną listę” popularnych głosów
Z tego powodu OpenAI waha się, czy powinno udostępnić model publicznie. Zamiast tego firma zaprezentowała jedynie podgląd, mający zademonstrować zdolności modelu o nazwie Voice Engine. I rzeczywiście, jego możliwości są równie imponujące, jak i przerażające.
Podstawy technologii klonowania głosu za pomocą AI są z perspektywy użytkownika bardzo proste. Model potrzebuje tylko dwóch rzeczy: próbki dźwiękowej oryginalnego głosu i tekstu, który ma przeczytać. Wystarczy dostarczyć narzędziu odpowiednią liczbę nagrań, a rezultat będzie brzmiał realistycznie.
W przeciwieństwie do innych modeli, które już są publicznie dostępne, Voice Engine potrzebuje zaledwie 15-sekundowego nagrania oryginalnego mówcy, aby oferować realistycznie brzmiące głosy. To właśnie dlatego OpenAI musi zdecydować, co dalej zrobić. Tak potężne narzędzie mogłoby stać się potężną bronią w rękach cyberprzestępcó, zwłaszcza jako część kampanii dezinformacyjnych czy wyłudzających dane.
Voice Engine został opracowany pod koniec 2022 roku. Od tego czasu był używany do zasilania predefiniowanych głosów dostępnych w interfejsie API do przekształcania tekstu na mowę, a także w ChatGPT Voice i Read Aloud. Pod koniec ubiegłego roku OpenAI rozpoczęło prywatne testy możliwości klonowania głosu z małą grupą zaufanych partnerów.
OpenAI uważa, że szersze wdrożenie tej technologii powinno iść w parze z politykami i środkami zaradczymi mającymi zapobiegać jej nadużyciom. Dla przykładu, oryginalni „dawcy głosu” powinni móc dodać swój głos do usługi jedynie świadomie i za zgodą. Ponadto, Voice Engine powinien posiadać „listę zakazanych osób” – celebrytów, polityków i innych prominentnych postaci, których rekreacja głosu byłaby zabroniona.
Demonstracja i możliwe udostępnienie Voice Engine powinno wywołać publiczną dyskusję. Firma zachęca do podjęcia następujących kroków w celu łagodzenia możliwych problemów:
- Wycofywanie autoryzacji głosowej jako środka bezpieczeństwa do uzyskiwania dostępu do kont bankowych i innych wrażliwych informacji
- Eksplorowanie polityk ochrony wykorzystania głosów osób w AI
- Edukowanie społeczeństwa w zrozumieniu możliwości i ograniczeń technologii, w tym możliwości tworzenia dezinformacyjnych treści z pomocą sztucznej inteligencji
- Przyśpieszenie rozwoju i przyjęcia technik śledzenia pochodzenia treści audio-wizualnych, aby zawsze było jasne, czy użytkownik ma do czynienia z prawdziwą osobą, czy z AI.
Najnowsze Komentarze