Co nowego na rynku? Na czym warto zawiesić ucho? Kto i za co dostał kolejną nagrodę? To jest TECHNEWS! Sprzęt dla lektorów? W dziale TESTY znajdziesz efekty naszych praktycznych doświadczeń na mikrofonach i przedwzmacniaczach. A na deser świeżutkie promocje. Trzymaj rękę na pulsie.
A problem dotyczy aktorów dubbingowych, lektorów i ich własności intelektualnej. Rozwój technologii zastępującej ludzki głos jest nieunikniony, lecz AI balansuje często na cienkiej granicy prawa i etyki. Zatem uważajmy na niejasne klauzule w umowach!
Altered AI to program, który zaczął być wykorzystywany w procesie robienia gier, wywołując przy tym skrajne emocje. To świetne rozwiązanie dla twórców z małym budżetem oraz duży problem dla aktorów dubbingowych i ich własności intelektualnej.
Mówi się, że komputery wkrótce zastąpią ludzi w wykonywaniu rozmaitych zadań. Te czasy powoli nadchodzą. Od jakiegoś czasu szybko postępuje rozwój AI, które potrafi generować nagrania głosowe. Branża gier stała się polem do testowania tej technologii i już dziś możemy być świadkami tego, jak maszyny zastępują aktorów głosowych w pracy.
Dokonania projektu Altered AI
Kirk McKeand przygotował raport w imieniu organizacji Good Luck Have Fun, analizujący rozwój technologii AI, która jest wykorzystywana w branży gier do podkładania kwestii dialogowych. /.../ Z informacji zawartych w raporcie wynika, że AI brała udział w pracach nad "The Ascent" czy grach studia Ninja Theory (autorów m.in. serii "Hellblade"), lecz McKeand twierdzi, że tych przypadków jest wiele więcej.
"Dla jasności – używamy technologii AI jako tymczasowe zastępstwo, pomagające nam zrozumieć takie aspekty, jak rytm i umiejscowienie dźwięku we wczesnych etapach produkcji. Później współpracujemy z aktorami, których praca jest istotnym elementem, wnoszącym życie w nasze historie" - czytamy na oficjalnym koncie studia Ninja Theory.
/.../ Program jest prosty w użyciu i oferuje szeroką gamę barw oraz tonów głosu w zasięgu jednego kliknięcia. Prace nad systemem trwają od wielu lat, lecz - jak twierdzą sami twórcy - jest on dopiero na początku drogi do wykorzystania jego pełnego potencjału.
Obawy aktorów
Moralność wykorzystania technologii sztucznego tworzenia głosów już na tym etapie jest kwestionowana. Jak absurdalnie by to nie brzmiało, przyszłość pozbawiona potrzeby zatrudniania aktorów głosowych staje się coraz realniejsza. Oczywiście człowiek nadal jest elementem niezbędnym do procesu generowania dźwięków przez AI, jednak funkcja swego rodzaju bazy lub próbki dla komputera stanowczo różni się od pracy aktora, wcielającego się w konkretne role. Związane jest to także z praktykami, przez które aktorzy głosowi przy każdym podpisywaniu umowy muszą mieć się na baczności.
Cissy Jones, znana między innymi z ról w takich grach jak "Firewatch" czy "Life is Strange", wyjaśnia:
"Zbyt wiele firm prosi aktorów o podpisanie strasznych kontraktów z zerowym wkładem w produkt końcowy w celu często kiepskiego jednorazowego wykupu. Zdecydowanie rozumiem, jak ta technologia może być intrygująca w grach niezależnych, ale jeśli jako aktorzy nie mamy żadnej ochrony, nasze głosy mogą zostać wykorzystane do obraźliwych materiałów lub niewłaściwego obsadzenia. Daje im to prawo do korzystania z nagrań z sesji niezwiązanej z AI, które będą – lub już były – wykorzystywane do tworzenia głosu syntetycznego. Znajdujemy wszelkiego rodzaju ukryte klauzule, ukryte szczegóły i niejasne słownictwo, które wystarczą, aby zakręcić ci w głowie. To niesamowicie przygnębiające, ponieważ niewiele firm – jeśli w ogóle – prosi aktorów o zdanie na temat tego, co jest sprawiedliwe."
A przy podpisywaniu umowy miejmy się na baczności! Rozszerzeniem tematu może być opublikowany przez nas felieton Szukamy lektora do syntezatora:
- Masz tu linkę, zawiąż sobie pętlę. A tam masz deseczki, zbijesz sobie stołeczek. Tak zdają się do nas mówić w swoich zapytaniach ofertowych firmy od systemów maszynowego czytania. Trzeba być kompletnym idiotą, by sprzedać swój głos na najczęściej proponowanych przez producentów oprogramowania warunkach - przekonuje Tomasz Bartos.
Komentarze (1)
2023-05-04Tymczasowy
Trwają już prace nad stworzeniem narzędzi, które będą w stanie stworzyć filmy na podstawie scenariuszy. W tych filmach nie będzie potrzeba zatrudniać aktorów do pracy na planie - będzie wystarczyło dobre skanowanie twarzy i nałożenie jej głównych cech na model aktora. Głos już dobrze się generuje, ale ma jeszcze duży problem z doborem do danych scen. Jednak poszerzenie SSML w przyszłości o dodatkowe tagi wykorzystujące emocje da pierwszą możliwość, aby stworzyć w całości aktorów, którzy będą tworzeni i sterowani cyfrowo.
Niestety, wtedy lektorzy nie będą już potrzebni, bo film wygeneruje się w danym języku.
Czy to odległa przyszłość? Według mnie jakieś 20 lat maksymalnie przy obecnej technologi. Bardziej 5-10 lat, aby mieć pierwsze gotowe w miarę dobrze działające technologie generujące AI. Najgorsze to sieci neuronowe i szkolenie modeli. Potem już z górki...
Trwają już prace nad stworzeniem narzędzi, które będą w stanie stworzyć filmy na podstawie scenariuszy. W tych filmach nie będzie potrzeba zatrudniać aktorów do pracy na planie - będzie wystarczyło dobre skanowanie twarzy i nałożenie jej głównych cech na model aktora. Głos już dobrze się generuje, ale ma jeszcze duży problem z doborem do danych scen. Jednak poszerzenie SSML w przyszłości o dodatkowe tagi wykorzystujące emocje da pierwszą możliwość, aby stworzyć w całości aktorów, którzy będą tworzeni i sterowani cyfrowo.
Niestety, wtedy lektorzy nie będą już potrzebni, bo film wygeneruje się w danym języku.
Czy to odległa przyszłość? Według mnie jakieś 20 lat maksymalnie przy obecnej technologi. Bardziej 5-10 lat, aby mieć pierwsze gotowe w miarę dobrze działające technologie generujące AI. Najgorsze to sieci neuronowe i szkolenie modeli. Potem już z górki...