Permanentny przegląd prasy, portali internetowych, społecznościowych, radia i telewizji. Zbieramy wszelkie publikacje na temat lektorów i ich pracy. Efekt naszych poszukiwań znajdziesz w tym dziale. Jeśli masz coś czego tu nie ma, podziel się linkiem! Koniecznie daj nam znać!
Motherboard, czyli dział portalu VICE poświęcony technologii, zebrał opinie anglojęzycznych aktorów głosowych na temat rozwoju i użycia generatorów mowy. Czy możliwa jest współpraca pomiędzy twórcami technologii a wykonawcami?
Aktorzy głosowi coraz częściej są proszeni o podpisywanie umów, na mocy których klient może użyć sztucznej inteligencji do generowania syntetycznych wersji ich głosów, które w końcu mogą ich zastąpić, czasem bez dodatkowego wynagrodzenia - informują organizacje zajmujące się ochroną praw aktorów i sami aktorzy, którzy rozmawiali z Motherboard. /.../ To tylko jedna z wielu obaw aktorów dotyczących rozwoju sztucznej inteligencji generującej głos, która ich zdaniem zagraża całym segmentom branży - czytamy we wstępie artykułu na portalu Vice.com.
„To brak szacunku dla rzemiosła i sugerowanie, że generowanie występu jest równoważne z występem prawdziwego człowieka. /.../ Oczywiście, można nawet sprawić, że (głos) będzie brzmiał, jakby uchwycił emocje, ale na końcu wciąż będzie brzmiał pusto i fałszywie" - napisał dla Motherboard w e-mailu aktor głosowy Sung Won Cho.
Sarah Elmaleh, aktorka głosowa i reżyserka, która pracowała przy "Fortnite" i "Halo Infinite" uważa, iż zgoda w wykonawstwie musi być ciągła. „Co się dzieje, gdy z radością zgadzamy się na rolę, a następnie w studiu widzimy w scenariuszu linijkę, która nam się nie podoba i wyrażamy jednoznaczny sprzeciw? /.../ Normalnie jesteśmy w stanie odmówić przeczytania linii, aby jej nie używano. Ta technologia oczywiście omija to całkowicie” - powiedziała.
Mati Staniszewski, współzałożyciel ElevenLabs, wyjaśnił Motherboard w e-mailu, że firma widzi przyszłość, w której firmy AI i aktorzy głosowi będą współpracować. "Aktorzy głosowi nie będą już ograniczani liczbą sesji nagraniowych, w których mogą uczestniczyć, a zamiast tego będą mogli licencjonować swoje głosy do użytku w dowolnej liczbie projektów jednocześnie, zapewniając dodatkowe przychody i źródła tantiem. Ten potencjał został już zauważony przez samych aktorów głosowych; kilkudziesięciu z nich skontaktowało się z nami, deklarując zainteresowanie taką współpracą" - napisał Staniszewski.
W odpowiedzi na oświadczenie ElevenLabs Fryda Wolff - aktorka głosowa znana m.in. z gry "Apex Legends" - stwierdziła: "Aktorzy nie chcą możliwości licencjonowania lub zapewniania dodatkowych źródeł dochodów; ten nonsensowny żargon zdradza, że ElevenLabs nie ma pojęcia, jak aktorzy głosowi zarabiają na życie".
Gdy Motherboard poprosiło Staniszewskiego o przedstawienie jednego z aktorów głosowych, którzy skontaktowali się z firmą, wskazał na Lance'a Blaira, którego portfolio obejmuje reklamy i filmy szkoleniowe. Blair potwierdził: "Pomimo poważnych obaw moich kolegów, które podzielam, korzystam z tej technologii, aby usłyszeć siebie tak, jak słyszą mnie inni i eksplorować różne sposoby podejścia do moich tekstów".
Za oceanem w branży pojawiają się już pierwsze rozwiązania prawne. Dla wykonawców związanych z amerykańskim związkiem aktorskim SAG-AFTRA "prawo do syntezy głosu wykonawcy jest obowiązkowym przedmiotem negocjacji". SAG-AFTRA chce, by aktorzy głosowi uzyskiwali uczciwą zapłatę za swoją pracę i talent.
Lance Blair, który współpracuje również z pierwszym w Polsce internetowym bankiem głosów Mikrofonika, skomentował na LinkedIn swoje wrażenia z testowania AI:
"To jest niesamowicie imponujące, ale wszystkie te głosy są bardzo płaskie. Ja sklonowałem swój głos z ElevenLabs i musiałem ustawić go na "mniej stabilnie", aby nie brzmiał nudno po 15 sekundach. I za każdym razem, gdy wprowadzałem ten sam tekst do "mniej stabilnego", stawał się coraz bardziej nerwowy. Dwóch facetów prowadzących ElevenLabs to wspaniali ludzie i są z Polski. Ale jak powiedziałem w cytacie o sztucznej inteligencji w VICE, ja korzystam z AI (ale nie z jej nadużyć w branży!), ponieważ pozwoliło mi to usłyszeć swój głos w nowy sposób. Myślę, że w większości przypadków AI nie zastąpi naszych głosów, ale pomaga nam słyszeć mowę w nowy, świeży sposób."
Na czym polegają osiągnięcia ElevenLabs? - Okazuje się, że Polacy też potrafią w sztuczną inteligencję, a przynajmniej ta dwójka: Piotr Dąbrowski, niegdyś pracownik Google oraz Mati Staniszewski, wcześniej związany z firmą Palantir. W 2022 roku założyli startup o nazwie ElevenLabs, zajmujący się rozwijaniem autorskiego modelu TTS (text-to-speech), a mówiąc prościej — algorytmów AI, które syntezują tekst w mowę. Algorytmy te skalibrowane są tak, by wybrany narrator w najbardziej „ludzki” sposób odczytał wpisaną przez użytkownika treść, dbając o odpowiednią intonację oraz fleksję. Trzeba przyznać, że efekt jest wyśmienity i już teraz przewyższa to, co zaproponowała firma Apple w swojej aplikacji Books - wyjaśnia Artur Kruszyna w artykule na portalu Oiot.pl.
Model klonowania głosu zbudowany przez polską spółkę pozwala uzyskać duże podobieństwo do próbki wyjściowej bez czasochłonnego treningu, nawet wtedy, gdy ta ma długość kilku sekund. - We wrześniu ubiegłego roku ElevenLabs zademonstrował możliwości swojego generatora mowy na platformie YouTube, zastępując głos Leonardo DiCaprio głosami innych sław, takich jak Joe Rogan, Steve Jobs, Robert Downey Jr., Bill Gates i Kim Kardashian. Ten krok przyciągnął uwagę internautów oraz mainstreamowych mediów - przypomina Oiot.pl.
Brak komentarzy