Podczas swojej corocznej konferencji re:MARS, skupiającej się na kwestiach związanych z rozwojem sztucznej inteligencji, Amazon zapowiedział nowe funkcje dla asystentki głosowej, Alexy. Otóż firma pracuje nad możliwością emulowania przez nią czyjegoś głosu.
Alexa ma móc wykorzystywać np. głos zmarłej babci
Obecnie Alexa odzywa się do użytkowników przyjaznym, damskim głosem, niczym się szczególnie niewyróżniającym. W przeszłości też zdarzało się Amazonowi wykorzystywać głosy znanych postaci, takich jak aktor Samuel L. Jackson czy były koszykarz Shaquille O’Neal.
Póki co jednak wybór użytkowników w tej kwestii jest dość ograniczony. Ma się to w bliżej nieokreślonej przyszłości (twórcy Alexy nie zdecydowali się podać jakiejkolwiek konkretnej daty) zmienić.
Oczywiście, naśladowanie głosu nie musi dotyczyć tylko osób zmarłych. Takie skojarzenie jednak pojawiło się nie bez powodu. Sam Amazon podał jako przykład zastosowania nowej funkcji… Alexę naśladującą głos zmarłej babci dla wnuka.
Chociaż sztuczna inteligencja nie może wyeliminować bólu utraty [osób bliskich – dop. red], z pewnością może sprawić, że związane z nimi wspomnienia będą trwać – Rohit Prasad, starszy wiceprezes Amazona
Alexie rzekomo wystarczy mniej niż minuta nagrania osoby, której głos ma emulować
Pomyślicie sobie – okej, ale skąd przeciętna osoba ma wziąć godziny nagrań czyjegoś głosu, żeby to miało ręce i nogi? Okazuje się, że proces ma być znacznie prostszy i mniej wymagający.
Rohit Prasad, starszy wiceprezes Amazona, powiedział, że system będzie w stanie zebrać wystarczającą ilość danych głosowych, żeby przekonująco kogoś emulować, z mniej niż minuty dźwięku. Taki krótki klip znacznie łatwiej pozyskać czy znaleźć.
Z nowym pomysłem Amazona wiąże się pewne ryzyko
Amazon w swoim przekazie podkreślił pozytywne strony swojej nowej funkcji, a więc możliwość usłyszenia ponownie kogoś bliskiego (nie w starych nagraniach, a mówiącego zupełnie nowe “kwestie”). Pojawiły się już jednak głosy wskazujące na potencjalne zagrożenia związane z tego rodzaju technologią.
Z pewnością istnieje pewne ryzyko, na przykład jeśli głos i wynikające z niego interakcje AI nie pasują do wspomnień bliskich tej osoby. Niektórzy uznają to za przerażające lub wręcz straszne (…) – Micheal Inouye, ABI Research
Dokładniej mówiąc, chodzi tutaj o tak zwany efekt doliny niesamowitości (uncanny valley). Powstaje on, kiedy jakiś robot czy maszyna emituje człowieka bardzo dobrze, ale nie idealnie, w związku z czym wywołuje w ludziach niepokój.
Co o tym wszystkim sądzicie? Czyj głos podłożylibyście Alexie (jeśli w ogóle czyjkolwiek), gdybyście mieli opcję wypróbowania tej funkcji? Dajcie koniecznie znać w komentarzach!
WARTO PRZECZYTAĆ: