Najnowsza generacja modelu wideo AI od ByteDance z rewolucyjnym systemem @-reference. Połącz tekst, obrazy, klipy wideo i audio w jednym poleceniu. Natywna synchronizacja audio-wideo, edycja V2V i rozdzielczość do 2K przy 30fps — wszystko w jednym, ujednoliconym procesie generowania.
Seedance 2.0 to najbardziej zaawansowany model generowania wideo AI firmy ByteDance, zaprezentowany w lutym 2026 roku. Wykorzystuje ujednoliconą, multimodalną architekturę wspólnego generowania audio-wideo, obsługującą jednocześnie 4 modalności wejściowe — tekst, do 9 obrazów, do 3 klipów wideo i do 3 ścieżek audio. Przełomowy system @-reference pozwala oznaczać konkretne elementy w poleceniu i wiązać je z przesłanymi referencjami, umożliwiając szczegółową kontrolę nad ruchem kamery, wyglądem postaci, rytmem audio i stylem wizualnym. Wyjścia osiągają rozdzielczość do 2K z natywnym zsynchronizowanym dźwiękiem, w tym wielojęzycznym synchronem ust, efektami dźwiękowymi i muzyką w tle.
Rewolucyjne oznaczanie referencji za pomocą etykiet @Image, @Video i @Audio w poleceniu. Powiąż konkretne elementy z przesłanymi plikami, aby precyzyjnie kontrolować ruch kamery, działania postaci, rytm audio i styl wizualny.
Połącz tekst, do 9 obrazów, do 3 klipów wideo i do 3 ścieżek audio w jednym żądaniu generowania. Seedance 2.0 to pierwszy model, który przetwarza wszystkie cztery typy wejścia jednocześnie.
Wspólna synteza audio-wideo generuje dialogi z synchronem ust, efekty dźwiękowe i muzykę w tle zsynchronizowane z wyjściem wizualnym. Obsługuje wielojęzyczny synchron ust z precyzją na poziomie fonemów.
Edytuj istniejące filmy w trybie referencji-do-wideo. Przenoś wzorce ruchu, ścieżki kamery i tempo z przesłanych klipów. Zmieniaj stroje, modyfikuj działania lub zastępuj elementy, zachowując oryginalną strukturę.
Natywne wyjście 2K (2048x1080) przy 30fps z wieloma poziomami jakości: 480p, 720p i 1080p. Czas trwania wideo wynosi od 4 do 15 sekund na generację.
Prześlij wiele obrazów referencyjnych tej samej postaci z różnych kątów. Seedance 2.0 zachowuje spójne twarze, ubiór, proporcje ciała i akcesoria w wielu wygenerowanych klipach.
Poznaj możliwości Seedance 2.0 w zakresie multimodalnej kontroli referencji, natywnego generowania audio i edycji wideo

“@Image1 przechodzi przez @Image2 z ruchem kamery z @Video1 i muzyką w tle z @Audio1”
Polecenie wieloreferencyjne łączące wszystkie modalności

“Postać @Image1 tańczy w rytm @Audio1 w środowisku @Image3”
Ruch postaci kierowany referencją rytmu audio

“Osoba prowadząca prezentację z zsynchronizowaną angielską mową i przejściami slajdów”
Dialog z synchronem ust i treścią wizualną

“Tutorial kulinarny z narracją krok po kroku i dźwiękami otoczenia kuchni”
Narracja zsynchronizowana z czynnościami kulinarnymi
Seedance 2.0 FAQ
System @-reference pozwala oznaczać elementy w poleceniu etykietami @Image1, @Video1, @Audio1 i wiązać je z przesłanymi plikami referencyjnymi. Seedance 2.0 wyodrębnia ruchy kamery z referencji wideo, rytmy z audio i style kompozycji z obrazów. Daje to szczegółową kontrolę nad każdym aspektem wygenerowanego wideo.
"System @-reference jest prawdziwie rewolucyjny. Mogę wyodrębnić ruchy kamery z referencyjnego klipu i zastosować je natychmiast — to zupełnie nowy kreatywny przepływ pracy."
Reżyser wideo
"Wejście 4 modalności to game-changer. Mogę wprowadzić projekt postaci, referencję ruchu kamery i muzykę w tle w jednym poleceniu i otrzymać dokładnie to, co sobie wyobraziłem."
Projektant motion
"System @-reference jest prawdziwie rewolucyjny. Mogę wyodrębnić ruchy kamery z referencyjnego klipu i zastosować je natychmiast — to zupełnie nowy kreatywny przepływ pracy."
Reżyser wideo
"Wejście 4 modalności to game-changer. Mogę wprowadzić projekt postaci, referencję ruchu kamery i muzykę w tle w jednym poleceniu i otrzymać dokładnie to, co sobie wyobraziłem."
Projektant motion