現象級AI影片技術、位元組 Seedance 2.0在arXiv發論文了論文。
曬了26頁的Benchmark,和貢獻者名單論文。
170位團隊成員全公開論文,署名和尊重都拉滿了,不過嘛這就不怕……嘛?
論文公佈的時間節點,正趕上Seedance 2.0透過 Byteplus平臺鋪向全球論文。
100多個國家的企業客戶可以透過預付費API直接呼叫論文。支援文字、圖片、影片、音訊多模態輸入,生成4到15秒MP4影片,最高720p。
但這個“全球”列表裡,唯獨沒有美國論文。
26頁只寫了兩個字:能打
首先看標題,說成大白話就是 “讓AI影片生成能搞定現實世界裡的各種複雜場景”論文。
為了做到這一點論文,Seedance解決了過去生成式影片工具的一個瓶頸:
展開全文
通常依靠單文字輸入,在嘗試引用真實素材(品牌圖片、配音、先前的影片片段)時難以保持一致性,並且需要大量的反覆試驗才能製作出可用的作品論文。
對於創作者而言,這意味著迭代速度慢、輸出結果不一致,以及工作流程無法滿足實際製作需求論文。
突破方法在於Seedance是原生統一的模型,能夠同時生成影片和音訊 ——並且可以在一個系統中接收文字、影像、音訊和影片作為輸入論文。
統一理解4種指令論文,支援文字 + 圖片 + 影片 + 音訊一起輸入,能同時理解並融合
人物走路、跑步、打架、跳舞更自然、不扭曲、 符合物理規律,多人互動也不亂論文。
音畫天生同步,自帶雙耳立體聲音訊,說話、唱歌、腳步聲、BGM和畫面嚴絲合縫,口型對得準論文。
會“當導演”論文,寫一段劇情,它自動分鏡頭、自動運鏡、自動剪輯節奏
可以改指定人物、動作、場景論文;也能在現有影片後面無縫續拍
統一理解4種指令論文,支援文字 + 圖片 + 影片 + 音訊一起輸入,能同時理解並融合
人物走路、跑步、打架、跳舞更自然、不扭曲、 符合物理規律,多人互動也不亂論文。
音畫天生同步,自帶雙耳立體聲音訊,說話、唱歌、腳步聲、BGM和畫面嚴絲合縫,口型對得準論文。
會“當導演”論文,寫一段劇情,它自動分鏡頭、自動運鏡、自動剪輯節奏
可以改指定人物、動作、場景論文;也能在現有影片後面無縫續拍
評測部分覆蓋VBench等多個主流基準,質量、運動、語義一致性等維度全面量化對比論文。
Seedance 2.0直接站上了第一梯隊,多項指標大幅領先同時期對手論文。
最後兩頁是完整作者列表,共170人
與Seedance 1.5 Pro時期的197人相比,有89人不在2.0作者列表中,62人加入論文。
論文。
其中穩定不變的核心人物可以找到吳永輝,現任字節跳動Seed團隊基礎研究負責人,是Seedance系列影片生成模型的最高技術決策者,直接向公司CEO梁汝波彙報論文。
曾妍,現任Seedance 2.0預訓練負責人,是影片生成模型核心技術路線的關鍵執行者論文。工作地點位於美國帕洛阿爾託(Palo Alto)。
One More Thing
有訊息稱位元組花近億元挖來了前DeepSeek研究員郭達雅論文。
抖音副總裁李亮親自下場闢謠:不實,Seed團隊薪資體系統一,近期沒有招聘到近億元年薪的員工論文。
闢謠歸闢謠,但這段話還披露了Seed的完整薪資結構:現金+位元組期權+豆包期權,四年全部歸屬論文。
到這,本來可以結束了論文。
但李亮又加了一句話論文。
Seed員工的位元組和豆包期權未來收益根據期權價格有波動,假如業務發展得很好,不排除有些Seed技術人員四年後收益會達到數億元論文。
Seed員工的位元組和豆包期權未來收益根據期權價格有波動,假如業務發展得很好,不排除有些Seed技術人員四年後收益會達到數億元論文。
這簡直是借闢謠在招人了論文。