12月2日下午消息,愛(ài)詩(shī)科技發(fā)布PixVerse V5.5AI視頻大模型——國(guó)內(nèi)版為拍我AI V5.5,宣布繼Sora2發(fā)布后率先實(shí)現(xiàn)“分鏡+音頻”一鍵直出更新升級(jí),能讓創(chuàng)作者能夠在幾秒鐘內(nèi)生成完整的視頻故事,而無(wú)需再?gòu)乃夭闹衅唇印? 與以往只能產(chǎn)出單鏡頭或零散畫(huà)面的大模型不同,V5.5 可以生成具備敘事結(jié)構(gòu)的短片,甚至接近“成片”質(zhì)量的視頻。據(jù)悉,V5.5的核心進(jìn)步來(lái)自于底層模型的全面升級(jí)。此次更新首次支持音頻(Audio)與多鏡頭(Multi-shot)同步生成,并強(qiáng)化了多角色音畫(huà)同步能力。AI能夠根據(jù)用戶輸入的提示詞,自動(dòng)理解并生成完整的故事段落,而非僅僅提供單一鏡頭的素材。用戶只需要輸入一個(gè)簡(jiǎn)短的提示,AI就能完成鏡頭推進(jìn)、景別切換、人物對(duì)白、環(huán)境聲和背景音樂(lè)的生成,直接呈現(xiàn)一個(gè)可被使用的敘事片段。 在拍我AI(PixVerse)中,用戶可以在V5.5大模型多鏡頭和音畫(huà)同步打開(kāi)狀態(tài)下,生成5秒、8秒、10秒的視頻。用戶現(xiàn)在可以在提示詞(Prompt)里直接控制“音效、臺(tái)詞、音色、音樂(lè)、鏡頭”,AI能自動(dòng)理解提示詞中的敘事意圖,自動(dòng)設(shè)計(jì)推拉、搖移、切換、景別變化等鏡頭語(yǔ)言。AI的運(yùn)鏡節(jié)奏更自然,緊貼真實(shí)制作邏輯,帶給用戶“成為導(dǎo)演”般的創(chuàng)作體驗(yàn)。 從體驗(yàn)角度來(lái)看,V5.5 進(jìn)一步縮短了創(chuàng)作工作流中的時(shí)間差。生成速度大幅提升,鏡頭語(yǔ)言更加豐富,控制方式更加直觀,使得C端用戶和創(chuàng)作者都能以更低的門檻,迅速將抽象的靈感變成可觀看的成品視頻。