New
按平台
Wan 2.2是阿里巴巴達摩院的開源生成式AI視頻模型,於2025年7月28日公開發布。 它在視頻擴散模型中引入了專家混合(MoE)架構,在不增加推理成本的情況下顯著增強了模型容量和性能。 該模型以其電影級美學、高清1080p輸出以及生成複雜、流暢運動的能力而聞名,並且比以前的模型具有更好的控制力。
Wan 2.2是阿里巴巴達摩院的開源生成式AI視頻模型,於2025年7月28日公開發布。 它在視頻擴散模型中引入了專家混合(MoE)架構,在不增加推理成本的情況下顯著增強了模型容量和性能。 該模型以其電影級美學、高清1080p輸出以及生成複雜、流暢運動的能力而聞名,並且比以前的模型具有更好的控制力。
在視頻中創建複雜、流暢和自然的動作,提高真實感和連貫性。
接受精心策劃的數據培訓,可精確控制燈光、色彩和構圖的視頻。
以24fps的速度生成原生1080p分辨率的視頻,適合專業使用。
電影攝影機控制 以24fps的速度生成原生1080p分辨率的視頻,適合專業使用。
通過在指定的開始幀和結束幀之間進行插值來創建無縫視頻過渡。
高度壓縮的5B型號可以在RTX 4090等消費級GPU上運行。
該模型是公開可用的,允許使用LoRA和其他社區開發的工具進行微調。
以下是幫助您在Vizard上探索Wan 2.2的三個簡單步驟:
轉到Vizard的文本到視頻生成器,選擇Wan 2.2型號。
輸入您的提示或上傳您的圖像開始。
一旦視頻準備好了,你可以直接通過Vizard下載或分享到你的社交媒體賬戶上。
Wan2.2 The quality is significantly improved, tested some human body performance. Amazing@Alibaba_Wan #wan2.2 pic.twitter.com/ptUXlOS1Ka
— TTPlanet (@ttplanet) July 28, 2025
Fun workflow I was playing with last night
— A.I.Warper (@AIWarper) August 8, 2025
1) Kontext to remove Thor from the shot
2) Photopea to place Shrek
3) Kontext + Relight lora to blend him into the shot
4) Wan2.2 i2V to animate
Very addicting... 😍
Prompts are written up in the corner. Wan 2.2 prompt below 👇 pic.twitter.com/EnWE2OgA7T
Wan2.2(I2V) works pretty good.(Base image is not AI generated.) pic.twitter.com/5g9CfoiqT4
— Xiu Ran (@f_fanshu) July 30, 2025
You can’t skate here sir..
— Ingi Erlingsson 🪄 (@ingi_erlingsson) August 5, 2025
Wan2.2 @Alibaba_Wan + @ComfyUI 🛹 pic.twitter.com/kFaKeoKYNi
I hope you are enjoying your summer 🍸⛱️
— Julian Bilcke (@flngr) July 28, 2025
Because open source AI video is back 💪
Wan2.2 is out!✨ pic.twitter.com/9feAXVC4Hi
Tried doing a wall punching effect using the new Wan2.2 open source model. @Alibaba_Wan @ComfyUI pic.twitter.com/PGKoZmpuso
— enigmatic_e (@8bit_e) July 31, 2025
Tried the Veo3 annotation trick with Wan2.2 14B, 8 steps pic.twitter.com/x8Lnmcx1wg
— Linoy Tsaban (@linoy_tsaban) July 29, 2025
什麼是Wan 2.2?
Wan 2.2是阿里巴巴達摩院開發的最先進的開源生成式人工智能視頻模型。 這是對基礎Wan視頻模型系列的重大升級,旨在根據文本和圖像提示創建高質量的電影視頻。 該模型以其先進的運動生成和美學控制而聞名。
有哪些版本可用?
Wan 2.2有幾個版本,具有不同的功能。 核心開源模型包括高效的TI2V-5B模型,該模型同時支持720p分辨率的文本到視頻(T2V)和圖像到視頻(I2V),可以在消費級GPU上運行。 還有更強大的14B型號,如T2V-A14B和I2V-A14B,它們使用專家混合(MoE)架構,以獲得卓越的質量和性能,適合更健壯的硬件。
是什麼讓它獨一無二?
Wan 2.2因其創新的專家混合(MoE)架構而脫穎而出,該架構將去噪過程分為專門的階段,以獲得更好的性能,而不會顯著增加計算成本。 它還具有電影級的美學控制,能夠生成複雜和流暢的運動,以及在兩個圖像之間創建平滑過渡的倒數第一幀到視頻(FLF2V)功能。 它的開源性質允許社區驅動的微調和集成。
使用安全嗎?
作為一個開源模型,Wan 2.2的安全性很大程度上取決於它是如何實現和使用的。 開發人員已經制定了使用政策,禁止生成非法、有害或誤導性的內容。 雖然該模型本身沒有內置的內容審核系統,但使用Wan 2.2的開發人員和平台應該實施自己的安全措施,以確保負責任的使用並遵守法律和道德標準。
速度有多快?
Wan 2.2針對速度進行了高度優化,尤其是其TI2V-5B型號,這是720p分辨率和24fps下最快的型號之一。 在RTX 4090這樣的消費級GPU上,只需幾分鐘就可以生成5秒的視頻,更強大的硬件可以提供更快的結果。 其高效的專家混合(MoE)架構進一步提高了速度。
可以通過手機訪問嗎?
Wan 2.2主要是一個以開發人員為中心的開源模型。 它沒有來自其生產商的官方專用移動應用程序。 然而,因為它是開源的,開發人員可以將它集成到移動友好的web應用程序中,或者創建自己的移動應用程序。 它的消費級GPU兼容性也使它更容易被擁有高端移動工作站的用戶使用。
它能產生或創造什麼?
Wan 2.2能夠生成各種各樣的視頻內容,從短片廣告和社交媒體剪輯到電影場景和動畫。 它的功能包括文本到視頻、圖像到視頻和基於圖像的繪畫。 用戶可以生成具有特定攝像機運動、精確美學風格以及角色和物體逼真運動的視頻,使其成為技術和創意項目的多功能工具。
怎麼用?
使用Wan 2.2最常見的方法是下載模型文件並在本地兼容機器上運行它們,通常通過ComfyUI或Diffusers等平台進行集成。 為了獲得更易於訪問的體驗,該模型可通過雲API提供商獲得。 還有機會通過Vizard平台免費試用Wan 2.2,該平台提供了一個用於試驗該模型功能的在線界面。
Wan 2.2是阿里巴巴達摩院的開源生成式AI視頻模型,於2025年7月28日公開發布。 它在視頻擴散模型中引入了專家混合(MoE)架構,在不增加推理成本的情況下顯著增強了模型容量和性能。 該模型以其電影級美學、高清1080p輸出以及生成複雜、流暢運動的能力而聞名,並且比以前的模型具有更好的控制力。
在視頻中創建複雜、流暢和自然的動作,提高真實感和連貫性。
接受精心策劃的數據培訓,可精確控制燈光、色彩和構圖的視頻。
以24fps的速度生成原生1080p分辨率的視頻,適合專業使用。
電影攝影機控制 以24fps的速度生成原生1080p分辨率的視頻,適合專業使用。
通過在指定的開始幀和結束幀之間進行插值來創建無縫視頻過渡。
高度壓縮的5B型號可以在RTX 4090等消費級GPU上運行。
該模型是公開可用的,允許使用LoRA和其他社區開發的工具進行微調。
以下是幫助您在Vizard上探索Wan 2.2的三個簡單步驟:
轉到Vizard的文本到視頻生成器,選擇Wan 2.2型號。
輸入您的提示或上傳您的圖像開始。
一旦視頻準備好了,你可以直接通過Vizard下載或分享到你的社交媒體賬戶上。
Wan2.2 The quality is significantly improved, tested some human body performance. Amazing@Alibaba_Wan #wan2.2 pic.twitter.com/ptUXlOS1Ka
— TTPlanet (@ttplanet) July 28, 2025
Fun workflow I was playing with last night
— A.I.Warper (@AIWarper) August 8, 2025
1) Kontext to remove Thor from the shot
2) Photopea to place Shrek
3) Kontext + Relight lora to blend him into the shot
4) Wan2.2 i2V to animate
Very addicting... 😍
Prompts are written up in the corner. Wan 2.2 prompt below 👇 pic.twitter.com/EnWE2OgA7T
Wan2.2(I2V) works pretty good.(Base image is not AI generated.) pic.twitter.com/5g9CfoiqT4
— Xiu Ran (@f_fanshu) July 30, 2025
You can’t skate here sir..
— Ingi Erlingsson 🪄 (@ingi_erlingsson) August 5, 2025
Wan2.2 @Alibaba_Wan + @ComfyUI 🛹 pic.twitter.com/kFaKeoKYNi
I hope you are enjoying your summer 🍸⛱️
— Julian Bilcke (@flngr) July 28, 2025
Because open source AI video is back 💪
Wan2.2 is out!✨ pic.twitter.com/9feAXVC4Hi
Tried doing a wall punching effect using the new Wan2.2 open source model. @Alibaba_Wan @ComfyUI pic.twitter.com/PGKoZmpuso
— enigmatic_e (@8bit_e) July 31, 2025
Tried the Veo3 annotation trick with Wan2.2 14B, 8 steps pic.twitter.com/x8Lnmcx1wg
— Linoy Tsaban (@linoy_tsaban) July 29, 2025
什麼是Wan 2.2?
Wan 2.2是阿里巴巴達摩院開發的最先進的開源生成式人工智能視頻模型。 這是對基礎Wan視頻模型系列的重大升級,旨在根據文本和圖像提示創建高質量的電影視頻。 該模型以其先進的運動生成和美學控制而聞名。
有哪些版本可用?
Wan 2.2有幾個版本,具有不同的功能。 核心開源模型包括高效的TI2V-5B模型,該模型同時支持720p分辨率的文本到視頻(T2V)和圖像到視頻(I2V),可以在消費級GPU上運行。 還有更強大的14B型號,如T2V-A14B和I2V-A14B,它們使用專家混合(MoE)架構,以獲得卓越的質量和性能,適合更健壯的硬件。
是什麼讓它獨一無二?
Wan 2.2因其創新的專家混合(MoE)架構而脫穎而出,該架構將去噪過程分為專門的階段,以獲得更好的性能,而不會顯著增加計算成本。 它還具有電影級的美學控制,能夠生成複雜和流暢的運動,以及在兩個圖像之間創建平滑過渡的倒數第一幀到視頻(FLF2V)功能。 它的開源性質允許社區驅動的微調和集成。
使用安全嗎?
作為一個開源模型,Wan 2.2的安全性很大程度上取決於它是如何實現和使用的。 開發人員已經制定了使用政策,禁止生成非法、有害或誤導性的內容。 雖然該模型本身沒有內置的內容審核系統,但使用Wan 2.2的開發人員和平台應該實施自己的安全措施,以確保負責任的使用並遵守法律和道德標準。
速度有多快?
Wan 2.2針對速度進行了高度優化,尤其是其TI2V-5B型號,這是720p分辨率和24fps下最快的型號之一。 在RTX 4090這樣的消費級GPU上,只需幾分鐘就可以生成5秒的視頻,更強大的硬件可以提供更快的結果。 其高效的專家混合(MoE)架構進一步提高了速度。
可以通過手機訪問嗎?
Wan 2.2主要是一個以開發人員為中心的開源模型。 它沒有來自其生產商的官方專用移動應用程序。 然而,因為它是開源的,開發人員可以將它集成到移動友好的web應用程序中,或者創建自己的移動應用程序。 它的消費級GPU兼容性也使它更容易被擁有高端移動工作站的用戶使用。
它能產生或創造什麼?
Wan 2.2能夠生成各種各樣的視頻內容,從短片廣告和社交媒體剪輯到電影場景和動畫。 它的功能包括文本到視頻、圖像到視頻和基於圖像的繪畫。 用戶可以生成具有特定攝像機運動、精確美學風格以及角色和物體逼真運動的視頻,使其成為技術和創意項目的多功能工具。
怎麼用?
使用Wan 2.2最常見的方法是下載模型文件並在本地兼容機器上運行它們,通常通過ComfyUI或Diffusers等平台進行集成。 為了獲得更易於訪問的體驗,該模型可通過雲API提供商獲得。 還有機會通過Vizard平台免費試用Wan 2.2,該平台提供了一個用於試驗該模型功能的在線界面。