更多CG新聞
MORE CG News
Google Introducing Veo 3.1 and advanced capabilities in Flow
【Google 更新Veo 3.1及Flow】
Google 的影片生成工具 Veo 更新 – Veo 3.1, 還有加強Flow的功能
Veo 3.1及Flow 更新提帶來更豐富的音訊、更強的敘事掌控力, 透過在所有功能中增強對音訊的支援.
Flow 編輯功能升級 – 全面支援音訊:所有功能(如 Ingredients to Video、Frames to Video、Extend)都加入音訊支援 . 還有精細編輯能力:可更精準地調整影片內容,提升創作自由度
新增創作工具如Insert(插入):可加入任何元素,從真實細節到奇幻生物,並自動處理光影與場景融合; 即將推出 Remove(移除):可移除場景中不需要的物件或角色,並自動重建背景
Veo 3.1 模型現已支援: Gemini API / Vertex AI 及 Gemini App
EbSynth V2 is not AI?
【EbSynth V2 – 主技術非AI影片特效】
具領先技術的軟件 EbSynth 被譽為「Photoshop for video」 ,是一款VFX軟件,只需編輯一格Frame,就能改變整段影片, 這種技術非常適合於處理 :
– Rotoscoping(描繪動畫輪廓)
– Retouching(修飾畫面)
– Colorization(影片上色)
新版本 EbSynth 2 上月已經推出, 並重新包裝, 提供多個版本包括免費版, Pro版 (20美金/月)及 Studio版(需報價)
官方強調 EbSynth 的 keyframe propagation功能本身不使用 AI, 它是基於 texture-synthesis algorithm(紋理合成演算法), 只依賴用戶提供的影片與 keyframes 來生成最終結果, 並不會使用任何基於外部資料集訓練的生成式模型 !!
不過 EbSynth 有一個選用的 AI 功能叫做 “Generate Image”,這個功能可以幫助生成 keyframes, 這部分就涉及 AI 技術
Grok Introducing Imagine v0.9
【Grok 推出全新影片生成模型 Imagine v0.9】
由 Elon Musk 領導的 xAI 團隊最新推出的 Imagine v0.9, 相較於先前的 v0.1 版本, 帶來了大幅度的升級, 涵蓋視覺品質、動態表現、音訊生成等多項技術層面, 展現出更高層次的創作能力
Imagine v0.9 結合先進的 AI 演算法, 能夠生成更細緻流暢的畫面與動作, 並同步產出自然逼真的音效, 大幅提升影片的沉浸感與真實度
目前 Imagine v0.9 已全面開放, 使用者可在 Grok 所有產品平台上免費體驗
推出短短兩日已經週街見到Imagine v0.9的”解禁”影片..
ZDepth Plugin 2.0 for ZBrush
【Foundry 開放 Mari 7.5 Public Beta 1 下載】
ZM Polygon 的ZBrush外卦ZDepth 2.0
圖像AI生成ZDepth外卦 , 提供四項(Fast/Medium/High是及Ultra模式的 Model AI ZDepth處理
最新 2.0 更新包括 Flip Texture輸入, Apply Depth To Mesh支援 RGB textures, meshes with UVs, 及subdivisions, 可自動將 Displacement Map 直接套用至mesh,包含五層Depth、Cavity、Curvature、Linenet及Bump資訊等等
產品因應使用電腦數目設不同價錢, 包括19美元的Personal License
Gemini 2.5 Flash Image (Nano Banana) in PS beta and Gemini 2.5 Computer Use model
【Gemini 2.5 不斷擴展中】
Adobe Photoshop Beta 擴展 Generative Fill 功能, 導入更多 AI 模型與創作可能性
當中有大家都熟悉的Google Gemini 2.5 Flash Image (Nano Banana) 以及 Black Forest Labs’ FLUX.1 Kontext [pro], 支援更複雜的物件移除、背景延伸、內容生成 等功能
現在只要下載Photoshop Beta 軟件即可試用
而 Google 日前推出 Gemini 2.5 Computer Use model 專為操作使用者介面(UI)設計的 AI 模型, 支援網頁與行動裝置控制任務 ,Gemini 2.5 Computer Use model 是基於 Gemini 2.5 Pro 建構的專用模型, 具備強大的視覺理解與推理能力, 能驅動 AI agent 操作使用者介面(UI), 例如點擊、輸入、拖曳等互動行為
模型及Gemini API 已在 Google AI Studio 及香港繞道使用的 Vertex AI 上開放預覽
OpenAI – This is Sora 2
【OpenAI發布Sora 2】
OpenAI日前推出 Sora 2 – 他們最先進的 video generation model
他們稱…Sora 2 能做到許多以往 video generation models 難以實現的事情.
它在物理準確性與真實感方面超越以往系統, 並在 controllability 上有重大突破, 同時還具備 synchronized audio
OpenAI率先在 U.S. 和 Canada 推出, 並計劃迅速擴展至其他國家(明白了). Sora 2 可透過 Sora iOS app 使用. 該 app 現已開放下載(但採取邀請制)
Alibaba’s Wan-Animate
【阿里巴巴的 Wan-Animate】
上月Alibaba 及Tongyi Lab發布 Wan-Animate的研究 – “Wan-Animate: Unified Character Animation and Replacement with Holistic Replication”, 相關模型亦已經開放 – “Wan2.2-Animate-14B” 免費下載使用 ,亦可在wan.video, ModelScope Studio 及 HuggingFace Space上試用
Wan-Animate 能根據表演者的影片為任意角色製作動畫, 精準重現表演者的臉部表情與動作 , 生成極為逼真的角色影片, 而且能將影片中的角色替換為動畫角色, 不僅保留原角色的表情與動作, 還能複製原始光影與色調, 實現與環境無縫融合的逼真效果.
NVIDIA Open Sources Audio2Face Animation Model
【NVIDIA公布將Audio2Face動畫模型開源】
Nvidia 的 Audio2Face是他們開發的 AI 驅動技術,能根據語音輸入自動生成逼真的 3D 臉部動畫, 技術核心在於分析語音中的 phonemes 和 intonation 以實現精準的 lip-sync 和 emotional expressions, 此技術可用於 Offline Render(如預先錄製的內容)或 即時串流(如互動式虛擬角色), 其公布的開源內容與工具包 包括 :
– Audio2Face SDK 及 plugins : Audio2Face SDK / Autodesk Maya plugin / Unreal Engine 5 plugin 及 Audio2Face Training Framework
– Audio2Face models 及 訓練資料 : Audio2Face Training Sample Data / Audio2Face Models 及 Audio2Emotion Models
他們亦分享相關實際應用案例 :
– Reallusion:整合至 iClone、Character Creator 等工具, 支援臉部編輯與 AccuLip 技術
– Survios(Alien: Rogue Incursion):加速 lip-sync 與臉部捕捉流程
– The Farm 51(Chernobylite 2):大幅提升角色表演的真實感與沉浸感