更多CG新聞
MORE CG News
EbSynth V2 is not AI?
【EbSynth V2 – 主技術非AI影片特效】
具領先技術的軟件 EbSynth 被譽為「Photoshop for video」 ,是一款VFX軟件,只需編輯一格Frame,就能改變整段影片, 這種技術非常適合於處理 :
– Rotoscoping(描繪動畫輪廓)
– Retouching(修飾畫面)
– Colorization(影片上色)
新版本 EbSynth 2 上月已經推出, 並重新包裝, 提供多個版本包括免費版, Pro版 (20美金/月)及 Studio版(需報價)
官方強調 EbSynth 的 keyframe propagation功能本身不使用 AI, 它是基於 texture-synthesis algorithm(紋理合成演算法), 只依賴用戶提供的影片與 keyframes 來生成最終結果, 並不會使用任何基於外部資料集訓練的生成式模型 !!
不過 EbSynth 有一個選用的 AI 功能叫做 “Generate Image”,這個功能可以幫助生成 keyframes, 這部分就涉及 AI 技術
Grok Introducing Imagine v0.9
【Grok 推出全新影片生成模型 Imagine v0.9】
由 Elon Musk 領導的 xAI 團隊最新推出的 Imagine v0.9, 相較於先前的 v0.1 版本, 帶來了大幅度的升級, 涵蓋視覺品質、動態表現、音訊生成等多項技術層面, 展現出更高層次的創作能力
Imagine v0.9 結合先進的 AI 演算法, 能夠生成更細緻流暢的畫面與動作, 並同步產出自然逼真的音效, 大幅提升影片的沉浸感與真實度
目前 Imagine v0.9 已全面開放, 使用者可在 Grok 所有產品平台上免費體驗
推出短短兩日已經週街見到Imagine v0.9的”解禁”影片..
OpenAI – This is Sora 2
【OpenAI發布Sora 2】
OpenAI日前推出 Sora 2 – 他們最先進的 video generation model
他們稱…Sora 2 能做到許多以往 video generation models 難以實現的事情.
它在物理準確性與真實感方面超越以往系統, 並在 controllability 上有重大突破, 同時還具備 synchronized audio
OpenAI率先在 U.S. 和 Canada 推出, 並計劃迅速擴展至其他國家(明白了). Sora 2 可透過 Sora iOS app 使用. 該 app 現已開放下載(但採取邀請制)
Beeble Camera: iPhone App that brings camera tracking to Beeble
【使用 Beeble Camera 將iPhone變身為迷你拍攝影棚】
Beeble AI 推出 Beeble Camera – 最簡單的方式捕捉並處理 camera-tracked、rotoscoped 且可重新打光的影像素材
Beeble Camera 特點 :
– 使用 iPhone 拍攝並獲得即時 camera tracking。
– 在 Beeble Web 中即時處理透過 AI 驅動的 roto 與 VFX Passes
– 使用 Beeble Web Studio 和 Blender幾分鐘內創建虛擬製作
App 是免費下載使用, 使用Beeble STARTER也是免費 / Beeble Creator 優惠價為16美元月租 / Beeble Professional 優惠價為60美元月租
Runway Aleph – a new way to edit, transform and generate video
【RunwayML推出 Runway Aleph 加強影片的後期AI處理及效果】
RunwayML 上週推出了最新模型 Runway Aleph, 大大加強影片的後期處理及效果, 進一步對VFX行業提供幫助(或打擊?) , 除了“多角度生成” 、“後續鏡頭”及“風格套用”等外, 有幾個模式真是無得輸 :
– 更改環境、地點、季節與一天中的時間
將普通影片轉換為專業級視覺效果 – 可以選擇保留原始素材的多寡, 靈活調整
– 向場景中添加元素
用能想像的一切來增強影片畫面 , 能無縫地將新元素整合進現有場景——例如在空蕩街道上加入人群、在桌上放置產品,或補上忘了拍攝的道具 , 只需描述想要的內容或提供參考圖片 , 它就能自然地出現在影片中 , 並具備正確的光影與透視效果
– 從場景中移除元素
不必再擔心雜亂的場景或干擾視覺的物件, 只需提出要求, 即可輕鬆移除影片中不需要的物品或元素
– 更改場景中的物件
能輕鬆地重新材質化或完全替換影片中的物件、主體等, 可以使用文字提示或提供想要替換的參考圖片來完成
– 將影片的動態應用於圖片
將任意影片的動態效果套用到新的首張圖片上 , 以實現精細的鏡頭控制
– 重新著色場景中的元素
只需提供色票或描述想要的色彩風格, 即可輕鬆更改場景中物件的顏色 . Runway Aleph 能準確地調整色調 , 使畫面呈現理想中的配色效果
RunwayML introducing Act-Two
【RunwayML 昇級AI角色生成Act-Two】
RunwayML已推出 Act-Two, 使用角色影像生成時 Act-Two 允許透過「gesture control setting(手勢控制設定)」在表演影片中控制角色的手部與身體動作, Act-Two 會自動為輸入的影像添加環境動態效果(environmental motion)一次生成更具自然感的畫面
重點摘要
– Act-Two 會自動為角色影像輸入添加環境動態效果
– Act-Two 能良好支援多種拍攝角度、非人類角色以及不同風格
– 當使用角色影像時,可透過表演影片中的「driving performance」來控制角色的手勢動作
成本是5個credits /秒 , 可生成由最少3秒到最高30秒片段
5 tips for getting started with Google Flow
【五個貼士, 讓你開始使用 Google Flow 生成AI影片】
Google Labs的Product Management – Senior Director – Elias Roman 分享了五個貼士, 讓你開始使用 Google Flow 生成AI影片 …
之前亦已介紹過 Google FLOW是結合了Veo 3、Imagen 4 及 Gemini 等先進模型, 讓使用者只需輸入文字提示,就能生成具電影感的影片 !!
五大使用技巧簡介 : 從詳細的提示開始 > 建立素材 Ingredients > 用 Ingredients to Video 動畫化世界 > 用 Frames to Video 設定場景 > 用 Scenebuilder 組織故事
…最後文章表示目前超過 70 個國家的 Google AI 訂閱用戶均可使用 Flow…更多國家即將推出…啊
可能你以為自己已用到…不過正規來說”香港”是不在可用地區之內….完
Midjourney introducing V1 Video Model
【Midjourney 正式推出AI影片生成模型 V1 】
你有你告佢有佢繼續 , 無恐一週前受兩大巨頭Disney 及 Universal提告 ,日前Midjourney宣布推出可透過Discord使用的影片產生AI模型 V1 , 而 V1只需使用上傳的圖像或Midjourney其他模型生成的圖像 , 即可根據圖像生成四個5秒的影片 , 而V1生成的視頻最多可以延長 4 倍每次延長 4 秒 , 即是 V1 最多可以產生 21 秒的影片 !