更多CG新聞
MORE CG News
Beeble Camera: iPhone App that brings camera tracking to Beeble
【使用 Beeble Camera 將iPhone變身為迷你拍攝影棚】
Beeble AI 推出 Beeble Camera – 最簡單的方式捕捉並處理 camera-tracked、rotoscoped 且可重新打光的影像素材
Beeble Camera 特點 :
– 使用 iPhone 拍攝並獲得即時 camera tracking。
– 在 Beeble Web 中即時處理透過 AI 驅動的 roto 與 VFX Passes
– 使用 Beeble Web Studio 和 Blender幾分鐘內創建虛擬製作
App 是免費下載使用, 使用Beeble STARTER也是免費 / Beeble Creator 優惠價為16美元月租 / Beeble Professional 優惠價為60美元月租
Runway Aleph – a new way to edit, transform and generate video
【RunwayML推出 Runway Aleph 加強影片的後期AI處理及效果】
RunwayML 上週推出了最新模型 Runway Aleph, 大大加強影片的後期處理及效果, 進一步對VFX行業提供幫助(或打擊?) , 除了“多角度生成” 、“後續鏡頭”及“風格套用”等外, 有幾個模式真是無得輸 :
– 更改環境、地點、季節與一天中的時間
將普通影片轉換為專業級視覺效果 – 可以選擇保留原始素材的多寡, 靈活調整
– 向場景中添加元素
用能想像的一切來增強影片畫面 , 能無縫地將新元素整合進現有場景——例如在空蕩街道上加入人群、在桌上放置產品,或補上忘了拍攝的道具 , 只需描述想要的內容或提供參考圖片 , 它就能自然地出現在影片中 , 並具備正確的光影與透視效果
– 從場景中移除元素
不必再擔心雜亂的場景或干擾視覺的物件, 只需提出要求, 即可輕鬆移除影片中不需要的物品或元素
– 更改場景中的物件
能輕鬆地重新材質化或完全替換影片中的物件、主體等, 可以使用文字提示或提供想要替換的參考圖片來完成
– 將影片的動態應用於圖片
將任意影片的動態效果套用到新的首張圖片上 , 以實現精細的鏡頭控制
– 重新著色場景中的元素
只需提供色票或描述想要的色彩風格, 即可輕鬆更改場景中物件的顏色 . Runway Aleph 能準確地調整色調 , 使畫面呈現理想中的配色效果
RunwayML introducing Act-Two
【RunwayML 昇級AI角色生成Act-Two】
RunwayML已推出 Act-Two, 使用角色影像生成時 Act-Two 允許透過「gesture control setting(手勢控制設定)」在表演影片中控制角色的手部與身體動作, Act-Two 會自動為輸入的影像添加環境動態效果(environmental motion)一次生成更具自然感的畫面
重點摘要
– Act-Two 會自動為角色影像輸入添加環境動態效果
– Act-Two 能良好支援多種拍攝角度、非人類角色以及不同風格
– 當使用角色影像時,可透過表演影片中的「driving performance」來控制角色的手勢動作
成本是5個credits /秒 , 可生成由最少3秒到最高30秒片段
5 tips for getting started with Google Flow
【五個貼士, 讓你開始使用 Google Flow 生成AI影片】
Google Labs的Product Management – Senior Director – Elias Roman 分享了五個貼士, 讓你開始使用 Google Flow 生成AI影片 …
之前亦已介紹過 Google FLOW是結合了Veo 3、Imagen 4 及 Gemini 等先進模型, 讓使用者只需輸入文字提示,就能生成具電影感的影片 !!
五大使用技巧簡介 : 從詳細的提示開始 > 建立素材 Ingredients > 用 Ingredients to Video 動畫化世界 > 用 Frames to Video 設定場景 > 用 Scenebuilder 組織故事
…最後文章表示目前超過 70 個國家的 Google AI 訂閱用戶均可使用 Flow…更多國家即將推出…啊
可能你以為自己已用到…不過正規來說”香港”是不在可用地區之內….完
Midjourney introducing V1 Video Model
【Midjourney 正式推出AI影片生成模型 V1 】
你有你告佢有佢繼續 , 無恐一週前受兩大巨頭Disney 及 Universal提告 ,日前Midjourney宣布推出可透過Discord使用的影片產生AI模型 V1 , 而 V1只需使用上傳的圖像或Midjourney其他模型生成的圖像 , 即可根據圖像生成四個5秒的影片 , 而V1生成的視頻最多可以延長 4 倍每次延長 4 秒 , 即是 V1 最多可以產生 21 秒的影片 !
Google’s new AI Filmmaking Tool – Flow
【呢個FLOW其實都係唔關你事,不過總有辨法的…】
在Google I/O 2025大會中 , 大量AI 服務相關資訊 ,包括影像imagen 4及影片 Veo 3 等 ,而期中集合這些AI工具的製作流程, 而推出Google Flow , 專為創作者建構 AI 影視製作工具 , 獨家設計以配合 Google DeepMind 最先進的模型——Veo、Imagen 和 Gemini
現在GoogleFlow 只供美國 Google AI Pro 和 Google AI Ultra 計劃訂閱者使用 .. 期待將在更多國家及地區推出…
以下影片將指導如何無縫創作電影級短片、場景和故事 , 並確保角色與物件的一致性 , 用戶可以用自然語言進行提示 , 構建連貫的敘事 ,並輕鬆管理與組織所有的素材和提示 .
Runway ML – Gen-4 References
【RunwayML Gen-4 終於加入References參考圖片】
AI 生成工具 Runway ML 最新模型 Gen-4 終於加入 References 參考圖片, 可在新模型的影像中產生一致的角色 , 僅需一張角色的參考圖像即可 ,現階段References 主要支援角色人物及地方位置, 建議先了解Runway ML的 References Guide
官方更新使用3D 材料配合 Gen-4 + References 例子 :