更多CG新聞
MORE CG News
RunwayML introducing Act-Two
【RunwayML 昇級AI角色生成Act-Two】
RunwayML已推出 Act-Two, 使用角色影像生成時 Act-Two 允許透過「gesture control setting(手勢控制設定)」在表演影片中控制角色的手部與身體動作, Act-Two 會自動為輸入的影像添加環境動態效果(environmental motion)一次生成更具自然感的畫面
重點摘要
– Act-Two 會自動為角色影像輸入添加環境動態效果
– Act-Two 能良好支援多種拍攝角度、非人類角色以及不同風格
– 當使用角色影像時,可透過表演影片中的「driving performance」來控制角色的手勢動作
成本是5個credits /秒 , 可生成由最少3秒到最高30秒片段
The 3rd Animation Future – AI Animation support program information webinar
【第三屆「明日動畫」—人工智能(AI)輔助動畫製作支援計劃 網上說明會暨經驗分享研討會】
第三屆「明日動畫」支援計劃即將啟動! – 大會將舉辦兩場 網上說明會 暨 經驗分享研討會, 屆時會介紹計劃詳情、申請資格等,並邀得上屆參與公司進行經驗分享!
「明日動畫」計劃重點 :
– 最多六間公司入選名額
– 提供最高港幣600,000元的製作資助,以及最高港幣250,000元的技術資源資助(包括軟件、硬件租用費用等),以製作一條長約15-20分鐘的動畫
– 設有導師指導計劃,為入選企業提供一系列的動畫製作技術指導
– 提供一系列與AI製作動畫、有關法律知識、新AI應用工具等培訓課程
– 提供2天的提案技巧培訓工作坊 (Pitching Workshop)
– 獲免費分派2名實習生
– 舉辦商貿宣傳活動,向業界及公眾推廣上述動畫
– 參展2026年的Annecy Festival(安錫國際動畫影展)
第一場 : 7月30日 / 下午4時至6時
> 分享製作公司: Free-D Workshop Ltd, ManyMany Creations Ltd, StepC.
第二場 : 8月15日 / 下午4時至6時
>分享製作公司: 924 Studio Limited, Astroheart Limitd, Morph Workshop
第三屆「明日動畫」支援計劃申請截止報名﹕9 月9 日下午6時 — 快點好好準備了 !!!

The 2nd Future Animation: Premiere & Sharing of the AI Animation Support Program
【第二屆明日動畫 — 人工智能輔助動畫製作支援計劃 經驗分享研討會暨作品首映禮】
由HKDEA主辦、CCIDAHK贊助的【第二屆「明日動畫」— 人工智能(AI)輔助動畫製作支援計劃】 為六間入選的本地動畫公司提供資助和專家指導 , 協助他們應用AI技術輔助創作動畫作品 ,從而為業界在動畫製作上帶來突破及創新 !
六部原創動畫作品已順利完成製作, 大會將於8月8日舉行經驗分享研討會暨作品首映禮 !!
日期:2025年8月8日 (星期五)
時間:14:30 – 17:10
地點:灣仔港灣道2號 香港藝術中心古天樂電影院
活動內容包括:
– 六間入選公司現場分享AI輔助創作的寶貴經驗
– 公佈評審之選,表揚傑出的製作團隊及作品
– 率先欣賞六部精彩的「明日動畫」作品
AMD release Nitro-T, text-to-image diffusion models
【AMD推出 Nitro-T:高效訓練的文字轉圖像擴散模型】
AMD去年尾發表過 Nitro-T , 而日前正式發布Nitro-T系列及公開下戴, 這是專注於高效訓練的文字轉圖像擴散模型 , Nitro-T 僅使用 32 顆 AMD Instinct MI300X GPU 從零開始訓練不到一天 , 即可達到競爭性的效果
Nitro-T 提供兩種variants , 已可在huggingface9免費下載:
– 0.6B 參數的 Diffusion Transformer (DiT):最佳化於 512px 圖像生成
– 1.2B 參數的 Multimodal Diffusion Transformer (MMDiT):最佳化於高解析度 1024px 圖像生成
這些模型使用 Llama 3.2 1B 模型作為文字條件輸入並採用可縮短 patch 序列長度、加速收斂與提升訓練吞吐量的策略與設計選擇

NVIDIA RTX AI Accelerates FLUX.1 Kontext — Now Available for Download
【NVIDIA RTX AI 加速 FLUX.1 Kontext 現已開放下載!】
早前已報導過Black Forest Labs 最新的FLUX.1 Kontext [dev] 模型.
而日前NVIDIA亦宣布與Black Forest Labs合作 -正式推出經 RTX AI 加速的 FLUX.1 Kontext [dev] 模型, 透過 NVIDIA TensorRT 軟件開發工具包與量化技術, 針對 NVIDIA RTX GPU 對 FLUX.1 Kontext [dev] 模型進行優化 !!
這代表創作者與開發者現在可以在RTX GPU 上以更快速度、更低VRAM使用量需求, 體驗這款強大的影像生成與編輯工具 , 以提供更快的推論速度 , 同時亦採用新技術SVDQuant, 即使降低模型大小,也能維持高畫質輸出 ~
FLUX.1 Kontext [dev] 檔案已可在ComfyUI中或在FLUX Playground平台使用 ,而 NVIDIA NIM microservice 版本將於八月推出.

FLUX.1 Kontext [dev] – Open Weights for Image Editing
【FLUX.1 Kontext [dev] 免費釋出影像編輯模型】
Black Forest Labs 日前發布 FLUX.1 Kontext [dev] , 這是 FLUX.1 Kontext [pro] 的開發者版本 ,具備與專有系統相媲美的圖像編輯效能, 並可在消費級硬件上運行, 其參數量達 120 億個.
這個模型專注於圖像編輯工作, 支援反覆編輯 , 能夠在多樣場景與環境中保持角色的一致性, 並提供精確的局部與全局修改功能 !!
LUX.1 Kontext [dev] 現已以 FLUX.1 非商業授權方式提供開放權, 供研究與非商業用途免費使用

5 tips for getting started with Google Flow
【五個貼士, 讓你開始使用 Google Flow 生成AI影片】
Google Labs的Product Management – Senior Director – Elias Roman 分享了五個貼士, 讓你開始使用 Google Flow 生成AI影片 …
之前亦已介紹過 Google FLOW是結合了Veo 3、Imagen 4 及 Gemini 等先進模型, 讓使用者只需輸入文字提示,就能生成具電影感的影片 !!
五大使用技巧簡介 : 從詳細的提示開始 > 建立素材 Ingredients > 用 Ingredients to Video 動畫化世界 > 用 Frames to Video 設定場景 > 用 Scenebuilder 組織故事
…最後文章表示目前超過 70 個國家的 Google AI 訂閱用戶均可使用 Flow…更多國家即將推出…啊
可能你以為自己已用到…不過正規來說”香港”是不在可用地區之內….完
Triangle Splatting for Real-Time Radiance Field Rendering
【新的Radiance field rendering研究 – Triangle Splatting】
建構於3D Convex Splatting與3D Gaussian Splatting的基礎上, 由獲多個科學基金支助研究, Jan Held、 Renaud Vandeghen .、Adrien Deliege、Abdullah Hamdi 等人在月初發表有關實時Radiance field rendering 取得重大突破的研究 – Triangle Splatting .
首度引入3D三角形作為rendering primitive, 透過運用與傳統mesh 相同的基本primitive, 此方法有效連結neural rendering及traditional graphics pipelines. Triangle Splatting 技術為volumetric與隱式方法提供一項具吸引力的替代方案, 不僅在視覺品質上表現突出 ,同時大幅提升render效能. Triangles 簡單、相容於標準 graphics stacks 及 GPU 硬件, 效率極高 .
在展示的例子Garden scene中看到他們用現成的mesh renderer已經可以在1280×720解像度下跑出超過2,400 FPS的表現, 這些結果清楚展示出triangle-based representations 在實現高品質新視角合成方面的高效性與卓越表現 .Triangles 更結合傳統 computer graphics 同現代 differentiable rendering frameworks 令距離 mesh-based optimization 再近一步.

