一、阿賢要的是什麼
需求摘要
輸入:拍攝現場的幾張照片(例如一間房子的內部)
處理:自動轉成可走動的 3D 空間
操作:在 3D 空間內自由移動到任何位置和高度
設定:選擇攝影機機身 + 鏡頭焦距
輸出:那台攝影機在那個位置看到的精確畫面
本質上這是一個虛擬勘景 + 虛擬攝影機系統。讓攝影指導不用到現場,就能在虛擬空間裡「架機器、選鏡頭、看畫面」。
二、技術可行性 — 逐層拆解
Step 1:照片 → 3D 空間重建
可行 — 成熟技術
3D Gaussian Splatting(3DGS)和 NeRF 都能從多角度照片重建 3D 場景。開源工具成熟:Nerfstudio、gsplat、COLMAP。
| 條件 | 要求 | 現實 |
| 照片數量 | 30-100 張,覆蓋所有角度 | 不是「幾張」就夠,需要系統性拍攝 |
| 或用影片 | 繞場一圈的手機影片(2-3 分鐘) | 更簡單,iPhone 即可 |
| 訓練時間 | NVIDIA GPU 約 15-30 分鐘 | M1 MacBook Air 跑不動訓練 |
| 訓練硬體 | NVIDIA GPU(RTX 3060 以上) | 需租雲端 GPU 或買外接顯卡 |
| 重建品質 | 室內場景效果好,反光/透明物體較差 | 一般場景沒問題 |
Step 2:3D 空間內自由移動
可行 — 已驗證
3DGS 場景可以在瀏覽器或本機應用中即時渲染,支援自由視角移動。今天我們用 World Labs 做的就是這件事,只是 M1 GPU 吃力。換有獨顯的電腦就流暢。
Step 3:輸入攝影機 + 鏡頭,輸出精確畫面
可行但需開發 — 核心差異化
這是標準的電腦圖學計算,不是 AI 問題。
| 參數 | 技術實現 | 難度 |
| 視角 (FOV) | 焦距 + 感光元件尺寸 → 精確 FOV 計算 | 簡單,公式直算 |
| 景深 (DOF) | 光圈 + 對焦距離 → 模糊計算 | 中等,需後處理 |
| 透視壓縮 | 焦距決定,3D 渲染引擎原生支援 | 簡單 |
| 鏡頭畸變 | 需建立各鏡頭的畸變模型 | 進階,非必要 |
| 裁切係數 | 全幅 vs APS-C vs S16mm | 簡單,乘數換算 |
白話說:你選「ARRI Alexa Mini + Cooke S4 35mm T2」,系統知道感光元件大小(Super 35mm)和焦距(35mm),就能算出精確的視角和景深,渲染出那台機器看到的畫面。
Step 4:使用者介面
需開發 — 但範圍可控
Web 介面:WASD 移動 → 到定位後選攝影機/鏡頭 → 按快門截圖。類似遊戲引擎的 Photo Mode。
三、做不到的(誠實說)
硬限制 — 不要期待
❌ 幾張照片就夠 — 不夠。需要 30-100 張或完整繞場影片,否則有死角和空洞
❌ M1 MacBook Air 流暢運行 — 3D 渲染需要獨立顯卡,M1 只能看低解析度
❌ 100% 真實感 — 3DGS 重建有瑕疵(反光面、細小物體、動態物體)
❌ 即時光線模擬 — 無法模擬「如果我在這裡打一盞燈」的效果
❌ 鏡頭光學特性完全模擬 — 散景形狀、色差、眩光等光學特性極難複製
❌ 取代實地勘景 — 這是輔助工具,不是替代品。真正的勘景還是要去現場
四、開發時程
1
場景重建管線 — 4 週
iPhone 影片 → COLMAP 結構光 → 3D Gaussian Splatting 訓練 → 可瀏覽的 3D 場景
使用雲端 GPU(RunPod/Vast.ai)訓練,本機預覽
交付物:上傳影片 → 自動產出可走動的 3D 場景
2
攝影機模擬引擎 — 4 週
建立攝影機/鏡頭資料庫(ARRI、RED、Sony、Canon 主流機身 + 常用鏡頭)
FOV 精確計算、景深預覽、裁切係數
在 3D 場景中選位置 → 選機身 + 鏡頭 → 即時預覽畫面
交付物:虛擬攝影機可在場景中架設並輸出畫面
3
使用者介面 + 輸出 — 3 週
直覺操作介面(類遊戲 WASD + 滑鼠)
匯出分鏡圖(含攝影機資訊標註)
儲存/載入攝影機位置(Shot List 管理)
交付物:完整可用的 Web 應用
4
測試 + 優化 — 2 週
用阿賢的真實案例測試(實拍場景 vs 虛擬場景比對)
效能優化、bug 修復
交付物:可交付給攝影指導使用的穩定版本
總時程:約 13 週(3 個月),從開工到可用。
五、經費估算
開發階段
雲端 GPU 租用(訓練 3DGS 場景)~$200/月 × 3 月 = $600
World Labs API(場景測試)~$50/月 × 3 月 = $150
COLMAP + 3DGS 開源工具$0(開源免費)
Three.js / Web 前端$0(開源免費)
攝影機/鏡頭規格資料庫$0(公開規格)
開發總計~$750(約 NT$24,000)
營運階段(每月)
雲端 GPU(按場景計費,每場景約 $1-3)~$50-100/月
Cloudflare 託管$0(免費方案)
月營運成本~$50-100(約 NT$1,600-3,200)
硬體(可選但建議)
Mac Studio M2 Ultra(本機訓練 + 流暢瀏覽)~NT$130,000
或 eGPU + RTX 4070(外接顯卡方案)~NT$25,000
或 純用雲端 GPU(不買硬體)$0(用雲端)
六、如果阿賢是第一個客戶
| 項目 | 內容 |
| 定位 | V5AI 的第三個服務產品(導覽官網、分鏡提案之後) |
| 目標客戶 | 攝影指導、導演、製片 — 前期勘景階段 |
| 定價方向 | 每場景 NT$3,000-8,000(含 3D 重建 + 虛擬攝影機) |
| 競爭者 | FrameForge(美國,$349 買斷)、Cine Tracer($25 on Steam) |
| 我們的差異 | 用真實場景照片重建,不是搭虛擬場景。攝影指導拍幾十張照片就能得到虛擬勘景環境 |
Dr.Strange 的結論
做得到。核心技術全部成熟(3DGS + WebGL + 光學計算),不需要突破任何技術瓶頸。
做不到的部分是「幾張照片就建出完美 3D」和「M1 MacBook Air 上流暢跑」 — 前者需要系統性拍攝,後者需要更好的硬體或雲端。
建議:用阿賢的一個真實案例做 PoC(概念驗證)。他提供一個場景的完整照片/影片,我們建出 3D + 虛擬攝影機,驗證是否符合攝影指導的實際需求。
PoC 時間:2 週,成本:~$50(雲端 GPU)。
如果 PoC 通過,再投入 3 個月做完整系統。
如果 PoC 就發現品質不夠,省下後面的時間和錢。
先用 $50 驗證,不要先花 $750。