蘋果研究人員提出 DarkDiff 技術,將生成擴散模型整合進 iPhone 相機 ISP,能顯著提高低光源拍攝品質,提升使用者影像體驗。
雖然iPhone的夜拍模式 (Night Mode) 已經相當成熟,但面對極低光源或是手抖造成的模糊,物理光學的限制仍在。不過,蘋果研究人員似乎找到新的解法,根據近期公布的研究論文,將透過名為「DarkDiff」的AI影像技術,試圖利用生成式AI來重塑低光源攝影的規則。
什麼是「DarkDiff」?把「生圖AI」拿來修照片
蘋果研究人員指出,「DarkDiff」的核心概念相當大膽:它將目前生成式AI領域最熱門的擴散模型 (Diffusion Models),也就是類似Midjourney或Stable Diffusion用來「無中生有」的生圖技術直接整合進相機的影像訊號處理器 (ISP) 運作流程中。
不同於傳統的降噪演算法 (容易把細節抹平變成油畫感),「DarkDiff」利用擴散模型的特性,能夠在極低光源的條件下,「識別」且「重建」出遺失的紋理與細節。簡單來說,它不只是把雜訊拿掉,還能透過AI運算,有效地修復因光線不足導致的動態模糊 (Motion Blur),讓照片看起來更清晰銳利。
運算攝影 (Computational Photography) 的下一個階段
目前蘋果的光像引擎 (Photonic Engine) 主要依賴Deep Fusion多幀合成技術,透過疊合多張不同曝光的照片來提升畫質。而「DarkDiff」的出現意味蘋果打算更進一步從「合成」走向「生成」。
要在手機的ISP內即時運行擴散模型,對硬體算力是極大的考驗。這顯然也間接暗示明年預計登場的iPhone 18 (或是其搭載的A20處理器),勢必得在NPU與ISP的協同運算效能上有顯著提升,才能在使用者按下快門的瞬間完成這些複雜AI推論。
分析觀點:真實與美感的拉鋸戰
而「DarkDiff」技術的曝光,象徵手機攝影進一步跨入「生成式攝影」 (Generative Photography)時代。
過去拍攝影像追求的是「還原現場」,現在AI則開始幫忙「提升現場影像張力」。這雖然能大幅提升夜拍的可用性 (特別是拍會動的小孩或寵物),但也衍生出一個老問題:照片的真實性。
當AI強大到能自動補足暗部細節時,它到底是在「還原」還是「創作」?先前Android手機就曾因「月亮模式」引發過類似的真實性爭議。蘋果未來在導入這項技術時,如何拿捏AI介入的程度,讓照片既清晰又不失「蘋果味」的真實感,將是技術之外最大的挑戰。
手機攝影AI技術比一比:蘋果與Android陣營
| 品牌 | 核心技術名稱 | 技術原理與特色 | 低光源/夜拍策略 | 運算位置 |
|---|---|---|---|---|
| Apple | DarkDiff (研究階段) |
擴散模型 (Diffusion) 將生成式 AI 整合進 ISP,不僅降噪,更透過「腦補」重建紋理與細節。 |
AI 重建 針對極低光源與動態模糊進行像素級修復,強調自然感。 |
裝置端 (On-device) 依賴 A 系列晶片 NPU |
|
Computational Photography (搭配 Tensor) |
多幀合成 + 生成式 AI 利用 Zoom Enhance 與 Video Boost 技術,結合多張照片資訊與 AI 預測。 |
Night Sight 強大的多幀疊圖演算法,近期加入 AI 生成技術來強化細節銳利度。 |
裝置端 + 雲端 (部分高負載功能仍需上傳) | |
| Samsung | ProVisual Engine |
物體識別 AI 辨識畫面主體(如人、月亮),調用資料庫進行針對性優化。 |
Nightography 利用 AI ISP 進行降噪,並增強暗部色彩還原,風格較為討好眼球。 | 裝置端 |
| Xiaomi | Xiaomi AISP |
AI 大模型運算 將影像處理平台化,利用大模型的高算力進行光學與色彩的重構。 |
Ultra Raw 在 RAW 檔階段直接進行高寬容度處理,保留更多後製彈性。 | 裝置端 |

![[HOMESTRETCH] 熟悉的比賽,陌生的球場:Thirdy Ravena 對籃球的熱愛](https://www.rappler.com/tachyon/2025/12/homestretch-thirdy-ravena-heart-basketball.jpeg)
