JP2018531447A - リアルタイムトーンマッピングのためのシステム及び方法 - Google Patents

リアルタイムトーンマッピングのためのシステム及び方法 Download PDF

Info

Publication number
JP2018531447A
JP2018531447A JP2018512335A JP2018512335A JP2018531447A JP 2018531447 A JP2018531447 A JP 2018531447A JP 2018512335 A JP2018512335 A JP 2018512335A JP 2018512335 A JP2018512335 A JP 2018512335A JP 2018531447 A JP2018531447 A JP 2018531447A
Authority
JP
Japan
Prior art keywords
tone
image
input image
luminance level
base layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018512335A
Other languages
English (en)
Other versions
JP2018531447A6 (ja
JP7008621B2 (ja
Inventor
アンガー ジョナス
アンガー ジョナス
アイラーツェン ガブリエル
アイラーツェン ガブリエル
マンティウク ラファル
マンティウク ラファル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Irystec Inc
Original Assignee
Irystec Software Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Irystec Software Inc filed Critical Irystec Software Inc
Publication of JP2018531447A publication Critical patent/JP2018531447A/ja
Publication of JP2018531447A6 publication Critical patent/JP2018531447A6/ja
Application granted granted Critical
Publication of JP7008621B2 publication Critical patent/JP7008621B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/407Control or modification of tonal gradation or of extreme levels, e.g. background level
    • H04N1/4072Control or modification of tonal gradation or of extreme levels, e.g. background level dependent on the contents of the original
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6027Correction or control of colour gradation or colour contrast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20208High dynamic range [HDR] image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Picture Signal Circuits (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

イメージをトーンマッピングする方法及びシステムは、入力イメージとトーンマッピングされたイメージとの間のイメージコントラスト歪みについてのモデルに基づいてトーンカーブを決定することと、決定されたトーンカーブに従って入力イメージをトーンマッピングすることとを含む。トーンカーブの決定は、イメージコントラスト歪みのモデル内のイメージコントラスト歪みを減少させるトーンカーブの値を解析的に計算することを含む。トーンマッピングオペレータは、ノイズモデル生成器と、1つ以上のコンテキストパラメータを受信するように動作可能なトーンマッピングモジュールとを備える。トーンマッピングモジュールは、入力イメージのベース層とディテール層とを抽出するためのエッジ停止フィルタリング下位モジュールと、トーンカーブ生成下位モジュールと、ベース層とディテール層とを組み合わせるための組み合わせ下位モジュールとを含む。エッジ停止フィルタリング下位モジュール、トーンカーブ生成下位モジュール、組み合わせ下位モジュールの少なくとも1つはコンテキストパラメータに基づいて調整可能である。

Description

本願は、入力イメージについてトーンマッピングを行うためのシステム及び方法に関し、特にイメージコントラストに基づいたトーンマッピングを行うことに関する。
関連出願
本願は、2015年9月2日に出願された「リアルタイムなノイズ把握型トーンマッピングを行うためのシステム及び方法」と題する米国仮特許出願第62/213,290号からの優先権を主張しており、当該開示の全体は参照によって取り込まれる。
高ダイナミックレンジ(HDR、high dynamic range)ビデオは、高級映画館並びに様々な消費者用及び商業用製品においてかつて無いほどのビューイング体験の向上をもたらすことになる。拡張された視覚的忠実性及び芸術的自由度の追求を背景に、HDR技術の進展は極めて速く進んでいる。キャプチャ側からみれば、最大で14〜16.5絞りとなる拡張されたダイナミックレンジをもたらすArri(登録商標)社Alexa(登録商標) XTやRed社Epic Dragon等のプロフェッショナル向けHDRカメラシステムに加えて、最大で20〜24絞りとなるダイナミックレンジをもたらす研究用試作機(非特許文献25、38)が開発されている。プロダクション側からみれば、完全にHDRイネーブルドな制作パイプラインを開発して、完全に新たな創作的ツールセットを芸術家の手中にもたらすことによって、大手制作スタジオは現在進行中の当該トレンドに迎合している。ディスプレイ側からみれば、HDR技術は高い注目を浴びている。Sim2等の製造者は高コントラスト局所的ディミング手法を用いてのダイナミックレンジ拡張に踏み出しており、最近においてはDolby(登録商標) Vision X-tended Dynamic Range PROが発表された。
ADAMS, A., GELFAND, N., DOLSON, J., AND LEVOY, M. 2009. Gaussian kd-trees for fast high-dimensional filtering. ACM Trans. Graphics 28, 3, 21:1-21:12. ADAMS, A., BAEK, J., AND DAVIS, M. 2010. Fast High-Dimensional Filtering Using the Permutohedral Lattice. Com-puter Graphics Forum 29, 2, 753-762. ALLRED, S., RADONJIC´, A., AND GILCHRIST, A. 2012. Light-ness perception in high dynamic range images: Local and remote luminance effects. Journal of Vision 12, 2, 1-16. AUBRY, M., PARIS, S., HASINOFF, S. W., KAUTZ, J., AND DURAND, F. 2014. Fast local laplacian filters: Theory and applica-tions. ACM Trans. Graphics 33, 5, 167:1-167:14. AURICH, V., AND WEULE, J. 1995. Non-linear gaussian filters performing edge preserving diffusion. In DAGM-Symposium, Springer, G. Sagerer, S. Posch, and F. Kummert, Eds., Informatik Aktuell, 538-545. AYDIN, T. O., STEFANOSKI, N., CROCI, S., GROSS, M., AND SMOLIC, A. 2014. Temporally coherent local tone-mapping of HDR video. ACM Trans. Graphics 33, 6, 1-13. BAEK, J., AND JACOBS, D. E. 2010. Accelerating spatially vary-ing gaussian filters. ACM Trans. Graphics 29, 6, 169:1-169:10. BANTERLE, F., CORSINI, M., CIGNONI, P., AND SCOPIGNO, R. 2012. A low-memory, straightforward and fast bilateral filter through subsampling in spatial domain. Computer Graphics Fo-rum 31, 1, 19-32. BARASH, D. 2002. Fundamental relationship between bilateral filtering, adaptive smoothing, and the nonlinear diffusion equa-tion. IEEE Trans. Pattern Analysis and Machine Intelligence 24, 6, 844-847. BENNETT, E. P., AND MCMILLAN, L. 2005. Video enhancement using per-pixel virtual exposures. ACM Trans. Graphics 24, 3, 845-852. BERNS, R. S. 1996. Methods for characterizing CRT displays. Displays 16, 4, 173-182. BLACK, M. J., SAPIRO, G., MARIMONT, D. H., AND HEEGER, D. 1998. Robust anisotropic diffusion. Trans. Image Processing 7, 3, 421-432. BOITARD, R., BOUATOUCH, K., COZOT, R., THOREAU, D., AND GRUSON, A. 2012. Temporal coherency for video tone-map-ping. In Proc. SPIE 8499, Applications of Digital Image Pro-cessing XXXV, 84990D-84990D-10. BOITARD, R., COZOT, R., THOREAU, D., AND BOUATOUCH, K. 2014. Zonal brightness coherency for video tone-mapping. Sig-nal Processing: Image Communication 29, 2, 229-246. CHEN, J., PARIS, S., AND DURAND, F. 2007. Real-time edge-aware image processing with the bilateral grid. ACM Trans. Graphics 26, 3, 103:1-103:9. CHOUDHURY, P., AND TUMBLIN, J. 2003. The trilateral filter for high contrast images and meshes. In Proc. Eurographics work-shop on Rendering 14, 186-196. DRAGO, F., MYSZKOWSKI, K., ANNEN, T., AND CHIBA, N. 2003. Adaptive logarithmic mapping for displaying high con-trast scenes. Computer Graphics Forum 22, 419-426. DURAND, F., AND DORSEY, J. 2002. Fast bilateral filtering for the display of high-dynamic-range images. ACM Trans. Graphics 21, 3, 257-266. EILERTSEN, G., WANAT, R., MANTIUK, R. K., AND UNGER, J. 2013. Evaluation of Tone-mapping Operators for HDR-Video. Computer Graphics Forum 32, 7, 275-284. FOI, A., TRIMECHE, M., KATKOVNIK, V., AND EGIAZARIAN, K. 2008. Practical poissonian-gaussian noise modeling and fit-ting for single-image raw-data. IEEE Trans. Image Processing 17, 10, 1737-1754. FROEHLICH, J., GRANDINETTI, S., EBERHARDT, B., WALTER, S., SCHILLING, A., AND BRENDEL, H. 2014. Creating Cine-matic Wide Gamut HDR-Video for the Evaluation of Tone-map-ping Operators and HDR-Displays. In Proc. SPIE 9023, Digital Photography X, 90230X-90230X-10. IRAWAN, P., FERWERDA, J. A., AND MARSCHNER, S. R. 2005. Perceptually based tone-mapping of high dynamic range image streams. In Proc. Eurographics Conference on Rendering Tech-niques 16, 231-242. KATKOVNIK, V., KATKOVNIK, V., EGIAZARIAN, K., AND ASTOLA, J. 2006. Local Approximation Techniques in Signal and Image Processing. Press Monographs. SPIE Press. KISER, C., REINHARD, E., TOCCI, M., AND TOCCI, N. 2012. Real time automated tone-mapping system for HDR video. In Proc. IEEE International Conference on Image Processing 19, 2749-2752. KRONANDER, J., GUSTAVSON, S., BONNET, G., AND UNGER, J. 2013. Unified HDR reconstruction from raw CFA data. In Proc. IEEE International Conference on Computational Photography 5, 1-9. LEDDA, P., SANTOS, L. P., AND CHALMERS, A. 2004. A local model of eye adaptation for high dynamic range images. In Proc. International Conference on Computer Graphics, Virtual Reality, Visualisation and Interaction in Africa 3, 151-160. MAGGIONI, M., BORACCHI, G., FOI, A., AND EGIAZARIAN, K. 2012. Video denoising, deblocking, and enhancement through separable 4-d nonlocal spatiotemporal transforms. IEEE Trans. Image Processing 21, 9, 3952-3966. MAI, Z., MANSOUR, H., MANTIUK, R., NASIOPOULOS, P., WARD, R., AND HEIDRICH, W. 2011. Optimizing a tone-curve for backward-compatible high dynamic range image and video compression. IEEE Trans. Image Processing 20, 6, 1558 - 1571. MANTIUK, R., DALY, S., AND KEROFSKY, L. 2008. Display adaptive tone-mapping. ACM Trans. Graphics 27, 3, 68:1-68:10. MANTIUK, R., MANTIUK, R. K., TOMASZEWSKA, A., AND HEIDRICH, W. 2009. Color correction for tone-mapping. Com-puter Graphics Forum 28, 2, 193-202. MANTIUK, R., KIM, K. J., REMPEL, A. G., AND HEIDRICH, W. 2011. Hdr-vdp-2: A calibrated visual metric for visibility and quality predictions in all luminance conditions. ACM Trans. Graphics 30, 4, 40:1-40:14. MILANFAR, P. 2013. A tour of modern image filtering: New in-sights and methods, both practical and theoretical. IEEE Signal Processing Magazine 30, 1, 106-128. PATTANAIK, S. N., TUMBLIN, J., YEE, H., AND GREENBERG, D. P. 2000. Time-dependent visual adaptation for fast realis-tic image display. In Proc. SIGGRAPH 00, Annual Conference Series, 47-54. PERONA, P., AND MALIK, J. 1990. Scale-space and edge detec-tion using anisotropic diffusion. IEEE Trans. Pattern Analysis Machine Intelligence 12, 7, 629-639. REINHARD, E., AND DEVLIN, K. 2005. Dynamic range reduction inspired by photoreceptor physiology. IEEE Trans. Visualization and Computer Graphics 11, 1, 13-24. TAKEDA, H., FARSIU, S., AND MILANFAR, P. 2007. Kernel regression for image processing and reconstruction. IEEE Trans. Image Processing 16, 2, 349-366. TAKEDA, H., FARSIU, S., AND MILANFAR, P. 2007. Higher order bilateral filters and their properties. Proc. SPIE 6498, Computational Imaging V , 64980S-64980S-9. TOCCI, M. D., KISER, C., TOCCI, N., AND SEN, P. 2011. A versatile hdr video production system. ACM Trans. Graphics 30, 4, 41:1-41:10. TOMASI, C., AND MANDUCHI, R. 1998. Bilateral filtering for gray and color images. In Proc. International Conference on Computer Vision 6, 839-846. VAN HATEREN, J. H. 2006. Encoding of high dynamic range video with a model of human cones. ACM Trans. Graphics 25, 1380-1399. WARD LARSON, G., RUSHMEIER, H., AND PIATKO, C. 1997. A visibility matching tone reproduction operator for high dynamic range scenes. IEEE Trans. Visualization and Computer Graphics 3, 4, 291-306. YANG, Q. 2012. Recursive bilateral filtering. In Proc. European Conference on Computer Vision 12, 399-413. YOSHIZAWA, S., BELYAEV, A. G., AND YOKOTA, H. 2010. Fast gauss bilateral filtering. Computer Graphics Forum 29, 1, 60-74.
1つの実施形態によれば、入力イメージをトーンマッピングしてトーンマップされた出力イメージを生成する方法を提供する。方法は、入力イメージとトーンマップされたイメージとの間のイメージコントラスト歪みについてのモデルに基づいてトーンカーブを決定するステップと;決定されたトーンカーブに従って入力イメージをトーンマッピングするステップとを含み;トーンカーブを決定するステップは、イメージコントラスト歪みについてのモデル内のイメージコントラスト歪みを減少させるためにトーンカーブの値を解析的に計算することを含む。
別の実施形態によれば、入力イメージをトーンマッピングしてトーンマップされた出力イメージを生成する方法を提供する。方法は、入力イメージに空間フィルタを適用してベース層とディテール層とを生成することを含み;フィルタリングは複数の画素の各々について、画素の周囲の領域内において入力イメージのエッジの存在を検知することと、;領域内におけるエッジの存在に従って、領域にフィルタリングカーネルを選択的に適用することとを伴う。
さらなる別の実施形態によれば、入力イメージをトーンマッピングしてトーンマップされた出力イメージを生成する方法を提供する。方法は、入力イメージのフィルタリングからベース層とディテール層とを抽出するステップと;ベース層をトーンマッピングするステップと;視認性閾値と入力イメージのノイズモデルとに基づいてディテール層を調節するステップと;トーンマッピングされたベース層と調節されたディテール層とを組み合わせるステップとを含む。
さらなる別の実施形態によれば、コンテキスト把握型トーンマッピングオペレータを提供する。オペレータは、ノイズモデル生成器と、1つ以上のコンテキストパラメータを受信するように動作可能なトーンマッピングモジュールとを備える。トーンマッピングオペレータは、入力イメージのベース層と入力イメージのディテール層とを抽出するためのエッジ停止フィルタリング下位モジュールと;トーンカーブ生成下位モジュールと;ベース層とディテール層とを組み合わせるための組み合わせ下位モジュールとを備える。エッジ停止フィルタリング下位モジュール、トーンカーブ生成下位モジュール、組み合わせ下位モジュールの少なくとも1つは、1つ以上のコンテキストパラメータの少なくとも1つに基づいて調整可能である。
さらなる別の実施形態によれば、トーンマッピングされた出力イメージを入力イメージから生成するためのコンピュータによって実施されるシステムを提供する。システムは、少なくとも1つのデータ記憶装置と、少なくとも1つの記憶装置に結合された少なくとも1つのプロセッサとを備え、少なくとも1つのプロセッサは、入力イメージとトーンマップされたイメージとの間のイメージコントラスト歪みについてのモデルに基づいてトーンカーブを決定するステップと;決定されたトーンカーブに従って入力イメージをトーンマッピングするステップとをなすように構成されており;トーンカーブを決定するステップは、イメージコントラスト歪みについてのモデル内のイメージコントラスト歪みを減少させるためにトーンカーブの値を解析的に計算することを含む。
さらなる別の実施形態によれば、トーンマッピングされた出力イメージを入力イメージから生成するためのコンピュータによって実施されるシステムを提供する。システムは、少なくとも1つのデータ記憶装置と、少なくとも1つの記憶装置に結合された少なくとも1つのプロセッサとを備え;少なくとも1つのプロセッサは、入力イメージに空間フィルタを適用してベース層とディテール層とを生成するステップをなすように構成されており;フィルタリングは複数の画素の各々について、画素の周囲の領域内において入力イメージのエッジの存在を検知することと;領域内におけるエッジの存在に従って、領域にフィルタリングカーネルを選択的に適用することとを含む。
さらなる別の実施形態によれば、トーンマッピングされた出力イメージを入力イメージから生成するためのコンピュータによって実施されるシステムを提供する。システムは、システムは、少なくとも1つのデータ記憶装置と、少なくとも1つの記憶装置に結合された少なくとも1つのプロセッサとを備え;少なくとも1つのプロセッサは、入力イメージのフィルタリングからベース層とディテール層とを抽出するステップと;ベース層をトーンマッピングするステップと;視認性閾値と入力イメージのノイズモデルとに基づいてディテール層を調節するステップと;トーンマッピングされたベース層と調節されたディテール層とを組み合わせるステップとをなすように構成されている。
上述の説明は実施形態の例を提供するものの、開示された実施形態の幾つかの特徴及び/又は機能については、開示の実施形態の精神及び動作原理から逸脱せずに変更を加えることが可能であることに留意されたい。したがって、上述の事項は例示的且つ非限定的なものとして意図されており、当業者は、添付の特許請求の範囲にて規定される本願発明の範疇から逸脱せずに、上述の他に変種や変更を得ることが可能であることを理解するであろう。
1つの例示的実施形態による、トーンマッピングシステムのオペレーショナルモジュールについての概略図である。 人間の視覚系の視認性閾値と、カメラによって撮像された典型的なイメージに含まれるイメージのノイズと、カメラによって撮像されたイメージをトーンマッピングした後のノイズレベルとを示すグラフである。 複数の輝度レベルセグメントについての画素値についてのヒストグラム(ビン、bin)と、各輝度レベルセグメントについての区分的線形傾斜によって形成された生成済みトーンカーブとを示すグラフである。 大域的トーンカーブを用いて出力されたトーンマッピング済みイメージと、局所的トーンカーブを用いて出力されたトーンマッピング済みイメージとを示す図である。 ヒストグラムイコライゼーションに基づいて生成されたトーンカーブについての傾斜割り当てと、MPEG最小歪み法に基づいた傾斜割り当てと、本願開示のリアルタイムコントラスト歪みベースドなTMOに基づいた傾斜割り当てとを示すグラフである。 図1にて説明されたエッジ停止関数を示すグラフである。 オリジナルの信号にディテール(ノイズ)を付加した様子を伴う様々なフィルタの応答を例示する図である。 トーンマッピングに同じトーンカーブを用いて異なるエッジ保存フィルタを適用した結果を示す図である。 定性分析結果を表すグラフであって、実施された実験に関しての平均レーティングにバー形式で標準誤差を付けて表す、グラフである。 2種の最新のTMO及び本願開示のリアルタイムコントラスト歪みベースドなTMOを示した代表例に関する図である。 2種の最新のTMO及び本願開示のリアルタイムコントラスト歪みベースドなTMOの実装例の結果示す図である。 大域的トーンカーブ、ナチュラルディテール及びディテールの強エンハンスを用いた結果、並びに、トーン優先設定を用いた結果を示す図である。 イメージノイズの増幅をもたらす単純なトーンマッピングオペレータ及び本願開示のリアルタイムコントラスト歪みベースドなTMOによるトーンマッピングを比較する図である。 ノイズを無視するトーンマッピングオペレータとノイズ把握型のリアルタイムコントラスト歪みベースドなTMOとの比較を示す図である。 トーンマッピング中にアンビエント光が導入された場合の結果を示す図である。 エッジ付近のポイントをフィルタリングする際のバイアスを示す図である。 1つの例示的実施形態による、入力イメージをトーンマッピングするための方法の動作ステップについてのフローチャートである。
キャプチャ及び処理から圧縮及び表示に至るまで、HDRビデオの処理パイプラインの各ステップでは多大な努力がなされているも、HDRビデオ用トーンマッピングの課題については大きな進歩が必要とされている。
ここで、トーンマッピングとは、イメージ又はビデオのフレーム又は複数のフレームの値を処理して、ある色のセットを別の色のセットにマッピングすることを指し示す。典型的な用途は、HDRイメージ又はビデオを、より制限されたダイナミックレンジを有するイメージへとトーンマッピングすることであるが、トーンマッピングは標準的なダイナミックレンジのイメージ又はビデオにも適用され得る。トーンマッピングを行うシステム及び方法は、一般的にここでは、「トーンマッピングオペレータ」(TMO、tone-mapping operator)と呼ぶ。
ロバストなビデオトーンマッピングが必要であるにもかかわらず、既存のアルゴリズムは多くの場合においては期待に添うものではなく、ノイズを露わにしたり増幅したり、大きなコントラスト圧縮をこなすことができなかったり、リンギングやゴースティングや時間的フリッカリングをもたらしたり(非特許文献19)、ディスプレイ及び観察条件に適応しなかったり、又は、演算が遅かったりする。
関連研究
非特許文献19では、11種のビデオトーンマッピングオペレータが評価及び分析された。同文献は、種々のオペレータを次のように分類した:視覚系の特性及び限界を模倣するような視覚系シミュレータ(VSS、visual system simulator)、オリジナルの場面外観(original scene appearance)を保全しようとするような場面再現オペレータ(SRP、scene reproduction operator)、及び主観的に選好されるイメージをもたらすような主観的性質オペレータ(BSQ、best subjective quality operator)。非特許文献19は、全てのオペレータが、フリッカリング、ゴースティング、増幅されたノイズレベル、又はディテールの欠如等のアーチファクトをもたらしやすいものである、と結論している。
フリッカリング等の時間的アーチファクトは、多くのTMOにとって大きな問題である。時間的な安定性のためには、多くの場合、大域的オペレータは、次の事項についての経時的フィルタリングに頼る:トーンカーブ(非特許文献29)、又はTMOパラメータ(非特許文献33、24)。このようにすればより効率的な実装が可能になるも、局所的TMOについては事情はより複雑であり、この場合、トーンの再現が局所的に時間が経るにつれてインコヒーレントな態様で変化し得る。このような問題を克服するために、また、ノイズを削減するために、多くの局所的TMOは時空間フィルタを画素ドメインで(非特許文献26、10、40)又は運動経路に沿って(非特許文献6)用いる。もっとも、これらのフィルタは通常は計算量的に高コストであり、リアルタイム処理には適してはいない。これらの別の問題としては、ゴースティングアーチファクトをもたらし易いという点と、オプティカルフローが破綻する場合にうまく機能しない点とが挙げられる。
リアルタイムノイズ把握型トーンマッピング
大まかに説明されているように、そして添付の図面にて例示されているように、入力イメージ/ビデオをトーンマッピングするための新規なシステム及び方法が開示されている。また、新規なシステム及び方法は、トーンマッピングのステップまたはトーンマッピングの一部を行うに際して効果的な1以上の下位要素を含むことができる。システム及び方法の幾つかの例示的実施形態では、トーンマッピングはリアルタイムで行われるか、及び/又は、トーンマッピングはノイズの存在を考慮することができる(例えば、「ノイズ把握型」のもの)。システム及び方法のトーンカーブ生成部分は、入力イメージとトーンマッピングされたイメージとの間のイメージコントラスト歪みのモデルに基づいている。本願開示の新規なトーンマッピングシステム及び方法、本願開示の例示的実施形態、並びにそれらの変種は、本願においては一般的には「リアルタイムコントラスト歪みベースドTMO」という。
本願開示の1以上のリアルタイムコントラスト歪みベースドTMOシステムは、プログラマブルコンピュータ上で実行されるコンピュータプログラムにおいて実装され得るのであり、各コンピュータは、少なくとも1つのプロセッサと、(揮発性及び不揮発性メモリ並びに/又は記憶素子を含む)データ記憶システムと、少なくとも1つの入力装置と、少なくとも1つの出力装置とを備える。例えば、非限定的に例示すれば、プログラムマブルコンピュータは、次のものであることができる:プログラマブル論理ユニット、メインフレームコンピュータ、サーバ、パソコン、クラウドベースドなプログラム又はシステム、ラップトップ機、PDA、携帯電話、スマートフォン、ウェアラブル装置、タブレット装置、仮想現実装置、スマート表示装置(例えば、スマートTV)、ビデオゲームコンソール、又は携帯型ゲーム機。
各プログラムは、好適には、高レベルな、手続き型プログラミング言語又はオブジェクト指向型プログラミング言語及び/又はスクリプト言語で実装されており、それによってコンピュータシステムと通信する。もっとも、プログラムは、望むのであれば、アセンブリ言語又はマシン語で実装されることもできる。どの場合であれ、プログラミング言語はコンパイル型又はインタープリタ型言語であることができる。このようなコンピュータプログラムの各々は、好適には記憶媒体又は装置上に格納されるのであり、該記憶媒体又は装置は汎用又は特殊用途プログラマブルコンピュータによって読み込まれることが可能であり、該記憶媒体又は装置がコンピュータによって読まれた際にはコンピュータを設定し及び動作させるのであり、本願にて説明された手順が行われるようにするものである。一部の実施形態では、システムは、プログラマブルコンピュータ上で実行されているオペレーティングシステム内に埋め込まれていることができる。他の例示的実施形態では、システムは、ハードウェア内、例えばビデオカード内にて実装されていることができる。
さらに、本願開示のシステム、処理、及び方法は、コンピュータプログラム製品内にて頒布されることができるのであり、該コンピュータプログラム製品は、1以上のプロセッサのためのコンピュータによって用いられることができる命令を含むコンピュータ可読媒体を備える。媒体は様々な態様で提供されることができるのであり、例えば次のものが含まれ得る:1以上のディスケット、コンパクトディスク、テープ、チップ、有線送信、衛星送信、インターネット送信若しくはダウンロード、磁気的及び電子的記憶媒体、デジタル及びアナログ信号、及びそれらのようなもの。コンピュータによって用いられることができる命令は、コンパイルされた及びコンパイルされていないコードを含む様々な形態であることができる。
図1を参照するに、同図においてはトーンマッピングシステム100のオペレーショナルモジュールについての概略図が示されており、該システムは1つの例示的実施形態によるリアルタイムコントラスト歪みベースドTMOを実装するものである。
トーンマッピングシステム100は、入力イメージ又はビデオ108を入力として受信する。入力ビデオ108は、一連のビデオフレームを複数まとめて形成されていることができる。入力イメージ又はビデオ108は、標準的なダイナミックレンジのイメージ又は高ダイナミックレンジのイメージであることができる。
トーンマッピングシステム100は、1以上のコンテキストパラメータを入力として受信することもできる。ここで、コンテキストパラメータとは、トーンマッピングされたイメージまたはビデオ(即ち、トーンマッピングが適用された後の入力イメージ又はビデオ)が表示されるべき環境を定義及び/又は特徴付けるパラメータを指す。コンテキストパラメータは、トーンマッピングされたイメージ又はビデオが観察されるコンテキストを定義及び/又は特徴付けることもできる。コンテキストパラメータは、1以上の観察者特性を含むことができる(例えば、観察者の年齢、ジェンダー、性別、人種、視覚障害)。
コンテキストパラメータの例としては1以上の次のものが含まれる:観察環境におけるアンビエント光、出力ディスプレイ装置のピーク輝度、出力ディスプレイ装置のダイナミックレンジ、観察者プリファレンス、スピード、及び露出。他のコンテキストパラメータも含まれることができる。
トーンマッピングシステム100はノイズモデリングモジュール116を含むことができ、該モジュールは入力イメージ又はビデオ108内に存在するノイズについてのモデルを生成するように動作可能である。本願では、リアルタイムコントラスト歪みベースドTMO内で用いるためのノイズモデリングの具体的な例示的実施形態を開示するが、当該技術分野にて既知の他の適切なノイズモデルを用いることができるものと解されるべきである。他の例示的実施形態では、入力イメージ又はビデオ108のノイズモデルを、トーンマッピングシステム100の外部で生成することができ、それをコンテキストパラメータとしてトーンマッピングシステム100に提供することができる。
トーンマッピングシステム100はトーンマッピングモジュール124をさらに含み、該モジュールそれ自体は、後において詳述する様々な下位モジュールを含んでいる。
より具体的には、トーンマッピングモジュール124は、フィルタリング下位モジュール128と、トーンカーブ生成下位モジュール132と、組み合わせ下位モジュール136とを含む。
フィルタリング下位モジュール128は、入力イメージ又は入力ビデオのフレーム108に対してフィルタリングを適用して、入力イメージ又は入力ビデオの各フレーム108の、ベース層bとディテール層dとを抽出するように動作可能である。入力イメージ又はビデオ108に対してフィルタリングを適用することに関しての具体的な例示的実施形態を開示しているが、イメージ又はフレームをベース層とディテール層とに分離するための当該技術分野にて既知の様々な他の適切なフィルタリング方法を、フィルタリング下位モジュール128内にて適用することができるものと解されるべきである。
リアルタイムコントラスト歪みベースドTMO内のフィルタリング下位モジュール128についての様々な例示的実施形態は、ベース層とディテール層とを抽出するためのエッジ停止空間フィルタに関するものであり、これらは本願明細書の他の箇所で詳述されている。様々な例示的実施形態によるエッジ停止空間フィルタでは、長所としては、リンギングアーチファクトを伴わずにして、ディテールエンハンスメントのための高速なエッジ停止非線形拡散近似をもたらすことができる。
トーンカーブ生成下位モジュール132は、該下位モジュールに入力されたトーンマッピング用イメージ又はビデオフレームのためのトーンカーブを決定するように動作可能である。トーンカーブ生成下位モジュール132は、フィルタリング下位モジュール128によって出力されたベース層を自己の入力として受信することができる。カーブ生成モジュール132は、1つ以上のコンテキストパラメータを入力として受信することもできる。パラメータは、本願明細書の他の箇所で説明したような、トーンカーブ生成を行うためのユーザ選好を含むことができる。一部の例示的実施形態では、トーンカーブ生成下位モジュール132は、ノイズモデリングモジュール116によって生成されたノイズモデルを、入力としてさらに受信する。1つ以上のコンテキストパラメータ及びノイズモデルは、トーンカーブ生成下位モジュール132によってなされるトーンカーブの生成に影響を及ぼすことができる。トーンカーブ生成下位モジュール132は、生成されたトーンカーブを自己に入力されたイメージ又はビデオフレームに適用してトーンマッピングされた出力を生成するようにさらに動作可能である。入力イメージ又はビデオ108のベース層がトーンカーブ生成下位モジュール132に入力されると、下位モジュール132は、トーンマッピングされたベース層btmを出力する。
組み合わせ下位モジュール136は、フィルタリング下位モジュール128から出力されたディテール層を、トーンカーブ生成下位モジュール132から出力されたトーンマッピングされたベース層と、組み合わせ又はマージするように動作可能である。ベース層とディテール層とを組み合わせるための当該技術分野にて既知な様々なレイヤ組み合わせ方法を、組み合わせ下位モジュール136内にて適用することができる。
本願開示のリアルタイムコントラスト歪みベースドTMOの組み合わせ下位モジュール136の様々な例示的実施形態は、ノイズ把握型制御をイメージディテールに対して及ぼす類いの組み合わせ下位モジュール136に関する。例えば、組み合わせ下位モジュール136は、トーンマッピングされたベース層とディテール層とを組み合わせるに際して、ノイズの存否に基づいてディテール層のスケーリングを適用することができる。スケーリングされたディテール層は、doutと表記される。
トーンマッピング下位モジュール124は、逆ディスプレイモデリング下位モジュール140をさらに含むことができる。逆ディスプレイモデリング下位モジュール140は、アンビエント光等の表示装置から知覚されるイメージに影響を及ぼす環境的因子を考慮しつつ、表示装置のモデルを生成するように動作可能である。逆ディスプレイモデリング下位モジュール140は、組み合わせ下位モジュール136から出力された組み合わされたイメージをさらに処理して、表示装置及び環境的因子に適応させてある出力イメージを出力することができる。これで、出力イメージを表示装置上で表示する準備ができた。
本願開示のリアルタイムコントラスト歪みベースドTMOの様々な例示的実施形態は、次の3つの要求に基づいている:ノイズ把握性、時間的ロバスト性、及びディスプレイ適応性。
トーンマッピング用のノイズモデリング
ビデオシーケンス中の視認可能なノイズは、現代的なノイズ除去アルゴリズム(非特許文献27、6)を用いることによって大幅に削減し得る。もっとも、過度に強力なノイズ除去を施すと、ブラーがもたらされ、イメージ鮮鋭度が損なわれる。鮮鋭度の欠如はノイズ以上に許容し難いアーチファクトであるが故に、通常のビデオ処理慣行では、控えめなノイズ削減を施して、そして、残存するノイズをマニュアルカラーグレーディング工程で隠蔽する。
リアルタイムコントラスト歪みベースドTMOの例示的実施形態によれば、グレーディング(grading)工程は、ノイズ把握型トーンマッピングによって自動化される。入力は、(控えめに)ノイズ除去されたビデオシーケンスであるか又はノイジーなビデオシーケンスである。結果は、ビデオであり、該ビデオにおいては、ノイズ特性及び特定の表示装置上でのノイズ視認性を両方考慮した上でノイズの視認性が削減してある。
高級カメラは大口径光学系及び大型センサを有しており、多くの場合、人間の視覚系の視認性閾値(視覚系が知覚し得るコントラスト)よりも低いノイズレベルが得られる。図2は次の項目を示すグラフである:人間の視覚系の視認性閾値(赤色の線)、カメラによって撮像された典型的なイメージに含まれるイメージノイズ(ブルー色の線)、カメラによって撮像されたイメージをトーンマッピングした後のノイズレベル(マジェンタ)。撮像されたイメージのノイズは人間の視覚系の視認性閾値未満である一方、トーンマッピング後のノイズレベルは視認性閾値を上回っていることが分かる。これは、絶対的な輝度レベルの上昇及び詳細なコントラストディテールのエンハンスメントに起因していることがある。
本願開示のリアルタイムコントラスト歪みベースドTMOの様々な例示的実施形態は、次の2つの工程のうち少なくとも1つに関してノイズを考慮する:トーンカーブを決定する際、及び、ディテール層とベース層とを再度組み合わせる際。したがって、トーンマッピングシステム100は既存のノイズ除去方法と併せて使用され得るのであり、このような方法を伴った初期ノイズ除去処理においては高振幅ノイズが除去され、トーンカーブの決定の際並びに/又はディテール層及びベース層の再度の組み合わせの際に低振幅ノイズが処置される。
入力イメージ又はビデオ108内のノイズのモデリングのためには、ノイズの大きさと人間の視覚系の視認性閾値とを考慮する必要がある。デジタルカメラ内のノイズの分散は、光強度Iの関数としてモデリングされることができる(非特許文献20):
ここで、a及びbは、ノイズの信号依存性成分(光子ノイズ)及び信号独立性成分(読み出しノイズ)にまつわるパラメータである。パラメータは、入力イメージから推定されるか(非特許文献20)、カメラによって提供されるか、手動で調整されることができる。
光に対しての視覚系の非線形的感受性(Weber-Fechnerの法則)を考慮するために、分析は、対数ドメインで行われる。対数ドメインでのノイズの大きさは次式で近似されることができる:
図2に戻るに、ノイズの大きさは赤色の線でプロットされている。図2のブルー色の線で示されている視認性閾値についての控えめな推定値は、特定のディスプレイ輝度レベルLについてのコントラスト感受性関数(CSF、contrast sensitivity function)のピークとして表される。非特許文献31のCSFを用いて、Michelsonコントラストから対数コントラストへと検知閾値(C(L)=1/CSF(L))を変換して、次式のように対数輝度での検知可能最小差異を得ることができる:
ノイズモデリングモジュール116用のコンテキストパラメータは、光子ノイズa及び読み出しノイズbを含むことができ、これらはユーザによって定義される。ノイズモデリングモジュール116用の他のコンテキストパラメータとしては、ISO(画素あたりのゲイン)やセンサ温度や積分時間等の入力イメージ又はビデオ108を撮像するためのパラメータが含まれ得る。ノイズ統計値は、推定されることができ、コンテキストパラメータとしても提供され得る。
ビデオまたはイメージのノイズをモデリングするための当該技術分野にて既知の他の方法を、使用することもできるものと解されるべきである。
ディスプレイ適応性
任意のTMOにとっての主たる制約は、ターゲット表示装置上で表示できる輝度の利用可能レンジに起因する。このようなレンジは、OLEDかLCDであるか等の特定の表示技術に依存するばかりでなく、アンビエント光のレベルにも依存する。アンビエント光の一部はディスプレイスクリーンから反射されるのであり、それによって利用可能ディスプレイコントラストが減る。
1つの例示的実施形態によれば、光センサによって容易に測定できる現在アンビエント光レベルを考慮する態様で、利用可能輝度レンジについてのモデルを生成する。
利用可能輝度レンジは、標準的なガンマゲインオフセットディスプレイモデル(Gamma-Gain-Offset display model、非特許文献11)にアンビエント光についての修正(非特許文献29)を加えることによって、モデリングすることができる:
ここで、Lは(ディスプレイの表面から到来するものとして測定された)表示された輝度或いは放射輝度であり、L’は画素の値であり(0〜1)、γはディスプレイのガンマであり(通常は2.2付近)、Lmaxはピークディスプレイ輝度である(オフィス用ディスプレイについては約200cd/m)。Lblackはディスプレイの黒レベルであり、これは完全に暗黒な部屋の中でブラックな画素を表示した際の輝度である(LCDディスプレイにおいて通常は、0.1〜0.8cd/m)。Lreflはディスプレイの表面から反射されたアンビエント光である。光沢のない画面に関しては、これは次式のように近似されることができる:
ここで、Eambは単位をluxとした際のアンビエント照度であり、kはディスプレイパネルの反射率である(LCDディスプレイに関しては0.5〜1%)。
モデリングされた利用可能輝度レンジは逆ディスプレイモデリング下位モジュール140内で適用されて、ターゲット表示装置に適応させたトーンマッピング済み出力イメージを発生させることができる。
最小コントラスト歪みトーンカーブ
入力輝度からディスプレイの輝度へと画素の値をマッピングするトーンカーブが、イメージコントラストを表示可能レンジに落とし込むための主たる道具とされる。トーンカーブは写真分野で伝統的に用いられており、トーンカーブはS字型の形状を有しており、トーンカーブは低位及び高位のトーンにより高い歪みをもたらすことを代償にして中位のトーンにおけるコントラストを保つ。トーンカーブの形状が一定とされるのがアナログフィルムの必須条件であったが、デジタル処理においては、各イメージについて、そして、全てのイメージ領域に関して、トーンカーブを変化させることが許容される。
イメージコントラスト歪みについての、予想されるコントラスト歪み/モデル
トーンマッピングに起因する最も関連性のある歪みは、多分イメージコントラストの変化であるといえよう。イメージコントラスト歪みのモデルは、記号Gで表されるマッピングされていないイメージのコントラストと、記号
で表される適用されたトーンカーブによってトーンマッピングされた後のイメージのコントラストとの間の、差異を考慮する。最も単純なケースにおいては、イメージコントラストG又は
は2つの近隣ピクセル間の差異とすることができるが、イメージコントラスト歪みについての他の解釈も可能である。
本願開示のトーンカーブ生成下位モジュール132の様々な例示的実施形態は、マッピングされていないイメージとトーンマッピングされたイメージとの間のイメージコントラスト歪みについてのモデルに基づいて、トーンカーブを決定する。例えば、トーンカーブは、イメージコントラスト歪みについてのモデルの望まれる特性に基づいて、決定される。マッピングされていないイメージは、トーンマッピングシステム100に入力される入力イメージ又はビデオ108とすることができる。代替的には、マッピングされていないイメージは、入力イメージ又はビデオ108のフィルタリングから抽出されたベース層とすることができる。
より具体的には、1つの例示的実施形態によれば、トーンカーブは、イメージコントラスト歪みについてのモデル内におけるイメージコントラスト歪みを減らすようなトーンカーブの値を計算することによって、決定される。
さらにより具体的には、1つの例示的実施形態によれば、トーンカーブは、イメージコントラスト歪みについてのモデル内におけるイメージコントラスト歪みを最小化するようなトーンカーブの値を計算することによって、決定される。
イメージコントラスト歪みについてのモデルを得るための1つの例示的実施形態によれば、入力対数輝度レベルlの各々については、対数輝度レベルl内のコントラスト値の分布をp(G|l)として表すことができる。したがって、トーンマッピングによるイメージコントラスト歪みの想定値は次のように表すことができる:
この想定値は、マッピングされていないイメージとトーンマッピングされたイメージとの間のイメージコントラスト歪みについての第1のモデルとして、用いられることができる。
内側の積分で、所与の入力対数輝度レベルlについての全てのコントラスト値Gにわたって、歪みの二乗を「合算」する、
。外側の積分では、その結果を、全ての入力対数輝度レベルlにわたって「合算」する。p(l)は、所与のコントラストGが背景輝度l上で表示される確率である。p(G|l)は、背景輝度lを与えられた場合にイメージコントラストG内で発見される確率である。例えば、コントラストGが勾配(gradient)として定義された場合、この確率はヘビーテールな分布に従うであろう。自然なイメージに関しては、一般的なケースにおいては、コントラスト分布は局所的輝度lとは独立であり、よって、p(G|l)=p(G)との仮定を定立することができる。
この問題を解析的に扱い容易なものに留めるため、生成すべきトーンカーブは区分的に線形なものとされ、ノードは(l,v)とされる。イメージコントラスト歪みについてのモデルから生成されるべきトーンカーブに関しては、さらなる制約として、非減少関数とすることを要することができる。図3は、生成され得る区分的線形トーンカーブの例についての代表的図面を示す。
したがって、複数の輝度レベルセグメントが規定されるのであって、各輝度レベルはマッピングされていないイメージの輝度レベルについてのフルレンジのサブレンジに対応する。lはマッピングされていないイメージにおける対数輝度であり、また、vは出力されたトーンマッピングされたイメージの対数輝度である。輝度レベルセグメントkの各々は、2つのノード(l,v)及び(lk+1,vk+1)の間で定義され、また、対数輝度値がδに相当するところで一定の幅を有する(例えば、1つの例示的実施形態では約0.2)。単純化のため、ディスプレイ上で表示され得る最大の対数輝度値は0で固定され、また、最小値はディスプレイの実効的ダイナミックレンジrと共に変化する。式(4)のディスプレイモデルを用いることによって、現在のアンビエント光レベルについてのrを計算することができる:
トーンカーブを複数の区分的傾斜として特徴付けた場合、トーンマッピング後の1つの輝度レベルセグメントについてのイメージコントラストは、次式で表され得る:

ここで、sはセグメントk内のトーンカーブの傾斜(slope)である:
したがって、想定される歪みについての離散近似は次式で表される:
(1−s)の項はコントラストGとは独立であり、それ故に総和の外に移動できる。p(l)の値は、k=1..Nに関してビンの中心がlに配されたイメージ対数輝度値のヒストグラムとして計算されることができる。
コントラスト歪みの削減/最小化
様々な例示的実施形態によれば、トーンカーブの値は、生成されたトーンカーブに起因する式(10)における想定コントラスト歪みを削減又は最小化するように計算される:
様々な例示的実施形態によれば、トーンカーブの値の決定は、トーンカーブを構成する各区分的線形傾斜(piece-wise linear slope)は非減少的であるというさらなる制約条件に服する:k=1..Nに関してs≧0。
代替的には、又は追加的には、トーンカーブの値の決定は、区分的線形傾斜に従ってトーンマッピングされた出力イメージはトーンマッピングされた出力イメージを表示するための表示装置の利用可能ダイナミックレンジ内に収まっているというさらなる制約条件に服する。
第1の制約はトーンカーブが非減少的であることを担保し、第2の制約はディスプレイの最大利用可能ダイナミックレンジが超過されないことを担保する。
式(10)にあるGに関しての総和は、トーンカーブの傾斜sから独立している。したがって、s,..,sによって与えられるトーンカーブの関数としてのε(s,..,s)を削減/最小化する場合、コントラスト分布p(G)は最小値に対して影響を及ぼさない。したがって、問題は次式の関数を減少/最小化することに単純化することができる:
上記は式(12)で与えられる条件にさらに服することができる。したがって、以下の少なくとも1つ又は以下の積を、全輝度レベルセグメント(k=1..N)にわたって減らすために、輝度レベルセグメントkのトーンカーブの一部を表す区分的線形傾斜を決定する:
i) マッピングされていないイメージの任意の領域が、所与の第(k番目)輝度レベルセグメント内に入る輝度レベルを有する確率;
ii) 所与の第(k番目)輝度レベルセグメントの区分的線形傾斜の関数。
所与の第(k番目)輝度レベルセグメントの区分的線形傾斜の関数は、項たる(1−s)であることができる。
式(10)に戻るに、各輝度レベルセグメントについての線形傾斜は、
を最小化することに基づいて決定されることができる。ここで、p(l)はマッピングされていないイメージの任意の領域が所与の第(k番目)輝度レベルセグメント内に入る輝度レベルを有する確率であり、sは所与の第(k番目)輝度レベルの区分的線形傾斜であり、(1−sは所与の第(k番目)輝度レベルセグメントの区分的線形傾斜についての微分値である。
式(13)から続けるに、この式を最小化するに際しては、対応するラグランジアンの第1次Karush-Kuhn-Tucker(KKT)最適性条件を計算することによって解析的に解くことができる。これによって解が得られる(導出過程に関しては付録Aを参照):
上記の解は負の傾斜をもたらし得るのであり、故に第1の制約に違背するかもしれない。これを回避するために、確率p(l)が特定の閾値未満である輝度レベルセグメントに関しては、傾斜を0として設定する。式(14)から、以下の場合にs≧0となる。
上記不等式は直接的に解くことができない。なぜならば、同式は両側、即ち左辺と右辺の総和にp(l)が含まれているからである。また、任意のiについてp(l)が0に等しい場合にも上記式は解くことができない。したがって、ゼロでない傾斜を有する輝度レベルセグメントを見つけるためには、輝度レベルセグメントは、確率p(l)が特定の閾値pを超える輝度レベルセグメントに分割される:
そして、0の傾斜が残余のセグメントに割り当てられるのであり、閾値となる確率が反復的に更新される:
上記はt=1,2..,関するのであり、|Ω|は集合Ωの濃度である。小さい初期確率値、ここではp=0.0001とする、で初期化すると、漸化式は迅速に収束し、輝度レベルセグメントを傾斜がゼロのものと傾斜が正のものとに分離することを可能とし、最適化問題の第1の制約の実効化を可能とする。
様々な例示的実施形態によれば、約20から約30個の輝度レベルセグメントが規定される。このセグメント数の範囲内においては、イメージヒストグラムを与えられるだけで、最小限の計算量的オーバーヘッドにてトーンカーブを見つけることができる。この場合、より複雑なメトリックを伴う手法に比して複雑度が相当程度に緩和されるのであって、例えば多数スケールピラミッド(multi-scale pyramid)の構築及び一連の2次プログラミング問題(series of quadratic programming problems)の解決が必要とされる非特許文献29の手法よりも複雑度が相当程度に緩和される。非特許文献29とは対照的に、視覚的モデルの代わりに、単純なLノルムを用いてイメージコントラスト歪みを測る。もっとも、トーンカーブの柔軟性が限定的であることを加味すると、複雑な視覚的モデルのもたらす利点は僅かである。
トーンカーブ生成下位モジュール132は、トーンカーブの生成とトーンマッピングのためのトーンカーブの適用とに影響を及ぼす複数のコンテキストパラメータを受信することができる。このようなコンテキストパラメータは、トーン圧縮、露出、表示装置のピーク輝度、表示装置のダイナミックレンジ、及びアンビエント光を含むことができる。ユーザ定義パラメータは、局所的領域の個数・サイズ・方向、局所的及び大域的トーンカーブの組み合わせ時の効果割合、並びにトーン優先度(例えば、どのトーンにより高い優先度を付与すべきかを制御する概念)を含むことができる。
ノイズ把握型及び内容把握型トーンカーブ
先述のセクションにおいては、確率p(l)は(イメージヒストグラムから取得された)イメージにおける所与の輝度値の発生頻度に対応するものと仮定されていた。もっとも、該概念は、イメージ内の特定の輝度レベルの重要性を推定するための材料としては理想的ではない、と解された。例えば、イメージの結構な部分が均質的な面(例えば、白色の壁)を含んでいる場合、ヒストグラムに形成されるピーク故にそれに対応するp(l)は高い値となるであろう。通常の場合、平坦な面がイメージにおいて最も顕著な部分とはならず、これらの部位に高重要度を割り当てて、急勾配のトーンカーブを割り付けることには大して意味があるとはいえない。同様に、夜間のシーンにおいては、相当程度の量のノイズを包含し僅かなディテールのみを有する大きな領域が、多くの場合含まれる。このような領域にダイナミックレンジを割り付けていては、ノイズが増幅され、見栄えが良くない結果がもたらされることとなる。
様々な例示的実施形態によれば、トーンカーブは、マッピングされていないイメージのイメージ顕著性をさらに考慮することによって、生成される。トーンカーブの一部の区分的線形傾斜の各々について、区分的線形傾斜に対応する輝度レベルセグメントのイメージ顕著性を、決定する。例えば、トーンカーブの一部の線形傾斜は、次の少なくとも2つの項目の積についての全輝度レベルセグメントにわたっての和を減らすように決定され得る:マッピングされていないイメージの任意の領域が第(k番目)輝度レベルセグメント内に入る輝度レベルを有する確率;第(k番目)輝度レベルセグメントのイメージ顕著性;及び所与の第(k番目)輝度レベルセグメントの区分的線形傾斜の関数。
1つの例示的実施形態によれば、イメージ内容及びノイズレベルの両方を考慮してイメージ顕著性を決定するのであり、それをさらに用いて第k番目輝度レベルセグメントについての確率p(l)を決定する。イメージ顕著性を決定するに際しては、ノイズレベルを超えるコントラスト変化を有する領域により高い重要性を割り当てる。先ず、標準偏差としてとして局所的コントラストの推定値をガウス型ウィンドウをもって計算する:
ここで、*は畳み込み演算子であり、gσは標準偏差がσのガウス核である(例えば、1つの例示的実施形態ではσ=3)。さらに、イメージ顕著性は、所与の第(k番目)輝度レベルセグメントについてのイメージコントラストが入力イメージのノイズモデルのノイズレベルよりも大きくなるような入力イメージの領域の量についての関数であることができる。例えば、確率については、画素の位置においてのノイズレベルnよりも大きなコントラスト値によって重み付けされたヒストグラムを考える。これは次式で表すことができる:
とされ、Sはノイズのレベルより高い局所的コントラストを有する全ての画素の集合であり、Bは特定のヒストグラムのビンk内の画素を含むようなSの部分集合である。実運用上では、このアプローチの場合、センサ読み出しノイズによる影響を受ける暗部がより暗いトーンへとシフトされるのであり、それらがより視認され難くなる。また、これによれば、大きな均質的な領域における過度に引き延ばされたコントラストが、回避されることになる。
トーン優先度
上記にて提案されたノイズ把握型コントラスト測定は、イメージ顕著性についての単純な測定であるとみなされ得る。仮にこの単純な顕著性測定が不十分のならば、より先進的な測定を用いることができるのであり、例えば検知された顔や肌トーンにより高い顕著性を割り当てることができる。一部の例においては、トーン優先度パラメータを含めることが有益たり得るのであり、該パラメータはp(l)値をそれらの入力対数輝度(input log-luminance)に応じて重み付けることによって高位又は低位のトーンの重要性をバランシングする。これによって、作出されるイメージに対して追加的な創作的制御パラメータを得る。
時間的一貫性
リアルタイムコントラスト歪みベースドTMOについての1つの例示的実施形態によれば、入力ビデオ(或いはマッピングされていないビデオ)における時間的な変化を考慮して、トーンマッピングされた出力イメージのフリッカリングを低減することができる。
イメージ統計値p(l)は一連のビデオフレーム間で急激に変化し得る。これによって不快なフリッカリングアーチファクトがもたらされ得る(非特許文献19を参照)。フリッカリングアーチファクトは、ベース−ディテール層分解工程でもたらされるか、又は、フレーム間でトーンカーブが急激に変化する場合にもたらされる。
1つの例示的実施形態によれば、トーンマッピングされる入力ビデオの一連のフレームの各々について生成されるトーンカーブは、時間に関してフィルタリングされて、フリッカリングアーチファクトが減らされるか除去される。
トーンカーブのフィルタリングは、視覚的に最も関連性を有するデータに対して作用するのであり、これらはノード位置である。技術的な芸術家(technical artists)らと議論したところ、フィルタに関しての選択は次の両方に依存することが見出された:トーンマッピングの意図/芸術的目標、並びに、入力ビデオ。例えば、遮断周波数が0.5Hzの3タップローパスIIR(3-tap low-pass IIR)フィルタを用いることができる。この周波数は、可視的なフリッカを最小化するために選定された(非特許文献29を参照)。IIRフィルタは実装が簡単で、また、FIRよりも小さいフィルタサイズで済む。代替的には、時間的エッジ停止フィルタを用いることができ、これによれば鋭敏な時間的推移が保全される。もっとも、これらの(及び他の)フィルタで実験することによっては、時間的な変化が激烈な場合を除いて、視覚的な向上は見受けられなかった。時間的フィルタの選定及びその画素応答(pixel response)に対する影響は、補足的資料にて詳述及び例示される。実装例は、トーンカーブフィルタが可換とされる点において柔軟である。
時間的フィルタリングでは物体の明るさの一貫性が保たれない場合があることに留意されたい(非特許文献13)。即ち、幾つかの物体の明るさが経時的に徐々に変動するかもしれない。他方で、明るさを保とうとすれば、達成可能なイメージコントラストは大幅に減り、ビデオシーケンス全体を前処理することが必要となる。本願開示の手法では、物体の明るさの一貫性をトレードオフして、より良好なコントラスト再現とリアルタイムオンライン処理を得ている。より低い遮断周波数を用いることによって、より強固な明るさ一貫性を強制することができる。本願開示のトーンカーブ生成下位モジュール及び方法はフレーム毎のコントラスト歪みを低減する一方で、時間的フィルタは時間ドメインにおけるフリッカリング歪みを最小化する。時間的フィルタは、フレーム毎の解を最適点から動かして当該フレームに関しては若干劣る解がもたらされるが、ビデオクリップ全体にとってはより良好な解が得られる。ビデオシーケンス全体にとって最適なトーンカーブのファミリを探索することは可能ではあるが、そのようにすると方法がリアルタイム処理に適さなくなり、また、もたらされる質の向上は僅かである。
局所的トーンカーブ
人間の視覚系は、局所的なシーン領域に適応できる能力故に、広い範囲の輝度レベルを知覚することができる。このような空間的な局所的適応の正確な仕組み及び空間的広がりについては良く理解されてはいないが、例えば明るさ判定をなす際には、視野において局所的及び大域的な情報プーリングがなされていることについて十分な証拠がある(非特許文献3)。1つの例示的実施形態によれば、異なるトーンカーブが計算されて、フレームのイメージの異なるイメージ領域に対して適用される。非特許文献35に示されているように、局所適応型トーンカーブは、目立つアーチファクトをもたらさずにして、イメージディテールの視認性をかなり増大させることができる。図4は、大域的及び局所的トーンカーブを用いて生成されたフレームを示す。
したがって、トーンマッピングされるべき入力イメージは複数の局所的領域に細分化され、各局所的領域についてトーンカーブが決定される。1つの例示的実施形態によれば、入力イメージは複数の垂直局所的領域に細分化される。代替的には、入力イメージは複数の水平局所的領域に細分化される。
1つの例示的実施形態では、入力イメージは視野角換算で5度ずつに細分化されるのであり(15インチのフルHDディスプレイを45cmから見た場合の約230ピクセル分に相当)、これは網膜上では中心窩のおよその直径に相当する。そして、各タイルtについて個別的に重要度の値p(l)が計算される。このような局所的輝度重要性統計値は、局所的トーンカーブを計算するために直接的に利用されることはできない。なぜならば、これらは特定のタイルには含まれていないがイメージ中には存在している輝度レベルについては、ゼロの値を有しているからである。この結果、高度に局所適応化されたトーンカーブがもたらされ、イメージ全体にわたって大いに異なるものとなり、視認可能なトーン不連続性が惹起される。これについて補償するため、タイル毎のp(l)値がイメージ全体のための大域的確率p(l)とブレンドされるのであって、大域対局所のブレンド比は10%対90%であり、そして局所的トーンカーブが計算される。局所的トーンカーブをイメージに適用するため、近隣タイル間でトーンカーブ値が補間され、これによって単一の大域的トーンカーブの場合になされる典型的な1−Dルックアップの代わりに3Dルックアップがなされることになる。各局所的トーンカーブは、前のセクションにて説明されたIIRフィルタを用いて経時的に且つ独立的にフィルタリングされることを要する。局所的トーンカーブに伴う計算量的オーバーヘッドは最低限のものであることに留意されたい。なぜならば、最も計算量的に高コストな演算(即ち各タイルについてp(l)を計算すること)が、イメージ全体についてp(l)値を計算するのとほぼ同じ合計時間を要するからである。
他のトーンカーブ生成方法との比較
トーンカーブを計算するためにヒストグラムを用いるのは、イメージエンハンスメント手法として人気のあるヒストグラムイコライゼーションと似ているようにも見受けられ得る。しかし、これら2つの方法の目的及び結果はかなり異なる。
非特許文献28に示されているように、ヒストグラムイコライゼーションは、次式に従ってトーンカーブ傾斜を割り当てることに等しい:
図5は、ヒストグラムイコライゼーション(赤色の線)及び本願開示のリアルタイムコントラスト歪みベースドTMOによるトーンカーブ生成による傾斜割り当てについてみた、傾斜割り当ての比較である。図では、対応する輝度レベル(又はビン)の確率即ちp(l)に応じてどのようにしてトーンカーブの傾斜が割り当てられるかが、示されている。イメージコントラスト歪みに基づいた本願開示のトーンカーブ生成による傾斜が(歪められていないコントラストに対応する値たる)1を超えることはない一方で、ヒストグラムイコライゼーション法では、高確率(p(l))のセグメントに可能な限り最高のコントラストを割り当てようとしている。付録Bにおいては、トーンカーブ傾斜は確率値p(l)に指数関数的に関連していることが示されており、高確率なビンにかなり急な傾斜が割り当てられる。ヒストグラムイコライゼーション法が、確率値p(l)が高くなる均質的な画素値の領域を、過度にエンハンスしてしまいがちなのは、このことにもよる。非特許文献41は、この問題への対応として、最大確率p(l)を、閾値対強度関数から決定された値に拘束する。もっとも、これはその場しのぎ的な手法であり、コントラスト歪みが最低限であることを保証しない。
イメージコントラスト歪みに基づいた本願開示のトーンカーブ生成は、下位互換性を有するHDRイメージ及びビデオエンコーディング用途から導出された最適トーンカーブ法にも似ている(非特許文献28、図5の破線として図示)。この手法はヒストグラムイコライゼーション法よりはコントラストエンハンスメントに関して積極性を減らしているが、コントラストを保つ代わりにコントラストを依然としてブーストしてしまう。なぜならば、この結果、LDR層の逆トーンマッピング後のコーディングエラーが減るからである。
トーンマッピングのためのフィルタ設計
ベース及びディテール層分解法(図1のb及びd)は、トーンマッピングにおいて局所的コントラストを保つためによく用いられる手法である。エッジ保存ローパスフィルタによって取得されたベース層(b)はトーンカーブを用いて圧縮され、また、ディテール層(d)は維持されるかエンハンスさえされる。
分解において最重要な観点は、フィルタリング方法の選定である。従前のTMOは(概説については非特許文献19を参照)、例えばノイズ削減のために設計された古典的なイメージフィルタに大方依存してきた。ベース/ディテール層分解における一般的な選択肢としては、双方向フィルタ(非特許文献5及び39)がその単純さ故に選ばれてきた。もっとも、古典的なイメージフィルタの意図と、トーンカーブ生成及びディテール抽出の目的とには、根本的な相違点があり、これが問題となる。第1に、イメージのディテールはノイズよりも大きな空間的スケールで見出されるのであり、即ち視認可能なアーチファクトの導入を伴わないためには空間的ドメイン及び強度ドメインにおいてより大きなサポートがディテール抽出フィルタによって必要とされている。第2に、最終結果が、ベース層(b)及びディテール層(d)であり、フィルタリングされたイメージではない、ということが挙げられる。ディテール層はフィルタリングアーチファクトに対して感受性が高く、エッジに沿っての挙動が極めて重要である。(通常のイメージフィルタリングにおいて見えないかもしれないような)小さなアーチファクトであっても、特にビデオに関しては、トーンマッピング後には視覚的に不快なものとなり得る。
付録Cでは、なぜ双方向フィルタが、滑らかなエッジの根底にある信号(ベース層)の正常の再構築に失敗するかが示されており、また、これがディテール層の分離にどのような影響を及ぼすかが示されている。これらの観点が本願開示のフィルタ構築に活用されており、双方向フィルタは異方性拡散法(非特許文献34)に関連しており、ベース/ディテール層分解の目的のために特別に設計された効率的なフィルタがそこから導出される。
フィルタ構築: 伝導プロセスとしてイメージフィルタリングのための拡散オペレーションが遂行されるのであって、拡散PDEに従って画素値I(p)は時間tに関してそれらの近隣へと伝播される:
ω(p,t)=cが一定である場合、該式は等方性熱拡散方程式になる。非線形拡散においては、イメージ勾配マグニチュード(image gradient magnitude)を停止条件
として用いることによって、拡散を均質的イメージ領域に拘束することにより、エッジを保存する。イメージフィルタリングにおいてこれは、時間ドメインを離散化することによって、及び、各画素pにおけるインフローVをそれに最も近い近隣画素から適応型平滑化手順によって反復的に計算することによって、近似される。これは、k+1回目の反復については次式で表される:
高コントラスト構造を保存するために、重み付け量は、空間ドメイン及び強度ドメインの両方における距離に基づいている。これとは対照的に、双方向フィルタは、加重平均のためにより広い近傍を用いて、単一の反復回において実行される。非特許文献18において説明されているように、より大きな空間的サポートを用いて0−オーダー異方性拡散法(anisotropic diffusion)を拡張することができ、これによって双方向フィルタへの接続を可能とすることができる:
ここで、αは拡散レートであり、双方向フィルタに関しては次の正規化として理解することができる:α=1/Σw。異なる近傍Ω、空間的重み付け量w、及び強度重み付け量wを用いることによって、様々な異なるフィルタを記述することができる。異方性(anisotropic)拡散フィルタ及び双方向フィルタに関しては、これらの関数は表1に示す。複雑度を低く抑えるために、また、アーチファクトを避けるために、等方性アプローチ(an isotropic approach)を用いる:
ここで、▽I(p)は画素位置pにおけるイメージ勾配である。画素毎のエッジ停止関数wを用いて重み付けされる線形フィルタを反復的に適用することによって、このフィルタをかなり迅速に評価することができる。等方性カーネルはpの周りに均質的に分布しているサンプルを有しているため、シャープニング過多の問題を起こさずして偏りのない結果が得られる。エッジを保存するためにカーネルのサイズはイメージ構造に適応させられる。すなわち、より少ない個数のサンプルが傾斜の急な(高勾配な)エッジに沿って用いられることを意味する。もっとも、空間フィルタリングの狙いはベース/ディテールの分離であるため、アーチファクトを発生させるような危険を冒すよりも、ディテールがエッジに沿ってあまり目立たないものとなることを許した方がより無難である(図9を参照)。さらに、エッジ自体が知覚的に支配的であるため、間違ったエッジ及び/又は時間的にインコヒーレントなエッジに比べると、テクスチャディテールの喪失可能性の方がより少ない問題性を呈する。
エッジに沿ってのフィルタの挙動は、エッジ停止関数及び勾配推定計算態様によって、決定される。等方性カーネルの場合、フローをエッジの近くまで伝播させつつエッジを超えないようにするためには、控えめな停止関数が本質的に必要となることが見出された。これを達成するためには、Tukeyのbiweight (Tukey’s biweight)法(非特許文献12)を用いるのであり(表1を参照)、該手法ではλ以上の勾配マグニチュードにて拡散を控えめに停止する。また、ロバストな勾配定式化が用いられるのであり、これは画素p=(x,y)の周りの近傍Ωに広がる直線ランプとして表され、次式による:
ここで、
は天井演算を表す。この定式化によって、例えばガウス差(DoG、difference of Gaussians)を用いる場合等と比べて、より速く拡散がエッジにて停止する。式(26)を式(27)と組み合わせると、画素が近傍Ωの半径よりも高コントラストなエッジに近接した場合に、フローが完全に停止される。高速な拡散を保証しつつエッジに付近でのフィルタリングを可能とするために、Ωのサイズに関しては、とても小さいカーネルから開始して拡散の進行に応じてその半径を増大させていく。Ωのサイズは、N回の反復後のフィルタのネットサイズがNσとなるように変化するのであって、ここでσはカーネルの初期サイズである。換言すれば、
である。最後に、元のイメージまでへの距離を用いた拡散手順は、潜在的な極端な値の再構築段階における発現を回避するために、律則される(アルゴリズム1の第7行を参照)。
フィルタ設計の最終的定式化は、表1で提示され、アルゴリズム1で概説される。反復回数Nを設定するに際しての動機付けを含む収束挙動分析は、付属の資料に含まれている。1つの例示的実施形態によれば、N=12回とした反復回数が用いられる。
フィルタリング方法は、入力イメージにスペシャルフィルタを適用して、ベース層とディテール層とを生成することを含む。複数の画素の各々について、画素の周囲の領域内に、入力イメージのエッジが存在しているか否かが決定される。画素の周囲の領域内にエッジが存在していることに基づいて、フィルタリングカーネルがその画素に対して選択的に適用される。空間フィルタ(spatial filter)は反復的に適用することができ、反復毎にフィルタリングカーネルのサイズを増大させていくことができる。所与の画素については、所与の画素の周囲の領域内に所定のエッジ閾値を超過する勾配があると決定された場合には、反復回にわたってのフィルタリングのフローは停止されるのであり、これによってその領域内にエッジが存在することが表される。
図6は、表1の様々なエッジ停止関数を表す。
様々な例示的実施形態によれば、アルゴリズム1に示されているように、入力イメージ又はビデオ108は、フィルタリングの適用を受ける前に、対数ドメイン(l=log(l))へと変換される。
1つ以上のユーザ定義パラメータをフィルタリング下位モジュール128に適用することができる。これらには、次の1つ以上が含まれることができる:空間ドメインにおけるフィルタサイズ(例えば、σ)、反復の回数、及びエッジ停止関数に適用される閾値。
他の方法との比較
図7は、異なるローパスエッジ停止フィルタの挙動を示すために、1次元的な信号について図示しており、同図は、これらのフィルタを、様々な例示的実施形態による本願開示の高速ディテール抽出型拡散フィルタと比較する。入力(7a)は、ノイズ関数を用いてディテール(緑)を付加した信号(ブルー)である。そして、フィルタを用いて、ディテールなしに信号を再構築する。再構築のMSEは、104でスケーリングされて、数値的比較のために供される。本願開示のディテール抽出拡散法は、次のフィルタと比較される:古典的な双方向フィルタ(BF)及び異方性拡散フィルタ(AD)、トライラテラルフィルタ(TF)、並びに、現在の水準の最先端フィルタたる高速局所的ラプラシアン(FLL、fast local laplacian)フィルタ(非特許文献4)。区分的一定性の仮定が成立する場合の左側のステップエッジにおいては、ゼロ次フィルタは何らの問題ももたらさない。もっとも、右側の平滑エッジに関しては、BFはバンディングをもたらし、ADは階段状アーチファクトをもたらしがちである。TF、FLL及び本願開示のディテール抽出拡散フィルタは、視認可能なアーチファクトを生成しない。もっとも、本願開示のディテール抽出拡散フィルタに比べると、TF及びFLLは共に計算量的に高コストである。さらなる重要な差異としては、本願開示のディテール抽出拡散フィルタはアーチファクトをもたらさずにしてトーンマッピングのためのディテール抽出をなすように特別に設計されているのに対して、例えばFL等は平滑な強度推移において偽のエッジを作成しがちである、ということが挙げられる。
図8は、同じトーンカーブを用いつつ、ディテール抽出のためになされる異なるエッジ保存フィルタの適用例を示す。ディテールはスケーリング係数を5としてスケーリングされてフィルタリングにおける差異点及びアーチファクトを際立たせており、拡大されたバージョンはイメージ中における四角い枠の領域に関しての詳細を表している。それぞれのフィルタのMatlabでの実装例の所要時間も表示されており、所要時間は本願開示のリアルタイムコントラスト歪みベースドTMOのフィルタリングとの比較で表されている。
リアルタイムコントラスト歪みベースドTMOとの関係では、本願開示のトーンカーブはフィルタリングされたイメージに適用されており、それに続いて抽出されたディテールが戻されており、抽出されたディテールは印刷物上でも容易に比較できるようにスケーリングされている。高速局所的ラプラシアン(FLL)フィルタについての事例が表示されており、本願開示のディテール抽出拡散フィルタと現在の最先端水準のフィルタリングとの間の差異を明らかにしている。さらに、非特許文献6で提案されているディテール抽出のための透過性フィルタ(PF、permeability filter)も図中で明かされている。このフィルタは微少なディテールエンハンスメントから中程度のディテールエンハンスメントまでは良好に機能するが、より強い操作が絡むとアーチファクトが明確に視認されるようになる。例を見れば、古典的なゼロ次フィルタ(BF及びAD)に見られるアーチファクトの発生の危険を冒すよりは、エッジの周りでのフィルタリングを制限するのがより好ましいことであるということが明白となる。FLL及びPFと比較すると、本願開示のディテール抽出用の拡散フィルタは、幾つかのエッジに沿って僅かな量のディテールを失うかもしれない。もっとも、トーンマッピングに際しては、これが好適な挙動である。なぜならば、このようにすることによってロバストなディテールエンハンスメントが担保されるからなのであり、これに対して、他のフィルタは滑らかなイメージ変化箇所(例えば、図8のシャツや指のエッジを参照)にて人工的なエッジ(リンギングアーチファクト)や時間的な不一致をもたらし得る
フィルタの性能についての指標を提供するため、処理時間も図8に示されている。これらの時間指標は本願開示のディテール抽出拡散フィルタと比較した相対値であり、全ての時間指標はMatlab実装例に関する時間を表している(BFについては双方向グリッド加速スキームが用いられている(非特許文献15))。これらの指標は並列化されていないコードに関しての単純な性能指標としての役割を果たすのであり、評価行為の複雑度を反映している。もっとも、これらの異なる方法は並列化に関して異なる程度の有望性を有しているのであり、例えば本願開示のディテール抽出拡散フィルタはこの目的のために特に設計されているのであり、該フィルタによればGPUを用いた場合にはおよそ2桁のオーダーでの性能向上が見受けられる。
ノイズ把握型局所的コントラスト制御
ベース層が局所的トーンカーブを用いてトーンマッピングされたらば、組み合わせ下位モジュール136にてこれをディテール層と再度組み合わせることができる。ディテール層に変化がもたらされていない場合、トーンマッピングにおいて局所的コントラストは保存されることになる。ディテール層の値が増幅又はエンハンスされている場合、イメージディテールはブーストされるのであり、高品質のエッジ停止空間フィルタを用いて組み合わされた際には魅力的な様相をもたらし得る。もっとも、イメージディテールをエンハンスすることには、ノイズ増幅の危険がつきまとう。ノイズ把握型トーンカーブ(セクション4.1)はより暗いトーンにおける幾らかのノイズ(特にセンサ読み出しノイズ)を隠蔽できるが、より明るいイメージ部分におけるノイズを隠すことに関しては効果的ではない。
1つの例示的実施形態によれば、ディテール層は、トーンマッピングされたベース層の視認性閾値と入力イメージ又はビデオ108のノイズモデルとに基づいて調節される。
1つの例示的実施形態によれば、調節は次式で表されることができる:
ここで、V(btm(x,y))は式(3)からの視認性閾値であり、n(b(x,y))は対数輝度ドメイン内におけるノイズレベルである(式(2))。ここで、視認性はトーンカーブbtmによってもたらされた表示された対数輝度に基づいて評価されるのであり、一方でノイズは入力イメージの対数輝度に依存する、ということに留意されたい。eは随意的な局所的コントラストエンハンスメントパラメータであり、ディテールのブーストを可能とするものであり、これによって創造的制御能力がもたらされる。式内の「min」項は、ノイズ振幅が検知閾値を超過するときにはコントラストを実効的に削減する働きのものであり、この場合は図2のノイズ振幅を表すマジェンタ色の線が視認性閾値を表すブルー色の線を上回っている場合に対応する。
組み合わせ下位モジュール136は、ベース層とディテール層との組み合わせに影響を及ぼす1つ以上のコンテキストパラメータを受信する。これらのパラメータは次の1つ以上を含む:ノイズモデルからのノイズ特性及びピーク輝度やコントラストやアンビエント反射率等のディスプレイモデル特性。
逆ディスプレイモデリング下位モジュール140はディスプレイモデルをさらに構築するのであり、構築は少なくとも次の要素に基づいてなされる:ピーク輝度、コントラスト/黒レベル、アンビエント反射率、アンビエント光。逆ディスプレイモデリングは、局所的トーンカーブを生成するのに用いられた局所的領域のサイズ及び向きにさらに基づいていることができ、これはユーザ定義パラメータである。
図17を参照するに、同図においては、1つの例示的実施形態によるトーンマッピング方法の動作ステップについてのフローチャートが示されている。
ステップ204にて、入力イメージ又はビデオ108が受信される。
ステップ208にて、入力イメージ又はビデオ108のノイズモデルが受信又は生成される。例えば、ノイズモデリングモジュール116との関連で提供された詳細に従って、ノイズモデルが生成されることができる。
ステップ216にて、フィルタリングが適用されて、入力イメージ又はビデオ108のベース層とディテール層とが抽出される。例えば、フィルタリングはフィルタリング下位モジュール128との関連で説明されたエッジ停止空間フィルタリングであることができる。
ステップ220にて、1つ以上のトーンカーブ(例えば、大域的トーンカーブ及び/又は複数の局所的トーンカーブ)がベース層のために生成されて、ベース層はトーンマッピングされる。例えば、トーンカーブ生成下位モジュール132との関連で説明されたように、1つ以上のトーンカーブはイメージコントラスト歪みについてのモデルに基づいて生成されることができる。
ステップ224にて、トーンマッピングされたベース層とディテール層とが組み合わされる。例えば、組み合わせ下位モジュール136との関連で説明されたように、組み合わせるに際してノイズの存在に基づいてスケーリングを適用することができる。
ステップ228にて、コンテキストパラメータ及び/又は表示装置のパラメータに基づいて、逆ディスプレイモデルを随意的に適用することができる。
結果及び用途
このセクションでは、様々な例示的実施形態との関係で説明されたトーンマッピングシステム及び方法について概説を提示するのであって、該概説は、視覚的質、性能及び機能の観点から著されている。ノイズ把握能力や、ディスプレイ及び観察条件への適応能力や、ディテールエンハンスメント能力等を含む具体的な機能も論じられており、これによってどのようにして本願開示の様々な例示的実施形態によるトーンマッピングのシステム及び方法を、共通のイメージング用途の文脈において適用することができるかを例示している。
結果及び評価
本願開示のトーンマッピングシステム及び方法の性能を視覚的質の観点にて評価するために、主観的評価を質的分析実験として行った。実験では、本願開示のトーンマッピングシステム及び方法の実装例を、次の6つの最先端のビデオトーンマッピング方法と比較した:即ち、2つの大域的オペレータたる、Mal-adaptation TMO(非特許文献22)と、ディスプレイ適応TMO(非特許文献29)、並びに、4つの局所的オペレータたる、仮想露出TMO(非特許文献10)と、時間コヒーレンスTMO(非特許文献13)と、ゾーナル時間コヒーレンスTMO(非特許文献14)と、運動経路フィルタリング(非特許文献6)。評価は採点実験として遂行され、イメージ処理の経験を積んでいるユーザ10人に対して、ビデオクリップのセットをランダムな順序で見させた。これらのクリップは、非特許文献21から入手されており、7つのオペレータを用いて各々をトーンマッピングした。ユーザには次の属性に関して各クリップを採点するように依頼したのであり、これによって局所的レベルにおけるコントラストを評価した:全般的な明るさ、全般的なコントラスト、全般的な彩度、時間的な色一貫性、時間的フリッカリング、ゴースティング、過度のノイズ、及び、ディテール再現性。採点の最終結果は、観測者達の平均値とされており、図9に示されており、それぞれの異なるシーケンスについて示されている。総評するに、本願開示のトーンマッピングシステム及び方法によれば、視認可能なアーチファクトをもたらさずにして、丁度良いレベルのイメージ特性を呈する結果を一貫して提供することができる、という点が見出された。
図10は、以下のTMOについての代表的な視覚的比較の例を示している:本願開示のリアルタイムコントラスト歪みベースドTMO及びユーザ評価から選び出した2つの最先端のTMO。図中においては、本願開示のトーンマッピングシステム及び方法を、次のTMOのうちで最良の性能を示すものと比較している:非特許文献19の評価に含まれていたものと、ディスプレイ適応TMO(非特許文献29)と、仮想露出TMO(非特許文献10)。拡大部分は、それぞれ、低輝度領域及び高輝度領域におけるトーンマッピングの例を示している。大域的処理に頼るディスプレイ適応TMOは、シーン内の大きなダイナミックレンジを圧縮するのに苦戦しており、それ故に明るい結果並びに局所的ディテール及びコントラストの喪失がもたらされてしまう。仮想露出TMOは双方向フィルタリングに頼っており、幾つかの場合においてはエッジに沿ってのリンギングアーチファクトがもたらされる。トーンカーブを経時的に適応していくことにも問題があり、結果として不快な経時的フリッカリングがもたらされる(図9を参照)。これらのTMOに比べると、本願開示のリアルタイムコントラスト歪みベースドTMOはシーン内のダイナミックレンジを秀逸に扱っており、何らのアーチファクトをもたらさずにして局所的ディテール及びコントラストを保存している。
図11は、異なるトーンカーブを用いた非特許文献6の方法の結果を示している。11a及び11bでは元の論文で用いられていたのと同じトーンカーブが用いられており(即ち、非特許文献17の対数スケーリング及び対数マッピング)、また、11cでは本願開示のリアルタイムコントラスト歪みベースドTMOの実装例が用いられている。非特許文献6で採用されている全般的フィルタリングは、視認可能なアーチファクトの観点(図9を参照)では良好な性能を示すものの、トーンカーブの実際のトーン再現性及び時間的処理については検討していない。その図からすると、本願開示のリアルタイムコントラスト歪みベースドTMOの実装例は、より良好にダイナミックレンジの圧縮を行いつつ局所的コントラストを保存していることが明確である。また、用いられた光学フローフィルタリングは、複雑なイメージ変化を伴う場面では良好に機能しないかもしれない(例えば、図10の打ち付け動作中の鍛冶屋シーケンスのノイズレベルを参照)。最後に、フィルタリング処理故にその方法は計算量的に高コストであり、リアルタイム用途には不適である。
性能
本願にて開示されたリアルタイムコントラスト歪みベースドTMOの全ステップは並列的に計算されることができ、GPU上での実装に適している。空間フィルタリングは、分離可能なローパスフィルタを用いて水平及び垂直勾配フィルタを伴って構築されている。つまり、拡散処理の各反復回においては、4つの1Dフィルタカーネルを実行するだけで足りる。局所的ヒストグラムの計算及びトーンカーブについての時間的フィルタリングは、自明的に並列的である。本願開示のトーンマッピングシステム及び方法の全ての部分は、CUDA6.5を用いて実装された。現代的なグラフィックスカードを伴えば、完全なTMOパイプラインはフルHD映像についてリアルタイムで実行される。表3は、720p及び1080pのHD入力を用いてGeForce(登録商標) GTX 980上で実行されるリアルタイムコントラスト歪みベースドTMOの実装例の性能を示す。
用途及び機能
ビデオ事後処理
ビデオがカラーグレーディングを要している場合、本願開示のトーンマッピングシステム及び方法は、高品質自動調整及びスタイリゼーション用の様々な創造的コントラスト制御手段の両者を提供する。特に魅力的なのはディテールエンハンスメントであり、これによってディテール視認性を維持又は強く増大させることができ、これを目立つアーチファクトの発生なしに行える(図12上部)。これは図12の左上及び中央寄りの上部に示されており、大域的トーンマッピングの結果が、ディテール層を元のコントラストに保全したイメージと、比較されている。トーン優先度調整によってより暗いトーンとより明るいトーンとの間の注目度をシフトすることができ、これをする際にはクリッピング等の歪みが最小化されるのであり、この際にはトーンカーブの正確な形状を制御するといった面倒を回避することができる(図12下部)。動作をリアルタイムなフレームレートで実行できるため、あるパラメータが調整されるに際して、視覚的フィードバックはフル解像度で提供される。また、重きはコントラストに置かれ、色の諸問題は考慮されないため、本願開示のトーンマッピングシステム及び方法は、既存のソリューションと組み合わせることができ、これによってカラーグレーディングのあらゆる観点に対応することができる。
カメラ内処理スタック
センサによって撮像されたイメージは、デジタルビューファインダに表示されたり、イメージ(JPEG)又は動画(MPEG)として保存される前に、デモザイキングンやノイズ除去やシャープニング等の一連のオペレーションを通されなくてはならない。この処理連鎖における要はトーンマッピングであり、該処理においては、センサのより広いダイナミックレンジを、ディスプレイ又は出力ファイルによってサポートされるより狭小なダイナミックレンジへとマッピングする。本願開示のトーンマッピングシステム及び方法は、当該目的に適している。なぜならば、該システム及び方法は、カメラのノイズレベルに適応するような自動的なトーンマッピング及びディテールエンハンスメントを提供するからである。図13及び14は、ノイズ把握型処理を有する場合及び有さない場合のトーンマッピングの結果を示す。ノイズの視認性を低減させるために、ノイジーなイメージ領域においてはエンハンスメントを低く抑えるのであって、より暗いイメージトーン内においては、センサー読み出しノイズの大部分が隠蔽される。もっとも、デジタルビューファインダなどにおいてノイズレベルに関してのプレビューが望ましい場合、図13及び14の左上部に示してあるようにノイズ把握型処理を無効化しておくことができる。ノイズ把握型トーン再現がノイズ除去と実際は競合していないことを強調するために、図14は最先端のノイズ除去方法の適用による結果をも示している(V-BM4D、非特許文献27)。ノイズ除去ステップは対数ドメインにおいてトーンマッピング前に行われる。ノイズ把握型の機能なき場合、ノイズ除去に起因するアーチファクトは明確に視認可能であるが、両方の方法を相補的にあわせると、それらアーチファクトはイメージのより暗いトーン中に隠蔽される。
アンビエント光補償のための表示アルゴリズム
ディスプレイの実効コントラストは、アンビエント光レベルに強く依存する。携帯型機器が日光下で用いられる場合、発光型ディスプレイ(例えば、LCDやOLED等)は殆ど読めないくらいになる。なぜならば、スクリーンから反射される光がそのコントラストを減らしてしまうからである。通常の対処法はスクリーンの明るさを増大させることであるが、こうすると電力消費が大きく増えてしまう。別の方策としてはディスプレイ上に表示された内容に対してトーンマッピングを施して、特定の観察条件下で効果的なイメージコントラストに適応するようにする。これは図15に示されており、上段の列には適応のなされていないイメージが示されており、下段には適応されたイメージが示されている。後者の場合において、内容は明らかにより視認し易くなっており、全般的により良好な質を呈している。非特許文献29にて提案されるディスプレイ適応トーンマッピング(中段)と比較すると、本願開示のトーンマッピングシステム及び方法は、その局所的処理故に、より良好なコントラスト及びディテール視認性をもたらす。
本稿では、非特許文献21にて公共の用に供してあるデータベースからのHDRビデオ入力をみた。このデータセットはトーンマッピングオペレータ(TMO)の評価に適したものである。なぜならば、該セットは現実的なシナリオ下で撮像された高品質な映像を含んでいるからである。
結論
本願明細書では、新規なリアルタイムコントラスト歪みベースドTMO及びその構成要素の例示的実施形態が説明されている。利点としては、本願開示のトーンカーブ生成システム及び方法は、2次プログラミングを数値的に解かなくて良いことが挙げられる。ヒストグラムイコライゼーション法等の既存のアドホック方法とは対照的に、リアルタイムコントラスト歪みベースドTMOでは良好に定義された最小化問題を解くことになる。局所的トーンカーブは、イメージ内容、ノイズレベル及び表示機能などに動的に適応するのであり、アンビエント光への補償も含まれる。また、リアルタイムコントラスト歪みベースドTMOの構成要素としての新規なエッジ停止フィルタについても説明している。このフィルタは、トーンマッピングにおいてディテールを保存及びエンハンスできるように設計されている。該フィルタは、オーバーシューティング及びソフトなエッジにおけるリンギングアーチファクトを回避するのであり、これらはトーンマッピングのために用いられる大部分のフィルタにとって共通する問題であり、ディテールエンハンスメントが必要とされる場合に特にそうであるといえる。フィルタは反復的ガウスぼかしとして実装できるため、効率的なハードウェア実装が可能となる。最後に上述の側面を包括的なビデオTMOとして組み合わせるのであり、これはノイズの視認性を制御し、また、ディスプレイ及びアンビエント光に適応する能力をもたらす。
リアルタイムコントラスト歪みベースドTMOは、シーン再現性及び最高の主観的品質を指向している。先進的なノイズ除去方法又は動画シーケンスの全体を分析することによってより高い品質のトーンマッピングを達成し得るのであるが、そうするとTMOはもはやリアルタイム型ではなくなる。
トーンマッピングは、通常はHDR関連の課題とみられがちであるが、実際においては、遙かに広い応用範囲ないし用途を有している。アンビエント光が高レベルの環境下でディスプレイが観察されており、その実効コントラストが低減されているときには、低ダイナミックレンジコンテンツでさえトーンマッピングによって利益を享受し得る。一部の携帯型機器はこのような補償アルゴリズムを既に組み込んでいる。ディスプレイ(或いはデジタルビューファインダ)が再現できるよりも広範囲な物理的コントラストを多くのカメラセンサは撮像できる。したがって、どのようなカメラ内処理スタックであっても、トーンマッピングは必須的なコンポーネントであるといえ、単一のLDRが撮像される場合であってもそうといえる。最後に、多くの用途においては、芸術家の所望に基づいてイメージを再現することを要する、という点に留意されたい。このような用途で用いられるTMOに関しては、簡単に操作できてかつリアルタイム視覚的フィードバック下で試すことのできるような創造的制御パラメータを提供することを要する。
本願開示のリアルタイムコントラスト歪みベースドTMOの様々な例は、ノイズ視認性の制御や、表示及び観察環境への適応や、コントラスト歪みの最小化や、イメージディテールの保存又はエンハンスメント等の機能を提供するのであり、何らの前処理なくして、入信するシーケンスに対してリアルタイムで実行されることができる。目的は次の少なくともいずれかを含む:ターゲット表示装置の制約を与えられた場合に、元のイメージのコントラストを保存すること;又は最終結果についてのリアルタイムなかつフル解像度な視覚的フィードバックを伴ってコントラストエンハンスメント用の創造的制御手段を提供すること。
本願開示の様々な例示的実施形態にて提供される技術的貢献には次のものが含まれる:
・ コントラスト歪みを最小化する局所的なディスプレイ適応型トーンカーブを計算するための高速な手順。
・ イメージノイズに適応するノイズ把握型トーンカーブ。
・ トーンマッピング用のベース/ディテール層分解用のフィルタ設計であって、リンギングアーチファクトを伴わずにして、ディテールエンハンスメント用の高速エッジ停止非線形拡散近似(fast edge-stopping non-linear diffusion approximation)をもたらす、フィルタ設計。
・ 新規なノイズ制御法とディスプレイ適応性とを組み合わせるリアルタイムな統合型のビデオトーンマッピングソリューション(integrated, real-time video tone-mapping solution)であって、該ソリューションはディスプレイの制約を前提にして高コントラスト及び詳細なディテールを付されたビデオをもたらす、ソリューション。
本願明細書においては、幾つかの代替的実施形態及び例を説明及び図示した。上述の発明の実施形態は、例示的なものとして意図されているにすぎない。当業者であれば、個々の実施形態の特徴の意義を理解できるのであり、また、コンポーネントについての可能な組み合わせ及びバリエーションを了知できるであろう。また、当業者であれば、任意の実施形態を本願開示の他の実施形態と任意の態様で組み合わせて提供できるということも理解できよう。本願発明の中心的特徴から逸脱せずに、本願発明を別の具体的形式で具現化できるものと解される。したがって、本願の例及び実施形態はあらゆる側面で例示的であると解されるべきであって制限的とは解されるべきではなく、本願発明は本願開示の詳細に限定されてはならない。したがって、具体的な実施形態については上述しているが、様々な変更例が想起できるのであって、添付の特許請求の範囲に記載の本願発明の範疇から大きく逸脱せずにしてこれらの変更例を想起できる。
謝辞
実験に参加して下さったボランティア諸君に感謝したい。また、本稿の随所で用いたHDRビデオシーケンスに関しては、Jan Froehlichらにも感謝する(https://hdr-2014.hdm-stuttgart.de)。また、評価セクションで用いた時間的コヒーレンスTMOについての実装に関しては、Ronan Boitardにも感謝する。
本プロジェクトに関しては、助成第IIS11-0081号を介してSwedish Foundation for Strategic Research (SSF)によって、また、Linkoping¨ University Center for Industrial Information Technology (CENIIT)によって、また、Linnaeus Environment CADICS及びCOST Action IC1005を介してSwedish Research Councilによって、資金援助がなされた。
付録A:トーンカーブ傾斜の導出
この付録では、最適な傾斜(式14)を、KTT法を用いてどのようにして式(13)から解析的に導出するかを示す。ここでは先ず第2の制約(式12)の等価条件のみを検討する。ε′(sk)をこの制約で最小化することは、次の関数を最小化することと等価である:
ここで、λはラグランジュ乗数である。この関数は、次の連立方程式を解くことによって最小化される:
変数λは、最後以外の任意の2つの方程式を組み合わせることによって消去することができるのであり、次式が得られる:
式(30)の最終行に上記方程式を導入した後、解は式(14)内にある。
付録B:ヒストグラムイコライゼーションの傾斜
傾斜割り当て公式を導出するために行われた工程を逆行することによって、ヒストグラムイコライゼーションのための仮定的な目的関数を見つけることができるのであり、それは次式で表される:
ここで、式(12)と同じ制約が課されるのであり、変更点は関数が最小化されるのではなく最大化されるということになる。上記式を解くと、式(22)によって与えられる傾斜が得られる。s=0において特異点があり、これを特別条件として扱わなければならないため、定式化は理想的ではない。なお、特異点については、明確性のために省略する。ヒストグラムイコライゼーション手順によって傾斜の対数値が各ビンkの確率に応じて配分されることを、目的関数が示している。これは、トーンカーブの傾斜が確率値p(l)に指数関数的に関連付けられていることを表している。このような関係性は、多くの場合、高確率のビンにかなり急な傾斜を割り当てることにつながるのであり、多くのトーンマッピング用途においてはこのことは望ましくない。
付録C:ディテール抽出アーチファクトの分析
非特許文献18、15、1、2、7、43、8、42等に示される多くの双方向フィルタ用の拡張及び加速化機構は、リアルタイム処理を完全に可能とする。もっとも、区分的に一定な根底的信号の存在を仮定するような双方向フィルタや異方性拡散フィルタ等(非特許文献34)のフィルタは、自然なイメージにおける複雑な空間強度的推移を正しく再構築することに関して失敗する(非特許文献37)。この効果は図16に示されており、そこではフィルタカーネルは滑らかなエッジの一方側に向けてバイアスされている(センサ画素においてなされる面サンプリング故に、自然なイメージにおけるエッジは帯域制限されている)。再構築の際、先述のバイアス及び区分的に一定な信号についての仮定故に、シャープニング過多がもたらされる。結果としてもたらされる再構築アーチファクトは、多くの用途では視覚的に取るに足らないものとして許容され得る。もっとも、ディテール抽出の用途に関しては、このシャープニング過多は、芸術的観点からディテールがエンハンスされている場合には特にそうであるが、無視できないバンディング又はリンギング現象をもたらす(例えば、図8b及び9aを参照)。
これらの問題を緩和するための1つの方針としては、次のような高次近似を用いて根底にあるベース層を再構築することが挙げられる:例えば、トライラテラルフィルタ、カーネル回帰、又は局所的多項式近似(非特許文献23、32、36)もっとも、これらによると、代償として相当程度に複雑度が増大することとなり、高解像度映像に対してのリアルタイム評価が困難となるか、多くの場合においては不可能なものとなってしまう。これらの高次フィルタは、パラメータ設定に敏感である傾向がある。
エッジ保存フィルタリングに関しての別のよく見られる選択肢は、拡散系アルゴリズムである。異方性非線形拡散法は非特許文献34によって提案され、双方向フィルタリングと多くの共通点を有する。異方性拡散及び双方向フィルタリングについての具体的な統一的定式化は、例えば、非特許文献9及び18においても提示されている。このフィルタも区分一定的仮定(piece-wise constant assumption)に依存するため、エッジに沿って出力は一貫性を欠く挙動を示しやすいのであり、これは双方向フィルタに似ている(図9bを参照)。

Claims (80)

  1. 入力イメージをトーンマッピングしてトーンマップされた出力イメージを生成する方法であって、該方法は、
    前記入力イメージとトーンマップされたイメージとの間のイメージコントラスト歪みについてのモデルに基づいてトーンカーブを決定するステップと、
    前記決定されたトーンカーブに従って前記入力イメージをトーンマッピングするステップと
    を含み、
    前記トーンカーブを決定するステップは、前記イメージコントラスト歪みについてのモデル内のイメージコントラスト歪みを減少させるためにトーンカーブの値を解析的に計算することを含む、
    方法。
  2. 前記入力イメージは通常ダイナミックレンジ及び高ダイナミックレンジのいずれか1つである、請求項1に記載の方法。
  3. 前記トーンカーブの前記値は、前記イメージコントラスト歪みについてのモデル内のイメージコントラスト歪みを最小化するために解析的に計算される、請求項1又は2に記載の方法。
  4. 前記トーンカーブを決定するステップは、
    前記入力イメージの輝度レベルの部分に対応する複数の輝度レベルセグメントを規定するステップと、
    各々の所与の輝度レベルセグメントについて、前記所与の輝度レベルセグメントのトーンカーブの部分を表す区分的線形傾斜を、決定するステップと
    を含む、請求項1〜3のいずれか1つに記載の方法。
  5. 各々の所与の輝度レベルセグメントのトーンカーブの部分を表す前記区分的線形傾斜を決定するステップに関しては、前記区分的線形傾斜が非減少的であり、また、前記区分的線形傾斜によってトーンマッピングされた前記出力イメージは前記トーンマッピングされた出力イメージを表示するための表示装置の利用可能ダイナミックレンジ内に収まる、請求項4に記載の方法。
  6. (i)前記入力イメージの任意の領域が第(k番目)輝度レベルセグメント内に入る輝度レベルを有する確率、
    (ii)第(k番目)輝度レベルセグメントのイメージ顕著性、及び
    (iii)所与の第(k番目)輝度レベルセグメントの前記区分的線形傾斜の関数
    の少なくとも2つについての積についての、全輝度レベルセグメント(k=1..N)にわたっての和を減らすために、前記輝度レベルセグメントのトーンカーブの部分を表す前記区分的線形傾斜が決定される、請求項4又は5に記載の方法。
  7. 前記イメージ顕著性は、前記入力イメージの複数の領域の前記所与の第(k番目)輝度レベルセグメントのイメージコントラストに基づいて決定される、請求項6に記載の方法。
  8. 前記イメージ顕著性は、前記所与の第(k番目)輝度レベルセグメントについてのイメージコントラストが前記入力イメージのノイズモデルのノイズレベルよりも大きくなるような前記入力イメージの領域の量についての関数である、請求項7に記載の方法。
  9. 各々の輝度レベルセグメントの前記線形傾斜は
    を最小化させることに基づいて決定される請求項6〜8のいずれか1つに記載の方法であって、p(l)は前記入力イメージの任意の領域が前記所与の第(k番目)輝度レベルセグメントに含まれる輝度レベルを有することになる確率であり、sは前記所与の第(k番目)輝度レベルの区分的線形傾斜であり、(1−sは前記所与の(第k番目)輝度レベルセグメントについての区分的線形傾斜の微分値である、方法。
  10. 前記最小化させることは、
    を解析的に解いて各々の第(k番目)輝度レベルセグメントについての区分的線形傾斜の値(s)を決定することを含む、請求項9に記載の方法。
  11. 前記入力イメージの任意の領域が所与の第(k番目)輝度レベルセグメントに収まる確率が、前記入力イメージのノイズレベルよりも大きなコントラストの領域を有する前記入力イメージに基づいて、調整される、請求項6〜10のいずれか1つに記載の方法。
  12. 前記入力イメージの任意の領域が所与の第(k番目)輝度レベルセグメントに収まる確率が、前記入力イメージの任意の画素が所与の第(k番目)輝度レベルセグメントに収まる確率を前記入力イメージのノイズレベルよりも大きなイメージコントラスト値を有する入力イメージ内画素の個数によってさらに重み付けした確率に、対応する、請求項11に記載の方法。
  13. 前記入力イメージは複数の局所的領域に細分化され、また、各々の前記局所的領域について局所的トーンカーブが決定される、請求項1〜12のいずれか1つに記載の方法。
  14. 前記入力イメージをベース層とディテール層とに分解するステップであって、前記トーンカーブが前記ベース層について決定され、また、前記トーンマッピングが前記ベース層に対して適用される、ステップと、
    前記ディテール層を前記トーンマッピングされたベース層と組み合わせるステップと
    をさらに含む、請求項1〜13のいずれか1つに記載の方法。
  15. 請求項14に記載の方法であって、前記入力イメージを分解するステップは、前記入力イメージに空間フィルタを適用してベース層とディテール層とを生成することを含み、該フィルタリングは複数の画素の各々について、
    前記画素の周囲の領域内において前記入力イメージのエッジの存在を検知することと、
    前記領域内における前記エッジの存在に従って、前記領域にフィルタリングカーネルを選択的に適用することと
    を伴う、方法。
  16. 前記ディテール層を、前記トーンマッピングされたベース層の視認性閾値と前記入力イメージのノイズモデルとに基づいて調節するステップをさらに含む、請求項14又は15に記載の方法。
  17. 入力イメージをトーンマッピングしてトーンマッピングされた出力イメージを生成する方法であって、該方法は、
    前記入力イメージに空間フィルタを適用してベース層とディテール層とを生成するステップを含み、該フィルタリングは複数の画素の各々について、
    前記画素の周囲の領域内において前記入力イメージのエッジの存在を検知することと、
    前記領域内における前記エッジの存在に従って、前記領域にフィルタリングカーネルを選択的に適用すること
    とを含む、方法。
  18. 前記空間フィルタは反復的に適用されて前記フィルタリングカーネルのサイズは反復毎に増大され、
    所与の画素についての反復間フィルタリングフローは、前記所与の画素の周囲の領域内の勾配が、前記領域内におけるエッジの存在を表す所定のエッジ閾値より大きいと決定された際に、停止される、
    請求項17に記載の方法。
  19. 前記ベース層をトーンマッピングするステップと、
    前記ディテール層と前記トーンマッピングされたベース層とを組み合わせるステップ
    とをさらに含む、請求項17又は18に記載の方法。
  20. 視認性閾値と前記入力イメージのノイズモデルとに基づいて前記ディテール層を調節するステップをさらに含み、
    前記調節されたディテール層のモデルは前記トーンマッピングされたベース層と組み合わされる、
    請求項17〜19のいずれか1つに記載の方法。
  21. 入力イメージをトーンマッピングしてトーンマッピングされた出力イメージを生成する方法であって、
    前記入力イメージのフィルタリングからベース層とディテール層とを抽出するステップと、
    前記ベース層をトーンマッピングするステップと、
    視認性閾値と前記入力イメージのノイズモデルとに基づいて前記ディテール層を調節するステップと、
    前記トーンマッピングされたベース層と前記調節されたディテール層とを組み合わせるステップ
    とを含む、方法。
  22. 前記ディテール層は、前記視認性閾値と前記ノイズモデルから決定されたノイズレベルとの比率に従って調節される、請求項21に記載の方法。
  23. 前記視認性閾値は前記トーンマッピングされたベース層に基づいて決定され、また、前記ノイズモデルはトーンマッピング前の前記ベース層に基づいて決定される、請求項21又は22に記載の方法。
  24. 前記視認性閾値は検知可能最小差異に対応する、請求項23に記載の方法。
  25. ノイズモデル生成器と、
    1つ以上のコンテキストパラメータを受信するように動作可能なトーンマッピングモジュールと
    を備えるコンテキスト把握型トーンマッピングオペレータであって、
    該トーンマッピングモジュールは、
    i)入力イメージのベース層と前記入力イメージのディテール層とを抽出するためのエッジ停止フィルタリング下位モジュールと、
    ii)トーンカーブ生成下位モジュールと、
    iii)前記ベース層と前記ディテール層とを組み合わせるための組み合わせ下位モジュールと
    を備え、
    前記エッジ停止フィルタリング下位モジュール、前記トーンカーブ生成下位モジュール、前記組み合わせ下位モジュールの少なくとも1つは、前記1つ以上のコンテキストパラメータの少なくとも1つに基づいて調整可能である、トーンマッピングオペレータ。
  26. 前記コンテキストパラメータは、観察者特性、アンビエント光、出力ディスプレイ装置のピーク輝度、アンビエント反射率、前記出力ディスプレイ装置のダイナミックレンジ、ユーザ定義パラメータ、スピード、露出の1つ以上を含む、請求項25に記載のトーンマッピングオペレータ。
  27. 前記コンテキストパラメータは、アンビエント光、出力ディスプレイ装置のピーク輝度、前記出力ディスプレイ装置のダイナミックレンジ、露出の1つ以上を含み、
    前記トーンカーブ生成下位モジュールは、前記アンビエント光、前記ピーク輝度、ダイナミックレンジの1つ以上に基づいて実効出力ダイナミックレンジを決定して、前記実効出力ダイナミックレンジに基づいて前記トーンカーブを生成する、
    請求項25又は26に記載のトーンマッピングオペレータ。
  28. 前記コンテキストパラメータは観察者特性を含み、
    前記組み合わせ下位モジュールは、前記観察者特性に基づいて前記ディテール層を調節し、また、前記ベース層を前記調節されたディテール層と組み合わせる、
    請求項25〜27のいずれか1つに記載のトーンマッピングオペレータ。
  29. 前記コンテキストパラメータはスピードを含み、
    前記エッジ停止フィルタリング下位モジュールは、前記スピードに従った反復回数の適用をなすように構成されている、
    請求項25〜28のいずれか1つに記載のトーンマッピングオペレータ。
  30. 前記コンテキストパラメータは観察者プリファレンスを含み、
    前記トーンカーブ生成下位モジュールは前記観察者プリファレンスに基づいてトーンマッピングのためのトーンカーブを生成し、並びに、前記組み合わせ下位モジュールは前記観察者プリファレンスに基づいて前記ディテール層を調節してまた前記ベース層を前記調節されたディテール層と組み合わせる、
    請求項25〜29のいずれか1つに記載のトーンマッピングオペレータ。
  31. トーンマッピングされた出力イメージを入力イメージから生成するためのコンピュータによって実施されるシステムであって、該システムは、
    少なくとも1つのデータ記憶装置と、
    前記少なくとも1つの記憶装置に結合された少なくとも1つのプロセッサと
    を備え、
    前記少なくとも1つのプロセッサは、
    前記入力イメージとトーンマップされたイメージとの間のイメージコントラスト歪みについてのモデルに基づいてトーンカーブを決定するステップと、
    前記決定されたトーンカーブに従って前記入力イメージをトーンマッピングするステップと
    をなすように構成されており、
    前記トーンカーブを決定するステップは、前記イメージコントラスト歪みについてのモデル内のイメージコントラスト歪みを減少させるためにトーンカーブの値を解析的に計算することを含む、
    システム。
  32. 前記入力イメージは通常ダイナミックレンジ及び高ダイナミックレンジのいずれか1つである、請求項31に記載のシステム。
  33. 前記トーンカーブの前記値は、前記イメージコントラスト歪みについてのモデル内のイメージコントラスト歪みを最小化するために解析的に計算される、請求項31又は32に記載のシステム。
  34. 前記トーンカーブを決定するステップは、
    前記入力イメージの輝度レベルの部分に対応する複数の輝度レベルセグメントを規定するステップと、
    各々の所与の輝度レベルセグメントについて、前記所与の輝度レベルセグメントのトーンカーブの部分を表す区分的線形傾斜を、決定するステップ
    とを含む、請求項31〜33のいずれか1つに記載のシステム。
  35. 各々の所与の輝度レベルセグメントのトーンカーブの部分を表す前記区分的線形傾斜を決定するステップに関しては、前記区分的線形傾斜が非減少的であり、また、前記区分的線形傾斜によってトーンマッピングされた前記出力イメージは前記トーンマッピングされた出力イメージを表示するための表示装置の利用可能ダイナミックレンジ内に収まる、請求項34に記載のシステム。
  36. (i)前記入力イメージの任意の領域が第(k番目)輝度レベルセグメント内に入る輝度レベルを有する確率、
    (ii)第(k番目)輝度レベルセグメントのイメージ顕著性、及び
    (iii)所与の第(k番目)輝度レベルセグメントの前記区分的線形傾斜の関数
    の少なくとも2つについての積についての、全輝度レベルセグメント(k=1..N)にわたっての和を減らすために、前記輝度レベルセグメントのトーンカーブの部分を表す前記区分的線形傾斜が決定される、請求項34又は35に記載のシステム。
  37. 前記イメージ顕著性は、前記入力イメージの複数の領域の前記所与の第(k番目)輝度レベルセグメントのイメージコントラストに基づいて決定される、請求項36に記載のシステム。
  38. 前記イメージ顕著性は、前記所与の第(k番目)輝度レベルセグメントについてのイメージコントラストが前記入力イメージのノイズモデルのノイズレベルよりも大きくなるような前記入力イメージの領域の量についての関数である、請求項37に記載のシステム。
  39. 各々の輝度レベルセグメントの前記線形傾斜は
    を最小化させることに基づいて決定される請求項36〜38のいずれか1つに記載のシステムであって、p(l)は前記入力イメージの任意の領域が前記所与の第(k番目)輝度レベルセグメントに含まれる輝度レベルを有することになる確率であり、sは前記所与の第(k番目)輝度レベルの区分的線形傾斜であり、(1−sは前記所与の(第k番目)輝度レベルセグメントについての区分的線形傾斜の微分値である、システム。
  40. 前記最小化させることは、
    を解析的に解いて各々の第(k番目)輝度レベルセグメントについての区分的線形傾斜の値(s)を決定することを含む、請求項39に記載のシステム。
  41. 前記入力イメージの任意の領域が所与の第(k番目)輝度レベルセグメントに収まる確率が、前記入力イメージのノイズレベルよりも大きなコントラストの領域を有する前記入力イメージに基づいて、調整される、請求項36〜40のいずれか1つに記載のシステム。
  42. 前記入力イメージの任意の領域が所与の第(k番目)輝度レベルセグメントに収まる確率が、前記入力イメージの任意の画素が所与の第(k番目)輝度レベルセグメントに収まる確率を前記入力イメージのノイズレベルよりも大きなイメージコントラスト値を有する入力イメージ内画素の個数によってさらに重み付けした確率に、対応する、請求項41に記載のシステム。
  43. 前記入力イメージは複数の局所的領域に細分化され、また、各々の前記局所的領域について局所的トーンカーブが決定される、請求項31〜42のいずれか1つに記載のシステム。
  44. 前記少なくとも1つのプロセッサは、
    前記入力イメージをベース層とディテール層とに分解するステップであって、前記トーンカーブが前記ベース層について決定され、また、前記トーンマッピングが前記ベース層に対して適用される、ステップと、
    前記ディテール層を前記トーンマッピングされたベース層と組み合わせるステップ
    とをさらになすように構成されている、請求項31〜43のいずれか1つに記載のシステム。
  45. 請求項44に記載のシステムであって、前記入力イメージを分解するステップは、前記入力イメージに空間フィルタを適用してベース層とディテール層とを生成することを含み、該フィルタリングは複数の画素の各々について、
    前記画素の周囲の領域内において前記入力イメージのエッジの存在を検知することと、
    前記領域内における前記エッジの存在に従って、前記領域にフィルタリングカーネルを選択的に適用すること
    とを伴う、システム。
  46. 前記少なくとも1つのプロセッサは、前記ディテール層を、前記トーンマッピングされたベース層の視認性閾値と前記入力イメージのノイズモデルとに基づいて調節するステップをさらになすように構成されている、請求項44又は45に記載のシステム。
  47. トーンマッピングされた出力イメージを入力イメージから生成するためのコンピュータによって実施されるシステムであって、該システムは、
    少なくとも1つのデータ記憶装置と、
    前記少なくとも1つの記憶装置に結合された少なくとも1つのプロセッサ
    とを備え、前記少なくとも1つのプロセッサは、前記入力イメージに空間フィルタを適用してベース層とディテール層とを生成するステップをなすように構成されており、該フィルタリングは複数の画素の各々について、
    前記画素の周囲の領域内において前記入力イメージのエッジの存在を検知することと、
    前記領域内における前記エッジの存在に従って、前記領域にフィルタリングカーネルを選択的に適用すること
    とを含む、システム。
  48. 前記空間フィルタは反復的に適用されて前記フィルタリングカーネルのサイズは反復毎に増大され、
    所与の画素についての反復間フィルタリングフローは、前記所与の画素の周囲の領域内の勾配が、前記領域内におけるエッジの存在を表す所定のエッジ閾値より大きいと決定された際に、停止される、
    請求項47に記載のシステム。
  49. 前記少なくとも1つのプロセッサは、
    前記ベース層をトーンマッピングするステップと、
    前記ディテール層と前記トーンマッピングされたベース層とを組み合わせるステップ
    とをさらになすように構成されている、請求項47又は48に記載のシステム。
  50. 前記少なくとも1つのプロセッサは、
    視認性閾値と前記入力イメージのノイズモデルとに基づいて前記ディテール層を調節するステップをさらになすように構成されており、
    前記調節されたディテール層のモデルは前記トーンマッピングされたベース層と組み合わされる、
    請求項47〜49のいずれか1つに記載のシステム。
  51. トーンマッピングされた出力イメージを入力イメージから生成するためのコンピュータによって実施されるシステムであって、該システムは、
    少なくとも1つのデータ記憶装置と、
    前記少なくとも1つの記憶装置に結合された少なくとも1つのプロセッサ
    とを備え、前記少なくとも1つのプロセッサは、
    前記入力イメージのフィルタリングからベース層とディテール層とを抽出するステップと、
    前記ベース層をトーンマッピングするステップと、
    視認性閾値と前記入力イメージのノイズモデルとに基づいて前記ディテール層を調節するステップと、
    前記トーンマッピングされたベース層と前記調節されたディテール層とを組み合わせるステップ
    とをなすように構成されている、システム。
  52. 前記ディテール層は、前記視認性閾値と前記ノイズモデルから決定されたノイズレベルとの比率に従って調節される、請求項51に記載のシステム。
  53. 前記視認性閾値は前記トーンマッピングされたベース層に基づいて決定され、また、前記ノイズモデルはトーンマッピング前の前記ベース層に基づいて決定される、請求項52に記載のシステム。
  54. 前記視認性閾値は検知可能最小差異に対応する、請求項53に記載のシステム。
  55. トーンマッピングされた出力イメージを入力イメージから生成するためのコンピュータ実行可能命令を備えたコンピュータ可読記憶媒体であって、該コンピュータ実行可能命令は請求項1〜16のいずれか1つに記載の方法を行うためのものである、コンピュータ可読記憶媒体。
  56. トーンマッピングされた出力イメージを入力イメージから生成するためのコンピュータ実行可能命令を備えたコンピュータ可読記憶媒体であって、該コンピュータ実行可能命令は請求項17〜20のいずれか1つに記載の方法を行うためのものである、コンピュータ可読記憶媒体。
  57. トーンマッピングされた出力イメージを入力イメージから生成するためのコンピュータ実行可能命令を備えたコンピュータ可読記憶媒体であって、該コンピュータ実行可能命令は請求項21〜24のいずれか1つに記載の方法を行うためのものである、コンピュータ可読記憶媒体。
  58. トーンマッピングされたビデオ出力を生成する方法であって、
    入力ビデオを取得するステップと、
    コントラスト歪みを最小化するコンテキスト把握型トーンマッピングオペレータを前記入力ビデオに適用して、出力ビデオを生成するステップであって、前記トーンマッピングオペレータは少なくとも1つのコンテキスト把握型パラメータを適用する、ステップ
    とを含む、方法。
  59. 前記入力ビデオは、対応するビット深度を有し、また、低ダイナミックレンジ若しくは高ダイナミックレンジを有している、請求項58に記載の方法。
  60. 前記少なくとも1つのコンテキスト把握型パラメータは、イメージ若しくはビデオノイズ、ディスプレイ特性、観察条件、イメージ内容、個々の視覚システムの感度、又はイメージディテールに関してのユーザ選好のうち1つ以上を含む、請求項58に記載の方法。
  61. 前記コンテキスト把握型トーンマッピングオペレータを適用するステップは、エッジ停止空間フィルタを適用することを含む、請求項58に記載の方法。
  62. 前記コンテキスト把握型トーンマッピングオペレータを適用するステップは、少なくとも1つのトーンカーブを適用することを含む、請求項58に記載の方法。
  63. 前記少なくとも1つのトーンカーブはビデオフレーム内の各タイルのコンテキストに局所的に適応する、請求項62に記載の方法。
  64. 前記タイルは、重複している又は重複していない方形画素領域のいずれかである、請求項63に記載の方法。
  65. 前記少なくとも1つのトーンカーブは、考慮されるフレーム領域内のコントラスト歪みを最小化する、請求項62に記載の方法。
  66. 前記コントラスト歪みは、ソース及びターゲットイメージのコントラスト間の差の二乗の期待される値として推定され、両イメージにおけるコントラストは所与とされる、請求項65に記載の方法。
  67. 前記コントラスト歪みは、入力輝度レベルの関数たる重要性尺度によって重み付けされる、請求項65に記載の方法。
  68. 前記重要性尺度は局所的コントラスト推定である、請求項67に記載の方法。
  69. 前記局所的コントラスト推定は画素の値の標準偏差でありこれはノイズレベルによってハード閾値化される、請求項68に記載の方法。
  70. 前記コンテキスト把握型トーンマッピングオペレータを適用するステップは、イメージディテールに対してノイズ把握型制御を適用することを含む、請求項58に記載の方法。
  71. 1つ以上のイメージフレームからディテールを抽出する方法であって、該方法は、
    前記1つ以上の入力フレームに高速時空間フィルタを適用するステップを含み、該ステップは、
    等方拡散オペレータを入力イメージの1つ以上の近傍に適用することと、
    対応するスムージングパラメータ及び輝度値を伴う拡散オペレーションを適用することによって前記近傍のサイズを反復的に増大させること
    とを伴う、方法。
  72. コンテキスト把握型トーンマッピングオペレータを適用することをさらに含む請求項71に記載の方法であって、
    前記時空間フィルタを1つ以上の入力フレームに適用してディテール層とベース層とを取得するステップと、
    少なくとも1つのトーンカーブを用いて前記ベース層を圧縮してトーンマッピングされたベース層を生成するステップと、
    イメージディテールにノイズ把握型制御を適用するに際して前記ディテール層と前記ベース層と前記少なくとも1つのトーンカーブとを用いて出力ディテール層を生成するステップと、
    前記トーンマッピングされたベース層と前記出力ディテール層とを組み合わせて出力ビデオを生成するステップ
    とを含む、方法。
  73. 逆ディスプレイモデルを前記組み合わされた層に適用してトーンマッピングされた出力を生成するステップをさらに含む、請求項72に記載の方法。
  74. 前記少なくとも1つのトーンカーブを適用するに際して、前記入力ビデオに対応するノイズモデルを用いるステップをさらに含む、請求項72に記載の方法。
  75. 前記少なくとも1つのトーンカーブを適用するステップは、ピーク輝度、ダイナミックレンジ、及び出力ディスプレイと関連付けられているアンビエント光の少なくとも1つを考慮する、請求項72に記載の方法。
  76. 前記少なくとも1つのトーンカーブを適用するステップは、局所的/大域的パラメータ、トーン圧縮、露出、及びノイズ制御の少なくとも1つを考慮する、請求項72に記載の方法。
  77. 前記ノイズ把握型制御をイメージディテールに適用することは、ディテールスケーリング及びノイズ可視性制御の少なくとも1つを考慮する、請求項72に記載の方法。
  78. 前記エッジ停止空間フィルタはエッジ停止関数を活用する、請求項72に記載の方法。
  79. 請求項58〜78のいずれか1つに記載の方法を行うためのコンピュータ実行可能命令を備えるコンピュータ可読記憶媒体。
  80. プロセッサとメモリとを備えるシステムであって、前記メモリは請求項58〜78のいずれか1つに記載の方法を行うためのコンピュータ実行可能命令を備える、システム。
JP2018512335A 2015-09-02 2016-09-02 リアルタイムトーンマッピングのためのシステム及び方法 Active JP7008621B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201562213290P 2015-09-02 2015-09-02
US62/213,290 2015-09-02
PCT/CA2016/051043 WO2017035661A1 (en) 2015-09-02 2016-09-02 System and method for real-time tone-mapping

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021022661A Division JP7152540B2 (ja) 2015-09-02 2021-02-16 フィルタリング方法、及びシステム

Publications (3)

Publication Number Publication Date
JP2018531447A true JP2018531447A (ja) 2018-10-25
JP2018531447A6 JP2018531447A6 (ja) 2018-12-13
JP7008621B2 JP7008621B2 (ja) 2022-01-25

Family

ID=58186398

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018512335A Active JP7008621B2 (ja) 2015-09-02 2016-09-02 リアルタイムトーンマッピングのためのシステム及び方法
JP2021022661A Active JP7152540B2 (ja) 2015-09-02 2021-02-16 フィルタリング方法、及びシステム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021022661A Active JP7152540B2 (ja) 2015-09-02 2021-02-16 フィルタリング方法、及びシステム

Country Status (6)

Country Link
US (3) US11107204B2 (ja)
EP (2) EP3944615A1 (ja)
JP (2) JP7008621B2 (ja)
CN (1) CN108702496B (ja)
CA (1) CA2997118A1 (ja)
WO (1) WO2017035661A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022154410A1 (ko) * 2021-01-13 2022-07-21 삼성전자 주식회사 이미지 필터 효과의 생성 방법 및 그 전자 장치

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9955084B1 (en) * 2013-05-23 2018-04-24 Oliver Markus Haynold HDR video camera
WO2017035661A1 (en) * 2015-09-02 2017-03-09 Irystec Software Inc. System and method for real-time tone-mapping
US10755392B2 (en) * 2017-07-13 2020-08-25 Mediatek Inc. High-dynamic-range video tone mapping
CN108550158B (zh) * 2018-04-16 2021-12-17 Tcl华星光电技术有限公司 图像边缘处理方法、电子装置及计算机可读存储介质
WO2020027233A1 (ja) 2018-07-31 2020-02-06 ソニーセミコンダクタソリューションズ株式会社 撮像装置及び車両制御システム
US11820289B2 (en) 2018-07-31 2023-11-21 Sony Semiconductor Solutions Corporation Solid-state imaging device and electronic device
EP3867860A1 (en) * 2018-10-19 2021-08-25 GoPro, Inc. Tone mapping and tone control integrations for image processing
WO2020203265A1 (ja) * 2019-03-29 2020-10-08 ソニー株式会社 映像信号処理装置、映像信号処理方法および撮像装置
CN110223256A (zh) * 2019-06-10 2019-09-10 北京大学深圳研究生院 一种逆色调映射方法、装置及电子设备
CN110445986B (zh) * 2019-07-30 2021-03-23 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及电子设备
US11473971B2 (en) * 2019-09-27 2022-10-18 Apple Inc. Ambient headroom adaptation
CN110737440B (zh) * 2019-10-22 2023-03-14 吉林工程技术师范学院 一种基于达芬奇内怀旧色系数字校色插件的编程法
CN110866860B (zh) * 2019-11-01 2023-12-26 上海菲戈恩微电子科技有限公司 生物特征识别用的cis芯片的图像处理方法
US11790950B2 (en) * 2020-01-14 2023-10-17 Robert Salem Abraham Film-making using style transfer
CN115361510A (zh) * 2020-05-08 2022-11-18 华为技术有限公司 一种高动态范围hdr视频的处理方法、编码设备和解码设备
CN114359058A (zh) * 2020-10-13 2022-04-15 影石创新科技股份有限公司 基于深度学习的图像调色方法及计算机可读存储介质
CN112819736B (zh) * 2021-01-13 2023-08-29 浙江理工大学 一种基于多曝光的工件字符图像局部细节增强融合方法
US11810274B2 (en) * 2021-03-04 2023-11-07 Nvidia Corporation Tone management using tone gain functions for high dynamic range imaging applications
US11606544B2 (en) * 2021-06-08 2023-03-14 Black Sesame Technologies Inc. Neural network based auto-white-balancing
US11961206B2 (en) * 2021-09-09 2024-04-16 Samsung Electronics Co., Ltd. Image generation using non-linear scaling and tone-mapping based on cubic spline curves
US20230127327A1 (en) * 2021-10-22 2023-04-27 Samsung Electronics Co., Ltd. System and method for learning tone curves for local image enhancement
WO2022036338A2 (en) * 2021-11-09 2022-02-17 Futurewei Technologies, Inc. System and methods for depth-aware video processing and depth perception enhancement
US11734806B2 (en) * 2021-11-24 2023-08-22 Roku, Inc. Dynamic tone mapping
KR102564447B1 (ko) * 2021-11-30 2023-08-08 엘지전자 주식회사 디스플레이 장치
WO2023128070A1 (en) * 2022-01-03 2023-07-06 Lg Electronics Inc. Display device
CN115018707B (zh) * 2022-06-16 2023-07-18 山东工商学院 基于九曲面片双四次拟合的图像放大方法和装置
CN116109513B (zh) * 2023-02-27 2023-08-04 南京林业大学 一种基于局部环境光投影恒常先验的图像去雾方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090027558A1 (en) * 2007-07-27 2009-01-29 Rafal Mantiuk Apparatus and Method for Rendering High Dynamic Range Images for Standard Dynamic Range Display
US20130241931A1 (en) * 2012-03-14 2013-09-19 Dolby Laboratiories Licensing Corporation Efficient Tone-Mapping Of High-Bit-Depth Video To Low-Bit-Depth Display
US20150213618A1 (en) * 2014-01-28 2015-07-30 Ittiam Systems (P) Ltd. System and method for tone mapping on high dynamic range images

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7020352B2 (en) * 2001-05-25 2006-03-28 Seiko Epson Corporation Photo extraction techniques
US8120570B2 (en) * 2004-12-02 2012-02-21 Sharp Laboratories Of America, Inc. Systems and methods for tone curve generation, selection and application
JPWO2006117919A1 (ja) * 2005-04-28 2008-12-18 コニカミノルタホールディングス株式会社 画像処理方法および画像処理装置ならびに画像処理プログラム
US9177509B2 (en) * 2007-11-30 2015-11-03 Sharp Laboratories Of America, Inc. Methods and systems for backlight modulation with scene-cut detection
TWI352315B (en) * 2008-01-21 2011-11-11 Univ Nat Taiwan Method and system for image enhancement under low
WO2010088465A1 (en) * 2009-02-02 2010-08-05 Gentex Corporation Improved digital image processing and systems incorporating the same
EP2382617A1 (en) * 2010-01-19 2011-11-02 Pixar Selective diffusion of filtered edges in images
US8831340B2 (en) 2010-01-27 2014-09-09 Adobe Systems Incorporated Methods and apparatus for tone mapping high dynamic range images
US9230312B2 (en) * 2010-01-27 2016-01-05 Adobe Systems Incorporated Methods and apparatus for performing tone mapping on high dynamic range images
US9692991B2 (en) * 2011-11-04 2017-06-27 Qualcomm Incorporated Multispectral imaging system
CN102722868B (zh) * 2012-05-23 2014-08-20 西安理工大学 一种高动态范围图像色调映射方法
US8917336B2 (en) * 2012-05-31 2014-12-23 Apple Inc. Image signal processing involving geometric distortion correction
US8965141B2 (en) * 2012-08-17 2015-02-24 Thomson Licensing Image filtering based on structural information
US9412155B2 (en) * 2012-12-31 2016-08-09 Karl Storz Imaging, Inc. Video system with dynamic contrast and detail enhancement
US9275445B2 (en) * 2013-08-26 2016-03-01 Disney Enterprises, Inc. High dynamic range and tone mapping imaging techniques
US8958658B1 (en) 2013-09-10 2015-02-17 Apple Inc. Image tone adjustment using local tone curve computation
GB201410635D0 (en) * 2014-06-13 2014-07-30 Univ Bangor Improvements in and relating to the display of images
US9361679B2 (en) * 2014-07-28 2016-06-07 Disney Enterprises, Inc. Temporally coherent local tone mapping of HDR video
US9378543B2 (en) * 2014-07-28 2016-06-28 Disney Enterprises, Inc. Temporally coherent local tone mapping of high dynamic range video
CN104408752B (zh) * 2014-12-11 2017-07-04 西安电子科技大学 一种基于混合色调映射算法的高动态范围图像压缩方法
US9742963B2 (en) * 2015-05-08 2017-08-22 Adobe Systems Incorporated Color rendering on a hue plane
WO2017035661A1 (en) * 2015-09-02 2017-03-09 Irystec Software Inc. System and method for real-time tone-mapping
US9857953B2 (en) * 2015-11-17 2018-01-02 Adobe Systems Incorporated Image color and tone style transfer
US10547871B2 (en) * 2017-05-05 2020-01-28 Disney Enterprises, Inc. Edge-aware spatio-temporal filtering and optical flow estimation in real time
US11276369B2 (en) * 2017-09-08 2022-03-15 Apple Inc. Electronic display burn-in detection and mitigation
US10692191B2 (en) * 2018-08-10 2020-06-23 Apple Inc. Per-pixel photometric contrast enhancement with noise control

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090027558A1 (en) * 2007-07-27 2009-01-29 Rafal Mantiuk Apparatus and Method for Rendering High Dynamic Range Images for Standard Dynamic Range Display
US20130241931A1 (en) * 2012-03-14 2013-09-19 Dolby Laboratiories Licensing Corporation Efficient Tone-Mapping Of High-Bit-Depth Video To Low-Bit-Depth Display
US20150213618A1 (en) * 2014-01-28 2015-07-30 Ittiam Systems (P) Ltd. System and method for tone mapping on high dynamic range images

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MANTIUK ET AL.: "Display adaptive tone mapping", ACM TRANSACTIONS ON GRAPHICS, vol. 27, no. 3, JPN6020033554, August 2008 (2008-08-01), pages 1 - 68, ISSN: 0004551675 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022154410A1 (ko) * 2021-01-13 2022-07-21 삼성전자 주식회사 이미지 필터 효과의 생성 방법 및 그 전자 장치

Also Published As

Publication number Publication date
EP3345388A4 (en) 2019-07-24
CN108702496A (zh) 2018-10-23
US20230419463A1 (en) 2023-12-28
WO2017035661A1 (en) 2017-03-09
EP3345388B1 (en) 2021-11-24
EP3345388A1 (en) 2018-07-11
JP2021077420A (ja) 2021-05-20
US11107204B2 (en) 2021-08-31
EP3944615A1 (en) 2022-01-26
CA2997118A1 (en) 2017-03-09
JP7008621B2 (ja) 2022-01-25
US20210272251A1 (en) 2021-09-02
US11756174B2 (en) 2023-09-12
US20200286213A1 (en) 2020-09-10
JP7152540B2 (ja) 2022-10-12
CN108702496B (zh) 2021-09-14

Similar Documents

Publication Publication Date Title
JP7152540B2 (ja) フィルタリング方法、及びシステム
JP2018531447A6 (ja) リアルタイムトーンマッピングのためのシステム及び方法
Eilertsen et al. Real-time noise-aware tone mapping
Eilertsen et al. A comparative review of tone‐mapping algorithms for high dynamic range video
US9275445B2 (en) High dynamic range and tone mapping imaging techniques
Huo et al. Physiological inverse tone mapping based on retina response
Chen et al. Robust image and video dehazing with visual artifact suppression via gradient residual minimization
Kovaleski et al. High-quality reverse tone mapping for a wide range of exposures
Guo et al. Low-light image enhancement via breaking down the darkness
Boitard et al. Temporal coherency for video tone mapping
Guarnieri et al. High dynamic range image display with halo and clipping prevention
Boschetti et al. High dynamic range image tone mapping based on local histogram equalization
Lee et al. Noise reduction and adaptive contrast enhancement for local tone mapping
WO2010024782A1 (en) A method and system for displaying an hdr image on a ldr display device
Park et al. Generation of high dynamic range illumination from a single image for the enhancement of undesirably illuminated images
Singh et al. Weighted least squares based detail enhanced exposure fusion
CN109478316B (zh) 实时自适应阴影和高光增强
El Mezeni et al. Enhanced local tone mapping for detail preserving reproduction of high dynamic range images
CN112819699A (zh) 视频处理方法、装置及电子设备
Bonnier et al. Locally adaptive multiscale contrast optimization
Zhang et al. A dynamic range adjustable inverse tone mapping operator based on human visual system
Liu et al. An adaptive tone mapping algorithm based on gaussian filter
Lee et al. Ghost and noise removal in exposure fusion for high dynamic range imaging
Martínez-Cañada et al. Exposure fusion algorithm based on perceptual contrast and dynamic adjustment of well-exposedness
Krawczyk et al. HDR tone mapping

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180510

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200908

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20201207

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220111

R150 Certificate of patent or registration of utility model

Ref document number: 7008621

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150