JP2018133043A - 画像処理装置および画像処理方法 - Google Patents
画像処理装置および画像処理方法 Download PDFInfo
- Publication number
- JP2018133043A JP2018133043A JP2017028169A JP2017028169A JP2018133043A JP 2018133043 A JP2018133043 A JP 2018133043A JP 2017028169 A JP2017028169 A JP 2017028169A JP 2017028169 A JP2017028169 A JP 2017028169A JP 2018133043 A JP2018133043 A JP 2018133043A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image data
- luminance
- perceived
- weighting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Abstract
【課題】特殊効果を用いて或る画像から他の画像へ表示画像を徐々に変化させる場合において自然な表示を可能とすることができる技術を提供する。【解決手段】本発明の画像処理装置は、第1画像データに基づいて、前記第1画像データに基づく第1画像の知覚輝度を判断する第1判断手段と、第2画像データに基づいて、前記第2画像データに基づく第2画像の知覚輝度を判断する第2判断手段と、前記第1画像データの画素値から前記第2画像データの画素値へ画素値が時間変化するように、前記第1画像データと前記第2画像データを重み付けして合成する合成手段と、を有し、前記合成手段は、前記第1判断手段の判断結果と前記第2判断手段の判断結果とに基づいて、前記重み付け後の第1画像の知覚輝度と前記重み付け後の第2画像の知覚輝度とのそれぞれが第1閾値以下の速度で時間変化するように、前記重み付けを行う。【選択図】図1
Description
本発明は、画像処理装置および画像処理方法に関する。
広いダイナミックレンジを有する画像データのフォーマットとして、様々なフォーマットが提案されている(特許文献1)。広いダイナミックレンジは「HDR(High Dynamic Range)」などと呼ばれ、広いダイナミックレンジを有する画像データは「HDR画像データ」などと呼ばれる。撮影画像データ(撮影によって生成された画像データ;被写体を表す画像データ)としてHDR画像データを得る場合には、実際の見えに非常に近い画像を表す撮影画像データを得ることができる。このような技術は特許文献1に記載されている。
また、複数の画像を切り替えて表示するスライドショー表示などにおいて、クロスフェード、フェードイン、フェードアウト、等の特殊効果を用いて或る画像から他の画像へ表示画像(画面に表示された画像)を徐々に変化させる場合がある(特許文献2)。
しかしながら、HDR画像データでは、非常に高い輝度が扱われることがある。そのため、特殊効果を用いてHDR画像(HDR画像データに基づく画像)から表示画像を徐々に変化させる場合、特殊効果を用いてHDR画像へ表示画像を徐々に変化させる場合、等において、不自然な表示(表示画像の時間変化)が行われることがある。例えば、クロスフェードを用いて、表示輝度(画面の輝度)が10cd/m2程度である画像から表示輝度が10000cd/m2程度であるHDR画像へ表示画像を徐々に変化させる場合に、知覚輝度(人間によって知覚される輝度)が急激に増加する。
本発明は、特殊効果を用いて或る画像から他の画像へ表示画像を徐々に変化させる場合において自然な表示を可能とすることができる技術を提供することを目的とする。
本発明の第1の態様は、
第1画像データに基づいて、前記第1画像データに基づく第1画像の知覚輝度を判断する第1判断手段と、
第2画像データに基づいて、前記第2画像データに基づく第2画像の知覚輝度を判断する第2判断手段と、
前記第1画像データの画素値から前記第2画像データの画素値へ画素値が時間変化するように、前記第1画像データと前記第2画像データを重み付けして合成する合成手段と、を有し、
前記合成手段は、前記第1判断手段の判断結果と前記第2判断手段の判断結果とに基づいて、前記重み付け後の第1画像の知覚輝度と前記重み付け後の第2画像の知覚輝度とのそれぞれが第1閾値以下の速度で時間変化するように、前記重み付けを行う
ことを特徴とする画像処理装置である。
第1画像データに基づいて、前記第1画像データに基づく第1画像の知覚輝度を判断する第1判断手段と、
第2画像データに基づいて、前記第2画像データに基づく第2画像の知覚輝度を判断する第2判断手段と、
前記第1画像データの画素値から前記第2画像データの画素値へ画素値が時間変化するように、前記第1画像データと前記第2画像データを重み付けして合成する合成手段と、を有し、
前記合成手段は、前記第1判断手段の判断結果と前記第2判断手段の判断結果とに基づいて、前記重み付け後の第1画像の知覚輝度と前記重み付け後の第2画像の知覚輝度とのそれぞれが第1閾値以下の速度で時間変化するように、前記重み付けを行う
ことを特徴とする画像処理装置である。
本発明の第2の態様は、
第1画像データに基づいて、前記第1画像データに基づく第1画像の知覚輝度を判断する第1判断ステップと、
第2画像データに基づいて、前記第2画像データに基づく第2画像の知覚輝度を判断する第2判断ステップと、
前記第1画像データの画素値から前記第2画像データの画素値へ画素値が時間変化するように、前記第1画像データと前記第2画像データを重み付けして合成する合成ステップと、
を有し、
前記合成ステップでは、前記第1判断ステップの判断結果と前記第2判断ステップの判断結果とに基づいて、前記重み付け後の第1画像の知覚輝度と前記重み付け後の第2画像の知覚輝度とのそれぞれが第1閾値以下の速度で時間変化するように、前記重み付けを行う
ことを特徴とする画像処理方法である。
第1画像データに基づいて、前記第1画像データに基づく第1画像の知覚輝度を判断する第1判断ステップと、
第2画像データに基づいて、前記第2画像データに基づく第2画像の知覚輝度を判断する第2判断ステップと、
前記第1画像データの画素値から前記第2画像データの画素値へ画素値が時間変化するように、前記第1画像データと前記第2画像データを重み付けして合成する合成ステップと、
を有し、
前記合成ステップでは、前記第1判断ステップの判断結果と前記第2判断ステップの判断結果とに基づいて、前記重み付け後の第1画像の知覚輝度と前記重み付け後の第2画像の知覚輝度とのそれぞれが第1閾値以下の速度で時間変化するように、前記重み付けを行う
ことを特徴とする画像処理方法である。
本発明の第3の態様は、上述した画像処理方法の各ステップをコンピュータに実行させるためのプログラムである。
本発明によれば、特殊効果を用いて或る画像から他の画像へ表示画像を徐々に変化させる場合において自然な表示を可能とすることができる。
<実施例1>
以下、本発明の実施例1について説明する。以下では、本実施例に係る画像処理装置を有する表示装置の例を説明する。表示装置は、例えば、液晶表示装置、有機EL(Electro Luminescence)表示装置、プラズマ表示装置、MEMS(Micro Electro Mechanical System)シャッタ方式表示装置、等である。なお、画像処理装置は表示装置とは別体の装置であってもよい。表示装置とは別体の画像処理装置は、例えば、パーソナルコンピュータ(PC)、再生装置(例えば、ブルーレイプレーヤ)、サーバ装置、等である。
以下、本発明の実施例1について説明する。以下では、本実施例に係る画像処理装置を有する表示装置の例を説明する。表示装置は、例えば、液晶表示装置、有機EL(Electro Luminescence)表示装置、プラズマ表示装置、MEMS(Micro Electro Mechanical System)シャッタ方式表示装置、等である。なお、画像処理装置は表示装置とは別体の装置であってもよい。表示装置とは別体の画像処理装置は、例えば、パーソナルコンピュータ(PC)、再生装置(例えば、ブルーレイプレーヤ)、サーバ装置、等である。
図1は、本実施例に係る表示装置100の構成例を示すブロック図である。表示装置100は、画像記憶部101、画像読み出し部102、特徴量取得部103、ブレンドカーブ生成部104、画像合成部105、及び、表示部106を有する。
画像記憶部101は、画像データを記憶する記憶部である。画像記憶部101として、例えば、磁気ディスク、半導体メモリ、光ディスク、等を使用することができる。なお、画像記憶部101は、表示装置100に内蔵されていてもよいし、表示装置100に対して着脱可能であってもよい。
本実施例では、画像データの画素値がRGB値(R値、G値、及び、B値の組み合わせ)であり、R値、G値、及び、B値のそれぞれが0以上かつ100以下の浮動小数点の値である。100%白(所定輝度を有する白色)に対応するRGB値(R値,G値,B値)は(1.0,1.0,1.0)であり、100%白に対応する輝度値(輝度階調値;Y値)は1.0である。そして、100%白に対応する上記所定輝度は100cd/m2である。
なお、画像データのデータフォーマット、所定輝度、等は特に限定されない。広いダイナミックレンジを有する画像データは、「HDR(High Dynamic Range)画像データ」などと呼ばれる。一方で、HDR画像データでない画像データは、「SDR(Standard Dynamic Range)画像データ」などと呼ばれる。所定輝度は、例えば、SDR画像データの上限輝度である。
画像読み出し部102は、画像記憶部101に記録されている画像データを画像記憶部101から読み出し、読み出した画像データを特徴量取得部103と画像合成部105へ出力する。本実施例では、画像読み出し部102は、或る画像imgAから他の画像imgBへ表示画像(表示部106の画面に表示された画像)を徐々に変化させるクロスフェードのために、2つの画像データを画像記憶部101から読み出す。具体的には、画像読み出し部102は、画像imgAに対応する画像データimgDAと、画像imgBに対応する画像データimgDBとを、画像記憶部101から読み出す。なお、画像読み出し部102は、表示装置100の外部装置から出力された画像データを取得してもよい。
特徴量取得部103は、画像読み出し部102から出力された画像データに基づいて、当該画像データに基づく画像の知覚輝度を判断する。そして、特徴量取得部103は、知覚輝度の判断結果を、ブレンドカーブ生成部104へ出力する。本実施例では、画像読み出し部102から出力された画像データimgDAに基づいて、画像データimgDAに基づく画像imgAの知覚輝度を判断する。同様に、特徴量取得部103は、画像読み出し部102から出力された画像データimgDBに基づいて、画像データimgDBに基づく画像imgBの知覚輝度を判断する。本実施例では、平均知覚輝度(各画素の知覚輝度の平均)Ym_aveが判断される。以後、画像imgAの平均知覚輝度を「平均知覚輝度Ym_aveA」と記載し、画像imgBの平均知覚輝度を「平均知覚輝度Ym_aveB」と記載する。
図2を用いて、特徴量取得部103の構成例について説明する。図2は、特徴量取得部103の構成例を示すブロック図である。特徴量取得部103は、輝度値算出部11、物理輝度変換部12、知覚輝度変換部13、及び、平均値算出部14を有する。
輝度値算出部11は、各画素について、RGB値(R,G,B)から輝度値Yを算出する。そして、輝度値算出部11は、得られた輝度値Yを物理輝度変換部12へ通知(出力)する。本実施例では、輝度値算出部11は、以下の式1を用いて輝度値Yを算出する。
式1において、「a11」、「a12」、及び、「a13」は、RGB値を輝度値へ変換するための係数である。
Y=a11×R+a12×G+a13×B ・・・(式1)
式1において、「a11」、「a12」、及び、「a13」は、RGB値を輝度値へ変換するための係数である。
Y=a11×R+a12×G+a13×B ・・・(式1)
物理輝度変換部12は、各画素について、輝度値算出部11から通知(出力)された輝度値Yを物理輝度Ypに変換する。そして、物理輝度変換部12は、得られた物理輝度Ypを知覚輝度変換部13へ通知する。物理輝度Ypは、画像データに基づく画像を表示部106の画面に表示した場合の表示輝度(画面の輝度)に対応する物理的な輝度である。物理輝度Ypの単位は「cd/m2」などである。
本実施例では、輝度値Yと物理輝度Ypの対応関係を示す情報(テーブル、関数、等)が予め用意されており、当該対応関係に従って輝度値Yが物理輝度Ypに変換される。輝度値Yと物理輝度Ypの対応関係の一例を図3に示す。図3に示すように、本実施例では、物理輝度Ypの上限は10000cd/m2である。
知覚輝度変換部13は、各画素について、物理輝度変換部12から通知された物理輝度Ypを知覚輝度Ymに変換する。そして、知覚輝度変換部13は、得られた知覚輝度Ymを平均値算出部14へ通知する。人間が物体を見た場合に人間が知覚する輝度は物体の物理輝度に依存して変化する、という視覚特性を人間は持っている。換言すれば、物体の輝度に対する人間の感度は物体の輝度に依存して変化する。知覚輝度Ymは、このような視覚特性を考慮した輝度であり、人間が表示画像を見た場合に人間が知覚する輝度である。
本実施例では、物理輝度Ypと知覚輝度Ymの対応関係を示す情報(テーブル、関数、等)が予め用意されており、当該対応関係に従って物理輝度Ypが知覚輝度Ymに変換される。具体的には、知覚輝度変換部13は、以下の式2を用いて、物理輝度Ypを知覚輝度Ymに変換する。式2の対応関係を図4に示す。
Ym=Yp/(Yp+12.6×Yp0.63) ・・・(式2)
Ym=Yp/(Yp+12.6×Yp0.63) ・・・(式2)
平均値算出部14は、複数の画素にそれぞれ対応する複数の知覚輝度Ymの平均を、平均知覚輝度Ym_aveとして算出する。具体的には、平均値算出部14は、知覚輝度変換部13から通知された知覚輝度Ymの総和を画像の総画素数で除算することにより、平均知覚輝度Ym_aveを算出する。そして、平均値算出部14は、得られた平均知覚輝度Ym_aveをブレンドカーブ生成部104へ通知する。
なお、知覚輝度の判断方法は上記方法に限られない。例えば、画素値(RGB値)と知覚輝度との対応関係が予め定められており、当該対応関係に従って画素値が知覚輝度に変換されてもよい。
図1の説明に戻る。ブレンドカーブ生成部104は、特徴量取得部103から通知された平均知覚輝度Ym_aveA,Ym_aveBに基づいて、ブレンドカーブBlend_A,Blend_Bを生成(決定)する。そして、ブレンドカーブ生成部104は、生成したブレンドカーブBlend_A,Blend_Bを、画像合成部105へ通知する。本実施例では、クロスフェードのために、画像データimgDAの画素値から画像データimgDBの画素値へ画素値が時間変化するように、画像データimgDAと画像データimgDBが重み付けされて合成される(重み付け合成)。ブレンドカーブBlend_Aは、上記重み付け合成における画像データimgDAのブレンド率(重み)の時間変
化を示す。同様に、ブレンドカーブBlend_Bは、上記重み付け合成における画像データimgDBのブレンド率の時間変化を示す。
化を示す。同様に、ブレンドカーブBlend_Bは、上記重み付け合成における画像データimgDBのブレンド率の時間変化を示す。
図5を用いて、ブレンドカーブ生成部104の処理フロー例について説明する。図5は、ブレンドカーブ生成部104の処理フロー例を示すフローチャートである。
まず、S101にて、ブレンドカーブ生成部104は、画像imgAの平均知覚輝度Ym_aveAと、クロスフェードの変化時間Tとから、重み付け後の画像imgAの平均知覚輝度Ym_A(t)を取得する。同様に、ブレンドカーブ生成部104は、画像imgBの平均知覚輝度Ym_aveBと、クロスフェードの変化時間Tとから、重み付け後の画像imgBの平均知覚輝度Ym_B(t)を取得する。変化時間Tは、画像データimgDAの画素値から画像データimgDBの画素値へ画素値が時間変化する時間である。平均知覚輝度Ym_A(t),Ym_B(t)は、タイミング(時刻)tにおける平均知覚輝度である。
本実施例では、ブレンドカーブ生成部104は、以下の式3を用いて平均知覚輝度Ym_A(t)を算出し、以下の式4を用いて平均知覚輝度Ym_B(t)を算出する。図6(A)は、平均知覚輝度Ym_A(t)の時間変化の一例を示し、図6(B)は、平均知覚輝度Ym_B(t)の時間変化の一例を示す。
Ym_A(t)
=−(Ym_aveA/T)×t+Ym_aveA ・・・(式3)
Ym_B(t)=(Ym_aveB/T)×t ・・・(式4)
Ym_A(t)
=−(Ym_aveA/T)×t+Ym_aveA ・・・(式3)
Ym_B(t)=(Ym_aveB/T)×t ・・・(式4)
次に、S102にて、ブレンドカーブ生成部104は、S101で得られた平均知覚輝度Ym_A(t)を物理輝度Yp_A(t)に変換し、S101で得られた平均知覚輝度Ym_B(t)を物理輝度Yp_B(t)に変換する。物理輝度Yp_A(t)は、重み付け後の画像imgAの物理輝度であり、物理輝度Yp_B(t)は、重み付け後の画像imgBの物理輝度である。物理輝度Yp_A(t),Yp_B(t)は、タイミングtにおける物理輝度である。
本実施例では、ブレンドカーブ生成部104は、以下の式5を用いて物理輝度Yp_A(t)を算出し、以下の式6を用いて物理輝度Yp_B(t)を算出する。図7(A)は、物理輝度Yp_A(t)の時間変化の一例を示し、図7(B)は、物理輝度Yp_B(t)の時間変化の一例を示す。
Yp_A(t)=G(Ym_A(t)) ・・・(式5)
Yp_B(t)=G(Ym_B(t)) ・・・(式6)
Yp_A(t)=G(Ym_A(t)) ・・・(式5)
Yp_B(t)=G(Ym_B(t)) ・・・(式6)
式5,6において、G(Ym)は、知覚輝度Ymを物理輝度Ypに変換する関数であり、式7で定義される。式7は式2の逆関数である。
G(Ym)=(12.6×Ym/(1−Ym))(1/0.37) ・・・(式7)
G(Ym)=(12.6×Ym/(1−Ym))(1/0.37) ・・・(式7)
そして、S103にて、ブレンドカーブ生成部104は、S102で得られた物理輝度Yp_A(t)に基づいて、画像データimgDAのブレンド率Blend_A(t)を取得する。同様に、ブレンドカーブ生成部104は、S102で得られた物理輝度Yp_
B(t)に基づいて、画像データimgDBのブレンド率Blend_B(t)を取得する。ブレンド率Blend_A(t),Blend_B(t)は、タイミングtにおけるブレンド率である。各タイミングtのブレンド率Blend_A(t)を得ることにより、ブレンドカーブBlend_Aが得られ、各タイミングtのブレンド率Blend_B(t)を得ることにより、ブレンドカーブBlend_Bが得られる。
B(t)に基づいて、画像データimgDBのブレンド率Blend_B(t)を取得する。ブレンド率Blend_A(t),Blend_B(t)は、タイミングtにおけるブレンド率である。各タイミングtのブレンド率Blend_A(t)を得ることにより、ブレンドカーブBlend_Aが得られ、各タイミングtのブレンド率Blend_B(t)を得ることにより、ブレンドカーブBlend_Bが得られる。
本実施例では、ブレンドカーブ生成部104は、以下の式8を用いてブレンド率Blend_A(t)を算出し、以下の式9を用いてブレンド率Blend_B(t)を算出する。式8において、「Yp_aveA」は、重み付け前の画像imgAの平均物理輝度である。具体的には、平均物理輝度Yp_aveAは、画像imgAの複数の画素にそれぞれ対応する複数の物理輝度Ypの平均である。式9において、「Yp_aveB」は、重み付け前の画像imgBの平均物理輝度である。具体的には、平均物理輝度Yp_aveBは、画像imgBの複数の画素にそれぞれ対応する複数の物理輝度Ypの平均である。
Blend_A(t)=Yp_A(t)/Yp_aveA ・・・(式8)
Blend_B(t)=Yp_B(t)/Yp_aveB ・・・(式9)
Blend_A(t)=Yp_A(t)/Yp_aveA ・・・(式8)
Blend_B(t)=Yp_B(t)/Yp_aveB ・・・(式9)
図8(A)は、ブレンド率Blend_A(t)の時間変化の一例を示し、図8(B)は、ブレンド率Blend_B(t)の時間変化の一例を示す。図8(A),8(B)において、タイミングtの変化に対するブレンド率の変化の大きさ(傾き)は、ブレンド率の時間変化の速度に対応する。
本実施例では、上記方法で得られたブレンドカーブBlend_A,Blend_Bを用いて、画像データimgDA,imgDBの重み付けが行われる。それにより、図8(A)に示すように、重み付け前の画像imgAの平均知覚輝度Ym_aveAが第2閾値よりも高い場合に、ブレンド率Blend_A(t)の時間変化の速度が徐々に低下するように、画像データimgDAの重み付けが行われる。そして、図8(B)に示すように、重み付け前の画像imgBの平均知覚輝度Ym_aveBが第2閾値よりも高い場合に、ブレンド率Blend_B(t)の時間変化の速度が徐々に増すように、画像データimgDBの重み付けが行われる。なお、第2閾値は特に限定されない。第2閾値は、例えば、100%白に対応する上記所定輝度(物理輝度)を変換して得られる知覚輝度である。
さらに、重み付け後の画像imgAの平均知覚輝度Ym_A(t)と重み付け後の画像imgBの平均知覚輝度Ym_B(t)とのそれぞれが略一定の速度で時間変化するように、画像データimgDA,imgDBの重み付けが行われる。「略」は「完全」を含む。その結果、クロスフェードにおいて、平均知覚輝度Ym_A(t)の急激な時間変化、平均知覚輝度Ym_B(t)の急激な時間変化、等が抑制され、画像imgAの知覚輝度と画像imgBの知覚輝度とが徐々に変化するような自然な表示が可能となる。
なお、ブレンド率の決定方法、重み付けの方法、等は上記方法に限られない。例えば、平均知覚輝度Ym_A(t)と平均知覚輝度Ym_B(t)の少なくとも一方が略一定の速度で時間変化しなくてもよい。平均知覚輝度Ym_A(t)と平均知覚輝度Ym_B(t)のそれぞれが第1閾値以下の速度で時間変化するように、画像データimgDA,imgDBの重み付けが行われればよい。それにより、クロスフェードにおいて、平均知覚輝度Ym_A(t)の急激な時間変化、平均知覚輝度Ym_B(t)の急激な時間変化、等が抑制され、自然な表示が可能となる。図8(A),8(B)の例では、ブレンド率Blend_A(t)とブレンド率Blend_B(t)の和が1にならないタイミングtが存在する。しかしながら、ブレンド率Blend_A(t)とブレンド率Blend_
B(t)の和が常に1になるように、ブレンド率Blend_A(t),Blend_B(t)が決定されてもよい。
B(t)の和が常に1になるように、ブレンド率Blend_A(t),Blend_B(t)が決定されてもよい。
なお、第1閾値は、メーカによって予め定められた固定値であってもよいし、ユーザが変更可能な値であってもよい。表示装置100の使用環境(表示装置100の周辺輝度など)、画像imgA,imgBの種類(写真、イラスト、テキスト、等)、等に応じて第1閾値が決定されてもよい。
ここで、視覚特性を考慮しない場合の例を説明する。図9(A)は、ブレンド率Blend_A(t)の時間変化の一例を示し、図9(B)は、ブレンド率Blend_B(t)の時間変化の一例を示す。図9(A),9(B)では、ブレンド率Blend_A(t),Blend_B(t)が一定の速度で時間変化する。図9(A)のブレンド率Blend_A(t)は、以下の式10で表され、図9(B)のブレンド率Blend_B(t)は、以下の式11で表される。
Blend_A(t)=−(1/T)×t+1 ・・・(式10)
Blend_B(t)=(1/T)×t ・・・(式11)
Blend_A(t)=−(1/T)×t+1 ・・・(式10)
Blend_B(t)=(1/T)×t ・・・(式11)
図9(A),9(B)では、タイミングt=0.1Tに対応するブレンド率Blend_A(t)は0.9であり、タイミングt=0.1Tに対応するブレンド率Blend_B(t)は0.1である。そのため、タイミングt=0.1Tにおいて、画像データimgDAの重み:画像データimgDBの重み=0.9:0.1の重み付け合成が行われる。
ここで、重み付け前の画像imgAが通常の物理輝度(例えば10cd/m2程度)を有し、且つ、重み付け前の画像imgBが非常に高い物理輝度(例えば1000cd/m2程度)を有する場合を考える。このような場合に、図9(A),9(B)のブレンドカーブBlend_A,Blend_Bを用いた重み付け合成を行うと、クロスフェードの表示として、不自然な表示が行われることがある。これは、人間が物体を見た場合に人間が知覚する輝度は物体の物理輝度に依存して変化する、という上記視覚特性に起因する。
図10(A)は、図9(A)のブレンドカーブBlend_Aを用いた場合の、画像imgAの知覚輝度(重み付け後の知覚輝度)の時間変化の一例を示す。図10(B)は、図9(A)のブレンドカーブBlend_Bを用いた場合の、画像imgBの知覚輝度(重み付け後の知覚輝度)の時間変化の一例を示す。図10(A)に示すように、タイミングt_aでもタイミングt_bでも画像imgAの知覚輝度の変化量はほとんど変わらない。そのため、図9(A)のブレンドカーブBlend_Aを用いても、表示画像において、画像imgAの知覚輝度の急激な時間変化は生じない。なお、知覚輝度の変化量は、タイミングの変化に対するブレンド率の変化の大きさ(傾き)である。
しかしながら、図10(B)に示すように、タイミングt_aで画像imgBの知覚輝度は急激に時間変化する。そのため、図9(B)のブレンドカーブBlend_Bを用いると、表示画像において、画像imgBの知覚輝度の急激な時間変化(増加)が生じてしまう。さらに、タイミングt_bでは画像imgBの知覚輝度は緩やかに時間変化しており、タイミングt_aとタイミングt_bとの間で画像imgBの知覚輝度の変化量が大きく異なる。そのため、図9(B)のブレンドカーブBlend_Bを用いると、表示画像において、画像imgBの知覚輝度の変化量が大きく時間変化てしまう。クロスフェードの表示において、知覚輝度が急激に時間変化する表示、知覚輝度の変化量が大きく時間変化する表示、等は、不自然である。
本実施例では、視覚特性が考慮されるため、図9(A),9(B)のブレンドカーブBlend_A,Blend_Bが使用されることはなく、クロスフェードの表示として、自然な表示を行うことができる。
図1の説明に戻る。画像合成部105は、クロスフェードのために、ブレンドカーブ生成部104から通知されたブレンドカーブBlend_A,Blend_Bに従って、画像読み出し部102から出力された画像データimgDA,imgDBの重み付け合成を行う。それにより、クロスフェードの表示画像データが生成される。具体的には、各画素について、画像データimgDAの画素値にブレンド率Blend_A(t)を乗算した値と、画像データimgDBの画素値にブレンド率Blend_B(t)を乗算した値との和が、表示画像データの画素値として算出される。画像合成部105は、表示画像データを表示部106へ出力する。
表示部106は、画像合成部105から出力された表示画像データに応じた画像を画面に表示する。表示部106として、液晶パネルとバックライトユニット(発光部)との組み合わせ、有機EL表示パネル、プラズマ表示パネル、等を使用することができる。
以上述べたように、本実施例によれば、知覚輝度に基づいて(知覚特性を考慮して)重み付けが行われる。それにより、特殊効果を用いて或る画像から他の画像へ表示画像を徐々に変化させる場合において自然な表示を可能とすることができる。
なお、本実施例では、重み付けのための特徴量として平均知覚輝度Ym_aveA,Ym_aveBを用いる例を説明したが、特徴量はこれに限られない。例えば、特徴量として、複数の知覚輝度Ymのヒストグラム、複数の知覚輝度Ymの他の代表値、等が使用されてもよい。他の代表値は、最大値、最小値、中間値、最頻値、等である。複数の画像領域のそれぞれについて特徴量が取得されて使用されてもよい。複数の画像領域は特に限定されないが、例えば、複数の画像領域は、画像全体の領域を構成する複数の分割領域である。画像に含まれている各物体(人物、建物、乗り物、植物、等)について特徴量が取得されて使用されてもよい。
また、本実施例では、クロスフェードの例を説明したが、画像imgAから画像imgBへ表示画像を徐々に変化させる特殊効果はこれに限られない。例えば、フェードイン、フェードアウト、等が使用されてもよい。フェードインは画像imgAとして所定のベタ画像を用いた特殊効果であり、フェードインでは、所定のベタ画像から画像imgBへ表示画像が徐々に変化する。所定のベタ画像は、全ての画素値が同じ画像である。例えば、所定のベタ画像は、黒色画像である。所定のベタ画像が黒色画像である場合には、フェードインのために、画像データimgDAの各RGB値として(0,0,0)が使用されればよい。フェードアウトは画像imgBとして所定のベタ画像を用いた特殊効果であり、フェードアウトでは、画像imgAから所定のベタ画像へ徐々に表示画像が変化する。所定のベタ画像が黒色画像である場合には、フェードアウトのために、画像データimgDBの各RGB値として(0,0,0)が使用されればよい。クロスフェードでは、画像imgAも画像imgBも所定のベタ画像ではない。
<実施例2>
以下、本発明の実施例2について説明する。以下では、実施例1と異なる点(構成、処理、等)について詳しく説明し、実施例1と同じ点についての説明は省略する。本実施例では、重み付け前の画像imgAの知覚輝度と重み付け前の画像imgBの知覚輝度との少なくとも一方が第2閾値よりも高い場合に限って実施例1の処理を行う例を説明する。
以下、本発明の実施例2について説明する。以下では、実施例1と異なる点(構成、処理、等)について詳しく説明し、実施例1と同じ点についての説明は省略する。本実施例では、重み付け前の画像imgAの知覚輝度と重み付け前の画像imgBの知覚輝度との少なくとも一方が第2閾値よりも高い場合に限って実施例1の処理を行う例を説明する。
図11は、本実施例に係る表示装置200の構成例を示すブロック図である。表示装置200は、画像記憶部101、画像読み出し部102、特徴量取得部103、ブレンドカーブ生成部201、画像合成部105、及び、表示部106を有する。なお、図11において、実施例1(図1)と同じ機能部には、実施例1と同じ符号が付されている。
ブレンドカーブ生成部201は、特徴量取得部103から通知された平均知覚輝度Ym_aveA,Ym_aveBに基づいて、ブレンドカーブBlend_A,Blend_Bを生成(決定)する。そして、ブレンドカーブ生成部201は、生成したブレンドカーブBlend_A,Blend_Bを、画像合成部105へ通知する。平均知覚輝度Ym_aveAは、重み付け前の画像imgAの知覚輝度(平均知覚輝度Ym_ave)であり、平均知覚輝度Ym_aveBは、重み付け前の画像imgAの知覚輝度(平均知覚輝度Ym_ave)である。
本実施例では、平均知覚輝度Ym_aveAと平均知覚輝度Ym_aveBの少なくとも一方が第2閾値よりも高い場合に、ブレンドカーブ生成部201は、実施例1と同様の方法でブレンドカーブBlend_A,Blend_Bを生成する。実施例1で述べたように、第2閾値は、例えば、100%白に対応する所定輝度(物理輝度)を変換して得られる知覚輝度である。所定輝度が100cd/m2である場合には、式2により、第2閾値として0.30が算出される。
平均知覚輝度Ym_aveAと平均知覚輝度Ym_aveBのそれぞれが第2閾値以下である場合には、ブレンドカーブ生成部201は、平均知覚輝度Ym_aveA,Ym_aveBに基づかずにブレンドカーブBlend_A,Blend_Bを生成する。具体的には、ブレンドカーブ生成部201は、ブレンドカーブBlend_AとブレンドカーブBlend_Bのそれぞれとして所定のブレンドカーブを設定する。その結果、画像合成部105において、所定の重みで画像データimgDAと画像データimgDBが合成される。
なお、平均知覚輝度Ym_aveA,Ym_aveBに基づかずにブレンドカーブBlend_A,Blend_Bを生成する方法は特に限定されない。平均知覚輝度Ym_aveA,Ym_aveBに基づかない重みで画像データimgDAと画像データimgDBを合成することができればよい。例えば、平均物理輝度Yp_aveA,Yp_aveBに基づいてブレンドカーブBlend_A,Blend_Bが生成されてもよい。重み付け前の画像imgA,imgBの輝度Yに基づいてブレンドカーブBlend_A,Blend_Bが生成されてもよい。ユーザによって指定されたブレンドカーブがブレンドカーブBlend_A,Blend_Bとして設定されてもよい。表示装置200の使用環境、画像imgA,imgBの種類、等に応じてブレンドカーブBlend_A,Blend_Bが決定されてもよい。
図12を用いて、ブレンドカーブ生成部201の処理フロー例について説明する。図12は、ブレンドカーブ生成部201の処理フロー例を示すフローチャートである。
まず、S201にて、ブレンドカーブ生成部201は、平均知覚輝度Ym_aveAと平均知覚輝度Ym_aveBの少なくとも一方がオーバーホワイトであるか否かを判断する。オーバーホワイトは、知覚輝度が第2閾値よりも高い状態である。平均知覚輝度Ym_aveAと平均知覚輝度Ym_aveBの少なくとも一方がオーバーホワイトである場合には、S202へ処理が進められる。平均知覚輝度Ym_aveAと平均知覚輝度Ym_aveBの両方がオーバーホワイトである場合には、S203へ処理が進められる。
S202にて、ブレンドカーブ生成部201は、実施例1のブレンドカーブ生成部10
4と同様の処理(図5)を行うことにより、ブレンドカーブBlend_A,Blend_Bを決定する。
4と同様の処理(図5)を行うことにより、ブレンドカーブBlend_A,Blend_Bを決定する。
S203にて、ブレンドカーブ生成部201は、ブレンドカーブBlend_AとブレンドカーブBlend_Bのそれぞれとして所定のブレンドカーブを設定する。例えば、図9(A),9(B)のブレンドカーブBlend_A,Blend_Bが設定される。
以上述べたように、本実施例によれば、重み付け前の画像imgAの知覚輝度と重み付け前の画像imgBの知覚輝度との少なくとも一方が第2閾値よりも高い場合に限って、実施例1の処理が行われる。それにより、処理負荷を低減することができる。また、重み付け前の画像imgAの知覚輝度と重み付け前の画像imgBの知覚輝度との両方が第2閾値よりも高い場合には、輝度に対する人間の感度は略一定である。そのため、そのような場合に視覚特性に基づかないブレンドカーブが使用されても、特殊効果の自然な表示を維持することができる。
<実施例3>
以下、本発明の実施例3について説明する。以下では、実施例1と異なる点(構成、処理、等)について詳しく説明し、実施例1と同じ点についての説明は省略する。本実施例では、変化時間Tが変更可能な例を説明する。
以下、本発明の実施例3について説明する。以下では、実施例1と異なる点(構成、処理、等)について詳しく説明し、実施例1と同じ点についての説明は省略する。本実施例では、変化時間Tが変更可能な例を説明する。
図13は、本実施例に係る表示装置300の構成例を示すブロック図である。表示装置300は、画像記憶部101、画像読み出し部102、特徴量取得部103、表示部106、フェード時間決定部301、ブレンドカーブ生成部302、及び、画像合成部105を有する。なお、図13において、実施例1(図1)と同じ機能部には、実施例1と同じ符号が付されている。
フェード時間決定部301は、特徴量取得部103によって得られた平均知覚輝度Ym_aveA,Ym_aveBに基づいて、フェード時間Tfを決定する。そして、フェード時間決定部301は、決定したフェード時間Tfをブレンドカーブ生成部302へ通知する。フェード時間Tfは、画像データimgDAの画素値から画像データimgDBの画素値へ画素値が時間変化する変化時間Tである。
本実施例では、フェード時間決定部301は、以下の式12を用いてフェード時間Tfを算出する。式12において、「Ym_diff」は、平均知覚輝度Ym_aveAと平均知覚輝度Ym_aveBの差の絶対値である。「T1」、「T2」、「th_diff1」、「th_diff2」は所定のパラメータである。パラメータT1はパラメータT2よりも小さく、パラメータth_diff1はパラメータth_diff2よりも小さい。
Ym_diff≦th_diff1の場合:Tf=T1
th_diff1<Ym_diff<th_diff2の場合:
Tf=(Ym_diff−th_diff1)
×((T2−T1)/(th_diff2−th_diff1))+T1
Ym_diff≧th_diff2の場合:Tf=T2
・・・(式12)
Ym_diff≦th_diff1の場合:Tf=T1
th_diff1<Ym_diff<th_diff2の場合:
Tf=(Ym_diff−th_diff1)
×((T2−T1)/(th_diff2−th_diff1))+T1
Ym_diff≧th_diff2の場合:Tf=T2
・・・(式12)
式12によれば、平均知覚輝度Ym_A(t)と平均知覚輝度Ym_B(t)のそれぞれの時間変化の速度が差Ym_diffに依存しないように、フェード時間Tfを決定することができる。その結果、特殊効果(クロスフェード、フェードイン、フェードアウト
、等)の表示として、差Ym_diffに寄らない略一定の速度で知覚輝度が変化する表示を実現することができる。
、等)の表示として、差Ym_diffに寄らない略一定の速度で知覚輝度が変化する表示を実現することができる。
なお、フェード時間Tfの決定方法は上記方法に限られない。重み付け後の画像imgAの知覚輝度と重み付け後の画像imgBの知覚輝度との少なくとも一方の時間変化の速度が変化してもよい。重み付け前の画像imgAの知覚輝度と重み付け前の画像imgBの知覚輝度との差が大きいほど長い時間が、フェード時間Tfとして決定されればよい。それにより、重み付け前の画像imgAの知覚輝度と重み付け前の画像imgBの知覚輝度との差が大きい場合にも、知覚輝度が緩やかに変化する表示を実現することができる。
ブレンドカーブ生成部302は、実施例1のブレンドカーブ生成部104と同様の処理を行う(図5)。但し、ブレンドカーブ生成部302は、実施例1の変化時間Tの代わりに、フェード時間決定部301から通知されたフェード時間Tfを使用する。
以上述べたように、本実施例によれば、重み付け前の画像imgAの知覚輝度と重み付け前の画像imgBの知覚輝度との差が大きいほど長い時間が、フェード時間(変化時間)Tfとして決定されて使用される。それにより、自然な表示をより確実に可能とすることができる。例えば、重み付け前の画像imgAの知覚輝度と重み付け前の画像imgBの知覚輝度との差が大きい場合にも、知覚輝度が緩やかに変化する表示を実現することができる。
<実施例4>
以下、本発明の実施例4について説明する。以下では、実施例1と異なる点(構成、処理、等)について詳しく説明し、実施例1と同じ点についての説明は省略する。本実施例では、JPEGファイル、HDRファイル、等の複数種類の画像ファイルが混在している場合の例を説明する。JPEGファイルは、JPEG画像データを含む画像ファイルである。HDRファイルは、ベース画像データと差分データを含む画像ファイルである。
以下、本発明の実施例4について説明する。以下では、実施例1と異なる点(構成、処理、等)について詳しく説明し、実施例1と同じ点についての説明は省略する。本実施例では、JPEGファイル、HDRファイル、等の複数種類の画像ファイルが混在している場合の例を説明する。JPEGファイルは、JPEG画像データを含む画像ファイルである。HDRファイルは、ベース画像データと差分データを含む画像ファイルである。
ベース画像データは、HDR画像データにダウンサンプリングを施すことによって得られる画像データである。「ダウンサンプリング」は「階調圧縮」とも言える。その場合には、ベース画像データのビット数は、HDR画像データのビット数よりも少ない。例えば、HDR画像データのビット数は32ビットであり、ベース画像データのビット数は8ビットである。
差分データは、ベース画像データとHDR画像データの差分に関するデータである。差分データは、例えば、輝度差分データ、色差分データ、または、それら両方を含む。
輝度差分データは、HDR画像データの輝度(輝度値)とベース画像データの輝度との差分を示すデータである。例えば、輝度差分データは、画素毎(または所定数の画素からなる画像領域毎)に、ベース画像データの輝度とHDR画像データの輝度の一方に対する他方の比率(輝度比率)を示す輝度比率データである。輝度差分データは、画素毎(または所定数の画素からなる画像領域毎)に、ベース画像データの輝度とHDR画像データの輝度の一方から他方を減算することによって得られる差分値(輝度差分値)を示すデータであってもよい。輝度差分データは、ベース画像データの輝度とHDR画像データの輝度との対応関係を示すテーブルデータであってもよい。
色差分データは、HDR画像データの色とベース画像データの色との差分を示すデータである。例えば、色差分データは、画素毎(または所定数の画素からなる画像領域毎)に、色差差分値を示す色差差分データである。色差差分値は、ベース画像データの色差(色差の階調値;色差値;Cb値とCr値)とHDR画像データの色差の一方から他方を減算
することによって得られる差分値である。色差分データは、画素毎(または所定数の画素からなる画像領域毎)に、ベース画像データの色差とHDR画像データの色差の一方に対する他方の比率(色差比率)を示す色差比率データであってもよい。色差分データは、ベース画像データの色差とHDR画像データの色差との対応関係を示すテーブルデータであってもよい。色差分データは、色差の代わりに色度座標などを用いて得られるデータであってもよい。
することによって得られる差分値である。色差分データは、画素毎(または所定数の画素からなる画像領域毎)に、ベース画像データの色差とHDR画像データの色差の一方に対する他方の比率(色差比率)を示す色差比率データであってもよい。色差分データは、ベース画像データの色差とHDR画像データの色差との対応関係を示すテーブルデータであってもよい。色差分データは、色差の代わりに色度座標などを用いて得られるデータであってもよい。
図14は、本実施例に係る表示装置400の構成例を示すブロック図である。表示装置400は、ファイル記憶部401、ファイル読み出し部402、デコード処理部403、非HDRファイル特徴量取得部404、HDRファイル特徴量取得部405、ブレンドカーブ生成部104、画像合成部105、及び、表示部106を有する。なお、図14において、実施例1(図1)と同じ機能部には、実施例1と同じ符号が付されている。
ファイル記憶部401は、画像ファイルを記憶する記憶部である。ファイル記憶部401として、例えば、磁気ディスク、半導体メモリ、光ディスク、等を使用することができる。なお、ファイル記憶部401は、表示装置400に内蔵されていてもよいし、表示装置400に対して着脱可能であってもよい。
ファイル読み出し部402は、ファイル記憶部401に記録されている画像ファイルをファイル記憶部401から読み出す。本実施例では、ファイル読み出し部402は、クロスフェードのために、2つの画像ファイルをファイル記憶部401から読み出す。具体的には、ファイル読み出し部402は、画像imgAに対応する画像ファイルfileAと、画像imgBに対応する画像ファイルfileBとを、ファイル記憶部401から読み出す。なお、ファイル読み出し部402は、表示装置400の外部装置から出力された画像ファイルを取得してもよい。
ファイル読み出し部402が非HDRファイルを読み出した場合には、ファイル読み出し部402は、非HDRファイルに含まれている画像データ(非HDR画像データ)を、画像合成部105と非HDRファイル特徴量取得部404とへ出力する。非HDRファイルは、HDRファイルでない画像ファイルである。例えば、非HDRファイルは、JPEGファイルである。
ファイル読み出し部402がHDRファイルを読み出した場合には、ファイル読み出し部402は、HDRファイルに含まれているベース画像データと差分データを、デコード処理部403へ出力する。また、ファイル読み出し部402は、HDRファイルに含まれている差分データを、HDRファイル特徴量取得部405へ出力する。
デコード処理部403は、ファイル読み出し部402から出力されたベース画像データと差分データに基づいて、HDR画像データを生成(復元)する。そして、デコード処理部403は、生成したHDR画像データを画像合成部105へ出力する。例えば、ベース画像データの画素値が100であり、且つ、ベース画像データに対するHDR画像データの輝度比率が1.5である場合には、HDR画像データの画素値として150(100×1.5)が得られる。本実施例では、画像データimgDAまたは画像データimgDBとしてHDR画像データが生成される。
非HDRファイル特徴量取得部404は、ファイル読み出し部402から出力された非HDR画像データに基づいて、当該非HDR画像データに基づく画像の知覚輝度を判断する。本実施例では、最大知覚輝度(複数の知覚輝度Ymの最大)Ym_maxが判断される。そして、非HDRファイル特徴量取得部404は、非HDR画像データの最大知覚輝度Ym_maxを、ブレンドカーブ生成部104へ通知する。
図15を用いて、非HDRファイル特徴量取得部404の構成例について説明する。図15は、非HDRファイル特徴量取得部404の構成例を示すブロック図である。非HDRファイル特徴量取得部404は、輝度値算出部11、物理輝度変換部12、知覚輝度変換部13、及び、最大値判断部41を有する。図15において、実施例1(図2)と同じ機能部には、実施例1と同じ符号が付されている。
最大値判断部41は、複数の画素にそれぞれ対応する複数の知覚輝度Ymから、知覚輝度Ymのヒストグラムを生成し、度数が閾値以上である知覚輝度Ymの最大を、最大知覚輝度Tm_maxとして判断する。そして、最大値判断部41は、得られた最大知覚輝度Ym_maxをブレンドカーブ生成部104へ通知する。
HDRファイル特徴量取得部405は、ファイル読み出し部402から出力された差分データに基づいて、HDR画像データに基づく画像の知覚輝度を判断する。本実施例では、最大知覚輝度Ym_maxが判断される。そして、HDRファイル特徴量取得部405は、HDR画像データの最大知覚輝度Ym_maxを、ブレンドカーブ生成部104へ通知する。差分データのデータサイズはHDR画像データのデータサイズよりも小さい。そのため、差分データからHDR画像データの知覚輝度を判断することにより、HDRデータからHDR画像データの知覚輝度を判断する場合よりも小さい処理負荷で、HDR画像データの知覚輝度を判断することができる。
図16を用いて、HDRファイル特徴量取得部405の処理フロー例について説明する。図16は、HDRファイル特徴量取得部405の処理フロー例を示すフローチャートである。
まず、S301にて、HDRファイル特徴量取得部405は、ファイル読み出し部402から出力された差分データによって示された複数の差分値の最大値を、最大差分値diff_maxとして検出する。差分値は、例えば、ベース画像データの輝度値に対するHDR画像データの輝度値の輝度比率である。
次に、S302にて、HDRファイル特徴量取得部405は、S301で検出した最大差分値diff_maxを用いて、HDR画像データの最大知覚輝度Ym_maxを判断する。例えば、HDRファイル特徴量取得部405は、100%白に対応するベース画像データの画素値に最大差分値diff_maxを乗算する。そして、HDRファイル特徴量取得部405は、輝度値算出部11の処理、物理輝度変換部12の処理、及び、知覚輝度変換部13の処理を乗算結果に施すことにより、最大知覚輝度Ym_maxを得る。100%白に対応するベース画像データの画素値は、例えば、ベース画像データの画素値の上限値である。
本実施例のブレンドカーブ生成部104は、実施例1のブレンドカーブ生成部104と同様の処理を行う。但し、本実施例では、平均知覚輝度Ym_aveの代わりに、最大知覚輝度Ym_maxが使用される。
以上述べたように、本実施例によれば、ベース画像データと差分データを含むHDRファイルが使用される場合にも、実施例1と同様の効果を得ることができる。また、本実施例によれば、ベース画像データからHDR画像データの知覚輝度が判断される。それにより、小さい処理負荷でHDR画像データの知覚輝度を判断することができる。
なお、実施例1〜4の各機能部は、個別のハードウェアであってもよいし、そうでなくてもよい。2つ以上の機能部の機能が、共通のハードウェアによって実現されてもよい。
1つの機能部の複数の機能のそれぞれが、個別のハードウェアによって実現されてもよい。1つの機能部の2つ以上の機能が、共通のハードウェアによって実現されてもよい。また、各機能部は、ハードウェアによって実現されてもよいし、そうでなくてもよい。例えば、装置が、プロセッサと、制御プログラムが格納されたメモリとを有していてもよい。そして、装置が有する少なくとも一部の機能部の機能が、プロセッサがメモリから制御プログラムを読み出して実行することにより実現されてもよい。装置が有する少なくとも一部の機能部の機能は、アプリケーションによって実現される機能であってもよい。
1つの機能部の複数の機能のそれぞれが、個別のハードウェアによって実現されてもよい。1つの機能部の2つ以上の機能が、共通のハードウェアによって実現されてもよい。また、各機能部は、ハードウェアによって実現されてもよいし、そうでなくてもよい。例えば、装置が、プロセッサと、制御プログラムが格納されたメモリとを有していてもよい。そして、装置が有する少なくとも一部の機能部の機能が、プロセッサがメモリから制御プログラムを読み出して実行することにより実現されてもよい。装置が有する少なくとも一部の機能部の機能は、アプリケーションによって実現される機能であってもよい。
なお、実施例1〜4はあくまで一例であり、本発明の要旨の範囲内で実施例1〜4の構成を適宜変形したり変更したりすることにより得られる構成も、本発明に含まれる。実施例1〜4の構成を適宜組み合わせて得られる構成も、本発明に含まれる。
<その他の実施例>
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
103:特徴量取得部 104,201,302:ブレンドカーブ生成部
105:画像合成部 404:非HDRファイル特徴量取得部
405:HDRファイル特徴量取得部
105:画像合成部 404:非HDRファイル特徴量取得部
405:HDRファイル特徴量取得部
Claims (17)
- 第1画像データに基づいて、前記第1画像データに基づく第1画像の知覚輝度を判断する第1判断手段と、
第2画像データに基づいて、前記第2画像データに基づく第2画像の知覚輝度を判断する第2判断手段と、
前記第1画像データの画素値から前記第2画像データの画素値へ画素値が時間変化するように、前記第1画像データと前記第2画像データを重み付けして合成する合成手段と、を有し、
前記合成手段は、前記第1判断手段の判断結果と前記第2判断手段の判断結果とに基づいて、前記重み付け後の第1画像の知覚輝度と前記重み付け後の第2画像の知覚輝度とのそれぞれが第1閾値以下の速度で時間変化するように、前記重み付けを行う
ことを特徴とする画像処理装置。 - 前記合成手段は、前記重み付け後の第1画像の知覚輝度と前記重み付け後の第2画像の知覚輝度とのそれぞれが略一定の速度で時間変化するように、前記重み付けを行う
ことを特徴とする請求項1に記載の画像処理装置。 - 前記合成手段は、
前記重み付け前の第1画像の知覚輝度が第2閾値よりも高い場合に、重みの時間変化の速度が徐々に低下するように、前記第1画像データの重み付けを行い、
前記重み付け前の第1画像の知覚輝度が前記第2閾値よりも高い場合に、重みの時間変化の速度が徐々に増すように、前記第2画像データの重み付けを行う
ことを特徴とする請求項1または2に記載の画像処理装置。 - 前記重み付け前の第1画像の知覚輝度と前記重み付け前の第2画像の知覚輝度とのそれぞれが第2閾値以下である場合に、前記合成手段は、前記第1判断手段の判断結果と前記第2判断手段の判断結果とに基づかない重みで前記第1画像データと前記第2画像データを合成する
ことを特徴とする請求項1〜3のいずれか1項に記載の画像処理装置。 - 前記重み付け前の第1画像の知覚輝度と前記重み付け前の第2画像の知覚輝度とのそれぞれが第2閾値以下である場合に、前記合成手段は、所定の重みで前記第1画像データと前記第2画像データを合成する
ことを特徴とする請求項4に記載の画像処理装置。 - 前記重み付け前の第1画像の知覚輝度と前記重み付け前の第2画像の知覚輝度との差が大きいほど長い時間を、前記第1画像データの画素値から前記第2画像データの画素値へ画素値が時間変化する変化時間として決定する決定手段、をさらに有する
ことを特徴とする請求項1〜5のいずれか1項に記載の画像処理装置。 - 前記決定手段は、前記重み付け後の第1画像の知覚輝度と前記重み付け後の第2画像の知覚輝度とのそれぞれの時間変化の速度が、前記重み付け前の第1画像の知覚輝度と前記重み付け前の第2画像の知覚輝度との前記差に依存しないように、前記変化時間を決定する
ことを特徴とする請求項6に記載の画像処理装置。 - 第3画像データ、及び、前記第3画像データと第4画像データの差分に関する差分データに基づいて、前記第4画像データを、前記第1画像データまたは前記第2画像データとして生成する生成手段、をさらに有し、
前記差分データに基づいて、前記第4画像データに基づく第4画像の知覚輝度が判断される
ことを特徴とする請求項1〜7のいずれか1項に記載の画像処理装置。 - 第1画像データに基づいて、前記第1画像データに基づく第1画像の知覚輝度を判断する第1判断ステップと、
第2画像データに基づいて、前記第2画像データに基づく第2画像の知覚輝度を判断する第2判断ステップと、
前記第1画像データの画素値から前記第2画像データの画素値へ画素値が時間変化するように、前記第1画像データと前記第2画像データを重み付けして合成する合成ステップと、
を有し、
前記合成ステップでは、前記第1判断ステップの判断結果と前記第2判断ステップの判断結果とに基づいて、前記重み付け後の第1画像の知覚輝度と前記重み付け後の第2画像の知覚輝度とのそれぞれが第1閾値以下の速度で時間変化するように、前記重み付けを行う
ことを特徴とする画像処理方法。 - 前記合成ステップでは、前記重み付け後の第1画像の知覚輝度と前記重み付け後の第2画像の知覚輝度とのそれぞれが略一定の速度で時間変化するように、前記重み付けを行うことを特徴とする請求項9に記載の画像処理方法。
- 前記合成ステップでは、
前記重み付け前の第1画像の知覚輝度が第2閾値よりも高い場合に、重みの時間変化の速度が徐々に低下するように、前記第1画像データの重み付けを行い、
前記重み付け前の第1画像の知覚輝度が前記第2閾値よりも高い場合に、重みの時間変化の速度が徐々に増すように、前記第2画像データの重み付けを行う
ことを特徴とする請求項9または10に記載の画像処理方法。 - 前記重み付け前の第1画像の知覚輝度と前記重み付け前の第2画像の知覚輝度とのそれぞれが第2閾値以下である場合に、前記合成ステップでは、前記第1判断ステップの判断結果と前記第2判断ステップの判断結果とに基づかない重みで前記第1画像データと前記第2画像データを合成する
ことを特徴とする請求項9〜11のいずれか1項に記載の画像処理方法。 - 前記重み付け前の第1画像の知覚輝度と前記重み付け前の第2画像の知覚輝度とのそれぞれが第2閾値以下である場合に、前記合成ステップでは、所定の重みで前記第1画像データと前記第2画像データを合成する
ことを特徴とする請求項12に記載の画像処理方法。 - 前記重み付け前の第1画像の知覚輝度と前記重み付け前の第2画像の知覚輝度との差が大きいほど長い時間を、前記第1画像データの画素値から前記第2画像データの画素値へ画素値が時間変化する変化時間として決定する決定ステップ、をさらに有する
ことを特徴とする請求項9〜13のいずれか1項に記載の画像処理方法。 - 前記決定ステップでは、前記重み付け後の第1画像の知覚輝度と前記重み付け後の第2画像の知覚輝度とのそれぞれの時間変化の速度が、前記重み付け前の第1画像の知覚輝度と前記重み付け前の第2画像の知覚輝度との前記差に依存しないように、前記変化時間を決定する
ことを特徴とする請求項14に記載の画像処理方法。 - 第3画像データ、及び、前記第3画像データと第4画像データの差分に関する差分データに基づいて、前記第4画像データを、前記第1画像データまたは前記第2画像データとして生成する生成ステップ、をさらに有し、
前記差分データに基づいて、前記第4画像データに基づく第4画像の知覚輝度が判断される
ことを特徴とする請求項9〜15のいずれか1項に記載の画像処理方法。 - 請求項9〜16のいずれか1項に記載の画像処理方法の各ステップをコンピュータに実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017028169A JP2018133043A (ja) | 2017-02-17 | 2017-02-17 | 画像処理装置および画像処理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017028169A JP2018133043A (ja) | 2017-02-17 | 2017-02-17 | 画像処理装置および画像処理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018133043A true JP2018133043A (ja) | 2018-08-23 |
Family
ID=63248469
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017028169A Pending JP2018133043A (ja) | 2017-02-17 | 2017-02-17 | 画像処理装置および画像処理方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018133043A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019209108A (ja) * | 2018-09-20 | 2019-12-12 | 株式会社北電子 | 遊技機 |
CN112150851A (zh) * | 2019-06-26 | 2020-12-29 | 杭州海康威视数字技术股份有限公司 | 地磁检测器的测试方法和装置 |
-
2017
- 2017-02-17 JP JP2017028169A patent/JP2018133043A/ja active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019209108A (ja) * | 2018-09-20 | 2019-12-12 | 株式会社北電子 | 遊技機 |
CN112150851A (zh) * | 2019-06-26 | 2020-12-29 | 杭州海康威视数字技术股份有限公司 | 地磁检测器的测试方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5752133B2 (ja) | デジタル画像を低ダイナミック・レンジ(ldr)画像から高ダイナミック・レンジ(hdr)画像に変換するための方法およびシステム | |
JP6478499B2 (ja) | 画像処理装置、画像処理方法、及び、プログラム | |
JP6921886B2 (ja) | 情報処理装置および情報処理方法 | |
JP6381215B2 (ja) | 画像処理装置、画像処理方法、表示装置、表示装置の制御方法、及び、プログラム | |
JP5911518B2 (ja) | 表示装置、表示装置の制御方法、及び、プログラム | |
JP6700880B2 (ja) | 情報処理装置および情報処理方法 | |
JP2017187994A (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
JP2011166728A (ja) | 画像処理装置、画像処理方法 | |
JPWO2016157838A1 (ja) | 信号処理装置、表示装置、信号処理方法、およびプログラム | |
JP2017045030A (ja) | 画像表示装置 | |
US20190289217A1 (en) | Display apparatus, control method thereof, and non-transitory computer readable medium | |
JP2018013696A (ja) | 画像処理装置および表示装置 | |
JP2016173477A (ja) | 画像表示装置及びその制御方法 | |
US8958657B2 (en) | Frame rate conversion image processing apparatus, control method, and computer-readable storage medium | |
JP2018133043A (ja) | 画像処理装置および画像処理方法 | |
JP7254477B2 (ja) | 表示装置およびその制御方法 | |
CN117542307A (zh) | 一种图像显示效果的处理方法、处理装置、介质和设备 | |
JP2019080156A (ja) | 画像処理方法および画像処理装置 | |
US20200242745A1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP4632100B2 (ja) | 画像処理装置、画像処理方法、記録媒体、およびプログラム | |
JP2018136482A (ja) | 画像処理装置および画像処理方法 | |
JP2018072418A (ja) | 画像処理装置および画像処理方法 | |
JP6628925B2 (ja) | 画像表示装置及びその制御方法 | |
US11341622B2 (en) | Image processing apparatus, image capturing apparatus, image processing method, and storage medium | |
JP2023168073A (ja) | 画像処理装置および画像処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20181116 |