JP2009177558A - 画像処理装置および方法、並びにプログラム - Google Patents

画像処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP2009177558A
JP2009177558A JP2008014505A JP2008014505A JP2009177558A JP 2009177558 A JP2009177558 A JP 2009177558A JP 2008014505 A JP2008014505 A JP 2008014505A JP 2008014505 A JP2008014505 A JP 2008014505A JP 2009177558 A JP2009177558 A JP 2009177558A
Authority
JP
Japan
Prior art keywords
luminance
value
block
pixel
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008014505A
Other languages
English (en)
Other versions
JP4998287B2 (ja
Inventor
Tomoo Mitsunaga
知生 光永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008014505A priority Critical patent/JP4998287B2/ja
Priority to CN2009800001995A priority patent/CN101682686B/zh
Priority to EP09704285.7A priority patent/EP2131569B1/en
Priority to US12/530,251 priority patent/US8248492B2/en
Priority to KR1020097019072A priority patent/KR20100106902A/ko
Priority to PCT/JP2009/051030 priority patent/WO2009093673A1/ja
Publication of JP2009177558A publication Critical patent/JP2009177558A/ja
Application granted granted Critical
Publication of JP4998287B2 publication Critical patent/JP4998287B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6027Correction or control of colour gradation or colour contrast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/58Edge or detail enhancement; Noise or error suppression, e.g. colour misregistration correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6002Corrections within particular colour systems
    • H04N1/6005Corrections within particular colour systems with luminance or chrominance signals, e.g. LC1C2, HSL or YUV
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/20Circuitry for controlling amplitude response
    • H04N5/205Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic
    • H04N5/208Circuitry for controlling amplitude response for correcting amplitude versus frequency characteristic for compensating for attenuation of high frequency components, e.g. crispening, aperture distortion correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Picture Signal Circuits (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

【課題】より少ない演算でエッジ保存平滑化処理を行う。
【解決手段】ブロックヒストグラム算出部113は、輝度画像を空間方向および輝度方向に分割して得られた各輝度ブロックについて、輝度ブロックに属す画素数をブロックヒストグラムとして算出する。ブロック積分値115は、各輝度ブロックについて、輝度ブロックに属す画素の輝度値の積分値をブロック積分値として算出する。加重積和部117は、ブロック積分値およびブロックヒストグラムと、輝度画像の処理対象画素の輝度値とから、処理対象画素が属す物体領域の平均輝度を示す大局輝度値を算出する。本発明は、デジタルビデオカメラに適用することができる。
【選択図】図5

Description

本発明は画像処理装置および方法、並びにプログラムに関し、特に、画像の階調補正を行う場合に用いて好適な画像処理装置および方法、並びにプログラムに関する。
画像処理技術の1つとして、エッジ保存平滑化処理が知られている。エッジ保存平滑化処理とは、画像中の物体境界など顕著な輝度段差は残しつつ階調を平滑化する非線形フィルタ処理である。エッジ保存平滑化処理は、視認性に影響する物体輪郭が保存されつつ微細な輝度変動が除去されるため、古くからノイズリダクション処理に用いられている(例えば、非特許文献1乃至3参照)。
また、エッジ保存平滑化処理は、物体内のテクスチャの微細な輝度変動と物体輪郭の顕著な輝度段差を分離できる性質を利用して、テクスチャに代表されるディテール成分を変化させることなく、それ以外の成分の輝度差を圧縮する階調補正処理にも用いられている(例えば、非特許文献4および5参照)。
このようなエッジ保存平滑化処理の中で、近年バイラテラルフィルタと呼ばれる技術がよく利用されるようになってきている。一般に、画像に対するバイラテラルフィルタBLF(pc)では、次式(1)に示されるように、空間方向の重み関数ω(p−pc)および輝度値方向の重み関数φ(I(p)−I(pc))で重み付けした画素位置pcの周囲の画素の画素値I(p)を加算する演算が行われる。
Figure 2009177558
なお、式(1)において、右辺の分母は、重み値の正規化係数を示している。非特許文献4には、このようなバイラテラルフィルタを用いた階調補正処理技術が開示されている。
式(1)に示されるように、バイラテラルフィルタでは、局所領域中の各画素pに対する重み付けが中心画素pcの輝度値に依存して変わる。そのため、画素毎に重み値を算出し直す必要があるので、通常の線形なFIR(Finite Impulse Response)フィルタなどに比べて演算量がはるかに多い。非特許文献4および非特許文献6には、そのようなバイラテラルフィルタの欠点を克服するために、バイラテラルフィルタ計算を高速化する手法が開示されている。
A. Lev,S. W. Zucker,A. Rosenfeld,「Iterative enhancement of noise images」,IEEE Trans. Systems, Man, and Cybernetics, Vol. SMC-7,1977. D. C. C. Wang,A. H. Vagnucci,C. C. Li,「Gradient inverse weighted smoothing scheme and the evaluation of its performance」,CVGIP,Vol. 15,pp. 167-181,1981. M. Nagao,T. Matsuyama,「Edge preserving smoothing」,CGIP,Vol. 9, pp. 394-407,1978. F. Durand,J. Dorsey,「Fast bilaterarl filtering for the display of high-dynamic-range images」,Proc. of ACM SIGGRAPH 2002,2002. S. N. Pattanaik,H. Yee,「Adaptive gain control for high dynamic range image display」,Proc. of Spring Conference in Computer Graphics 2002,2002. Weiss,「Fast median and bilateral filtering」,Proc. of ACM SIGGRAPH 2006,2006.
ところで、上述のエッジ保存平滑化を用いた画像処理において、巨大な領域を一度にみるエッジ保存平滑化、すなわち比較的大きな領域内の画素を用いたエッジ保存平滑化が必要になることがあった。
例えば、ノイズリダクション処理においては、数画素×数画素程度のオペレータサイズのエッジ保存平滑化を適用して高域のノイズを除去した結果、より低域のノイズが逆に目立ってしまう場合があった。低域のノイズを除去するためには、より大きな領域を一度にみるエッジ保存平滑化が必要である。特に暗所撮影などでイメージセンサ出力に大きいゲインをかけて表示する場合には、低域のノイズ振幅も無視できないほど大きいので、巨大なエッジ保存平滑化オペレータを用いる必要があった。
このような巨大な領域をみるエッジ保存平滑化は、特に階調補正処理で必要とされる。階調補正処理においては、物体内のテクスチャの微細な輝度変動と同様に、同一物体内の起伏に起因する輝度変動も輝度差を圧縮することなく保存したい成分である場合が多い。例えば、人物の顔の領域内の輝度変動に輝度圧縮処理を施すと表情が変わったように見えるなどの弊害が出る。このような同一物体内の起伏に起因する輝度変動と物体輪郭の輝度段差を分離するためには、画像によっては数百×数百画素程度の巨大な領域を一度にみるエッジ保存平滑化が必要になる場合があった。
前述のように、エッジ保存平滑化の1つであるバイラテラルフィルタについては、その計算を簡略化することで演算量を減らす手法が既に提案されている。しかし、それらの手法は、演算量の増加を、あくまでオペレータのサイズ(画素数×画素数)に対して線形な増加にとどめることを実現するものであり、数百×数百画素というサイズではやはり演算量が非現実的に多くなってしまう。
本発明は、このような状況に鑑みてなされたものであり、より少ない演算でエッジ保存平滑化処理を行うことができるようにするものである。
本発明の第1の側面の画像処理装置は、入力画像に対するエッジ保存平滑化処理を行う画像処理装置であって、前記入力画像を空間方向に分割して得られる空間ブロック内の画素が、その画素の輝度値に基づいて、所定の輝度範囲内の輝度値の画素からなる輝度ブロックの何れかに分類されることにより、前記空間ブロックがさらに輝度方向に分割されて得られる前記輝度ブロックについて、前記輝度ブロックに属す前記画素の頻度値を算出する頻度値算出手段と、前記輝度ブロックの特性を示す特性値を算出する特性値算出手段と、前記入力画像の各画素位置について、前記画素近傍のいくつかの前記空間ブロックから得られた前記輝度ブロックである近傍輝度ブロックの前記特性値および前記頻度値を用いて、前記画素と前記近傍輝度ブロックとの空間方向および輝度方向の距離に基づいて前記特性値を加重平均することにより、前記入力画像をエッジ保存平滑化する加重積和手段とを備える。
前記特性値算出手段には、前記輝度ブロックに属す画素の輝度値の総和を前記特性値として算出させることができる。
前記特性値算出手段には、前記輝度ブロックの前記輝度範囲の中央値を前記特性値として算出させることができる。
前記加重積和手段には、前記近傍輝度ブロックが得られる前記空間ブロックと前記画素との相対的な位置関係により定まる空間重みと、前記近傍輝度ブロックの前記頻度値とを用いた補間処理を行って、前記近傍輝度ブロックに対応する輝度ごとに、前記画素の位置の補間された頻度値である補間頻度値を算出する頻度値補間手段と、前記空間重みと、前記近傍輝度ブロックの前記特性値とを用いた補間処理を行って、前記近傍輝度ブロックに対応する前記輝度ごとに、前記画素の位置の補間された特性値である補間特性値を算出する特性値補間手段と、前記画素の前記輝度値と、前記近傍輝度ブロックに対応する前記輝度とから定まる輝度重みが乗算された、前記補間頻度値の総和を求めることにより、前記輝度重みによる前記補間頻度値の加重和を算出する頻度値積和手段と、前記輝度重みが乗算された、前記補間特性値の総和を求めることにより、前記輝度重みによる前記補間特性値の加重和を算出する特性値積和手段と、前記補間特性値の加重和を、前記補間頻度値の加重和で除算して、前記特性値の加重平均を算出する除算手段とを設けることができる。
前記加重積和手段には、前記空間ブロックごとに、その空間ブロックから得られた前記近傍輝度ブロックの前記頻度値に対して、輝度値を変数とする輝度重み関数を畳み込む第1の畳み込み手段と、前記空間ブロックごとに、その空間ブロックから得られた前記近傍輝度ブロックの前記特性値に対して、前記輝度重み関数を畳み込む第2の畳み込み手段と、前記近傍輝度ブロックが得られる前記空間ブロックと前記画素との相対的な位置関係により定まる空間重みと、前記輝度重み関数が畳み込まれた前記頻度値とを用いた補間処理を行って、前記画素の位置における、前記画素の前記輝度値に対する補間された頻度値である補間頻度値を算出する頻度値補間手段と、前記空間重みと、前記輝度重み関数が畳み込まれた前記特性値とを用いた補間処理を行って、前記画素の位置における、前記画素の前記輝度値に対する補間された特性値である補間特性値を算出する特性値補間手段と、前記補間特性値を、前記補間頻度値で除算して、前記特性値の加重平均を算出する除算手段とを設けることができる。
前記加重積和手段には、所定のフレームの前記入力画像から算出された、前記輝度重み関数が畳み込まれた前記頻度値を、前記入力画像の1フレーム分の時間だけ保持する頻度値保持手段と、前記所定のフレームの前記入力画像から算出された、前記輝度重み関数が畳み込まれた前記特性値を、前記入力画像の1フレーム分の時間だけ保持する特性値保持手段とをさらに設け、前記頻度値補間手段には、前記所定のフレームの前記入力画像から算出され、前記頻度値保持手段に保持されている前記頻度値を用いて、前記所定のフレームの次のフレームの前記入力画像について前記補間頻度値を算出させ、前記特性値補間手段には、前記所定のフレームの前記入力画像から算出され、前記特性値保持手段に保持されている前記特性値を用いて、前記次のフレームの前記入力画像について前記補間特性値を算出させることができる。
画像処理装置には、前記入力画像に基づいて、前記入力画像が縮小された縮小画像を生成する縮小画像生成手段をさらに設け、前記頻度値算出手段には、前記縮小画像が空間方向および輝度方向に分割されて得られた輝度ブロックについて、その輝度ブロックに属す前記縮小画像の画素の頻度値を算出させ、前記特性値算出手段には、前記縮小画像が空間方向および輝度方向に分割されて得られた輝度ブロックについて、その輝度ブロックの特性を示す特性値を算出させることができる。
画像処理装置には、所定のフレームの前記入力画像から算出された前記頻度値を、前記入力画像の1フレーム分の時間だけ保持する頻度値保持手段と、前記所定のフレームの前記入力画像から算出された前記特性値を、前記入力画像の1フレーム分の時間だけ保持する特性値保持手段とをさらに設け、前記加重積和手段には、前記頻度値保持手段に保持されている前記頻度値、および前記特性値保持手段に保持されている前記特性値を用いて、前記所定のフレームの次のフレームの前記入力画像について、前記特性値の加重平均を行わせることができる。
本発明の第1の側面の画像処理方法またはプログラムは、入力画像に対するエッジ保存平滑化処理を行う画像処理方法またはプログラムであって、前記入力画像を空間方向に分割して得られる空間ブロック内の画素が、その画素の輝度値に基づいて、所定の輝度範囲内の輝度値の画素からなる輝度ブロックの何れかに分類されることにより、前記空間ブロックがさらに輝度方向に分割されて得られる前記輝度ブロックについて、前記輝度ブロックに属す前記画素の頻度値を算出し、前記輝度ブロックの特性を示す特性値を算出し、前記入力画像の各画素位置について、前記画素近傍のいくつかの前記空間ブロックから得られた前記輝度ブロックである近傍輝度ブロックの前記特性値および前記頻度値を用いて、前記画素と前記近傍輝度ブロックとの空間方向および輝度方向の距離に基づいて前記特性値を加重平均することにより、前記入力画像をエッジ保存平滑化するステップを含む。
本発明の第1の側面においては、入力画像に対するエッジ保存平滑化処理を行う画像処理装置において、前記入力画像を空間方向に分割して得られる空間ブロック内の画素が、その画素の輝度値に基づいて、所定の輝度範囲内の輝度値の画素からなる輝度ブロックの何れかに分類されることにより、前記空間ブロックがさらに輝度方向に分割されて得られる前記輝度ブロックについて、前記輝度ブロックに属す前記画素の頻度値が算出され、前記輝度ブロックの特性を示す特性値が算出され、前記入力画像の各画素位置について、前記画素近傍のいくつかの前記空間ブロックから得られた前記輝度ブロックである近傍輝度ブロックの前記特性値および前記頻度値が用いられて、前記画素と前記近傍輝度ブロックとの空間方向および輝度方向の距離に基づいて前記特性値が加重平均されることにより、前記入力画像がエッジ保存平滑化される。
本発明の第2の側面の画像処理装置は、入力画像の階調補正を行う画像処理装置であって、前記入力画像を空間方向に分割して得られる空間ブロック内の画素が、その画素の輝度値に基づいて、所定の輝度範囲内の輝度値の画素からなる輝度ブロックの何れかに分類されることにより、前記空間ブロックがさらに輝度方向に分割されて得られる前記輝度ブロックについて、前記輝度ブロックに属す前記画素の頻度値を算出する頻度値算出手段と、前記輝度ブロックの特性を示す特性値を算出する特性値算出手段と、前記入力画像の各画素位置について、前記画素近傍のいくつかの前記空間ブロックから得られた前記輝度ブロックである近傍輝度ブロックの前記特性値および前記頻度値を用いて、前記画素と前記近傍輝度ブロックとの空間方向および輝度方向の距離に基づいて前記特性値を加重平均することにより、前記入力画像上における前記画素が含まれる物体領域の平均的な明るさを示す大局輝度値を算出する加重積和手段と、前記各画素位置について、前記大局輝度値に基づいて、前記画素ごとのトーンカーブの形状を算出するトーンカーブ算出手段と、前記各画素位置について、前記トーンカーブを用いて、前記画素の前記輝度値の階調を補正する輝度値階調補正手段とを備える。
前記トーンカーブ算出手段には、前記大局輝度値を前記トーンカーブにより階調補正した場合に、前記大局輝度値が、前記トーンカーブによる階調補正後の輝度値の取り得る範囲のほぼ中間の値に変換されるように、前記トーンカーブの形状を算出させることができる。
画像処理装置には、前記各画素位置について、前記トーンカーブを用いて、前記画素の前記大局輝度値の階調を補正する大局輝度値階調補正手段と、前記大局輝度値階調補正手段により階調補正された前記大局輝度値と、前記トーンカーブの形状とに基づいて、前記輝度値階調補正手段により階調補正された前記輝度値のコントラストを補正するコントラスト補正手段とをさらに設けることができる。
前記加重積和手段には、前記近傍輝度ブロックが得られる前記空間ブロックと前記画素との相対的な位置関係により定まる空間重みと、前記近傍輝度ブロックの前記頻度値とを用いた補間処理を行って、前記近傍輝度ブロックに対応する輝度ごとに、前記画素の位置の補間された頻度値である補間頻度値を算出する頻度値補間手段と、前記空間重みと、前記近傍輝度ブロックの前記特性値とを用いた補間処理を行って、前記近傍輝度ブロックに対応する前記輝度ごとに、前記画素の位置の補間された特性値である補間特性値を算出する特性値補間手段と、前記画素の前記輝度値と、前記近傍輝度ブロックに対応する前記輝度とから定まる輝度重みが乗算された、前記補間頻度値の総和を求めることにより、前記輝度重みによる前記補間頻度値の加重和を算出する頻度値積和手段と、前記輝度重みが乗算された、前記補間特性値の総和を求めることにより、前記輝度重みによる前記補間特性値の加重和を算出する特性値積和手段と、前記補間特性値の加重和を、前記補間頻度値の加重和で除算して、前記特性値の加重平均を算出する除算手段とを設けることができる。
前記加重積和手段には、前記空間ブロックごとに、その空間ブロックから得られた前記近傍輝度ブロックの前記頻度値に対して、輝度値を変数とする輝度重み関数を畳み込む第1の畳み込み手段と、前記空間ブロックごとに、その空間ブロックから得られた前記近傍輝度ブロックの前記特性値に対して、前記輝度重み関数を畳み込む第2の畳み込み手段と、前記近傍輝度ブロックが得られる前記空間ブロックと前記画素との相対的な位置関係により定まる空間重みと、前記輝度重み関数が畳み込まれた前記頻度値とを用いた補間処理を行って、前記画素の位置における、前記画素の前記輝度値に対する補間された頻度値である補間頻度値を算出する頻度値補間手段と、前記空間重みと、前記輝度重み関数が畳み込まれた前記特性値とを用いた補間処理を行って、前記画素の位置における、前記画素の前記輝度値に対する補間された特性値である補間特性値を算出する特性値補間手段と、前記補間特性値を、前記補間頻度値で除算して、前記特性値の加重平均を算出する除算手段とを設けることができる。
前記加重積和手段には、所定のフレームの前記入力画像から算出された、前記輝度重み関数が畳み込まれた前記頻度値を、前記入力画像の1フレーム分の時間だけ保持する頻度値保持手段と、前記所定のフレームの前記入力画像から算出された、前記輝度重み関数が畳み込まれた前記特性値を、前記入力画像の1フレーム分の時間だけ保持する特性値保持手段とをさらに設け、前記頻度値補間手段には、前記所定のフレームの前記入力画像から算出され、前記頻度値保持手段に保持されている前記頻度値を用いて、前記所定のフレームの次のフレームの前記入力画像について前記補間頻度値を算出させ、前記特性値補間手段には、前記所定のフレームの前記入力画像から算出され、前記特性値保持手段に保持されている前記特性値を用いて、前記次のフレームの前記入力画像について前記補間特性値を算出させることができる。
画像処理装置には、前記入力画像に基づいて、前記入力画像が縮小された縮小画像を生成する縮小画像生成手段をさらに設け、前記頻度値算出手段には、前記縮小画像が空間方向および輝度方向に分割されて得られた輝度ブロックについて、その輝度ブロックに属す前記縮小画像の画素の頻度値を算出させ、前記特性値算出手段には、前記縮小画像が空間方向および輝度方向に分割されて得られた輝度ブロックについて、その輝度ブロックの特性を示す特性値を算出させることができる。
画像処理装置には、所定のフレームの前記入力画像から算出された前記頻度値を、前記入力画像の1フレーム分の時間だけ保持する頻度値保持手段と、前記所定のフレームの前記入力画像から算出された前記特性値を、前記入力画像の1フレーム分の時間だけ保持する特性値保持手段とをさらに設け、前記加重積和手段には、前記頻度値保持手段に保持されている前記頻度値、および前記特性値保持手段に保持されている前記特性値を用いて、前記所定のフレームの次のフレームの前記入力画像について、前記特性値の加重平均を行わせることができる。
本発明の第2の側面の画像処理方法またはプログラムは、入力画像の階調補正を行う画像処理方法またはプログラムであって、前記入力画像を空間方向に分割して得られる空間ブロック内の画素が、その画素の輝度値に基づいて、所定の輝度範囲内の輝度値の画素からなる輝度ブロックの何れかに分類されることにより、前記空間ブロックがさらに輝度方向に分割されて得られる前記輝度ブロックについて、前記輝度ブロックに属す前記画素の頻度値を算出し、前記輝度ブロックの特性を示す特性値を算出し、前記入力画像の各画素位置について、前記画素近傍のいくつかの前記空間ブロックから得られた前記輝度ブロックである近傍輝度ブロックの前記特性値および前記頻度値を用いて、前記画素と前記近傍輝度ブロックとの空間方向および輝度方向の距離に基づいて前記特性値を加重平均することにより、前記入力画像上における前記画素が含まれる物体領域の平均的な明るさを示す大局輝度値を算出し、前記各画素位置について、前記大局輝度値に基づいて、前記画素ごとのトーンカーブの形状を算出し、前記各画素位置について、前記トーンカーブを用いて、前記画素の前記輝度値の階調を補正するステップを含む。
本発明の第2の側面においては、入力画像の階調補正を行う画像処理装置において、前記入力画像を空間方向に分割して得られる空間ブロック内の画素が、その画素の輝度値に基づいて、所定の輝度範囲内の輝度値の画素からなる輝度ブロックの何れかに分類されることにより、前記空間ブロックがさらに輝度方向に分割されて得られる前記輝度ブロックについて、前記輝度ブロックに属す前記画素の頻度値が算出され、前記輝度ブロックの特性を示す特性値が算出され、前記入力画像の各画素位置について、前記画素近傍のいくつかの前記空間ブロックから得られた前記輝度ブロックである近傍輝度ブロックの前記特性値および前記頻度値が用いられて、前記画素と前記近傍輝度ブロックとの空間方向および輝度方向の距離に基づいて前記特性値が加重平均されることにより、前記入力画像上における前記画素が含まれる物体領域の平均的な明るさを示す大局輝度値が算出され、前記各画素位置について、前記大局輝度値に基づいて、前記画素ごとのトーンカーブの形状が算出され、前記各画素位置について、前記トーンカーブが用いられて、前記画素の前記輝度値の階調が補正される。
本発明の第1の側面によれば、より少ない演算でエッジ保存平滑化処理を行うことができる。
また、本発明の第2の側面によれば、より少ない演算で階調補正処理を行うことができる。
以下、図面を参照して、本発明を適用した実施の形態について説明する。
図1は、本発明を適用したデジタルビデオカメラの一実施の形態を示すブロック図である。デジタルビデオカメラは、レンズ11、絞り12、画像センサ13、相関2重サンプリング回路(CDS)14、A/D(Analog/Digital)コンバータ15、DSP(Digital Signal Processor)ブロック16、タイミングジェネレータ(TG)17、LCD(Liquid Crystal Display)ドライバ18、LCD19、CODEC(Compression/Decompression)20、メモリ21、CPU(Central Processing Unit)22、入力デバイス23、およびバス24から構成される。なお、DSPブロック16は、信号処理用のプロセッサ(例えば、DSP)と画像データを保持するRAM(Random Access Memory)などのメモリなどにより構成されるブロックであり、プロセッサが所定のプログラムを実行することにより、後述する画像処理を行う。また、以下、DSPブロック16を、単にDSP16と呼ぶ。
レンズ11および絞り12などからなる光学系を通過した被写体からの入射光は、まず画像センサ13の撮像面上の各受光素子に到達し、受光素子による光電変換により電気信号に変換される。画像センサ13から出力された電気信号は、相関2重サンプリング回路14によってノイズが除去され、A/Dコンバータ15によってデジタル化された後、デジタル化された画像データがDSP16内のメモリに一時的に格納される。タイミングジェネレータ17は、一定のフレームレートにより画像データが取り込まれるように、相関2重サンプリング回路14、A/Dコンバータ15、および、DSP16により構成される信号処理系を制御する。すなわち、DSP16には、一定のフレームレートで画像データのストリームが供給される。
なお、画像センサ13は、一般的なCCD(Charge Coupled Device)などの画像センサよりダイナミックレンジが広く、飽和したり、ノイズを発生させたりすることなく、被写体の暗い部分から明るい部分までを撮像することができる。従って、A/Dコンバータ15は、入力される電気信号を、通常のデジタルビデオカメラの階調数(例えば、10乃至12ビット程度のデータにより表現できる階調数)よりも多い階調数(例えば、14乃至16ビット程度のデータにより表現できる階調数)の画像データに変換する。
DSP16は、画像データのダイナミックレンジが、例えばLCD19が表示可能なダイナミックレンジになるように、後述する画像処理を画像データに施した後、画像処理を施した画像データを、必要に応じて、LCDドライバ18またはCODEC20に供給する。
LCDドライバ18は、DSP16から供給される画像データをアナログの画像信号に変換する。LCDドライバ18は、デジタルビデオカメラのファインダであるLCD19にアナログの画像信号を供給し、画像信号に基づく画像を表示させる。
CODEC20は、DSP16から供給される画像データを所定の方式により符号化し、符号化した画像データを、半導体、磁気記録媒体、光磁気記録媒体、光記録媒体などよりなるメモリ21に記録させる。
CPU22は、例えば、ユーザがシャッタボタン等の操作ボタンなどにより構成される入力デバイス23を操作することにより入力された指令などに基づいて、デジタルビデオカメラの全体の処理を制御する。また、DSP16、タイミングジェネレータ17、CODEC20、メモリ21、LCD19、CPU22、および入力デバイス23は、バス24を介して相互に接続されている。
図2は、DSP16の内部のプロセッサ(演算ユニット)が、所定のプログラムを実行することにより実現される機能の構成の例を示すブロック図である。DSP16の内部のプロセッサが所定のプログラムを実行することにより、ホワイトバランス処理部51、デモザイク処理部52、階調補正処理部53、ガンマ補正処理部54、およびYC変換処理部55を含む機能が実現される。
ホワイトバランス処理部51は、A/Dコンバータ15によりA/D変換された、動画像などの画像データであるモザイク画像を取得する。モザイク画像は、R,G,Bのうちのいずれかの色成分に対応するデータが1つの画素に格納され、例えば図3に示す、ベイヤー配列と呼ばれる色配列に従って各画素が配置されている画像であり、RAWデータとも呼ばれている。
図3では、1つの正方形が1つの画素を表しており、正方形内の文字R,G,Bは、それぞれRの画素,Gの画素,およびBの画素を示している。そして、Gの画素が市松状に配置され、残りの部分にRの画素およびBの画素が一行ごとに交互に配置されている。
図2の説明に戻り、ホワイトバランス処理部51は、取得したモザイク画像の各画素の画素値に適切な係数をかけることにより、被写体の無彩色の部分の色バランスが実際に無彩色となるように、モザイク画像のホワイトバランスを調整する。ホワイトバランス処理部51は、ホワイトバランスを調整したモザイク画像をデモザイク処理部52に供給する。なお、以下、ホワイトバランスが調整されたモザイク画像をMwとする。
デモザイク処理部52は、ホワイトバランス処理部51から供給されたモザイク画像Mwに対して、1つの画素がR,G,B成分を全て有するようにするデモザイク処理を施す。これにより、R,G,Bの3つの色成分にそれぞれ対応するR画像、G画像、B画像の3つの画像データが生成される。デモザイク処理部52は、生成したR画像、G画像、B画像の3つの画像データを階調補正処理部53に供給する。
なお、以下、R画像、G画像、B画像の3つの画像データをまとめてRGB画像とも称する。また、以下、モザイク画像の画素位置pにおける画素値をM(p)とする。さらに、以下、デモザイク処理が施された画像データの画素位置pにおける画素値を[R w(p), G w(p), B w(p)]とする。ここで、R w(p)はR成分の画素値であり、G w(p)はG成分の画素値であり、B w(p)はB成分の画素値である。
階調補正処理部53は、RGB画像に階調補正処理を施し、階調補正処理を施したRGB画像をガンマ補正処理部54に供給する。なお、以下、階調補正処理が施された画像データの画素位置pにおける画素値を[R u(p), G u(p), B u(p)]とする。ここで、R u(p)はR成分の画素値であり、G u(p)はG成分の画素値であり、B u(p)はB成分の画素値である。
ガンマ補正処理部54は、階調変換されたRGB画像にガンマ補正を施す。ガンマ補正処理部54は、ガンマ補正を施したRGB画像をYC変換処理部55に供給する。なお、以下、ガンマ補正が施された画像データの画素位置pにおける画素値を[R uγ(p), G uγ(p), B uγ(p)]とする。ここで、R uγ(p)はR成分の画素値であり、G uγ(p)はG成分の画素値であり、B uγ(p)はB成分の画素値である。
YC変換処理部55は、ガンマ補正が施されたRGB画像に対して、YCマトリックス処理およびクロマ成分に対する帯域制限を行うことにより、輝度成分(Y成分)により構成されるY画像、および、色差成分(CbまたはCr成分)により構成されるC画像を生成する。YC変換処理部55は、生成したY画像およびC画像を、必要に応じて、LCDドライバ18またはCODEC20に供給する。なお、以下、YC変換処理部55から出力される画像データの画素位置pにおける画素値を[Y(p), C(p)]とする。ここで、Y(p)はY画像における輝度成分の値であり、C(p)はC画像における色差成分の値である。また、以下、C画像のCb成分をCb(p)と称し、C画像のCr成分をCr(p)と称する。
図4は、階調補正処理部53の機能の構成例を示すブロック図である。階調補正処理部53は、輝度算出部81、非線形変換部82、輝度階調補正部83、非線形変換部84−1乃至非線形変換部84−3、階調補正部85−1乃至階調補正部85−3、および非線形逆変換部86−1乃至非線形逆変換部86−3から構成される。
輝度算出部81は、デモザイク処理部52から供給されたRGB画像の画素値Rw(p),Gw(p),Bw(p)から、その画素位置に対応する輝度成分の値(輝度値L(p))を算出し、非線形変換部82に供給する。非線形変換部82は、輝度算出部81からの輝度値L(p)を非線形変換し、その結果として得られた輝度値L(nl)(p)を、輝度階調補正部83および階調補正部85−1乃至階調補正部85−3に供給する。
輝度階調補正部83は、非線形変換部82からの輝度値L(nl)(p)の階調を圧縮することで、輝度値L(nl)(p)の階調補正を行い、階調補正により得られた輝度値Lu(nl)(p)を階調補正部85−1乃至階調補正部85−3に供給する。
非線形変換部84−1乃至非線形変換部84−3のそれぞれは、デモザイク処理部52から供給されたRGB画像の画素値Rw(p)、Gw(p)、およびBw(p)のそれぞれを非線形変換する。また、非線形変換部84−1乃至非線形変換部84−3のそれぞれは、非線形変換により得られた画素値R(nl)(p)、G(nl)(p)、およびB(nl)(p)のそれぞれを、階調補正部85−1乃至階調補正部85−3に供給する。なお、以下、非線形変換部84−1乃至非線形変換部84−3のそれぞれを個々に区別する必要のない場合、単に非線形変換部84と称する。
階調補正部85−1乃至階調補正部85−3のそれぞれは、非線形変換部82からの輝度値L(nl)(p)と、輝度階調補正部83からの輝度値Lu(nl)(p)とを用いて、非線形変換部84−1乃至非線形変換部84−3からの画素値R(nl)(p)、G(nl)(p)、およびB(nl)(p)のそれぞれを階調補正する。階調補正部85−1乃至階調補正部85−3のそれぞれは、階調補正により得られた画素値R u(nl)(p)、G u(nl)(p)、およびB u(nl) (p)のそれぞれを、非線形逆変換部86−1乃至非線形逆変換部86−3のそれぞれに供給する。
非線形逆変換部86−1乃至非線形逆変換部86−3のそれぞれは、階調補正部85−1乃至階調補正部85−3からの画素値R u(nl)(p)、G u(nl)(p)、およびB u(nl) (p)のそれぞれに、非線形変換部84による非線形変換の逆変換となる非線形逆変換を施す。非線形逆変換部86−1乃至非線形逆変換部86−3のそれぞれは、非線形逆変換により得られた画素値Ru(p)、Gu(p)、およびBu(p)のそれぞれを、ガンマ補正処理部54に供給する。
なお、以下、階調補正部85−1乃至階調補正部85−3のそれぞれを個々に区別する必要のない場合、単に階調補正部85と称する。また、以下、非線形逆変換部86−1乃至非線形逆変換部86−3のそれぞれを個々に区別する必要のない場合、単に非線形逆変換部86と称する。
図5は、図4の輝度階調補正部83の機能の構成の例を示すブロック図である。輝度階調補正部83は、輝度域情報算出部111、輝度域情報メモリ112、ブロックヒストグラム算出部113、ブロックヒストグラムメモリ114、ブロック積分値算出部115、ブロック積分値メモリ116、加重積和部117、トーンカーブ算出部118、トーンカーブメモリ119、マッピング部120、マッピング部121、およびコントラスト補正部122から構成される。
輝度域情報算出部111、ブロックヒストグラム算出部113、およびブロック積分値算出部115は、RGB画像の広域的な情報を算出し、その情報を1フレームごとに更新する処理を行う。
すなわち、輝度域情報算出部111は、非線形変換部82から供給された輝度値L(nl)(p)からなる1フレーム分の画像(以下、輝度画像と称する)の画素の輝度値のヒストグラムにおける暗輝度側および明輝度側の裾野の輝度値である裾野値を求め、それらの裾野値を輝度域情報として輝度域情報メモリ112に格納する。輝度域情報メモリ112は、輝度域情報算出部111から供給された輝度域情報を一時的に記録し、トーンカーブ算出部118に供給する。
ブロックヒストグラム算出部113は、非線形変換部82から供給された輝度値L(nl)(p)からなる1フレーム分の輝度画像を、空間方向に複数のいくつかの空間ブロック(領域)に分割し、さらに空間ブロックを輝度方向に分割して輝度ブロックとする。ここで、輝度ブロックは、空間ブロック内の画素のうち、輝度ブロックに対して予め定められた輝度範囲内の輝度値を有する画素からなる。したがって、例えば空間ブロックをD個の輝度ブロックに分割する場合、輝度値の取り得る範囲が予めD個の範囲に分割されており、空間ブロック内の画素は、その輝度値がD個の範囲のいずれの範囲内の値であるかによって、D個の輝度ブロックのうちのいずれかに分類される。
また、ブロックヒストグラム算出部113は、輝度画像を分割して得られる各輝度ブロックの画素の頻度値を求め、それらの頻度値をブロックヒストグラムとして、ブロックヒストグラムメモリ114に供給する。すなわち、ブロックヒストグラムは、各輝度ブロックに属す(分類された)画素数を示している。ブロックヒストグラムメモリ114は、ブロックヒストグラム算出部113から供給されたブロックヒストグラムを一時的に記録し、加重積和部117に供給する。
ブロック積分値算出部115は、非線形変換部82から供給された輝度値L(nl)(p)からなる1フレーム分の輝度画像から、各輝度ブロックについて、輝度ブロックに属す画素の輝度値の積分値(総和)を算出し、算出された積分値をブロック積分値としてブロック積分値メモリ116に供給する。ブロック積分値メモリ116は、ブロック積分値算出部115から供給されたブロック積分値を一時的に記録し、加重積和部117に供給する。
なお、以下、輝度域情報、ブロックヒストグラム、およびブロック積分値を中間データとも称する。この中間データとしての輝度域情報、ブロックヒストグラム、およびブロック積分値は、輝度域情報メモリ112、ブロックヒストグラムメモリ114、およびブロック積分値メモリ116に、輝度画像(RGB画像)の1フレーム分の時間だけ保持されて、1フレームごとに更新されることになる。
また、中間データは、算出するのにほぼ1フレーム分の時間が必要とされるため、従来の技術では、実際に生成された中間データが利用されるのは、次のフレームの画像情報が入力されたときとなる。しかし、階調補正処理部53では、中間データを算出する処理と、中間データを利用してRGB画像の階調補正を行う処理とは並行して行われるので、動画像データについてもリアルタイムに処理を行うことが可能である。
加重積和部117は、非線形変換部82から供給された輝度値L(nl)(p)と、ブロックヒストグラムメモリ114からのブロックヒストグラム、およびブロック積分値メモリ116からのブロック積分値とから、輝度値L(nl)(p)からなる輝度画像のごく低周波成分からなる画像(以下、大局輝度画像と称する)の輝度値である大局輝度値Ll(nl)(p)を算出する。
すなわち、処理対象となっているフレームの時間的に1つ前のフレームの輝度画像(RGB画像)から求められた、ブロックヒストグラムおよびブロック積分値が用いられて、供給された輝度値L(nl)(p)の画素の大局輝度値Ll(nl)(p)が算出される。ここで、大局輝度値とは、いわばRGB画像上の画素が属す物体領域の平均輝度に相当する情報、つまりその画素が含まれる物体領域の平均的な明るさを示す輝度値である。
なお、以下、処理の対象となっている画素、例えば、輝度階調補正部83に供給された輝度値L(nl)(p)の画素を、処理対象画素とも称する。
また、加重積和部117は、算出した大局輝度値Ll(nl)(p)を、トーンカーブ算出部118およびマッピング部120に供給する。
トーンカーブ算出部118は、輝度域情報メモリ112からの輝度域情報と、加重積和部117からの大局輝度値Ll(nl)(p)とから、輝度値の階調を圧縮するために適用されるトーンカーブの形状を算出し、その算出結果をトーンカーブメモリ119に供給する。トーンカーブメモリ119は、トーンカーブ算出部118からのトーンカーブを記録し、記録しているトーンカーブをマッピング部120、マッピング部121、およびコントラスト補正部122に供給する。
マッピング部120は、トーンカーブメモリ119に記録されているトーンカーブに基づいて、加重積和部117からの大局輝度値Ll(nl)(p)の階調を圧縮(補正)し、階調補正により得られた大局輝度値Lcl(nl)(p)をコントラスト補正部122に供給する。マッピング部121は、トーンカーブメモリ119に記録されているトーンカーブに基づいて、非線形変換部82から供給された輝度値L(nl)(p)の階調を圧縮(補正)し、階調補正により得られた輝度値Lc(nl)(p)をコントラスト補正部122に供給する。
コントラスト補正部122は、マッピング部120からの大局輝度値Lcl(nl)(p)、マッピング部121からの輝度値Lc(nl)(p)、およびトーンカーブメモリ119に記録されているトーンカーブに基づいて、階調が圧縮された輝度値Lc(nl)(p)からなる輝度画像のコントラストを補正する。また、コントラスト補正部122は、コントラストの補正された輝度値Lu(nl)(p)を階調補正部85に供給する。
図6は、図5の輝度域情報算出部111の機能の構成例を示す図である。輝度域情報算出部111は、間引き部151、飽和画素除外部152、ソーティング部153、およびソーティング部154から構成される。
間引き部151は、ラスタスキャン順に供給される輝度画像の画素の輝度値L(nl)(p)を所定の間隔でサンプリングして出力する。すなわち、間引き部151は、非線形変換部82から供給された輝度値L(nl)(p)の画素位置pが、所定の間隔ごとに設けられているサンプリング位置に合致するか否かを判定し、サンプリング位置に合致すると判定した場合、輝度値L(nl)(p)を飽和画素除外部152に供給する。これにより、後段のソーティング部153およびソーティング部154に出力される輝度値の数が一定数以上とならないようになされる。
飽和画素除外部152は、noise Level(nl)およびsaturation Level(nl)を、DSP16の図示せぬ内部のメモリから読み込む。ここで、noise Level(nl)およびsaturation Level(nl)は、それぞれノイズレベルの輝度値を示す閾値、および飽和レベルの輝度値を示す閾値である。
飽和画素除外部152は、間引き部151から供給された輝度値L(nl)(p)が、noise Level(nl)以上かつsaturation Level(nl)以下である場合、その輝度値L(nl)(p)をソーティング部153およびソーティング部154に供給する。したがって、ノイズレベル以下である輝度値、および飽和レベル以上である輝度値は、後段に出力されずに遮断され、これにより後段のソーティング部153およびソーティング部154により、有効な輝度域以外の画素がカウントされないようになされる。
ソーティング部153は、比較部161−1乃至比較部161−k、および各比較部に対応するレジスタ162−1乃至レジスタ162−kから構成される。比較部161−1乃至比較部161−kは、飽和画素除外部152および比較部161−1乃至比較部161−(k−1)から供給された輝度値L(nl)(p)と、レジスタ162−1乃至レジスタ162−kの値とを比較する。
そして、比較部161−1乃至比較部161−kのそれぞれは、輝度値L(nl)(p)がレジスタ162−1乃至レジスタ162−kのそれぞれの値より小さい場合、レジスタ162−1乃至レジスタ162−kの値を後段に出力し、輝度値L(nl)(p)をレジスタ162−1乃至レジスタ162−kのそれぞれに記録させる。また、比較部161−1乃至比較部161−kのそれぞれは、輝度値L(nl)(p)がレジスタ162−1乃至レジスタ162−kのそれぞれの値以上である場合、輝度値L(nl)(p)をそのまま後段に出力する。
これにより、供給された輝度値L(nl)(p)のうち、最小値からk番目に小さい値までが、レジスタ162−1乃至レジスタ162−kに昇順に記録される。ソーティング部153は、1フレーム分の輝度画像の輝度値L(nl)(p)のソート後に、レジスタ162−kに記録されている値を、暗輝度側の裾野値Ldark(nl)として、輝度域情報メモリ112に供給する。
なお、以下、比較部161−1乃至比較部161−kのそれぞれを個々に区別する必要のない場合、単に比較部161と称する。また、以下、レジスタ162−1乃至レジスタ162−kのそれぞれを個々に区別する必要のない場合、単にレジスタ162と称する。
ソーティング部154は、比較部171−1乃至比較部171−k、および各比較部に対応するレジスタ172−1乃至レジスタ172−kから構成される。比較部171−1乃至比較部171−kは、飽和画素除外部152および比較部171−1乃至比較部171−(k−1)から供給された輝度値L(nl)(p)と、レジスタ172−1乃至レジスタ172−kの値とを比較する。
そして、比較部171−1乃至比較部171−kのそれぞれは、輝度値L(nl)(p)がレジスタ172−1乃至レジスタ172−kのそれぞれの値より大きい場合、レジスタ172−1乃至レジスタ172−kの値を後段に出力し、輝度値L(nl)(p)をレジスタ172−1乃至レジスタ172−kのそれぞれに記録させる。また、比較部171−1乃至比較部171−kのそれぞれは、輝度値L(nl)(p)がレジスタ172−1乃至レジスタ172−kのそれぞれの値以下である場合、輝度値L(nl)(p)をそのまま後段に出力する。
これにより、供給された輝度値L(nl)(p)のうち、最大値からk番目に大きい値までが、レジスタ172−1乃至レジスタ172−kに降順に記録される。ソーティング部154は、1フレーム分の輝度画像の輝度値L(nl)(p)のソート後に、レジスタ172−kに記録されている値を、明輝度側の裾野値Lbright(nl)として、輝度域情報メモリ112に供給する。
なお、以下、比較部171−1乃至比較部171−kのそれぞれを個々に区別する必要のない場合、単に比較部171と称する。また、以下、レジスタ172−1乃至レジスタ172−kのそれぞれを個々に区別する必要のない場合、単にレジスタ172と称する。
ここで、比較部161およびレジスタ162と、比較部171およびレジスタ172の数は、輝度値のヒストグラムの面積比何パーセントに相当する輝度値を裾野値として算出するかによって定まる。
例えば、暗輝度側および明輝度側のそれぞれにおいて、0.5%に相当する輝度値を裾野値として算出したい場合、ソーティング部153およびソーティング部154への輝度値の最大入力数が1200に制限されるように間引き部151の動作が制御される。そして、ソーティング部153に設けられる比較部161とレジスタ162のセットの数、およびソーティング部154に設けられる比較部171とレジスタ172のセットの数は、それぞれ6とされる。
すると、全画素の輝度値の入力が終了した時点で、レジスタ162−kおよびレジスタ172−k(k=6)には、面積比0.5%相当の輝度値が記録されているので、それらの輝度値が暗輝度側の裾野値および明輝度側の裾野値として出力される。
図7は、図5のブロックヒストグラム算出部113の機能の構成例を示す図である。ブロックヒストグラム算出部113は、ブロック選択部201およびカウンタ202−1乃至カウンタ202−Nから構成される。
ブロック選択部201は、非線形変換部82から供給された処理対象画素の輝度値L(nl)(p)と、処理対象画素の位置pとから、処理対象画素の属す輝度ブロックを特定し、各輝度ブロックに対応するカウンタ202−1乃至カウンタ202−Nのうち、特定された輝度ブロックに対応するカウンタの値を1だけ増加させる。
ここで、輝度画像が幅方向にW個、高さ方向にH個の空間ブロックに分割され、さらに各空間ブロックがD個の輝度ブロックに分割されて、輝度画像が合計N(=W×H×D)個の輝度ブロックに分割されるとする。この場合、ブロックヒストグラム算出部113には、それらのN個の輝度ブロックのそれぞれに対応するN個のカウンタ202−1乃至カウンタ202−Nが設けられる。そして、ブロック選択部201は、輝度ブロックが特定されると、その輝度ブロックに対応するカウンタの値をインクリメントさせる。
カウンタ202−1乃至カウンタ202−Nのそれぞれは、対応する輝度ブロックにおける画素の頻度値、つまり輝度ブロックに属する画素の数を示す値を保持し、ブロック選択部201の指示に応じて保持している値をインクリメントする。また、カウンタ202−1乃至カウンタ202−Nのそれぞれは、1フレーム分の輝度画像の画素のカウントが終了すると、保持している値をブロックヒストグラムとして、ブロックヒストグラムメモリ114に供給する。なお、以下、カウンタ202−1乃至カウンタ202−Nのそれぞれを、個々に区別する必要のない場合、単にカウンタ202と称する。
図8は、図5のブロック積分値算出部115の機能の構成例を示す図である。ブロック積分値算出部115は、ブロック選択部231および積分器232−1乃至積分器232−Nから構成される。
ブロック選択部231は、非線形変換部82から供給された処理対象画素の輝度値L(nl)(p)と、処理対象画素の位置pとから、処理対象画素の属する輝度ブロックを特定し、各輝度ブロックに対応する積分器232−1乃至積分器232−Nのうち、特定された輝度ブロックに対応する積分器に輝度値L(nl)(p)を供給する。
積分器232−1乃至積分器232−Nのそれぞれは、ブロック選択部231から供給された輝度値L(nl)(p)を積分して、対応する輝度ブロックのブロック積分値を求める。また、積分器232−1乃至積分器232−Nのそれぞれは、1フレーム分の輝度画像の画素の画素値の和が求められ、ブロック積分値が求まると、ブロック積分値をブロック積分値メモリ116に供給する。
積分器232−1乃至積分器232−Nのそれぞれには、加算部241−1乃至加算部241−Nのそれぞれと、レジスタ242−1乃至レジスタ242−Nのそれぞれとが設けられている。加算部241−1乃至加算部241−Nのそれぞれは、ブロック選択部231から供給された輝度値L(nl)(p)を、レジスタ242−1乃至レジスタ242−Nのそれぞれに記録されている値に加算して、レジスタ242−1乃至レジスタ242−Nのそれぞれに記録させる。すなわち、レジスタ242−1乃至レジスタ242−Nのそれぞれには、供給された輝度値L(nl)(p)の総和が記録される。
レジスタ242−1乃至レジスタ242−Nのそれぞれは、加算部241−1乃至加算部241−Nのそれぞれから供給された値を記録するとともに、記録している値を加算部241−1乃至加算部241−Nのそれぞれと、ブロック積分値メモリ116とに供給する。
なお、以下、積分器232−1乃至積分器232−Nのそれぞれを、個々に区別する必要のない場合、単に積分器232と称する。また、以下、加算部241−1乃至加算部241−Nのそれぞれを個々に区別する必要のない場合、単に加算部241と称し、レジスタ242−1乃至レジスタ242−Nのそれぞれを個々に区別する必要のない場合、単にレジスタ242と称する。
図9は、図5の加重積和部117の機能の構成例を示す図である。加重積和部117は、補間部271、補間部272、空間重み関数保持部273、積和部274、積和部275、輝度重み関数保持部276、および除算部277から構成される。
補間部271は、輝度画像上における非線形変換部82から供給された輝度値L(nl)(p)の画素、つまり処理対象画素の位置に対する、輝度ブロックの輝度範囲の中央値ごとの補間されたブロック積分値を求めて輝度積分値とし、積和部274に供給する。すなわち、輝度ブロック内の画素の取り得る輝度値の範囲の中央値をλとすると、補間部271は、処理対象画素の空間方向近傍の4×4個の空間ブロックから分割された各輝度ブロックのうち、中央値がλである16個の輝度ブロックのブロック積分値のそれぞれに対して補間係数を乗算し、補間係数が乗算されたブロック積分値の和を求めることで、中央値λに対する輝度積分値を求める。
換言すれば、補間部271は、処理対象画素近傍の輝度ブロックのブロック積分値を用いた補間処理を行うことにより、各中央値λに対する輝度積分値を求める。これにより、中央値λごとのD個の輝度積分値が求められることになる。ここで、各ブロック積分値に乗算される補間係数は、処理対象画素の位置と、その処理対象画素近傍の空間ブロックとの相対位置関係に基づいて、空間重み関数保持部273に保持されている空間重み関数ルックアップテーブルから読み出される。
補間部272は、輝度画像上における非線形変換部82から供給された輝度値L(nl)(p)の画素、つまり処理対象画素の位置に対する、輝度ブロックの輝度範囲の中央値ごとの補間されたブロックヒストグラムを求めて輝度ヒストグラムとし、積和部275に供給する。すなわち、補間部272は、処理対象画素の空間方向近傍の4×4個の空間ブロックから分割された各輝度ブロックのうち、中央値がλである16個の輝度ブロックのブロックヒストグラムのそれぞれに対して補間係数を乗算し、補間係数が乗算されたブロックヒストグラムの和を求めることで、中央値λに対する輝度ヒストグラムを求める。
換言すれば、補間部272は、処理対象画素近傍の輝度ブロックのブロックヒストグラムを用いた補間処理を行うことにより、各中央値λに対する輝度ヒストグラムを求める。これにより、中央値λごとのD個の輝度ヒストグラムが求められることになる。ここで、各ブロックヒストグラムに乗算される補間係数は、処理対象画素の位置と、その処理対象画素近傍の空間ブロックとの相対位置関係に基づいて、空間重み関数保持部273に保持されている空間重み関数ルックアップテーブルから読み出される。
積和部274は、補間部271から供給されたD個の輝度積分値に対して、輝度加重値を積和する計算を行い、積和された輝度積分値を除算部277に供給する。すなわち、輝度加重値の乗算された輝度積分値の和が求められる。ここで、輝度積分値に乗算される輝度加重値は、非線形変換部82から積和部274に供給された輝度値L(nl)(p)と、中央値λとに基づいて、輝度重み関数保持部276に保持されている輝度重み関数ルックアップテーブルの輝度重み関数から算出される。
積和部275は、補間部272から供給されたD個の輝度ヒストグラムに対して、輝度加重値を積和する計算を行い、積和された輝度ヒストグラムを除算部277に供給する。すなわち、輝度加重値の乗算された輝度ヒストグラムの和が求められる。ここで、輝度ヒストグラムに乗算される輝度加重値は、非線形変換部82から積和部275に供給された輝度値L(nl)(p)と、中央値λとに基づいて、輝度重み関数保持部276に保持されている輝度重み関数ルックアップテーブルの輝度重み関数から算出される。
除算部277は、積和部274からの輝度積和値を、積和部275からの輝度ヒストグラムで除算することにより、処理対象画素の大局輝度値Ll(nl)(p)を算出してトーンカーブ算出部118およびマッピング部120に供給する。
図10は、図5のコントラスト補正部122の機能の構成例を示す図である。コントラスト補正部122は、ゲイン値算出部301およびコントラスト強調部302から構成される。
ゲイン値算出部301は、トーンカーブメモリ119に記録されているトーンカーブから、トーンカーブの傾きの代表値であるγ-compパラメータを算出する。また、ゲイン値算出部301は、マッピング部121からの輝度値Lc(nl)(p)およびγ-compパラメータに基づいて、輝度値Lc(nl)(p)をコントラスト補正するときに用いるゲイン値g(p)を算出し、コントラスト強調部302に供給する。
コントラスト強調部302は、ゲイン値算出部301からのゲイン値g(p)と、マッピング部120からの大局輝度値Lcl(nl)(p)とを用いて、マッピング部121からの輝度値Lc(nl)(p)からなる輝度画像のコントラストを強調するようにコントラストを補正する。コントラスト強調部302は、コントラストを補正することにより得られた輝度値Lu(nl)(p)を階調補正部85−1乃至階調補正部85−3に供給する。
次に、図11のフローチャートを参照して、DSP16により実行される画像処理について説明する。なお、この処理は、例えば、図1のデジタルビデオカメラによる撮影が開始され、A/Dコンバータ15からDSP16への画像データ(モザイク画像)のストリームの供給が開始されたときに開始される。また、DSP16に供給された画像データは、逐次DSP16の図示せぬ内部のメモリに格納される。
ステップS11において、ホワイトバランス処理部51は、モザイク画像を読み込む。具体的には、ホワイトバランス処理部51は、DSP16の図示せぬ内部のメモリに格納されている先頭のフレームのモザイク画像を読み込む。
ステップS12において、ホワイトバランス処理部51は、取得したモザイク画像のホワイトバランスを調整し、デモザイク処理部52に供給する。
ステップS13において、デモザイク処理部52は、デモザイク処理を行う。すなわち、デモザイク処理部52は、ホワイトバランス処理部51からのモザイク画像にデモザイク処理を施してRGB画像を生成し、階調補正処理部53に供給する。
ステップS14において、階調補正処理部53は、階調補正処理を行い、デモザイク処理部52からのRGB画像の階調を補正する。そして、階調補正処理部53は、階調の補正されたRGB画像をガンマ補正処理部54に供給する。なお、階調補正処理の詳細は後述する。
ステップS15において、ガンマ補正処理部54は、階調補正処理部53からのRGB画像にガンマ補正を施してYC変換処理部55に供給する。
ステップS16において、YC変換処理部55は、YC変換処理を行う。例えば、YC変換処理部55は、ガンマ補正処理部54からのRGB画像に対してYCマトリックス処理およびクロマ成分に対する帯域制限を行うことにより、RGB画像からY画像およびC画像を生成する。そして、ステップS17において、YC変換処理部55は、Y画像およびC画像を出力する。例えば、YC変換処理部55は、必要に応じてY画像およびC画像をLCDドライバ18またはCODEC20に出力する。
ステップS18において、ホワイトバランス処理部51は、後続するフレームが存在するか否かを判定する。例えば、DSP16の図示せぬ内部のメモリに後続するフレームのモザイク画像が蓄積されている場合、後続フレームが存在すると判定される。
ステップS18において、後続するフレームが存在すると判定された場合、処理はステップS11に戻り、処理対象となる次のフレームのモザイク画像が読み込まれる。これに対して、ステップS18において、後続するフレームが存在しないと判定された場合、画像処理は終了する。
次に、図12および図13のフローチャートを参照して、図11のステップS14の処理に対応する階調補正処理について説明する。
ステップS41において、加重積和部117およびトーンカーブ算出部118は、中間データを読み込む。すなわち、加重積和部117の補間部271は、ブロック積分値メモリ116から中間データとしてのブロック積分値を読み込み、加重積和部117の補間部272は、ブロックヒストグラムメモリ114から中間データとしてのブロックヒストグラムを読み込む。また、トーンカーブ算出部118は、輝度域情報メモリ112から中間データとしての輝度域情報を読み込む。
ステップS42において、輝度域情報算出部111の飽和画素除外部152は、DSP16の図示せぬ内部のメモリからnoise Level(nl)およびsaturation Level(nl)を読み込む。
ステップS43において、階調補正処理部53は、デモザイク処理部52から、RGB画像の処理対象画素の画素値を読み込む。すなわち、非線形変換部84−1乃至非線形変換部84−3は、処理対象画素のR成分の画素値R w(p)、G成分の画素値G w(p)、およびB成分の画素値B w(p)を読み込み、輝度算出部81は、処理対象画素のR、G、およびBの成分の画素値を読み込む。
ステップS44において、輝度算出部81は、読み込んだ画素値に基づいて、処理対象画素の輝度値L(p)を算出し、非線形変換部82に供給する。例えば、輝度算出部81は、読み込んだR、G、およびBの成分の画素値に所定の係数を乗算して線形和を求めて輝度値としたり、R、G、およびBの成分の画素値のうちの最大値を輝度値としたりする。
ステップS45において、非線形変換部82は、輝度算出部81からの輝度値L(p)を非線形変換し、変換により得られた輝度値L(nl)(p)を、輝度階調補正部83および階調補正部85に供給する。例えば、非線形変換部82は、1より小さい指数によるべき乗特性や対数特性など、上に凸の単調増加特性を有する関数を用いて輝度値L(p)を非線形変換する。
ステップS46において、輝度階調補正部83および階調補正部85は、非線形変換部82から、処理対象画素の輝度値L(nl)(p)を読み込む。
ステップS47において、輝度階調補正部83の輝度域情報算出部111は、輝度域情報算出のための画素処理を行う。なお、輝度域情報算出のための画素処理の詳細は後述するが、輝度域情報算出のための画素処理において、これまでに供給された輝度画像の画素の輝度値と、非線形変換部82から読み込んだ輝度値L(nl)(p)とが比較され、ソーティングが行われる。
ステップS48において、ブロックヒストグラム算出部113は、ブロックヒストグラム算出のための画素処理を行う。なお、ブロックヒストグラム算出のための画素処理の詳細は後述するが、ブロックヒストグラム算出のための画素処理において、非線形変換部82から読み込んだ輝度値L(nl)(p)と処理対象画素の位置とに基づいて、処理対象画素が輝度ブロックに分類される。そして、輝度ブロックに対応するブロックヒストグラム算出部113のカウンタ202の値がインクリメントされる。
ステップS49において、ブロック積分値算出部115は、ブロック積分値算出のための画素処理を行う。なお、ブロック積分値算出のための画素処理の詳細は後述するが、このブロック積分値算出のための画素処理において、非線形変換部82から読み込んだ輝度値L(nl)(p)と処理対象画素の位置とに基づいて、処理対象画素が輝度ブロックに分類され、輝度ブロックに対応するブロック積分値に輝度値L(nl)(p)が加算される。
ステップS50において、加重積和部117は、大局輝度値算出処理を行って、処理対象画素の大局輝度値Ll(nl)(p)を算出し、トーンカーブ算出部118およびマッピング部120に供給する。なお、大局輝度値算出処理の詳細は後述する。
ステップS51において、トーンカーブ算出部118は、輝度域情報メモリ112から読み出した輝度域情報と、加重積和部117からの大局輝度値Ll(nl)(p)とから、トーンカーブを求める。
例えば、トーンカーブ算出部118は、図14に示すトーンカーブのコントロールポイントを設定する。なお、図14のグラフの横軸方向は、階調補正する前の入力輝度の対数値を表し、縦軸方向は、トーンカーブCLによる階調補正後の出力輝度の対数値を表している。
まず、トーンカーブ算出部118は、9つのコントロールポイントP1乃至コントロールポイントP9を設定する。コントロールポイントP1は、入力輝度が所定の最小レベルとなり、出力輝度が所定の最小レベルLbase(nl)となるポイントに設定される。コントロールポイントP2は、入力輝度がノイズレベルであると見なすことができる輝度である所定のノイズレベルLnoise(nl)となり、出力輝度が最小レベルLbase(nl)となるポイントに設定される。コントロールポイントP3は、入力輝度がノイズレベルLnoise(nl)の2倍の輝度値となり、出力輝度が最小レベルLbase(nl)となるポイントに設定される。
コントロールポイントP4は、入力輝度が、輝度域情報メモリ112からの輝度域情報としての暗輝度側の裾野値Ldark(nl)となり、出力輝度がほぼ黒レベルの輝度値である輝度値Lankle(nl)となるポイントに設定される。コントロールポイントP5は、入力輝度が裾野値Ldark(nl)の2倍の輝度値となり、出力輝度が輝度値Lankle(nl)の2倍の輝度値となるポイントに設定される。コントロールポイントP6は、入力輝度が加重積和部117からの大局輝度値Ll(nl)(p)となり、出力輝度が出力輝度の輝度範囲における所定のほぼ中間の中間輝度レベルLmid(nl)となるポイントに設定される。すなわち、大局輝度値がトーンカーブにより階調補正された場合に、大局輝度値が、トーンカーブによる階調補正後の輝度値の取り得る範囲のほぼ中間の値に変換されるように、コントロールポイントP6が設定される。
コントロールポイントP7は、入力輝度が明輝度側の裾野値Lbright(nl)の2分の1の輝度値となり、出力輝度がほぼ白レベルの輝度値である輝度値Lshoulder(nl)の2分の1の輝度値となるポイントに設定される。コントロールポイントP8は、入力輝度が、輝度域情報メモリ112からの輝度域情報としての裾野値Lbright(nl)となり、出力輝度が輝度値Lshoulder(nl)となるポイントに設定される。コントロールポイントP9は、入力輝度が所定の入力輝度の最大値となり、出力輝度が所定の出力輝度の最大値となるポイントに設定される。
また、図14において、コントロールポイントP5と、コントロールポイントP7とを結ぶ線分ALの傾きは、トーンカーブCLの傾きを代表するγ-compパラメータを示している。
処理対象画素ごとのトーンカーブCLの形状は、例えば、コントロールポイントP1乃至コントロールポイントP9に基づいて、各入力輝度値に対する出力輝度値(トーンカーブ値)をB-Spline補間処理により求めることにより定められる。
なお、トーンカーブCLの形状は、どのような形式でトーンカーブメモリ119に保持されてもよい。但し、トーンカーブCLの形状は画素ごとに更新されるため、データ量が小さい形式で保持されることが望ましい。例えばトーンカーブの形状を数個乃至10数個程度のコントロールポイントにより表現し、マッピング部120およびマッピング部121がそれらのコントロールポイントから、トーンカーブCLを算出することが妥当である。
トーンカーブ算出部118は、設定したコントロールポイントP1乃至コントロールポイントP9の入力輝度および出力輝度のセットをトーンカーブメモリ119に記録させる。したがって、実際には、1フレーム分の輝度画像を処理する期間では、コントロールポイントP6の入力輝度だけが処理対象画素が変化するたびに更新されることになる。
なお、コントロールポイントP3が補助点として設定されることにより、トーンカーブCLが確実にコントロールポイントP2またはその近傍を通過するようになる。すなわち、入力輝度がほぼノイズレベルLnoise(nl)である場合、出力輝度の最小レベルLbase(nl)にほぼ等しい値に階調変換されるようになる。また、コントロールポイントP5が補助点として設定されることにより、入力輝度がほぼ裾野値Ldark(nl)となり、出力輝度がほぼ黒レベルとなる輝度値Lankle(nl)となる付近(コントロールポイントP4付近)のトーンカーブCLの傾きが極端に急峻になったり緩やかになったりすることが防止される。また、コントロールポイントP7が補助点として設定されることにより、入力輝度がほぼ裾野値Lbright(nl)となり、出力輝度がほぼ白レベルとなる輝度値Lshoulder(nl)付近(コントロールポイントP8付近)のトーンカーブCLの傾きが極端に急峻になったり緩やかになったりすることが防止される。
したがって、トーンカーブCLは、コントロールポイントP6付近で傾きが緩やかになり、コントロールポイントP4およびP8付近で傾きがほぼ1に近くなる逆S字状の単調増加する曲線となる。つまり、トーンカーブCLは、大局輝度値Ll(nl)(p)が高い場合には、輝度値の高い画素の明るさを抑えるものとなり、大局輝度値Ll(nl)(p)が低い場合には、輝度値の低い画素の明るさを明るくするものとなる。これにより、トーンカーブCLによる階調圧縮およびコントラスト補正を組み合わせることにより、画像のディテールをほぼ保持したまま、白ツブレをほとんど発生させることなく、画像上の暗い部分が明るくなるように画像の階調の圧縮を行うことができる。
図12のフローチャートの説明に戻り、ステップS51において、トーンカーブの形状が求められ、トーンカーブの形状、より詳細にはコントロールポイントの入力輝度および出力輝度のセットがトーンカーブメモリ119に記録されると、処理はステップS52に進む。
ステップS52において、マッピング部120は、加重積和部117から供給された大局輝度値Ll(nl)(p)を、トーンカーブメモリ119に記録されているトーンカーブに基づいて補正し、コントラスト補正部122に供給する。すなわち、マッピング部120は、トーンカーブメモリ119に記録されているコントロールポイントを用いて、B-Spline補間処理によりトーンカーブを求め、求めたトーンカーブを用いて大局輝度値Ll(nl)(p)を大局輝度値Lcl(nl)(p)に変換することにより、大局輝度値Ll(nl)(p)の階調を補正する。
ステップS53において、マッピング部121は、読み込んだ処理対象画素の輝度値L(nl)(p)を、トーンカーブメモリ119に記録されているトーンカーブに基づいて補正し、コントラスト補正部122に供給する。すなわち、マッピング部121は、トーンカーブメモリ119に記録されているコントロールポイントを用いて、B-Spline補間処理によりトーンカーブを求め、求めたトーンカーブを用いて輝度値L(nl)(p)を輝度値Lc(nl)(p)に変換することにより、輝度値L(nl)(p)の階調を補正する。
ステップS54において、コントラスト補正部122は、コントラスト補正処理を行い、トーンカーブにより階調が補正され、コントラストが劣化した輝度値Lc(nl)(p)からなる輝度画像を元の画像と同程度のコントラストに補償する。コントラスト補正部122は、コントラスト補正された輝度値Lu(nl)(p)を階調補正部85に供給する。なお、コントラスト補正処理の詳細は後述する。
ステップS55において、非線形変換部84は、読み込んだ処理対象画素の画素値を非線形変換し、階調補正部85に供給する。すなわち、非線形変換部84−1乃至非線形変換部84−3は、RGB画像の画素値Rw(p)、Gw(p)、およびBw(p)のそれぞれに対して、ステップS45の処理においてなされる非線形変換と同じ非線形変換を行う。
ステップS56において、階調補正部85−1乃至階調補正部85−3は、非線形変換部82からの輝度値L(nl)(p)と、輝度階調補正部83からの輝度値Lu(nl)(p)とを用いて、非線形変換部84からの画素値を階調補正する。そして、階調補正部85は、階調補正された画素値を、非線形逆変換部86に供給する。
例えば、階調補正部85は、輝度値L(nl)(p)と、階調補正された輝度値Lu(nl)(p)との比を各色の成分の画素値に乗算する。より具体的には、例えば、階調補正部85−1は、次式(2)を計算することにより、階調補正された画素値R u(nl)(p)を求める。
Figure 2009177558
式(2)では、階調補正前後の輝度値の比率、つまり階調補正された輝度値Lu(nl)(p)を階調補正前の輝度値L(nl)(p)で除算した値が、非線形変換された画素値R(nl)(p)に対して乗算されている。階調補正部85−2および階調補正部85−3においても、上述した式(2)と同様の計算が行われ、画素値が階調補正される。
なお、非線形変換部82および非線形変換部84において行われる非線形変換が、対数変換である場合には、式(3)に示す計算を行うことにより、画素値が階調補正されてもよい。
Figure 2009177558
式(3)では、階調補正された輝度値Lu(nl)(p)と、階調補正前の輝度値L(nl)(p)との差分値が、画素値R(nl)(p)に加算されて、階調補正された画素値R u(nl)(p)とされている。
ステップS57において、非線形逆変換部86−1乃至非線形逆変換部86−3は、階調補正部85からの画素値に、非線形変換部84による非線形変換の逆変換となる非線形逆変換を施す。そして、ステップS58において、非線形逆変換部86−1乃至非線形逆変換部86−3は、非線形逆変換により得られた画素値Ru(p)、Gu(p)、およびBu(p)を、ガンマ補正処理部54に出力する。
ステップS59において、階調補正処理部53は、処理対象となっているフレームのRGB画像上の全ての画素を処理したか否かを判定する。ステップS59において、まだ全ての画素を処理していない、つまり全ての画素が処理対象画素とされていないと判定された場合、処理はステップS43に戻り、上述した処理が繰り返される。
これに対して、ステップS59において、全ての画素が処理されたと判定された場合、ステップS60において、輝度域情報算出部111(図5)は、輝度域情報を求める。すなわち、輝度域情報算出部111のソーティング部153は、レジスタ162−kに記録されている値を、輝度域情報である暗輝度側の裾野値Ldark(nl)として、輝度域情報メモリ112に供給して記録させる。また、ソーティング部154は、レジスタ172−kに記録されている値を、輝度域情報である明輝度側の裾野値Lbright(nl)として、輝度域情報メモリ112に供給して記録させる。
ステップS61において、ブロックヒストグラム算出部113は、ブロックヒストグラムを求める。すなわち、ブロックヒストグラム算出部113は、カウンタ202−1乃至カウンタ202−Nのそれぞれに保持されている値を、各輝度ブロックのブロックヒストグラムとしてブロックヒストグラムメモリ114に供給させ、記録させる。
ステップS62において、ブロック積分値算出部115は、ブロック積分値を求め、階調補正処理は終了し、処理は図11のステップS15に進む。すなわち、ブロック積分値算出部115は、レジスタ242−1乃至レジスタ242−Nのそれぞれに記録されている輝度値L(nl)(p)の総和を、ブロック積分値としてブロック積分値メモリ116に供給させ、記録させる。
このように、階調補正処理においては、1フレーム分の輝度画像に基づいて、中間データが求められる。そして、中間データが求められると、中間データとしての輝度域情報、ブロックヒストグラム、およびブロック積分値が輝度域情報メモリ112、ブロックヒストグラムメモリ114、およびブロック積分値メモリ116に格納される。輝度階調補正部83では、現在処理しているフレームよりも時間的に1つ前のフレームから求められた中間データが用いられて処理対象画素の大局輝度値やトーンカーブが算出されるため(エッジ保存平滑化処理が行われるため)、処理対象の画像が動画像であっても、画像の全画素を2回スキャンすることなく、少ないワーキングメモリで、大きいオペレータサイズのエッジ保存平滑化処理を行うことができる。
次に、図15乃至図17のフローチャートを参照して、図12のステップS47乃至ステップS49の処理に対応する処理を説明する。
まず、図15のフローチャートを参照して、図12のステップS47の処理に対応する輝度域情報算出のための画素処理について説明する。
ステップS91において、輝度域情報算出部111の間引き部151は、非線形変換部82から処理対象画素の輝度値L(nl)(p)を読み込む。
ステップS92において、間引き部151は、読み込んだ輝度値L(nl)(p)の処理対象画素の画素位置が、所定の間隔ごとに設けられているサンプリング位置に合致するか否かを判定する。ステップS92において、サンプリング位置に合致しないと判定された場合、読み込まれた輝度値L(nl)(p)は、飽和画素除外部152には出力されずに、処理は図12のステップS48に進む。
一方、ステップS92において、サンプリング位置に合致すると判定された場合、読み込まれた輝度値L(nl)(p)は、飽和画素除外部152に出力され、処理はステップS93に進む。ステップS93において、飽和画素除外部152は、間引き部151からの輝度値がnoise Level(nl)以上、かつsaturation Level(nl)以下であるか否かを判定する。
ステップS93において、noise Level(nl)以上、かつsaturation Level(nl)以下でないと判定された場合、輝度値L(nl)(p)は、飽和画素除外部152から出力されずに、処理は図12のステップS48に進む。
これに対して、ステップS93において、noise Level(nl)以上、かつsaturation Level(nl)以下であると判定された場合、つまり有効な輝度域内の輝度値であると判定された場合、飽和画素除外部152は、輝度値L(nl)(p)をソーティング部153およびソーティング部154に出力し、処理はステップS94に進む。
ステップS94において、ソーティング部153は、暗輝度側ソーティングを行う。具体的には、ソーティング部153の比較部161−1は、レジスタ162−1が記録している値と、飽和画素除外部152からの輝度値L(nl)(p)とを比較して、輝度値L(nl)(p)がレジスタ162−1の値より小さい場合、レジスタ162−1に記録されていた値を後段の比較部161−2に出力し、輝度値L(nl)(p)をレジスタ162−1に記録させる。一方、輝度値L(nl)(p)がレジスタ162−1の値以上である場合、比較部161−1は、輝度値L(nl)(p)をそのまま後段の比較部161−2に出力する。後段の比較部161−2乃至比較部161−kも同様の処理を行う。その結果、最終的に、フレーム内のサンプリング位置の画素の輝度値L(nl)(p)のうち、最小の輝度値L(nl)(p)からk番目に小さい輝度値L(nl)(p)までが、レジスタ162−1乃至レジスタ162−kに昇順に記録される。
ステップS95において、ソーティング部154は、明輝度側ソーティングを行い、処理は、図12のステップS48に進む。具体的には、ソーティング部154の比較部171−1は、レジスタ172−1が記録している値と、飽和画素除外部152からの輝度値L(nl)(p)とを比較して、輝度値L(nl)(p)がレジスタ172−1の値より大きい場合、レジスタ172−1に記録されていた値を後段の比較部171−2に出力し、輝度値L(nl)(p)をレジスタ172−1に記録させる。一方、比較部171−1は、輝度値L(nl)(p)がレジスタ172−1の値以下である場合、輝度値L(nl)(p)をそのまま後段の比較部171−2に出力する。後段の比較部171−2乃至比較部171−kも同様の処理を行う。その結果、最終的に、フレーム内のサンプリング位置の画素の輝度値L(nl)(p)のうち、最大の輝度値L(nl)(p)からk番目に大きい輝度値L(nl)(p)までが、レジスタ172−1乃至レジスタ172−kに降順に記録される。
このようにして、処理対象画素の輝度値が読み込まれるたびに暗輝度側ソーティングおよび明輝度側ソーティングを行うことで、輝度域情報としての裾野値が求められる。
次に、図16のフローチャートを参照して、図12のステップS48の処理に対応するブロックヒストグラム算出のための画素処理について説明する。
ステップS121において、ブロックヒストグラム算出部113のブロック選択部201は、非線形変換部82から処理対象画素の輝度値L(nl)(p)を読み込む。
ステップS122において、ブロック選択部201は、読み込んだ輝度値L(nl)(p)と、その輝度値L(nl)(p)の処理対象画素の位置とから、処理対象画素の属す輝度ブロックを特定する。そして、ステップS123において、ブロック選択部201は、カウンタ202−1乃至カウンタ202−Nのうち、特定された輝度ブロックに対応するカウンタ202に、保持している値をインクリメントさせる。カウンタ202は、ブロック選択部201の指示に応じて、保持している値を1増加させ、処理は図12のステップS49に進む。
このようにして、処理対象画素の輝度値が読み込まれるたびに、処理対象画素が何れかの輝度ブロックに分類され、分類された輝度ブロックに対応するカウンタ202の値が1ずつ増加されていく。これにより、各輝度ブロックに属す画素の数が求められて、それらの画素数が輝度ブロックごとのブロックヒストグラムとされる。
次に、図17のフローチャートを参照して、図12のステップS49の処理に対応するブロック積分値算出のための画素処理について説明する。
ステップS151において、ブロック積分値算出部115のブロック選択部231は、非線形変換部82から処理対象画素の輝度値L(nl)(p)を読み込む。
ステップS152において、ブロック選択部231は、読み込んだ輝度値L(nl)(p)と、その輝度値L(nl)(p)の処理対象画素の位置とから、処理対象画素の属す輝度ブロックを特定する。そして、ステップS153において、ブロック選択部231は、積分器232−1乃至積分器232−Nのうち、特定された輝度ブロックに対応する積分器232に輝度値L(nl)(p)を供給して、記録されている輝度値の積分値に、さらに処理対象画素の輝度値L(nl)(p)を加算させる。
ブロック選択部231から処理対象画素の輝度値L(nl)(p)が供給された積分器232の加算部241は、レジスタ242に記録されている積分値に、ブロック選択部231からの輝度値L(nl)(p)を加算して、レジスタ242に記録させる。そして、レジスタ242が記録している積分値を更新すると、処理は図12のステップS50に進む。
このようにして、処理対象画素の輝度値が読み込まれるたびに、処理対象画素が何れかの輝度ブロックに分類され、分類された輝度ブロックに対応するレジスタ242の値に、さらに処理対象画素の輝度値が加算される。これにより、各輝度ブロックについて、輝度ブロックに属す画素の輝度値の総和が求められ、ブロック積分値とされる。
次に、図18のフローチャートを参照して、図12のステップS50の処理に対応する処理である大局輝度値算出処理について説明する。
ステップS181において、加重積和部117の補間部271、補間部272、積和部274、および積和部275は、非線形変換部82から処理対象画素の輝度値L(nl)(p)を読み込む。
ステップS182において、補間部271は、読み込んだ輝度値L(nl)(p)の処理対象画素近傍の空間ブロックから得られる輝度ブロックのブロック積分値を用いた補間処理を行って、処理対象画素の位置の中央値λごとの輝度積分値を求める。
すなわち、補間部271は、処理対象画素の空間方向近傍(処理対象画素が含まれる空間ブロックも含む)の4×4の合計16個の空間ブロックのそれぞれを、空間ブロックBKi,j(但し、1≦i≦4,1≦j≦4)として、空間ブロックBKi,jごとの補間係数Bi,jを読み出す。例えば、空間重み関数保持部273には、3次B-spline関数の関数値のルックアップテーブルが保持されている。補間部271は、処理対象画素の位置と、空間ブロックBKi,jとの相対位置関係により定まる関数値を、空間重み関数保持部273のルックアップテーブルから読み出し、読み出した関数値を空間ブロックBKi,jの補間係数Bi,jとする。なお、補間部271が3次B-spline関数などから直接、演算により補間係数Bi,jを算出するようにしてもよい。
次に、補間部271は、空間ブロックから得られるD個の輝度ブロックのそれぞれの輝度範囲の中央値をλ1乃至λDとするとともに、空間ブロックBKi,jから得られるD個の輝度ブロックのうち、中央値がλh(但し、1≦h≦D)である輝度ブロックを輝度ブロックLBKi,j,hとする。そして、補間部271は、ブロック積分値メモリ116から、各輝度ブロックLBKi,j,hのブロック積分値S(i,j,λh)を読み出す。なお、以下、中央値λ1乃至中央値λDのそれぞれを特に区別する必要のない場合、単に中央値λとも称する。
さらに、補間部271は、中央値λごとに、読み出した補間係数Bi,jと、ブロック積分値S(i,j,λ)との積の総和を計算し、その結果得られた値を、中央値λの輝度積分値Sinterpolated(λ)とする。すなわち、補間部271は、次式(4)を計算することにより、中央値λごとに輝度積分値Sinterpolated(λ)を求める。
Figure 2009177558
ここで、式(4)において、Σは、変数iおよびjを、それぞれ1から4まで変えて、補間係数Bi,jが乗算されたブロック積分値S(i,j,λ)の総和をとることを表している。したがって、輝度積分値Sinterpolated(λ)は、16個の空間ブロックBKi,jのそれぞれから得られる輝度ブロックのうち、中央値がλである16個の輝度ブロックのブロック積分値S(i,j,λ)のそれぞれに、それらの輝度ブロックが得られる空間ブロックBKi,jについての補間係数Bi,jのそれぞれを乗算し、さらに補間係数が乗算された16個のブロック積分値Bi,j×S(i,j,λ)の和を求めることで算出される。
これにより、D個の輝度積分値Sinterpolated(λ)が求められる。これらの輝度積分値は、輝度ブロックに対応する輝度(中央値λ)ごとの、処理対象画素の位置の補間されたブロック積分値である。補間部271は、輝度積分値を求めると、求めた輝度積分値を積和部274に供給する。
ステップS183において、補間部272は、読み込んだ輝度値L(nl)(p)の処理対象画素近傍の空間ブロックから得られる輝度ブロックのブロックヒストグラムを用いた補間処理を行って、処理対象画素の中央値λごとの輝度ヒストグラムを求める。
すなわち、補間部272は、ステップS182の処理と同様にして、処理対象画素の位置と、空間ブロックBKi,jとの相対位置関係により定まる関数値を、空間重み関数保持部273のルックアップテーブルから読み出し、読み出した関数値を空間ブロックBKi,jの補間係数Bi,jとする。
そして、補間部272は、ブロックヒストグラムメモリ114から、各輝度ブロックLBKi,j,hのブロックヒストグラムH(i,j,λ)を読み出す。さらに、補間部272は、中央値λごとに、読み出した補間係数Bi,jと、ブロックヒストグラムH(i,j,λ)との積の総和を計算し、その結果得られた値を、中央値λの輝度ヒストグラムHinterpolated(λ)とする。すなわち、補間部272は、次式(5)を計算することにより、中央値λごとに輝度ヒストグラムHinterpolated(λ)を求める。
Figure 2009177558
ここで、式(5)の右辺は、式(4)の右辺のブロック積分値S(i,j,λ)がブロックヒストグラムH(i,j,λ)に置き換えられたものとなっている。
これにより、D個の輝度ヒストグラムHinterpolated(λ)が求められる。これらの輝度ヒストグラムは、輝度ブロックに対応する輝度(中央値λ)ごとの、処理対象画素の位置の補間されたブロックヒストグラムである。補間部272は、輝度ヒストグラムを求めると、求めた輝度ヒストグラムを積和部275に供給する。
ステップS184において、積和部274は、補間部271から供給されたD個の輝度積分値を輝度加重値で積和し、積和された輝度積分値を除算部277に供給する。
すなわち、積和部274は、輝度重み関数保持部276に保持されている輝度重み関数ルックアップテーブルから、輝度重み関数を読み出す。そして、積和部274は、読み出した輝度重み関数、非線形変換部82から供給された輝度値L(nl)(p)、および中央値λを用いて、中央値λごとの輝度加重値φ(λ,L(nl)(p))を求める。
例えば、輝度重み関数保持部276に保持されている輝度重み関数ルックアップテーブルには、図19に示す形状の輝度重み関数が保持されている。なお、図19において、縦軸は輝度重み関数の値、すなわち輝度加重値φ(λ,L(nl)(p))を示しており、横軸は中央値λを示している。
図19に示す輝度重み関数は、処理対象画素の位置に補間された輝度積分値(および輝度ヒストグラム)の輝度ブロックに相当する輝度レベル、すなわち中央値λと、処理対象画素の輝度値L(nl)(p)との差分値が小さいほど、より大きい値を持つ単峰性形状の関数とされる。
このような単峰性形状の輝度重み関数が用いられる場合、例えば、積和部274は、輝度重み関数保持部276に保持された輝度重み関数ルックアップテーブルを参照する代わりに、次式(6)を計算することにより、中央値λごとに輝度加重値φ(λ,L(nl)(p))を求めるようにしてもよい。
Figure 2009177558
ここで、式(6)において、σthは、輝度重み関数の裾野の広がりの大きさを決める定数であり、予め定められている。積和部274は、式(6)の右辺に輝度値L(nl)(p)および中央値λを代入することで、各中央値λに対する輝度加重値φ(λ,L(nl)(p))を求める。
式(6)に示される輝度重み関数では、処理対象画素の輝度値L(nl)(p)に近い値の中央値λ(輝度ブロック)に対しては、大きな重み値がつけられ、輝度値L(nl)(p)から離れた中央値λ(輝度ブロック)に対しては小さな重み値がつけられる。
積和部274は、中央値λごとに輝度加重値φ(λ,L(nl)(p))を求めると、各中央値λについて、輝度積分値Sinterpolated(λ)に、その中央値λの輝度加重値φ(λ,L(nl)(p))を乗算し、輝度加重値の乗算された輝度積分値の総和を求める。すなわち、各中央値λの輝度加重値での輝度積分値Sinterpolated(λ)の加重和が求められる。
この加重和は、処理対象画素の位置と、輝度ブロックが得られる空間ブロックの位置との相対位置関係から定まる補間係数、および輝度ブロック(の中央値λ)と輝度値L(nl)(p)との輝度方向の距離により定まる輝度加重値が乗算された、処理対象画素の位置近傍の16個の空間ブロックから得られる全ての輝度ブロックのブロック積分値の総和である。
ステップS185において、積和部275は、補間部272から供給されたD個の輝度ヒストグラムを輝度加重値で積和し、積和された輝度ヒストグラムを除算部277に供給する。
すなわち、積和部275は、輝度重み関数保持部276に保持されている輝度重み関数ルックアップテーブルから輝度重み関数を読み出し、読み出した輝度重み関数、非線形変換部82から供給された輝度値L(nl)(p)、および中央値λを用いて、例えば、式(6)を計算することにより、中央値λごとの輝度加重値φ(λ,L(nl)(p))を求める。
さらに、積和部275は、輝度ヒストグラムHinterpolated(λ)に、中央値λごとの輝度加重値φ(λ,L(nl)(p))を乗算し、輝度加重値の乗算された輝度ヒストグラムの総和を求める。すなわち、各中央値λの輝度加重値での輝度ヒストグラムHinterpolated(λ)の加重和が求められる。
この加重和は、処理対象画素の位置と、輝度ブロックが得られる空間ブロックの位置との相対位置関係から定まる補間係数、および輝度ブロック(の中央値λ)と輝度値L(nl)(p)との輝度方向の距離により定まる輝度加重値が乗算された、処理対象画素の位置近傍の16個の空間ブロックから得られる全ての輝度ブロックのブロックヒストグラムの総和である。
ステップS186において、除算部277は、積和部274からの輝度積分値を、積和部275からの輝度ヒストグラムで除算し、大局輝度値Ll(nl)(p)を求める。すなわち、除算部277は、次式(7)を計算することで大局輝度値Ll(nl)(p)を算出する。
Figure 2009177558
ここで、式(7)において、ΣSinterpolated(λ)・φ(λ,L(nl)(p))は、積和部274から供給される積和された輝度積分値を示しており、ΣHinterpolated(λ)・φ(λ,L(nl)(p))は、積和部275から供給される積和された輝度ヒストグラムを示している。
したがって、ブロック積分値を補間係数および輝度加重値で重み付き加算して得られた加重和を、ブロックヒストグラムを補間係数および輝度加重値で重み付き加算して得られた加重和で除算することにより、ブロック積分値の加重平均の値が求まり、その値が大局輝度値Ll(nl)(p)とされる。
ステップS187において、除算部277は、求めた大局輝度値Ll(nl)(p)を、トーンカーブ算出部118およびマッピング部120に出力する。大局輝度値が出力されると、大局輝度値算出処理は終了し、その後、処理は図12のステップS51に進む。
このようにして、加重積和部117は、処理対象画素近傍の空間ブロックから得られる輝度ブロックのブロック積分値およびブロックヒストグラムから大局輝度値を求める。
ブロック積分値は、空間ブロックごとに、近い輝度値を持った画素を同じ輝度ブロックに属す画素とし、輝度ブロックごとに画素の輝度値を積分して得られる値である。また、ブロックヒストグラムは、各輝度ブロックに属す画素数を示す頻度値である。したがって、処理対象画素の輝度値に近い輝度レベルの輝度ブロックに重みをおいて、輝度ブロックの特性を示す特性値、例えば輝度ブロックのブロック積分値の積和を行うことにより、処理対象画素近傍の空間ブロック内の画素のうち、輝度値が処理対象画素に近い画素の輝度値の積分結果を得ることになる。
その結果、例えば、処理対象画素近傍の16個の空間ブロックといった、広範囲な領域内の画素の輝度値を積分しても、処理対象画素とは異なる明るさである、処理対象画素の属す被写体(処理対象画素により表示される被写体)とは、別の被写体の画素による影響は少なく、処理対象画素が属す被写体の平均輝度値を示す大局輝度値を算出することができる。
次に、図20のフローチャートを参照して、図12のステップS54の処理に対応するコントラスト補正処理について説明する。
ステップS211において、コントラスト補正部122は、処理対象画素の階調補正された輝度値および大局輝度値を読み込む。すなわち、コントラスト補正部122のゲイン値算出部301は、マッピング部121から、トーンカーブにより階調補正された輝度値Lc(nl)(p)を読み込む。また、コントラスト強調部302は、マッピング部121から輝度値Lc(nl)(p)を読み込むとともに、マッピング部120から、トーンカーブにより階調補正された大局輝度値Lcl(nl)(p)を読み込む。
ステップS212において、ゲイン値算出部301はγ-compパラメータを求める。例えば、ゲイン値算出部301は、図14のコントロールポイントP6付近におけるトーンカーブCLの傾きに近い値を得るために、トーンカーブメモリ119から、コントロールポイントP5およびコントロールポイントP7の入力輝度および出力輝度を読み出す。そして、ゲイン値算出部301は、読み出した入力輝度および出力輝度から、コントロールポイントP5およびコントロールポイントP7を結ぶ線分ALの傾きを、γ-compパラメータとして求める。
ステップS213において、ゲイン値算出部301は、読み込んだ輝度値Lc(nl)(p)と、求めたγ-compパラメータとからゲイン値g(p)を算出する。例えば、ゲイン値算出部301は、輝度値Lc(nl)(p)およびγ-compパラメータに基づいて、次式(8)および式(9)を計算することで、ゲイン値g(p)を算出する。
Figure 2009177558
Figure 2009177558
なお、式(8)において、Lmin(nl)およびLmax(nl)は、輝度値Lc(nl)(p)が取り得る値の範囲内の最小値および最大値を示しており、Lmid(nl)は、図14の中間輝度レベルLmid(nl)を示している。また、式(9)において、contrastGainは、予め定められた定数を示している。
ゲイン値算出部301はゲイン値g(p)を算出すると、算出したゲイン値g(p)をコントラスト強調部302に供給する。
ここで、図21は、輝度値Lc(nl)(p)と、ゲイン値g(p)との関係をグラフに表したものである。すなわち、図中、縦軸はゲイン値g(p)を示しており、横軸は輝度値Lc(nl)(p)を示している。
図21では、輝度値Lc(nl)(p)が中間輝度レベルLmid(nl)となるときゲイン値g(p)が最大となり、その値は、予め定められた定数contrastGainと、γ-compパラメータとから定まる値((contrastGain/γ-comp)−1)となる。また、輝度値Lc(nl)(p)が、中間輝度レベルLmid(nl)から最小値Lmin(nl)または最大値Lmax(nl)に近づくにつれて、ゲイン値g(p)は直線的に減衰する。
さらに、輝度値Lc(nl)(p)が最小値Lmin(nl)未満および最大値Lmax(nl)を超える範囲では、ゲイン値g(p)は0となる。したがって、中間輝度レベルLmid(nl)付近の輝度成分のコントラストが、最小値Lmin(nl)または最大値Lmax(nl)付近の輝度成分のコントラストと比較して強調される。より厳密に言えば、中間輝度レベルLmid(nl)付近の輝度成分ほどコントラストが強調され、最小値Lmin(nl)または最大値Lmax(nl)付近の輝度成分は、ほとんどコントラストの強調が行われない。
トーンカーブにより輝度値の階調が補正(圧縮)された画像(輝度値Lc(nl)(p)からなる画像)は、元の画像(輝度値L(nl)(p)からなる画像)と比較してコントラストが抑制(圧縮)されている。また、コントラストが抑制される度合いはトーンカーブの傾きに依存し、トーンカーブの傾きが緩やかであるほど抑制の度合いが大きい。従って、トーンカーブの傾きの逆数に応じて、階調が圧縮された画像のコントラスを強調するように補正すれば、階調を圧縮する前の画像に近いコントラストを得ることができる。しかし、noise Level(nl)またはsaturation Level(nl)付近の輝度値Lc(nl)(p)の画素についても同様の補正を行った場合、補正後の輝度値がnoise Level(nl)を下回ったり、saturation Level(nl)を超えたりするクリッピングが生じ、逆に画像のディテールが失われてしまう場合がある。
そこで、ゲイン値算出部301は、中間輝度レベルLmid(nl)付近のトーンカーブの傾きを代表する値であるγ-compパラメータを算出し、γ-compパラメータに基づくコントラスト補正量を基準として、輝度値Lc(nl)(p)がnoise Level(nl)(最小値Lmin(nl))またはsaturation Level(nl)(最大値Lmax(nl))に近づくほど基準値から減衰するようにゲイン値g(p)を決定する。
図20のフローチャートの説明に戻り、ステップS214において、コントラスト強調部302は、読み込んだ輝度値Lc(nl)(p)および大局輝度値Lcl(nl)(p)と、ゲイン値算出部301からのゲイン値g(p)とを用いて、コントラスト補正した輝度値Lu(nl)(p)を算出する。
例えば、コントラスト強調部302は、トーンカーブにより階調補正された輝度値Lc(nl)(p)および大局輝度値Lcl(nl)(p)の差分を計算することで、輝度値Lc(nl)(p)からなる輝度画像のコントラスト成分値を求める。さらに、コントラスト強調部302は、コントラスト成分値をゲイン値g(p)で増幅したものを、階調補正された輝度値Lc(nl)(p)に加算して、輝度値Lc(nl)(p)をコントラスト補正する。これにより、コントラスト補正された輝度値Lu(nl)(p)が得られる。
より具体的には、コントラスト強調部302は、輝度値Lc(nl)(p)、大局輝度値Lcl(nl)(p)、およびゲイン値g(p)を用いて、次式(10)を計算することで、コントラスト補正した輝度値Lu(nl)(p)を算出する。
Figure 2009177558
なお、式(10)において、輝度値(Lc(nl)(p)−Lcl(nl)(p))からなる輝度画像(コントラスト成分値)は、輝度値Lc(nl)(p)からなる輝度画像から、輝度値Lc(nl)(p)からなる輝度画像の低周波域の成分からなる大局輝度画像を差し引いたものである。したがって、輝度値Lu(nl)(p)からなる輝度画像は、輝度値Lc(nl)(p)からなる輝度画像の低周波域を除く周波数成分がゲイン値g(p)により強調された画像となる。
ステップS215において、コントラスト強調部302は、コントラスト補正により得られた輝度値Lu(nl)(p)を図4の階調補正部85に出力し、コントラスト補正処理は終了して、処理は図13のステップS55に進む。
このように、コントラスト補正部122により、輝度値Lc(nl)(p)からなる輝度画像の低周波域を除く、低中周波域から高周波域の成分のコントラストが強調される。したがって、高周波域の成分のコントラストだけを強調したときに目立つ、エッジ部分の局所的なオーバーシュートは発生せず、見た目にもごく自然にコントラストが強調された画像を得ることができる。
また、中間輝度レベルLmid(nl)付近の輝度成分ほどコントラストが強調されるように補正され、最小値Lmin(nl)または最大値Lmax(nl)付近の輝度成分は、ほとんどコントラストの補正が行われないため、画像の白ツブレや黒ツブレがほとんど発生しない。
以上のように、階調補正処理部53では、輝度画像を空間方向に分割して得られる空間ブロックが、さらに輝度方向に分割されて輝度ブロックとされ、各輝度ブロックについて、その輝度ブロックにおける画素の頻度値と、輝度ブロックの特性を示す特性値とが求められる。そして、頻度値と特性値とを用いて、処理対象画素と輝度ブロックとの空間方向および輝度方向の距離で定義される重み(補間係数および輝度加重値)に基づいて、輝度ブロックごとの特性値を加重平均することにより、エッジ保存平滑化が実現される。
この特性値は、例えば、輝度ブロックごとのブロック積分値などとされ、ブロック積分値の加重平均(重み付き加算)の演算は次式(11)で表される。
Figure 2009177558
式(11)において、I(p)は、画素位置がpである処理対象画素の画素値を示しており、I(p)’は、エッジ保存平滑化処理が施された処理対象画素の画素値を示している。また、S(i,j,λ)およびH(i,j,λ)は、ブロック積分値およびブロックヒストグラムを示している。さらに、ω(i,j,p)は、処理対象画素の位置pと、空間ブロックBKi,jとの相対位置関係により定まる関数を示しており、φ(λ,I(p))は、中央値λと画素値I(p)により定まる輝度加重値を示している。
式(11)の演算はちょうど、バイラテラルフィルタにおける空間方向の重み関数ωと、輝度方向の重み関数φとをブロック(空間ブロックまたは輝度ブロック)の分割に沿って階段上に離散化したようなものになっているので、エッジ保存平滑化の効果がある。
さらに、ブロックヒストグラムおよびブロック積分値を算出するコストを差し引いても、輝度ブロックごとの加重積和は、画素ごとの加重積和に比べれば、はるかに演算量が少なくて済む。したがって、より少ない演算量でエッジ保存平滑化処理を行うことができる。また、その結果、エッジ保存平滑化処理時におけるメモリ消費を削減することができる。この効果は、エッジ保存平滑化のオペレータサイズが巨大であるほど大きい。
なお、ここでいうオペレータサイズとは、例えば、補間部271および補間部272による補間処理において、処理対象画素近傍の処理対象となる空間ブロックからなる輝度画像上の領域の大きさをいう。
さらに、入力された輝度画像の輝度値を、輝度階調補正部83により行われる巨大な領域を一度にみるエッジ保存平滑化処理によって処理すると、物体領域ごとに平均化されたような輝度値を得ることができる。この輝度値を大局輝度値Ll(nl)(p)、すなわち各画素の大局的な明るさ情報を示す値と考え、この値が中庸な(中間的な)輝度値に変更されるように、トーンカーブ算出部118において各画素のトーンカーブ形状を決定する。このようにして画素位置ごとに決定されたトーンカーブによって各画素位置の輝度を補正することにより、画像の全ての領域を適切な明るさにするような階調補正が可能となる。
さらに、階調が圧縮された大局輝度値Lcl(nl)(p)を、階調が圧縮された処理対象画素の輝度値Lc(nl)(p)から差し引くことで、各画素位置のコントラスト成分を抽出することができる。そこで、トーンカーブ形状から算出することができる、コントラスト劣化の大きさに基づいた補正係数としてのゲイン値g(p)により、コントラスト成分を補正することが可能となる。
次に、以上において説明した本発明の実施の形態とは異なる、他の実施の形態について説明する。
図22は、図4の輝度階調補正部83の他の構成例を示す図である。なお、図22において、図5における場合と対応する部分には、同一の符号を付してあり、その説明は適宜、省略する。
図22の輝度階調補正部83には、図5の輝度階調補正部83に、さらに輝度重み関数保持部401、畳み込み部402、平滑化ブロックヒストグラムメモリ403、畳み込み部404、平滑化ブロック積分値メモリ405、および加重積和部406が設けられている。なお、図22の輝度階調補正部83には、加重積和部117が設けられておらず、加重積和部117に替えて加重積和部406が設けられている。
輝度重み関数保持部401は、輝度重み関数ルックアップテーブルを保持しており、この輝度重み関数ルックアップテーブルは、例えば、図9の輝度重み関数保持部276に保持されている輝度重み関数ルックアップテーブルと同じものとされる。
畳み込み部402は、ブロックヒストグラムメモリ114に記録されているブロックヒストグラムに対して、輝度重み関数保持部401に保持されている輝度重み関数ルックアップテーブルの輝度重み関数を畳み込む演算を行い、平滑化ブロックヒストグラムを算出する。この平滑化ブロックヒストグラムは、輝度重み関数が畳み込まれて得られるので、輝度方向に平滑化処理がなされたブロックヒストグラムとなる。畳み込み部402は、算出された平滑化ブロックヒストグラムを、平滑化ブロックヒストグラムメモリ403に供給し、平滑化ブロックヒストグラムメモリ403は、平滑化ブロックヒストグラムを一時的に記録する。
畳み込み部404は、ブロック積分値メモリ116に記録されているブロック積分値に対して、輝度重み関数保持部401に保持されている輝度重み関数ルックアップテーブルの輝度重み関数を畳み込む演算を行い、平滑化ブロック積分値を算出する。この平滑化ブロック積分値は、輝度重み関数が畳み込まれて得られるので、輝度方向に平滑化処理がなされたブロック積分値となる。畳み込み部404は、算出された平滑化ブロック積分値を、平滑化ブロック積分値メモリ405に供給し、平滑化ブロック積分値メモリ405は、平滑化ブロック積分値を一時的に記録する。
なお、図22に示す輝度階調補正部83においては、輝度域情報、平滑化ブロックヒストグラム、および平滑化ブロック積分値が中間データとされる。したがって、輝度域情報メモリ112、平滑化ブロックヒストグラムメモリ403、および平滑化ブロック積分値メモリ405に、中間データとしての輝度域情報、平滑化ブロックヒストグラム、および平滑化ブロック積分値が、輝度画像(RGB画像)の1フレーム分の時間だけ保持されることになる。
加重積和部406は、非線形変換部82から供給された輝度値L(nl)(p)と、平滑化ブロックヒストグラムメモリ403からの平滑化ブロックヒストグラム、および平滑化ブロック積分値メモリ405からの平滑化ブロック積分値とから、大局輝度値Ll(nl)(p)を算出する。加重積和部406は、算出した大局輝度値Ll(nl)(p)をトーンカーブ算出部118およびマッピング部120に供給する。
図22に示す輝度階調補正部83の構成によれば、処理対象画素の画素位置ごとの大局輝度値を算出する演算の一部を、輝度画像のフレーム全体についての情報を算出する処理に繰り込むことにより、1画素あたりの演算量を少なくすることができる。
図23は、図22の加重積和部406の構成例を示す図である。なお、図23において、図9における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図23の加重積和部406は、補間部271、補間部272、空間重み関数保持部273、および除算部277から構成される。すなわち、図23の加重積和部406と、図9の加重積和部117とは、加重積和部406に、積和部274乃至輝度重み関数保持部276が設けられていない点で異なる。
補間部271は、空間重み関数保持部273から読み出した補間係数と、平滑化ブロック積分値メモリ405に記録されている平滑化ブロック積分値とから、輝度画像上における非線形変換部82から供給された輝度値L(nl)(p)の処理対象画素の位置に対する輝度積分値を求め、除算部277に供給する。
補間部272は、空間重み関数保持部273から読み出した補間係数と、平滑化ブロックヒストグラムメモリ403に記録されている平滑化ブロックヒストグラムとから、輝度画像上における非線形変換部82から供給された輝度値L(nl)(p)の処理対象画素の位置に対する輝度ヒストグラムを求め、除算部277に供給する。
除算部277は、補間部271からの輝度積分値を、補間部272からの輝度ヒストグラムで除算することにより、処理対象画素の大局輝度値Ll(nl)(p)を算出してトーンカーブ算出部118およびマッピング部120に供給する。
次に、図24および図25のフローチャートを参照して、輝度階調補正部83が図22に示す構成とされる場合における階調補正処理について説明する。なお、この階調補正処理は、図11のステップS14の処理に対応する。
ステップS311において、加重積和部406およびトーンカーブ算出部118は、中間データを読み込む。すなわち、加重積和部406の補間部271は、平滑化ブロック積分値メモリ405から中間データとしての平滑化ブロック積分値を読み込み、加重積和部406の補間部272は、平滑化ブロックヒストグラムメモリ403から中間データとしての平滑化ブロックヒストグラムを読み込む。また、トーンカーブ算出部118は、輝度域情報メモリ112から中間データとしての輝度域情報を読み込む。
その後、ステップS312乃至ステップS319の処理が行われるが、これらの処理は、図12のステップS42乃至ステップS49の処理と同様であるので、その説明は省略する。
ステップS320において、加重積和部406は、大局輝度値算出処理を行って、処理対象画素の大局輝度値Ll(nl)(p)を算出し、トーンカーブ算出部118およびマッピング部120に供給する。なお、大局輝度値算出処理の詳細は後述するが、大局輝度値Ll(nl)(p)の算出には、平滑化ブロックヒストグラムおよび平滑化ブロック積分値が用いられる。
大局輝度値Ll(nl)(p)が求められると、その後、ステップS321乃至ステップS332の処理が行われるが、これらの処理は、図12および図13のステップS51乃至ステップS62の処理と同様であるので、その説明は省略する。
ステップS333において、畳み込み部402は、平滑化ブロックヒストグラムを算出し、平滑化ブロックヒストグラムを、平滑化ブロックヒストグラムメモリ403に供給して記録させる。
すなわち、畳み込み部402は、ブロックヒストグラムメモリ114からブロックヒストグラムH(i,j,λ)を取得するとともに、輝度重み関数保持部401に保持されている輝度重み関数ルックアップテーブルから、輝度重み関数φ(λ,ν)を読み出す。ここで、輝度重み関数φ(λ,ν)におけるλおよびνは、輝度ブロックの中央値、および輝度ブロックの中央値に相当する輝度値を示す変数である。
そして、畳み込み部402は、各空間ブロックBKi,jについて、空間ブロックBKi,jから分割されて得られるD個の輝度ブロックのブロックヒストグラムH(i,j,λ)と、輝度重み関数φ(λ,ν)とから次式(12)を演算し、輝度ブロックLBKi,j,νごとに平滑化ブロックヒストグラムHconvolved(i,j,ν)を算出する。
Figure 2009177558
式(12)では、輝度重み関数φ(λ,ν)が乗算された、D個の輝度ブロックのブロックヒストグラムH(i,j,λ)の総和が平滑化ブロックヒストグラムHconvolved(i,j,ν)とされる。
ここで、輝度ブロックLBKi,j,νは、輝度ブロックLBKi,j,hに相当する輝度ブロックであり、輝度値νは、平滑化ブロックヒストグラムの輝度ブロックLBKi,j,νの中央値となる。つまり、空間ブロックを新たに輝度方向に分割して得られる所定数の輝度ブロックLBKi,j,νについて、平滑化ブロックヒストグラムが求められることになる。また、輝度重み関数φ(λ,ν)は、中央値λ、および輝度値νを変数とする関数であり、例えば図19を参照して説明した輝度重み関数と同じ関数とされる。
このようにして求められた輝度ブロックLBKi,j,νごとの平滑化ブロックヒストグラムHconvolved(i,j,ν)は、平滑化ブロックヒストグラムメモリ403に供給されて記録される。
ステップS334において、畳み込み部404は、平滑化ブロック積分値を算出し、平滑化ブロック積分値を、平滑化ブロック積分値メモリ405に供給して記録させる。
すなわち、畳み込み部404は、ブロック積分値メモリ116からブロック積分値S(i,j,λ)を取得するとともに、輝度重み関数保持部401に保持されている輝度重み関数ルックアップテーブルから、輝度重み関数φ(λ,ν)を読み出す。
そして、畳み込み部404は、各空間ブロックBKi,jについて、空間ブロックBKi,jから分割されて得られるD個の輝度ブロックのブロックブロック積分値S(i,j,λ)と、輝度重み関数φ(λ,ν)とから次式(13)を演算し、輝度ブロックLBKi,j,νごとに平滑化ブロック積分値Sconvolved(i,j,ν)を算出する。
Figure 2009177558
つまり、式(13)では、輝度重み関数φ(λ,ν)が乗算された、D個の輝度ブロックのブロック積分値S(i,j,λ)の総和が平滑化ブロック積分値Sconvolved(i,j,ν)とされる。
このようにして求められた輝度ブロックLBKi,j,νごとの平滑化ブロック積分値Sconvolved(i,j,ν)は、平滑化ブロック積分値メモリ405に供給されて記録される。そして、階調補正処理は終了して、処理は図11のステップS15に進む。
このように、階調補正処理においては、1フレーム分の輝度画像に基づいて、中間データが求められる。そして、中間データとしての輝度域情報、平滑化ブロックヒストグラム、および平滑化ブロック積分値が輝度域情報メモリ112、平滑化ブロックヒストグラムメモリ403、および平滑化ブロック積分値メモリ405に格納される。輝度階調補正部83では、現在処理しているフレームよりも時間的に1つ前のフレームから求められた中間データが用いられて処理対象画素の大局輝度値やトーンカーブが算出されるため(エッジ保存平滑化処理が行われるため)、処理対象の画像が動画像であっても、画像の全画素を2回スキャンすることなく、少ないワーキングメモリで、大きいオペレータサイズのエッジ保存平滑化処理を行うことができる。
次に、図26のフローチャートを参照して、図24のステップS320の処理に対応する処理である大局輝度値算出処理について説明する。
ステップS361において、加重積和部406の補間部271および補間部272は、非線形変換部82から処理対象画素の輝度値L(nl)(p)を読み込む。
ステップS362において、補間部271は、読み込んだ輝度値L(nl)(p)の処理対象画素近傍の空間ブロックから得られる輝度ブロックの平滑化ブロック積分値を用いた補間処理を行って、処理対象画素の輝度積分値を求める。
例えば、補間部271は、処理対象画素の空間方向近傍の4×4の合計16個の空間ブロックBKi,j(但し、1≦i≦4,1≦j≦4)の補間係数Bi,jを空間重み関数保持部273のルックアップテーブルから読み出す。そして、補間部271は、平滑化ブロック積分値メモリ405から、16個の空間ブロックBKi,jのそれぞれから得られる輝度ブロックのそれぞれの平滑化ブロック積分値Sconvolved(i,j,ν)を読み出す。
さらに、補間部271は、読み出した補間係数Bi,jと、平滑化ブロック積分値Sconvolved(i,j,ν)との積の総和、すなわち平滑化ブロック積分値の加重積和を計算し、その結果得られた値を輝度積分値とする。また、輝度積分値の演算時において、補間部271は各平滑化ブロック積分値Sconvolved(i,j,ν)の変数νに、読み込んだ輝度値L(nl)(p)を代入して計算する。
なお、より詳細には、補間部271は、空間ブロックごとに、空間ブロックから得られる輝度ブロックの平滑化ブロック積分値Sconvolved(i,j,ν)から、処理対象画素の輝度値L(nl)(p)に対応する輝度の平滑化ブロック積分値Sconvolved(i,j,L(nl)(p))を、補間などにより求める。そして、求められた平滑化ブロック積分値Sconvolved(i,j,L(nl)(p))に補間係数Bi,jが乗算されて、輝度積分値が求められる。
補間部271は輝度積分値を求めると、求めた輝度積分値を除算部277に供給する。この輝度積分値は、処理対象画素の位置における、処理対象画素の輝度値に対する補間されたブロック積分値である。
ステップS363において、補間部272は、読み込んだ輝度値L(nl)(p)の処理対象画素近傍の空間ブロックから得られる輝度ブロックの平滑化ブロックヒストグラムを用いた補間処理を行って、処理対象画素の輝度ヒストグラムを求める。
例えば、補間部272は、処理対象画素の空間方向近傍の4×4の合計16個の空間ブロックBKi,j(但し、1≦i≦4,1≦j≦4)の補間係数Bi,jを空間重み関数保持部273のルックアップテーブルから読み出す。そして、補間部272は、平滑化ブロックヒストグラムメモリ403から、16個の空間ブロックBKi,jのそれぞれから得られる輝度ブロックのそれぞれの平滑化ブロックヒストグラムHconvolved(i,j,ν)を読み出す。
さらに、補間部272は、読み出した補間係数Bi,jと、平滑化ブロックヒストグラムHconvolved(i,j,ν)との積の総和、すなわち平滑化ブロックヒストグラムの加重積和を計算し、その結果得られた値を輝度ヒストグラムとする。また、輝度ヒストグラムの演算時において、補間部272は各平滑化ブロックヒストグラムHconvolved(i,j,ν)の変数νに、読み込んだ輝度値L(nl)(p)を代入して計算する。
なお、より詳細には、補間部272は、空間ブロックごとに、空間ブロックから得られる輝度ブロックの平滑化ブロックヒストグラムHconvolved(i,j,ν)から、処理対象画素の輝度値L(nl)(p)に対応する輝度の平滑化ブロックヒストグラムHconvolved(i,j,L(nl)(p))を、補間などにより求める。そして、求められた平滑化ブロックヒストグラムHconvolved(i,j,L(nl)(p))に補間係数Bi,jが乗算され、輝度ヒストグラムが求められる。
補間部272は輝度ヒストグラムを求めると、求めた輝度ヒストグラムを除算部277に供給する。この輝度ヒストグラムは、処理対象画素の位置における、処理対象画素の輝度値に対する補間されたブロックヒストグラムである。
ステップS364において、除算部277は、補間部271からの輝度積分値を、補間部272からの輝度ヒストグラムで除算し、大局輝度値Ll(nl)(p)を求める。すなわち、除算部277は、次式(14)を計算することで大局輝度値Ll(nl)(p)を算出する。
Figure 2009177558
ここで、式(14)において、ΣBi,j・Sconvolved(i,j,L(nl)(p))は、補間部271からの輝度積分値を示しており、ΣBi,j・Hconvolved(i,j,L(nl)(p))は、補間部272からの輝度ヒストグラムを示している。すなわち、輝度積分値は、補間係数の乗算された平滑化ブロック積分値Bi,j×Sconvolved(i,j,L(nl)(p))の総和であり、輝度ヒストグラムは、補間係数の乗算された平滑化ブロックヒストグラムBi,j×Hconvolved(i,j,L(nl)(p))の総和である。
すなわち、輝度重み関数が畳み込まれたブロック積分値を補間係数で重み付き加算して得られた加重和を、輝度重み関数が畳み込まれたブロックヒストグラムを補間係数で重み付き加算して得られた加重和で除算することにより、ブロック積分値の加重平均の値が求まり、その値が大局輝度値Ll(nl)(p)とされる。
ステップS365において、除算部277は、求めた大局輝度値Ll(nl)(p)を、トーンカーブ算出部118およびマッピング部120に出力し、大局輝度値算出処理は終了して、処理は図24のステップS321に進む。
このようにして、加重積和部406は、処理対象画素近傍の空間ブロックの平滑化ブロック積分値および平滑化ブロックヒストグラムから大局輝度値を求める。
図22の輝度階調補正部83では、ブロックヒストグラムおよびブロック積分値に対して、予め輝度方向の重み関数(輝度重み関数)を畳み込む演算が行われ、その演算結果が保持されている。したがって、画素ごとの加重積和演算では、既に輝度重み関数が畳み込まれたブロックヒストグラムおよびブロック積分値を空間方向に補間した結果を除算するだけでよく、エッジ保存平滑化処理をより少ない演算で行うことができる。この演算は、次式(15)により表される。
Figure 2009177558
式(15)において、I(p)は、画素位置がpである処理対象画素の画素値を示しており、I(p)’は、エッジ保存平滑化処理が施された処理対象画素の画素値を示している。また、ω(i,j,p)は、処理対象画素の位置pと、空間ブロックBKi,jとの相対位置関係により定まる関数を示している。この式(15)の演算も上述した式(11)と同様にエッジ保存平滑化の効果があり、元の画像サイズに比べて空間ブロック分割数が粗い、すなわち画像中の広い範囲をみてエッジ保存平滑化処理をおこなう場合ほど、エッジ保存平滑化処理をより少ない演算で行うことができる。
さらに、輝度階調補正部83において、縮小された輝度画像である縮小画像を生成するようにしてもよい。階調補正処理において用いられる中間データは、輝度画像全体の大局的な輝度分布や構造などを抽出したものであるので、事前に縮小された輝度画像から中間データを算出しても、それらの情報が損なわれることはない。したがって、縮小画像から中間データを生成することで、中間データの生成のための演算量を減らすことができる。
輝度階調補正部83において縮小画像を生成する場合、例えば、輝度階調補正部83は、図27に示すように構成される。なお、図27において、図5における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。
図27に示す輝度階調補正部83は、図5の輝度階調補正部83に、さらに縮小部461および縮小画像メモリ462が設けられている。
縮小部461は、非線形変換部82から輝度画像における処理対象画素の輝度値L(nl)(p)を読み込み、読み込んだ輝度値L(nl)(p)に基づいて、縮小画像を生成する。例えば、縮小部461は、これから生成しようとする縮小画像の画素と同じ位置にある、輝度画像上の領域内の画素の輝度値の平均値を、縮小画像の画素の輝度値とする。縮小部461は、生成した縮小画像を縮小画像メモリ462に供給する。
縮小画像メモリ462は、縮小部461から供給された縮小画像を一時的に記録する。また、輝度域情報算出部111、ブロックヒストグラム算出部113、およびブロック積分値算出部115は、縮小画像メモリ462に記録されている縮小画像の画素を、順次、処理対象画素として、縮小画像から輝度域情報、ブロックヒストグラム、およびブロック積分値を算出する。
次に、図28および図29のフローチャートを参照して、輝度階調補正部83が図27に示す構成とされる場合における階調補正処理について説明する。この階調補正処理は、図11のステップS14の処理に対応する。
なお、ステップS411乃至ステップS416の処理は、図12のステップS41乃至ステップS46の処理と同様であるので、その説明は省略する。
ステップS417において、縮小部461は、非線形変換部82から読み込んだ処理対象画素の輝度値L(nl)(p)を、縮小画像の対応する画素の加算値に加算する。
すなわち、縮小部461は、これから生成しようとする縮小画像の画素ごとに加算値を保持している。この加算値は、新たなフレームの輝度画像に対する縮小画像の生成が開始されるごとに0に更新される。縮小部461は、処理対象画素の輝度値を読み込むと、その処理対象画素が、縮小画像のどの画素に対応するか、つまり縮小画像上の同じ位置にある画素はどの画素であるかを特定し、特定した縮小画像の画素の加算値に、読み込んだ処理対象画素の輝度値を加算する。
このようにして、輝度画像の処理対象画素の輝度値を読み込むごとに、読み込んだ輝度値を、処理対象画素に対応する縮小画像の画素の加算値に加算していくことで、縮小画像の各画素について、その画素と同じ位置にある、輝度画像上の領域内の画素の輝度値の総和が加算値として得られる。
処理対象画素の輝度値が、縮小画像の対応する画素の加算値に加算されると、その後、ステップS418乃至ステップS426の処理が行われる。なお、これらの処理は、図12および図13のステップS50乃至ステップS58の処理のそれぞれと同様であるので、その説明は省略する。
ステップS427において、階調補正処理部53は、処理対象となっているフレームのRGB画像上の全ての画素を処理したか否かを判定する。ステップS427において、まだ全ての画素を処理していない、つまり全ての画素が処理対象画素とされていないと判定された場合、処理はステップS413に戻り、上述した処理が繰り返される。
これに対して、ステップS427において、全ての画素が処理されたと判定された場合、ステップS428において、縮小部461は、これから生成しようとする縮小画像の各画素について保持している加算値に基づいて、縮小画像を生成する。すなわち、縮小部461は、縮小画像の各画素について、その画素に対応する輝度画像上の領域内の画素の数で、加算値を除算し、その結果得られた値を縮小画像の対応する画素の輝度値とする。縮小部461は、縮小画像を生成すると、その縮小画像を縮小画像メモリ462に供給して記録させる。
縮小画像が生成されると、その後、ステップS429乃至ステップS431の処理が行われる。なお、これらの処理は、図12のステップS47乃至ステップS49の処理と同様であるので、その説明は省略する。また、ステップS429乃至ステップS431の処理においては、縮小画像の画素が、順次、処理対象画素とされる。つまり、縮小画像の画素の輝度値が用いられて、それらの処理が行われる。
ステップS431においてブロック積分値算出のための画素処理が行われると、ステップS432において、輝度階調補正部83は、縮小画像メモリ462に記録されている縮小画像の全ての画素を処理したか否かを判定する。例えば、縮小画像の全ての画素が処理対象画素とされて、ステップS429乃至ステップS431の処理が行われた場合、全ての画素を処理したと判定される。
ステップS432において、まだ全ての画素を処理していないと判定された場合、処理はステップS429に戻り、縮小画像の次の画素が処理対象画素とされて、上述した処理が繰り返される。
これに対して、ステップS432において、全ての画素を処理したと判定された場合、ステップS433において、輝度域情報算出部111は、輝度域情報を求める。そして、その後、ステップS434およびステップS435の処理が行われて階調補正処理は終了し、処理は図11のステップS15に進む。なお、ステップS433乃至ステップS435の処理は、図13のステップS60乃至ステップS62の処理と同様であるので、その説明は省略する。
このようにして、輝度階調補正部83は、輝度画像から縮小画像を生成し、縮小画像を用いて中間データを生成する。
このように、中間データを生成する前に輝度画像を縮小することで、中間データを生成するための演算量を減らすことができるだけでなく、その演算時のメモリの消費量を削減することができる。
なお、図22に示した輝度階調補正部83において、輝度域情報算出部111、ブロックヒストグラム算出部113、およびブロック積分値算出部115の前段に縮小画像メモリ462と縮小部461とが設けられるようにしてもよい。
また、図5の輝度階調補正部83において、ブロックヒストグラムの輝度方向のブロックの分割、つまり空間ブロックの輝度ブロックへの分割が充分に細かくできる場合には、ブロック積分値算出部115およびブロック積分値メモリ116を設けないようにしてもよい。そのような場合、各輝度ブロックについて、輝度ブロックの中央値λに、その輝度ブロックのブロックヒストグラムを乗じたものをブロック積分値とすることができる。すなわち、輝度ブロックの中央値λ、より詳細には、中央値λにブロックヒストグラムを乗じたものが、輝度ブロックの特性を示す特性値とされる。
この場合、大局輝度値Ll(nl)(p)は、加重積和部117が上述した式(7)の替わりに次式(16)を計算することにより求められることになる。
Figure 2009177558
すなわち、式(16)における分子のΣλ・Hinterpolated(λ)・φ(λ,L(nl)(p))が、積和された輝度積分値とされる。
また、RGB画像(輝度画像)のダイナミックレンジが安定していることが期待できる場合には、図5の輝度階調補正部83において、輝度域情報算出部111および輝度域情報メモリ112を設けず、輝度域情報の算出を省略するようにしてもよい。
そのような場合、図14に示したトーンカーブ形状を決定するコントロールポイントのうち、コントロールポイントP4、コントロールポイントP5、コントロールポイントP7、およびコントロールポイントP8が算出されず、残りのコントロールポイントで、トーンカーブの形状が決定される。この場合においても、画素ごとに算出される大局輝度値Ll(nl)(p)によってコントロールポイントP6の位置は変化するため、画素ごとに明るさを適切に補正するというトーンカーブの性質は保持される。
なお、画素ごとに異なるトーンカーブを設定できる構成があれば、画素ごとに明るさを適切に補正する性質は保持されるので、コントラスト補正は本発明の必須の構成要素ではない。しかし、画素ごとに算出される大局輝度値を利用したコントラスト成分算出およびコントラスト成分の補正処理があれば、より適切な出力が得られる。
さらに、以上においては、RGB画像に対して階調補正処理が行われると説明したが、YC変換処理後の画像信号に対して階調補正処理が行われるようにしてもよい。そのような場合、DSP16は、例えば図30に示すように構成される。なお、図30において、図2における場合と対応する部分には、同一の符号を付してあり、その説明は適宜省略する。
図30に示すDSP16は、図2のDSP16に対して、デモザイク処理部52とガンマ補正処理部54との間に階調補正処理部53が設けられておらず、YC変換処理部55に階調補正処理部501が接続されている点で異なる。階調補正処理部501は、YC変換処理部55から供給されたY画像およびC画像(Cb成分およびCr成分)に階調補正処理を施し、階調補正処理を施したY画像およびC画像を、必要に応じてLCDドライバ18またはCODEC20に供給する。
なお、以下、階調補正処理が施された画像データの画素位置pにおける画素値を[Yu(p), Cu(p)]とする。ここで、Yu(p)は、Y画像における輝度成分の値であり、Cu(p)はC画像における色差成分の値である。また、以下、特にC画像の画素値Cu(p)のCb成分をCbu(p)と称し、Cr成分をCru(p)と称する。
図30の階調補正処理部501は、例えば図31に示すように構成される。すなわち、階調補正処理部501は、輝度階調補正部531、Cb階調補正部532、およびCr階調補正部533から構成される。
輝度階調補正部531は、図4の輝度階調補正部83と同様の処理を行って、YC変換処理部55からのY画像の画素値Y(p)の階調を補正(圧縮)する。そして、輝度階調補正部531は、階調補正により得られた画素値Yu(p)を、必要に応じてLCDドライバ18またはCODEC20に供給するとともに、画素値Yu(p)をCb階調補正部532およびCr階調補正部533に供給する。
Cb階調補正部532は、YC変換処理部55からのY画像の画素値Y(p)と、輝度階調補正部531からのY画像の画素値Yu(p)とを用いて、図4の階調補正部85と同様の処理を行い、YC変換処理部55からのC画像の画素値Cb(p)を階調補正して、階調補正された画素値Cbu(p)を、必要に応じてLCDドライバ18またはCODEC20に供給する。
また、Cr階調補正部533は、YC変換処理部55からのY画像の画素値Y(p)と、輝度階調補正部531からのY画像の画素値Yu(p)とを用いて、図4の階調補正部85と同様の処理を行い、YC変換処理部55からのC画像の画素値Cr(p)を階調補正して、階調補正された画素値Cru(p)を、必要に応じてLCDドライバ18またはCODEC20に供給する。
例えば、Cb階調補正部532およびCr階調補正部533が行う階調補正は、上述した式(2)に示される演算と同様に、階調補正されたY画像の画素値Yu(p)と、Y画像の画素値Y(p)との比を、C画像の画素値(画素値Cr(p)または画素値Cb(p))に乗算することにより行われる。つまり、画素値Yu(p)を画素値Y(p)で除算して得られる値が、C画像の画素値に乗算される。
階調補正処理部501には、Y画像およびC画像、つまり輝度信号と色差信号とが入力されるため、階調補正処理部501において輝度画像を生成する必要はない。また、階調補正処理部501に供給されるY画像およびC画像は、既にガンマ補正されているので、Y画像およびC画像を非線形変換する必要もない。したがって、階調補正処理部501には、図4の階調補正処理部53における輝度算出部81、非線形変換部82、非線形変換部84、および非線形逆変換部86に対応するブロックは設けられていない。
このように、Y画像およびC画像に対して階調補正処理を行うことで、より簡単に階調の補正を行うことができる。
さらに、RAWデータ、つまりモザイク画像に対して階調補正処理が行われるようにしてもよい。そのような場合、DSP16は、例えば図32に示すように構成される。なお、図32において、図2における場合と対応する部分には同一の符号を付してあり、その説明は適宜、省略する。
図32のDSP16と、図2のDSP16とは、図32のDSP16において階調補正処理部581が、ホワイトバランス処理部51とデモザイク処理部52との間に設けられている点で異なる。すなわち、図2のDSP16では、階調補正処理部53が、ホワイトバランス処理部51とガンマ補正処理部54との間に設けられているのに対して、図32のDSP16では、図2の階調補正処理部53に対応する階調補正処理部581が、ホワイトバランス処理部51とデモザイク処理部52との間に設けられている。
階調補正処理部581は、ホワイトバランス処理部51からのモザイク画像Mwに階調補正処理を施し、階調補正処理が施されたモザイク画像Muをデモザイク処理部52に供給する。この階調補正処理部581は、例えば図33に示すように構成される。
具体的には、階調補正処理部581は、輝度算出部611、非線形変換部612、輝度階調補正部613、位相合わせ部614、位相合わせ部615、非線形変換部616、モザイク階調補正部617、および非線形逆変換部618から構成される。
輝度算出部611は、図4の輝度算出部81と同様の処理を行い、モザイク画像Mwから輝度画像を生成する。すなわち、輝度算出部611は、ホワイトバランス処理部51からのモザイク画像Mwの画素位置pの画素値を、処理対象画素の画素値Mw(p)として、モザイク画像Mwのいくつかの画素値から輝度値L(p)を算出し、非線形変換部612に供給する。
モザイク画像Mwは、例えば図34に示すように、各画素がR、G(GrまたはGb)、Bの何れかの成分の画素値しか有していないため、輝度算出部611は、供給された1つの画素の画素値Mw(p)だけでなく、その画素の周囲の画素の画素値も参照して、輝度値を算出する。
図34では、R成分、G成分、またはB成分を有する画素が、ベイヤー配列で並んでおり、1つの四角形はモザイク画像の1つの画素を示している。また、図中、四角形内の文字「R」、「G」、および「B」は、その四角形がR成分、G成分、およびB成分の画素値を有する画素であることを示している。
輝度算出部611は、互いに隣接する縦2画素×横2画素の合計4画素を処理の単位とすると、R成分、G成分(Gr成分およびGb成分)、およびB成分の各成分の画素値が得られることを利用して、それらの4つの画素の画素値に基づいて、図中、円により示される位置の輝度値を求める。つまり、図中、円の位置近傍の4つの画素のRGB信号の和として輝度信号が生成される。
図34の例では、図中の円は、Rの画素、Bの画素、および2つのGの画素からなる領域の中心に位置している。なお、輝度値が求められる位置は、モザイク画像の画素の位置から半画素分だけずれた位置となっており、また、輝度値が求められる位置の間隔も1画素単位ではないが、これらの位置(位相)のずれは、輝度値の階調を補正するうえでは問題とはならない。
図33の説明に戻り、非線形変換部612は、図4の非線形変換部82と同様の処理を行って、輝度算出部611からの輝度値L(p)を非線形変換し、非線形変換により得られた輝度値L(nl)(p)を輝度階調補正部613および位相合わせ部614に供給する。
輝度階調補正部613は、図4の輝度階調補正部83と同様の処理を行い、非線形変換部612からの輝度値L(nl)(p)の階調を圧縮することで、輝度値L(nl)(p)の階調補正を行い、階調補正により得られた輝度値Lu(nl)(p)を位相合わせ部615に供給する。
位相合わせ部614は、非線形変換部612からの輝度値のうち、処理対象画素近傍の位置の輝度値のいくつかを用いて補間処理を行い、処理対象画素の位置の輝度値を算出する。ここで、位相合わせ部614により行われる補間処理は、例えば処理対象画素近傍の2×2の位置の合計4箇所の輝度値を用いたバイリニア補間処理などとされる。
位相合わせ部614は、処理対象画素の輝度値を求めると、求めた輝度値をモザイク階調補正部617に供給する。
位相合わせ部615は、輝度階調補正部613からの輝度値のうち、処理対象画素近傍の位置の輝度値のいくつかを用いて補間処理を行い、処理対象画素の位置の階調補正された輝度値を算出する。ここで、位相合わせ部615により行われる補間処理は、位相合わせ部614により行われる補間処理と同じ処理とされ、例えばバイリニア補間処理などとされる。
非線形変換部616は、図4の非線形変換部84と同様の処理を行って、ホワイトバランス処理部51からの処理対象画素の画素値Mw(p)を非線形変換し、非線形変換された画素値をモザイク階調補正部617に供給する。
モザイク階調補正部617は、位相合わせ部614からの輝度値と、位相合わせ部615からの階調補正された輝度値とを用いて、図4の階調補正部85と同様の処理を行い、非線形変換部616からの画素値を階調補正して、階調補正された画素値を非線形逆変換部618に供給する。例えば、モザイク階調補正部617は、上述した式(2)に示される演算と同様に、位相合わせ部614からの輝度値で、位相合わせ部615からの階調補正された輝度値を除算して得られる値を、非線形変換部616からの画素値に乗算することで、画素値を階調補正する。これにより、処理対象画素の画素値、つまりR、G、またはBの成分の画素値が階調補正されることになる。
非線形逆変換部618は、モザイク階調補正部617からの画素値に、非線形変換部616による非線形変換の逆変換となる非線形逆変換を施す。非線形逆変換部618は、非線形逆変換により得られた画素値Mu(p)を、デモザイク処理部52に供給する。
このように、モザイク画像を対象として階調補正処理を行う場合には、輝度算出部611により算出される輝度値の位置は、モザイク画像上の処理対象画素の位置とは異なるが、位相合わせ部614および位相合わせ部615により位相合わせを行うことで、処理対象画素の位置の輝度値を求めることができる。
なお、以上において説明したように、図1のデジタルビデオカメラは、画像の大局的な構造を抽出する画像処理を行う。このような画像処理により抽出された情報は、画質を向上させる処理などに利用することが可能であるため、画像の大局的な構造を抽出するブロックを実装する装置として、デジタルビデオカメラだけでなく他の装置にも適用することが可能である。例えば、そのような装置として、デジタルスチルカメラなどの撮像装置や、プリンタ、ディスプレイなどの表示装置等が考えられる。さらに、画像を加工したり、編集したりする装置やコンピュータプログラムにも応用することができる。
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図35は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータにおいて、CPU901,ROM(Read Only Memory)902,RAM903は、バス904により相互に接続されている。
バス904には、さらに、入出力インターフェース905が接続されている。入出力インターフェース905には、キーボード、マウス、マイクロホンなどよりなる入力部906、ディスプレイ、スピーカなどよりなる出力部907、ハードディスクや不揮発性のメモリなどよりなる記録部908、ネットワークインターフェースなどよりなる通信部909、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア911を駆動するドライブ910が接続されている。
以上のように構成されるコンピュータでは、CPU901が、例えば、記録部908に記録されているプログラムを、入出力インターフェース905及びバス904を介して、RAM903にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU901)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア911に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
そして、プログラムは、リムーバブルメディア911をドライブ910に装着することにより、入出力インターフェース905を介して、記録部908にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部909で受信し、記録部908にインストールすることができる。その他、プログラムは、ROM902や記録部908に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
本発明を適用したデジタルビデオカメラの一実施の形態を示すブロック図である。 DSPの構成例を示す図である。 モザイク画像の画素の配列例を示す図である。 階調補正処理部の構成例を示す図である。 輝度階調補正部の構成例を示す図である。 輝度域情報算出部の構成例を示す図である。 ブロックヒストグラム算出部の構成例を示す図である。 ブロック積分値算出部の構成例を示す図である。 加重積和部の構成例を示す図である。 コントラスト補正部の構成例を示す図である。 画像処理を説明するフローチャートである。 階調補正処理を説明するフローチャートである。 階調補正処理を説明するフローチャートである。 トーンカーブを説明する図である。 輝度域情報算出のための画素処理を説明するフローチャートである。 ブロックヒストグラム算出のための画素処理を説明するフローチャートである。 ブロック積分値算出のための画素処理を説明するフローチャートである。 大局輝度値算出処理を説明するフローチャートである。 輝度重み関数について説明する図である。 コントラスト補正処理を説明するフローチャートである。 ゲイン値について説明する図である。 輝度階調補正部の他の構成例を示す図である。 加重積和部の他の構成例を示す図である。 階調補正処理を説明するフローチャートである。 階調補正処理を説明するフローチャートである。 大局輝度値算出処理を説明するフローチャートである。 輝度階調補正部の他の構成例を示す図である。 階調補正処理を説明するフローチャートである。 階調補正処理を説明するフローチャートである。 DSPの他の構成例を示す図である。 階調補正処理部の他の構成例を示す図である。 DSPの他の構成例を示す図である。 階調補正処理部の他の構成例を示す図である。 求められる輝度値の位置について説明する図である。 コンピュータの構成例を示すブロック図である。
符号の説明
16 DSP, 53 階調補正処理部, 81 輝度算出部, 83 輝度階調補正部, 85−1乃至85−3 階調補正部, 111 輝度域情報算出部, 113 ブロックヒストグラム算出部, 115 ブロック積分値算出部, 117 加重積和部, 118 トーンカーブ算出部, 122 コントラスト補正部, 271 補間部, 272 補間部, 274 積和部, 275 積和部, 277 除算部, 402 畳み込み部, 404 畳み込む部, 406 加重積和部, 461 縮小部, 501 階調補正処理部, 581 階調補正処理部

Claims (20)

  1. 入力画像に対するエッジ保存平滑化処理を行う画像処理装置であって、
    前記入力画像を空間方向に分割して得られる空間ブロック内の画素が、その画素の輝度値に基づいて、所定の輝度範囲内の輝度値の画素からなる輝度ブロックの何れかに分類されることにより、前記空間ブロックがさらに輝度方向に分割されて得られる前記輝度ブロックについて、前記輝度ブロックに属す前記画素の頻度値を算出する頻度値算出手段と、
    前記輝度ブロックの特性を示す特性値を算出する特性値算出手段と、
    前記入力画像の各画素位置について、前記画素近傍のいくつかの前記空間ブロックから得られた前記輝度ブロックである近傍輝度ブロックの前記特性値および前記頻度値を用いて、前記画素と前記近傍輝度ブロックとの空間方向および輝度方向の距離に基づいて前記特性値を加重平均することにより、前記入力画像をエッジ保存平滑化する加重積和手段と
    を備える画像処理装置。
  2. 前記特性値算出手段は、前記輝度ブロックに属す画素の輝度値の総和を前記特性値として算出する
    請求項1に記載の画像処理装置。
  3. 前記特性値算出手段は、前記輝度ブロックの前記輝度範囲の中央値を前記特性値として算出する
    請求項1に記載の画像処理装置。
  4. 前記加重積和手段は、
    前記近傍輝度ブロックが得られる前記空間ブロックと前記画素との相対的な位置関係により定まる空間重みと、前記近傍輝度ブロックの前記頻度値とを用いた補間処理を行って、前記近傍輝度ブロックに対応する輝度ごとに、前記画素の位置の補間された頻度値である補間頻度値を算出する頻度値補間手段と、
    前記空間重みと、前記近傍輝度ブロックの前記特性値とを用いた補間処理を行って、前記近傍輝度ブロックに対応する前記輝度ごとに、前記画素の位置の補間された特性値である補間特性値を算出する特性値補間手段と、
    前記画素の前記輝度値と、前記近傍輝度ブロックに対応する前記輝度とから定まる輝度重みが乗算された、前記補間頻度値の総和を求めることにより、前記輝度重みによる前記補間頻度値の加重和を算出する頻度値積和手段と、
    前記輝度重みが乗算された、前記補間特性値の総和を求めることにより、前記輝度重みによる前記補間特性値の加重和を算出する特性値積和手段と、
    前記補間特性値の加重和を、前記補間頻度値の加重和で除算して、前記特性値の加重平均を算出する除算手段と
    を備える請求項1に記載の画像処理装置。
  5. 前記加重積和手段は、
    前記空間ブロックごとに、その空間ブロックから得られた前記近傍輝度ブロックの前記頻度値に対して、輝度値を変数とする輝度重み関数を畳み込む第1の畳み込み手段と、
    前記空間ブロックごとに、その空間ブロックから得られた前記近傍輝度ブロックの前記特性値に対して、前記輝度重み関数を畳み込む第2の畳み込み手段と、
    前記近傍輝度ブロックが得られる前記空間ブロックと前記画素との相対的な位置関係により定まる空間重みと、前記輝度重み関数が畳み込まれた前記頻度値とを用いた補間処理を行って、前記画素の位置における、前記画素の前記輝度値に対する補間された頻度値である補間頻度値を算出する頻度値補間手段と、
    前記空間重みと、前記輝度重み関数が畳み込まれた前記特性値とを用いた補間処理を行って、前記画素の位置における、前記画素の前記輝度値に対する補間された特性値である補間特性値を算出する特性値補間手段と、
    前記補間特性値を、前記補間頻度値で除算して、前記特性値の加重平均を算出する除算手段と
    を備える請求項1に記載の画像処理装置。
  6. 前記加重積和手段は、
    所定のフレームの前記入力画像から算出された、前記輝度重み関数が畳み込まれた前記頻度値を、前記入力画像の1フレーム分の時間だけ保持する頻度値保持手段と、
    前記所定のフレームの前記入力画像から算出された、前記輝度重み関数が畳み込まれた前記特性値を、前記入力画像の1フレーム分の時間だけ保持する特性値保持手段と
    をさらに備え、
    前記頻度値補間手段は、前記所定のフレームの前記入力画像から算出され、前記頻度値保持手段に保持されている前記頻度値を用いて、前記所定のフレームの次のフレームの前記入力画像について前記補間頻度値を算出し、
    前記特性値補間手段は、前記所定のフレームの前記入力画像から算出され、前記特性値保持手段に保持されている前記特性値を用いて、前記次のフレームの前記入力画像について前記補間特性値を算出する
    請求項5に記載の画像処理装置。
  7. 前記入力画像に基づいて、前記入力画像が縮小された縮小画像を生成する縮小画像生成手段をさらに備え、
    前記頻度値算出手段は、前記縮小画像が空間方向および輝度方向に分割されて得られた輝度ブロックについて、その輝度ブロックに属す前記縮小画像の画素の頻度値を算出し、
    前記特性値算出手段は、前記縮小画像が空間方向および輝度方向に分割されて得られた輝度ブロックについて、その輝度ブロックの特性を示す特性値を算出する
    請求項1に記載の画像処理装置。
  8. 所定のフレームの前記入力画像から算出された前記頻度値を、前記入力画像の1フレーム分の時間だけ保持する頻度値保持手段と、
    前記所定のフレームの前記入力画像から算出された前記特性値を、前記入力画像の1フレーム分の時間だけ保持する特性値保持手段と
    をさらに備え、
    前記加重積和手段は、前記頻度値保持手段に保持されている前記頻度値、および前記特性値保持手段に保持されている前記特性値を用いて、前記所定のフレームの次のフレームの前記入力画像について、前記特性値の加重平均を行う
    請求項1に記載の画像処理装置。
  9. 入力画像に対するエッジ保存平滑化処理を行う画像処理方法であって、
    前記入力画像を空間方向に分割して得られる空間ブロック内の画素が、その画素の輝度値に基づいて、所定の輝度範囲内の輝度値の画素からなる輝度ブロックの何れかに分類されることにより、前記空間ブロックがさらに輝度方向に分割されて得られる前記輝度ブロックについて、前記輝度ブロックに属す前記画素の頻度値を算出し、
    前記輝度ブロックの特性を示す特性値を算出し、
    前記入力画像の各画素位置について、前記画素近傍のいくつかの前記空間ブロックから得られた前記輝度ブロックである近傍輝度ブロックの前記特性値および前記頻度値を用いて、前記画素と前記近傍輝度ブロックとの空間方向および輝度方向の距離に基づいて前記特性値を加重平均することにより、前記入力画像をエッジ保存平滑化する
    ステップを含む画像処理方法。
  10. 入力画像に対するエッジ保存平滑化処理を行う画像処理用のプログラムであって、
    前記入力画像を空間方向に分割して得られる空間ブロック内の画素が、その画素の輝度値に基づいて、所定の輝度範囲内の輝度値の画素からなる輝度ブロックの何れかに分類されることにより、前記空間ブロックがさらに輝度方向に分割されて得られる前記輝度ブロックについて、前記輝度ブロックに属す前記画素の頻度値を算出し、
    前記輝度ブロックの特性を示す特性値を算出し、
    前記入力画像の各画素位置について、前記画素近傍のいくつかの前記空間ブロックから得られた前記輝度ブロックである近傍輝度ブロックの前記特性値および前記頻度値を用いて、前記画素と前記近傍輝度ブロックとの空間方向および輝度方向の距離に基づいて前記特性値を加重平均することにより、前記入力画像をエッジ保存平滑化する
    ステップを含む処理をコンピュータに実行させるプログラム。
  11. 入力画像の階調補正を行う画像処理装置であって、
    前記入力画像を空間方向に分割して得られる空間ブロック内の画素が、その画素の輝度値に基づいて、所定の輝度範囲内の輝度値の画素からなる輝度ブロックの何れかに分類されることにより、前記空間ブロックがさらに輝度方向に分割されて得られる前記輝度ブロックについて、前記輝度ブロックに属す前記画素の頻度値を算出する頻度値算出手段と、
    前記輝度ブロックの特性を示す特性値を算出する特性値算出手段と、
    前記入力画像の各画素位置について、前記画素近傍のいくつかの前記空間ブロックから得られた前記輝度ブロックである近傍輝度ブロックの前記特性値および前記頻度値を用いて、前記画素と前記近傍輝度ブロックとの空間方向および輝度方向の距離に基づいて前記特性値を加重平均することにより、前記入力画像上における前記画素が含まれる物体領域の平均的な明るさを示す大局輝度値を算出する加重積和手段と、
    前記各画素位置について、前記大局輝度値に基づいて、前記画素ごとのトーンカーブの形状を算出するトーンカーブ算出手段と、
    前記各画素位置について、前記トーンカーブを用いて、前記画素の前記輝度値の階調を補正する輝度値階調補正手段と
    を備える画像処理装置。
  12. 前記トーンカーブ算出手段は、前記大局輝度値を前記トーンカーブにより階調補正した場合に、前記大局輝度値が、前記トーンカーブによる階調補正後の輝度値の取り得る範囲のほぼ中間の値に変換されるように、前記トーンカーブの形状を算出する
    請求項11に記載の画像処理装置。
  13. 前記各画素位置について、前記トーンカーブを用いて、前記画素の前記大局輝度値の階調を補正する大局輝度値階調補正手段と、
    前記大局輝度値階調補正手段により階調補正された前記大局輝度値と、前記トーンカーブの形状とに基づいて、前記輝度値階調補正手段により階調補正された前記輝度値のコントラストを補正するコントラスト補正手段と
    をさらに備える請求項11に記載の画像処理装置。
  14. 前記加重積和手段は、
    前記近傍輝度ブロックが得られる前記空間ブロックと前記画素との相対的な位置関係により定まる空間重みと、前記近傍輝度ブロックの前記頻度値とを用いた補間処理を行って、前記近傍輝度ブロックに対応する輝度ごとに、前記画素の位置の補間された頻度値である補間頻度値を算出する頻度値補間手段と、
    前記空間重みと、前記近傍輝度ブロックの前記特性値とを用いた補間処理を行って、前記近傍輝度ブロックに対応する前記輝度ごとに、前記画素の位置の補間された特性値である補間特性値を算出する特性値補間手段と、
    前記画素の前記輝度値と、前記近傍輝度ブロックに対応する前記輝度とから定まる輝度重みが乗算された、前記補間頻度値の総和を求めることにより、前記輝度重みによる前記補間頻度値の加重和を算出する頻度値積和手段と、
    前記輝度重みが乗算された、前記補間特性値の総和を求めることにより、前記輝度重みによる前記補間特性値の加重和を算出する特性値積和手段と、
    前記補間特性値の加重和を、前記補間頻度値の加重和で除算して、前記特性値の加重平均を算出する除算手段と
    を備える請求項11に記載の画像処理装置。
  15. 前記加重積和手段は、
    前記空間ブロックごとに、その空間ブロックから得られた前記近傍輝度ブロックの前記頻度値に対して、輝度値を変数とする輝度重み関数を畳み込む第1の畳み込み手段と、
    前記空間ブロックごとに、その空間ブロックから得られた前記近傍輝度ブロックの前記特性値に対して、前記輝度重み関数を畳み込む第2の畳み込み手段と、
    前記近傍輝度ブロックが得られる前記空間ブロックと前記画素との相対的な位置関係により定まる空間重みと、前記輝度重み関数が畳み込まれた前記頻度値とを用いた補間処理を行って、前記画素の位置における、前記画素の前記輝度値に対する補間された頻度値である補間頻度値を算出する頻度値補間手段と、
    前記空間重みと、前記輝度重み関数が畳み込まれた前記特性値とを用いた補間処理を行って、前記画素の位置における、前記画素の前記輝度値に対する補間された特性値である補間特性値を算出する特性値補間手段と、
    前記補間特性値を、前記補間頻度値で除算して、前記特性値の加重平均を算出する除算手段と
    を備える請求項11に記載の画像処理装置。
  16. 前記加重積和手段は、
    所定のフレームの前記入力画像から算出された、前記輝度重み関数が畳み込まれた前記頻度値を、前記入力画像の1フレーム分の時間だけ保持する頻度値保持手段と、
    前記所定のフレームの前記入力画像から算出された、前記輝度重み関数が畳み込まれた前記特性値を、前記入力画像の1フレーム分の時間だけ保持する特性値保持手段と
    をさらに備え、
    前記頻度値補間手段は、前記所定のフレームの前記入力画像から算出され、前記頻度値保持手段に保持されている前記頻度値を用いて、前記所定のフレームの次のフレームの前記入力画像について前記補間頻度値を算出し、
    前記特性値補間手段は、前記所定のフレームの前記入力画像から算出され、前記特性値保持手段に保持されている前記特性値を用いて、前記次のフレームの前記入力画像について前記補間特性値を算出する
    請求項15に記載の画像処理装置。
  17. 前記入力画像に基づいて、前記入力画像が縮小された縮小画像を生成する縮小画像生成手段をさらに備え、
    前記頻度値算出手段は、前記縮小画像が空間方向および輝度方向に分割されて得られた輝度ブロックについて、その輝度ブロックに属す前記縮小画像の画素の頻度値を算出し、
    前記特性値算出手段は、前記縮小画像が空間方向および輝度方向に分割されて得られた輝度ブロックについて、その輝度ブロックの特性を示す特性値を算出する
    請求項11に記載の画像処理装置。
  18. 所定のフレームの前記入力画像から算出された前記頻度値を、前記入力画像の1フレーム分の時間だけ保持する頻度値保持手段と、
    前記所定のフレームの前記入力画像から算出された前記特性値を、前記入力画像の1フレーム分の時間だけ保持する特性値保持手段と
    をさらに備え、
    前記加重積和手段は、前記頻度値保持手段に保持されている前記頻度値、および前記特性値保持手段に保持されている前記特性値を用いて、前記所定のフレームの次のフレームの前記入力画像について、前記特性値の加重平均を行う
    請求項11に記載の画像処理装置。
  19. 入力画像の階調補正を行う画像処理方法であって、
    前記入力画像を空間方向に分割して得られる空間ブロック内の画素が、その画素の輝度値に基づいて、所定の輝度範囲内の輝度値の画素からなる輝度ブロックの何れかに分類されることにより、前記空間ブロックがさらに輝度方向に分割されて得られる前記輝度ブロックについて、前記輝度ブロックに属す前記画素の頻度値を算出し、
    前記輝度ブロックの特性を示す特性値を算出し、
    前記入力画像の各画素位置について、前記画素近傍のいくつかの前記空間ブロックから得られた前記輝度ブロックである近傍輝度ブロックの前記特性値および前記頻度値を用いて、前記画素と前記近傍輝度ブロックとの空間方向および輝度方向の距離に基づいて前記特性値を加重平均することにより、前記入力画像上における前記画素が含まれる物体領域の平均的な明るさを示す大局輝度値を算出し、
    前記各画素位置について、前記大局輝度値に基づいて、前記画素ごとのトーンカーブの形状を算出し、
    前記各画素位置について、前記トーンカーブを用いて、前記画素の前記輝度値の階調を補正する
    ステップを含む画像処理方法。
  20. 入力画像の階調補正を行う画像処理用のプログラムであって、
    前記入力画像を空間方向に分割して得られる空間ブロック内の画素が、その画素の輝度値に基づいて、所定の輝度範囲内の輝度値の画素からなる輝度ブロックの何れかに分類されることにより、前記空間ブロックがさらに輝度方向に分割されて得られる前記輝度ブロックについて、前記輝度ブロックに属す前記画素の頻度値を算出し、
    前記輝度ブロックの特性を示す特性値を算出し、
    前記入力画像の各画素位置について、前記画素近傍のいくつかの前記空間ブロックから得られた前記輝度ブロックである近傍輝度ブロックの前記特性値および前記頻度値を用いて、前記画素と前記近傍輝度ブロックとの空間方向および輝度方向の距離に基づいて前記特性値を加重平均することにより、前記入力画像上における前記画素が含まれる物体領域の平均的な明るさを示す大局輝度値を算出し、
    前記各画素位置について、前記大局輝度値に基づいて、前記画素ごとのトーンカーブの形状を算出し、
    前記各画素位置について、前記トーンカーブを用いて、前記画素の前記輝度値の階調を補正する
    ステップを含む処理をコンピュータに実行させるプログラム。
JP2008014505A 2008-01-25 2008-01-25 画像処理装置および方法、並びにプログラム Expired - Fee Related JP4998287B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2008014505A JP4998287B2 (ja) 2008-01-25 2008-01-25 画像処理装置および方法、並びにプログラム
CN2009800001995A CN101682686B (zh) 2008-01-25 2009-01-23 图像处理设备、图像处理方法
EP09704285.7A EP2131569B1 (en) 2008-01-25 2009-01-23 Apparatus, method and program for image processing
US12/530,251 US8248492B2 (en) 2008-01-25 2009-01-23 Edge preserving and tone correcting image processing apparatus and method
KR1020097019072A KR20100106902A (ko) 2008-01-25 2009-01-23 화상처리장치 및 방법과 프로그램
PCT/JP2009/051030 WO2009093673A1 (ja) 2008-01-25 2009-01-23 画像処理装置および方法、並びにプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008014505A JP4998287B2 (ja) 2008-01-25 2008-01-25 画像処理装置および方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2009177558A true JP2009177558A (ja) 2009-08-06
JP4998287B2 JP4998287B2 (ja) 2012-08-15

Family

ID=40901178

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008014505A Expired - Fee Related JP4998287B2 (ja) 2008-01-25 2008-01-25 画像処理装置および方法、並びにプログラム

Country Status (6)

Country Link
US (1) US8248492B2 (ja)
EP (1) EP2131569B1 (ja)
JP (1) JP4998287B2 (ja)
KR (1) KR20100106902A (ja)
CN (1) CN101682686B (ja)
WO (1) WO2009093673A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011135182A (ja) * 2009-12-22 2011-07-07 Sony Corp 画像処理装置および方法、並びにプログラム
CN102196175A (zh) * 2010-03-10 2011-09-21 索尼公司 图像处理设备和方法以及程序
JP2011205209A (ja) * 2010-03-24 2011-10-13 Sony Corp 画像処理装置および方法、プログラム
WO2012026597A1 (ja) 2010-08-27 2012-03-01 ソニー株式会社 画像処理装置および方法
JP2012049759A (ja) * 2010-08-26 2012-03-08 Fujifilm Corp 撮像モジュールおよび画像信号処理方法
JP2012216888A (ja) * 2011-03-31 2012-11-08 Sony Corp 画像理装置および方法、並びにプログラム
US8582923B2 (en) 2010-03-24 2013-11-12 Sony Corporation Image processing apparatus, image processsing method, and program
US8849056B2 (en) 2010-09-06 2014-09-30 Sony Corporation Apparatus and method for image edge-preserving smoothing
US9928577B2 (en) 2016-01-14 2018-03-27 Fujitsu Limited Image correction apparatus and image correction method
WO2018212212A1 (ja) * 2017-05-18 2018-11-22 国立大学法人 鹿児島大学 画像調整装置、画像調整方法及びプログラム

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4795473B2 (ja) * 2009-06-29 2011-10-19 キヤノン株式会社 画像処理装置及びその制御方法
JP5424921B2 (ja) * 2009-08-31 2014-02-26 キヤノン株式会社 画像処理装置及びその制御方法
JP4703759B2 (ja) * 2009-11-27 2011-06-15 株式会社東芝 画像処理装置および同装置における画像処理方法
JP2011166522A (ja) * 2010-02-10 2011-08-25 Sony Corp 画像処理装置、画像処理方法及びプログラム
US20110206132A1 (en) * 2010-02-19 2011-08-25 Lazar Bivolarsky Data Compression for Video
US9819358B2 (en) 2010-02-19 2017-11-14 Skype Entropy encoding based on observed frequency
JP5672776B2 (ja) * 2010-06-02 2015-02-18 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
US8422102B2 (en) * 2010-09-29 2013-04-16 Konica Minolta Laboratory U.S.A., Inc. Preferred hue selection method for optimizing color image reproduction
JP5644444B2 (ja) * 2010-12-03 2014-12-24 富士通株式会社 画像表示装置、画像表示方法、および画像処理装置
US8570394B1 (en) * 2011-01-18 2013-10-29 Intellectual Ventures Fund 79 Llc Systems, methods, and mediums for adjusting an exposure of an image using a histogram
KR101579831B1 (ko) * 2011-10-20 2015-12-23 돌비 레버러토리즈 라이쎈싱 코오포레이션 비디오 등화를 위한 방법 및 시스템
TWI497320B (zh) * 2011-11-14 2015-08-21 Novatek Microelectronics Corp 色調對應方法及影像處理裝置
CN103366178B (zh) * 2012-03-30 2017-12-29 北京百度网讯科技有限公司 一种用于对目标图像进行颜色分类的方法与设备
KR101929560B1 (ko) 2013-01-29 2019-03-14 삼성전자주식회사 이미지 에지 검출 방법 및 장치
MX2016012455A (es) 2014-03-25 2017-07-28 6115187 Canada Inc D/B/A Immervision Inc Definicion automatizada del comportamiento del sistema o experiencia del usuario mediante grabacion, intercambio y procesamiento de la informacion asociada con imagen gran angular.
GB201410635D0 (en) * 2014-06-13 2014-07-30 Univ Bangor Improvements in and relating to the display of images
CA2977204C (en) * 2015-03-05 2023-04-04 Sony Corporation Photoelectric conversion of video data having a predetermined photoelectric conversion characteristic
US11176646B2 (en) * 2015-06-25 2021-11-16 Samsung Electronics Co., Ltd. HDR tone mapping methods with scene adaptive parameterized tone map function
US9639923B2 (en) * 2015-07-08 2017-05-02 National Taiwan University Bilateral filter and a method thereof
US10902567B2 (en) * 2015-11-24 2021-01-26 Koninklijke Philips N.V. Handling multiple HDR image sources
TWI577178B (zh) * 2016-01-06 2017-04-01 睿緻科技股份有限公司 影像處理裝置及其影像壓縮方法
US10121231B2 (en) * 2016-02-01 2018-11-06 Texas Instruments Incorporated Adaptive bilateral (BL) filtering for computer vision
CN107404600B (zh) * 2016-05-19 2021-08-17 三星Sds株式会社 图像处理装置及方法
JP6685198B2 (ja) * 2016-07-27 2020-04-22 キヤノン株式会社 撮像装置及びその制御方法及びプログラム
US10504487B2 (en) * 2016-10-14 2019-12-10 Apple Inc. Ambient and content adaptive pixel manipulation
JP6817779B2 (ja) * 2016-10-20 2021-01-20 キヤノン株式会社 画像処理装置、その制御方法、プログラムならびに記録媒体
CN107169938B (zh) * 2017-05-24 2019-05-31 深圳市华星光电半导体显示技术有限公司 亮度调节系统
CN107845360B (zh) * 2017-11-11 2021-05-07 安徽立大加智能科技有限公司 一种显示器图像修正方法
CN108550158B (zh) * 2018-04-16 2021-12-17 Tcl华星光电技术有限公司 图像边缘处理方法、电子装置及计算机可读存储介质
US10863157B2 (en) 2018-07-06 2020-12-08 Samsung Electronics Co., Ltd. Guided tone mapping of high dynamic range video based on a Bezier curve for presentation on a display device
CN112446833B (zh) * 2019-09-02 2024-05-31 武汉Tcl集团工业研究院有限公司 一种图像处理方法、智能终端及存储介质
JP7279613B2 (ja) * 2019-10-31 2023-05-23 株式会社デンソー 画像処理装置
US10929958B1 (en) * 2019-11-15 2021-02-23 Novatek Microelectronics Corp. Method and image processing device for image blurring
KR20210123608A (ko) * 2020-04-03 2021-10-14 에스케이하이닉스 주식회사 이미지 센싱 장치 및 그의 동작 방법
US20220245862A1 (en) * 2020-04-28 2022-08-04 Shenzhen Sitan Technology Co., Ltd. Image processing method and device, camera apparatus and storage medium
CN113014825B (zh) * 2021-01-22 2022-11-22 浙江大华技术股份有限公司 图像亮度调整方法、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001275015A (ja) * 2000-03-23 2001-10-05 Sony Corp 画像処理回路及び画像処理方法
JP2006310999A (ja) * 2005-04-27 2006-11-09 Sony Corp 画像処理装置および方法、並びにプログラム
JP2007096509A (ja) * 2005-09-27 2007-04-12 Fujifilm Corp 画像処理装置、および画像処理方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5552825A (en) * 1994-11-08 1996-09-03 Texas Instruments Incorporated Color resolution enhancement by using color camera and methods
US6148115A (en) * 1996-11-08 2000-11-14 Sony Corporation Image processing apparatus and image processing method
US6285798B1 (en) * 1998-07-06 2001-09-04 Eastman Kodak Company Automatic tone adjustment by contrast gain-control on edges
US6650774B1 (en) 1999-10-01 2003-11-18 Microsoft Corporation Locally adapted histogram equalization
US6665448B1 (en) * 2000-09-29 2003-12-16 Hewlett-Packard Development Company, L.P. Selective smoothing and sharpening of images by generalized unsharp masking
JP4329391B2 (ja) * 2003-04-25 2009-09-09 ソニー株式会社 信号処理装置および方法、記録媒体、並びにプログラム
EP1515274A1 (en) * 2003-07-07 2005-03-16 Sony International (Europe) GmbH Method and apparatus for obtaining histograms from an image
CN100369478C (zh) * 2004-02-18 2008-02-13 华亚微电子(上海)有限公司 基于方向性插值的图像边缘平滑方法
CN100552714C (zh) * 2004-07-13 2009-10-21 株式会社理光 图像分辨率变换方法、图像处理装置及图像显示装置
US7394930B2 (en) * 2005-01-07 2008-07-01 Nokia Corporation Automatic white balancing of colour gain values
JP4977395B2 (ja) * 2006-04-14 2012-07-18 富士フイルム株式会社 画像処理装置及び方法
JP2008015741A (ja) * 2006-07-05 2008-01-24 Konica Minolta Holdings Inc 画像処理装置、画像処理方法及びこれを用いた撮像装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001275015A (ja) * 2000-03-23 2001-10-05 Sony Corp 画像処理回路及び画像処理方法
JP2006310999A (ja) * 2005-04-27 2006-11-09 Sony Corp 画像処理装置および方法、並びにプログラム
JP2007096509A (ja) * 2005-09-27 2007-04-12 Fujifilm Corp 画像処理装置、および画像処理方法

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011135182A (ja) * 2009-12-22 2011-07-07 Sony Corp 画像処理装置および方法、並びにプログラム
US8526729B2 (en) 2010-03-10 2013-09-03 Sony Corporation Image processing apparatus and method, and program
CN102196175A (zh) * 2010-03-10 2011-09-21 索尼公司 图像处理设备和方法以及程序
JP2011205209A (ja) * 2010-03-24 2011-10-13 Sony Corp 画像処理装置および方法、プログラム
US8582923B2 (en) 2010-03-24 2013-11-12 Sony Corporation Image processing apparatus, image processsing method, and program
JP2012049759A (ja) * 2010-08-26 2012-03-08 Fujifilm Corp 撮像モジュールおよび画像信号処理方法
WO2012026597A1 (ja) 2010-08-27 2012-03-01 ソニー株式会社 画像処理装置および方法
US8849056B2 (en) 2010-09-06 2014-09-30 Sony Corporation Apparatus and method for image edge-preserving smoothing
JP2012216888A (ja) * 2011-03-31 2012-11-08 Sony Corp 画像理装置および方法、並びにプログラム
US9928577B2 (en) 2016-01-14 2018-03-27 Fujitsu Limited Image correction apparatus and image correction method
WO2018212212A1 (ja) * 2017-05-18 2018-11-22 国立大学法人 鹿児島大学 画像調整装置、画像調整方法及びプログラム
JPWO2018212212A1 (ja) * 2017-05-18 2020-03-19 国立大学法人 鹿児島大学 画像調整装置、画像調整方法及びプログラム
US11107441B2 (en) 2017-05-18 2021-08-31 Sakuichi Ohtsuka Image adjustment device, image adjustment method, and computer readable medium
JP7180885B2 (ja) 2017-05-18 2022-11-30 作一 大塚 画像調整装置及びプログラム

Also Published As

Publication number Publication date
WO2009093673A1 (ja) 2009-07-30
CN101682686B (zh) 2011-11-30
EP2131569B1 (en) 2014-04-30
US8248492B2 (en) 2012-08-21
CN101682686A (zh) 2010-03-24
EP2131569A1 (en) 2009-12-09
KR20100106902A (ko) 2010-10-04
US20110050934A1 (en) 2011-03-03
EP2131569A4 (en) 2011-06-01
JP4998287B2 (ja) 2012-08-15

Similar Documents

Publication Publication Date Title
JP4998287B2 (ja) 画像処理装置および方法、並びにプログラム
JP5495025B2 (ja) 画像処理装置および方法、並びにプログラム
US8849056B2 (en) Apparatus and method for image edge-preserving smoothing
JP4894595B2 (ja) 画像処理装置および方法、並びに、プログラム
JP4460839B2 (ja) デジタル画像鮮鋭化装置
JP4526445B2 (ja) 撮像装置
JP4214457B2 (ja) 画像処理装置および方法、記録媒体、並びにプログラム
WO2006025486A1 (ja) 画像補正処理システム及び画像補正処理方法
US8831346B2 (en) Image processing apparatus and method, and program
CN111260580B (zh) 图像去噪方法、计算机装置及计算机可读存储介质
JP4456819B2 (ja) デジタル画像鮮鋭化装置
JP2011188391A (ja) 画像処理装置および方法、並びにプログラム
JP2002083293A (ja) デジタルイメージ処理のためのカラー情報を使用したノイズ低減方法
JP2010218110A (ja) ノイズ低減装置、ノイズ低減方法、ノイズ低減プログラム、記録媒体
JP2011203814A (ja) 画像処理装置および方法、プログラム
JPWO2009081485A1 (ja) 画像処理装置
JP2005039460A (ja) 画像処理方法および装置
JP6614843B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
KR20090117617A (ko) 화상 처리 장치, 방법, 및 프로그램
JP4345366B2 (ja) 画像処理プログラムおよび画像処理装置
JP5295854B2 (ja) 画像処理装置及び画像処理プログラム
JP4125191B2 (ja) 画像処理装置および方法
JP5472734B2 (ja) 画像処理装置および方法、プログラム
JP2017130167A (ja) 画像処理装置、撮像装置および画像処理プログラム
JP5197447B2 (ja) 画像処理装置及び撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120417

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120430

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150525

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees