JP3817635B2 - Color image processing apparatus and processing method - Google Patents

Color image processing apparatus and processing method Download PDF

Info

Publication number
JP3817635B2
JP3817635B2 JP2003053772A JP2003053772A JP3817635B2 JP 3817635 B2 JP3817635 B2 JP 3817635B2 JP 2003053772 A JP2003053772 A JP 2003053772A JP 2003053772 A JP2003053772 A JP 2003053772A JP 3817635 B2 JP3817635 B2 JP 3817635B2
Authority
JP
Japan
Prior art keywords
image data
brightness
color
determination table
ratio determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003053772A
Other languages
Japanese (ja)
Other versions
JP2004229259A (en
Inventor
真人 中島
慎吾 安藤
洋平 濱田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keio University
Original Assignee
Keio University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keio University filed Critical Keio University
Priority to JP2003053772A priority Critical patent/JP3817635B2/en
Publication of JP2004229259A publication Critical patent/JP2004229259A/en
Application granted granted Critical
Publication of JP3817635B2 publication Critical patent/JP3817635B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、カラー静止画像およびカラー動画像を高画質で撮像する装置に関し、特に、撮像素子のダイナミックレンジが狭いために発生する潰れおよび白とびの抑制が可能なカラー画像処理装置および処理方法に関するものである。
【0002】
【従来の技術】
逆光下において、明るい景色をバックに記念撮影を行うと、人物が黒く潰れて撮影されてしまうことが多い。近年、デジタルスチルカメラやデジタルビデオカメラには逆光防止機能が備わっているが、それを用いて撮影すると、人物は鮮明に写すことが出来ても、バックの景色が飽和して白くとんで撮影されてしまう。
【0003】
このように、明暗の混在する状況において、潰れや白とびを起こすことなく、撮影対象全体を鮮明に撮影することは困難であった。その原因は、撮像装置のダイナミックレンジの狭さにある。一般に実際の撮影対象に比べて、撮像装置のダイナミックレンジは狭いため、撮影対象の非常に明るい部分や暗い部分の微細な明度差は圧縮され、細部情報が失われる。そのため、潰れや白とびが発生する。近年広く普及しているデジタルスチルカメラやデジタルビデオカメラにおいては撮像素子の小型化に伴い、さらにこの問題が深刻である。
【0004】
従来、上記のような細部情報の消失を低減するために、種々の技術が提案されている。特許文献1には、1つのCCD撮像素子からの画像データを用いて、補正が必要な領域の判別および適切な補正度合を算出し、局所的な画質改善を全自動で行うことを可能にしたカラー画像処理方法および処理装置が開示されている。また、特許文献2または3には、それぞれ複数枚または1枚のCCD撮像素子を用いて1回の撮像で露光状態の異なる複数の画像データを取得し、それらの画像データを合成することにより、ダイナミックレンジの広い画像を得ることを可能にしたデジタルスチルカメラが記載されている。さらに、印刷業界では、多重露光によって印刷物の品質を高める技術が以前から採用されている。
【0005】
【特許文献1】
特開2002-140700号公報
【特許文献2】
特開平9-275527号公報
【特許文献3】
特開平11-317905号公報
【0006】
【発明が解決しようとする課題】
特許文献1に記載されているような1つのCCD撮像素子からの画像データを用いて画質を改善する手法に関しては、撮像後に画質改善処理を加えるため、撮像時に黒く潰れきっている部分や飽和を起こしている部分の画質を改善することはできない。また、特許文献2および3に記載されているようなCCD撮像素子からの露光状態の異なる入力画像データを合成する手法に関しては、すべてのデータに関して、各濃度に対して一定の合成比率で複数の入力画像データを合成しているため、各部分において最適な合成が行えない場合がある。
【0007】
本発明は、このような問題点を解決するためになされたもので、画像の潰れおよび白とびを抑制し、かつ各部分が最適な明度を有する画像を得ることの出来るカラー画像処理装置および処理方法を提供することを目的とする。
【0008】
【課題を解決するための手段】
本発明に係るカラー画像処理装置は、被写体を撮像して生成した露出オーバーの第1のカラー原色静止画像データから第1の明度画像データを生成する手段と、前記被写体と実質的に同一の被写体を撮像して生成した露出アンダーの第2のカラー原色静止画像データから第2の明度画像データを生成する手段と、前記第1の明度画像データを複数の領域にブロック単位で量子化して分割する手段と、前記第2の明度画像データを複数の領域にブロック単位で量子化して分割する手段と、前記第1の明度画像データの分割された領域毎に濃度ヒストグラムのエントロピー値を算出する手段と、前記第2の明度画像データの分割された領域毎に濃度ヒストグラムのエントロピー値を算出する手段と、前記第1の明度画像データと前記第2の明度画像データとを合成するための合成比率決定テーブルであって、明度が相対的に低い程前記第1の明度画像データの比率が相対的に高くなり、明度が相対的に高い程前記第2の明度画像データの比率が相対的に高くなり、かつ明度の最低値では前記第2の明度画像データの分割された領域毎の濃度ヒストグラムのエントロピー値で持ち上げ、明度の最高値では前記第1の明度画像データの分割された領域毎の濃度ヒストグラムのエントロピー値で持ち上げた合成比率決定テーブルを作成する手段と、前記合成比率決定テーブルを用いて前記第1の明度画像データと前記第2の明度画像データとを合成する手段とを具備することを特徴とする。このように構成したことにより、画像の視認性の指標となる前記領域毎の濃度ヒストグラムのエントロピー値を基に露出オーバーの画像データと露出アンダーの画像データとの合成比率を変えることで、画像内の部分部分に応じて露光状態の異なる2つの入力画像データの合成比率を最適な値に設定し、画像内のどの部分も犠牲にせず、最適な合成結果が得られる。
【0009】
また、本発明に係るカラー画像処理装置は、被写体を撮像して生成した露出オーバーの第1のカラー原色動画像データから第1の明度画像データを生成する手段と、前記被写体と実質的に同一の被写体を撮像して生成した露出アンダーの第2のカラー原色動画像データから第2の明度画像データを生成する手段と、予め定められたフレーム毎の前記第1の明度画像データを複数の領域にブロック単位で量子化して分割する手段と、予め定められたフレーム毎の前記第2の明度画像データを複数の領域にブロック単位で量子化して分割する手段と、前記第1の明度画像データの分割された領域毎に濃度ヒストグラムのエントロピー値を算出する手段と、前記第2の明度画像データの分割された領域毎に濃度ヒストグラムのエントロピー値を算出する手段と、前記第1の明度画像データと前記第2の明度画像データとを合成するための合成比率決定テーブルであって、明度が相対的に低い程前記第1の明度画像データの比率が相対的に高くなり、明度が相対的に高い程前記第2の明度画像データの比率が相対的に高くなり、かつ明度の最低値では前記第2の明度画像データの分割された領域毎の濃度ヒストグラムのエントロピー値で持ち上げ、明度の最高値では前記第1の明度画像データの分割された領域毎の濃度ヒストグラムのエントロピー値で持ち上げた合成比率決定テーブルを作成する手段と、前記作成された合成比率決定テーブルを過去の合成比率決定テーブルと時間的に内挿する手段と、前記時間的に内挿された合成比率決定テーブルを用いて前記第1の明度画像データと前記第2の明度画像データとを合成する手段とを具備することを特徴とする。このように構成したことにより、画像の視認性の指標となる前記領域毎の濃度ヒストグラムのエントロピー値を基に露出オーバーの画像データと露出アンダーの画像データとの合成比率を変えることで、画像の部分部分に応じて露光状態の異なる2つの入力画像データの合成比率を最適な値に設定し、画像のどの部分も犠牲にせず、最適な合成結果が得られ、さらに過去の合成比率と内挿することで、動画像のフレーム間で合成比率が大きく変化することを抑制し、フリッカの発生を抑えることが出来る。
【0010】
さらに、本発明のカラー画像処理装置は、前記合成比率決定テーブルにおける隣接するブロックの合成比率を内挿する手段を具備することを特徴とする。このように構成したことにより、局所的に明度が大きく異なる部分の発生を防止することが出来る。
【0011】
そして、本発明のカラー画像処理装置は、予め定められたフレームの内、隣り合うフレームの前記合成比率決定テーブルにおける合成比率を内挿する手段を具備することを特徴とする。このように構成したことにより、動画像データの全てのフレームに対して領域分割およびエントロピー値算出を行わずに、全てのフレームの合成比率決定テーブルを作成することが出来る。
【0012】
また、本発明のカラー画像処理装置は、領域の境界のブロックの合成比率決定テーブルにおける合成比率を内挿する手段を具備することを特徴とする。このように構成したことにより、領域の境界に近づくにつれて互いの合成比率を近づけ、ブロックノイズの発生を抑制することが出来る。
【0013】
さらに、本発明のカラー画像処理装置は、前記第1のカラー原色静止画像データから第1の色画像データを生成する手段と、前記第2のカラー原色静止画像データから第2の色画像データを生成する手段と、前記合成比率決定テーブルを用いて前記第1の色画像データと前記第2の色画像データとを合成する手段とを具備することを特徴とする。このように構成したことにより、色画像データに対する専用の合成比率決定テーブルを作成する場合に比較して、カラー静止画像を処理対象とするカラー画像処理装置の構成を簡単にすることが出来る。
【0014】
そして、本発明のカラー画像処理装置は、前記第1のカラー原色動画像データから第1の色画像データを生成する手段と、前記第2のカラー原色動画像データから第2の色画像データを生成する手段と、前記合成比率決定テーブルを用いて前記第1の色画像データと前記第2の色画像データとを合成する手段とを具備することを特徴とする。このように構成したことにより、色画像データに対する専用の合成比率決定テーブルを作成する場合に比較して、カラー動画像を処理対象とするカラー画像処理装置の構成を簡単にすることが出来る。
【0015】
また、本発明のカラー画像処理装置は、前記第1のカラー原色静止画像データから第1の色画像データを生成する手段と、前記第2のカラー原色静止画像データから第2の色画像データを生成する手段と、前記合成比率決定テーブルの合成比率を前記第1の色画像データの彩度および前記第2の色画像データの彩度を考慮して変更した合成比率により、前記第1の色画像データと前記第2の色画像データとを合成する手段とを具備することを特徴とする。このように構成したことにより、露出アンダーの画像データと露出オーバーの画像データとが画像の視認性および色の鮮やかさを考慮した最適な比率で合成されたカラー静止画像を得ることが出来る。
【0016】
さらに、本発明のカラー画像処理装置は、前記第1のカラー原色動画像データから第1の色画像データを生成する手段と、前記第2のカラー原色動画像データから第2の色画像データを生成する手段と、前記合成比率決定テーブルの合成比率を前記第1の色画像データの彩度および前記第2の色画像データの彩度を考慮して変更した合成比率により、前記第1の色画像データと前記第2の色画像データとを合成する手段とを具備することを特徴とする。このように構成したことにより、露出アンダーの画像データと露出オーバーの画像データとが画像の視認性および色の鮮やかさを考慮した最適な比率で合成されたカラー動画像を得ることが出来る。
【0017】
【発明の実施の形態】
以下、本発明の実施の形態について図面を参照しながら詳細に説明する。
(第1の実施の形態)
図1は本発明の第1の実施の形態のカラー画像処理装置の構成を示すブロック図であり、図2はその装置における処理の流れの概要を示すフロー図である。本実施の形態のカラー画像処理装置はカラー静止画像を処理対象とする。
【0018】
図1に示すように、本実施の形態のカラー画像処理装置は、第1の撮像手段11、第1の色形式変換手段12、第1の領域分割手段13、第1のエントロピー値算出手段14、第2の撮像手段15、第2の色形式変換手段16、第2の領域分割手段17、第2のエントロピー値算出手段18、合成比率決定テーブル作成手段19、合成比率空間的内挿手段20、Y合成手段21、Cr合成手段22、Cb合成手段23、および第3の色形式変換手段24を具備している。なお、このカラー画像処理装置において、第1の撮像手段11および第2の撮像手段15以外の部分はコンピュータのアプリケーションソフトとして構成しても良いし、ハードウェアとして構成しても良い。
【0019】
第1の撮像手段11および第2の撮像手段15は、CCDなどの撮像素子を備えており、実質的に同一の被写体を同時に撮像することが出来るように、カラー画像処理装置の筐体(図示せず)に位置決めされ固定されている。また、第1の撮像手段11および第2の撮像手段15の光路の前方には、ハーフミラー(図示せず)が配置され、さらにその前方にはレンズが配置されている。そして、レンズを透過した被写体からの光線はハーフミラーで二分され、第1の撮像手段11および第2の撮像手段15に同時に入力される。第1の撮像手段11および第2の撮像手段15は、図2のステップS1に示されているように、RGB静止画像データを取得する。ここで、第1の撮像手段11は露出オーバーの画像データを取得し、第2の撮像手段15は露出アンダーの画像データを取得する。
【0020】
第1の色形式変換手段12は、第1の撮像手段11で取得されたRGB静止画像データ(R1,G1,B1)をYCrCb静止画像データ(Y1,Cr1,Cb1)に変換する。すなわち、三原色(R,G,B)成分からなるカラー原色画像データを1つの明度画像データ成分(Y)および二つの色画像データ成分(Cr,Cb)からなる明度および色成分画像データに変換する。同様に、第2の色形式変換手段16は第2の撮像手段15で取得されたRGB静止画像データ(R2,G2,B2)をYCrCb静止画像データ(Y2,Cr2,Cb2)に変換する。ここで、第1の色形式変換手段12および第2の色形式変換手段16における変換アルゴリズムを下記式[1]〜[3]に示す。式[1]により、図2のステップS2に示されている明度画像データ作成が行われる。
Y=0.29900×R+0.58700×G+0.11400×B …式[1]
Cb=−0.16874×R−0.33126×G+0.50000×B …式[2]
Cr=0.50000×R−0.41869×G−0.08131×B …式[3]
【0021】
第1の領域分割手段13は、ステップS3に示されているように、入力された露出オーバーの明度画像データY1に対して領域分割と、分割された領域の境界の空間的量子化とを行う。まず、入力明度画像データY1のテクスチャを解析し、この解析結果に基づいて入力画像を複数の領域に分割する。本実施の形態では、下記の式[4]に示すLOG(Laplacian Of Gaussian)フィルタを入力画像デー タに演算するフィルタリング処理により領域を決定している。図3(a)に示す入力画像を領域分割した結果を図3(c)に示す。なお、式[4]において、r2=x2+y2である。LOGフィルタは画像処理の基本アルゴリズムとして周知である(例えば、土屋裕、深田陽司著「画像処理」、pp.68-74(特にpp.73-74)、1990-1-25、(株)コロナ社)から、ここでは詳細な説明は省略する。
【0022】
【数1】

Figure 0003817635
【0023】
ここで、テクスチャ解析による領域分割の結果と、人間が同一の画像を見て手動で領域分割した結果とは異なることが多い。よって、上記テクスチャ解析による領域分割の結果をそのまま用いると、両者の結果の異なる部分が人間の目には不自然に感じられる。
【0024】
そこで、本実施の形態では、画素単位で解析された上記領域分割の結果を、多少の解像度を下げ、量子化している。具体的には、入力画像を正方形ブロックに分割して、図3(c)に示した領域分割の結果と重ね合わせ、領域の境界に該当する正方形ブロックについては、領域の占有率に応じていずれの領域に属するかを決定する。これにより、図3(c)に示した領域分割の結果が同図(e)に示すように量子化される。ここで、例えばアスペクト比が4:3、画素数が1600×1200ピクセルの静止画像の横を16分割、縦を12分割した場合、正方形ブロックのサイズは100×100ピクセルとなる。なお、後述する第2の実施の形態の場合、画素数が720×480ピクセルの動画像の横を18分割、縦を12分割した場合、正方形ブロックのサイズは40×40ピクセルとなる。なお、以下の説明では、この正方形ブロックを最小ブロックと呼ぶ。
【0025】
第2の領域分割手段17は、第1の領域分割手段13と同様に、入力された露出アンダーの明度画像データY2に対して領域分割と、分割された領域の境界の空間的量子化とを行う。領域分割および空間的量子化の処理内容は第1の領域分割手段13と同様である。図3(b)に示す入力画像を領域分割した結果を図3(d)に示し、図3(d)に示す領域分割の結果を量子化した結果を同図(f)に示す。
【0026】
第1の領域分割手段13で空間的に量子化された明度画像データは第1のエントロピー値作成手段14に入力される。第1のエントロピー値作成手段14は、第1の領域分割手段13で分割され量子化された領域毎に濃度ヒストグラムのエントロピー値を下記の式[5]により算出する(ステップS4)。同様に、第2の領域分割手段17で空間的に量子化された明度画像データは第2のエントロピー値作成手段18に入力される。第2のエントロピー値作成手段18は、第2の領域分割手段17で分割され量子化された領域毎に濃度ヒストグラムのエントロピー値を下記の式[5]により算出する。
【0027】
【数2】
Figure 0003817635
【0028】
式[5]により算出される濃度ヒストグラムのエントロピー値は画像の視認性の良さを表す指標となる。この値は濃度ヒストグラムのばらつき具合を反映している。そして、視認性の良い領域は広範囲にわたって濃度値が存在し、エントロピー値は高くなる。逆に、視認性の悪い領域は狭い範囲に濃度値が集中し、エントロピー値は低くなる。
【0029】
図3(e)、(f)に示した画像における各領域の濃度ヒストグラムのエントロピー値を正規化し、グレースケールで表したものを図4(a)、(b)に示す。この図において、エントロピー値が高い程濃度が低くなっている。図3と図4とを比較すると、視認性の良さが濃度ヒストグラムのエントロピー値に反映されていることが確認出来る。
【0030】
第1のエントロピー値作成手段14の出力および第2のエントロピー値作成手段18の出力は、合成比率決定テーブル作成手段19に入力される。合成比率決定テーブル作成手段19は、これら2つの入力を用いて合成比率決定テーブルを作成する(ステップS5)。合成比率決定テーブルとは、露出アンダーの明度画像データと露出オーバーの明度画像データの各濃度値において、2つの画像データをどのような比率で合成するかを示すテーブルである。ここで、2つの入力画像データの領域分割結果が異なるので、最小ブロックごとに合成比率決定テーブルを持つことになる。
【0031】
合成比率決定テーブルの作成方法について説明する。まず、画像データの特徴として、露出アンダーの画像データは高輝度付近の表現力が高く、露出オーバーの画像データは低輝度付近の表現力が豊かである。そこで、最も簡単な合成比率決定テーブルとして図5(a)に示すものが考えられる。しかし、このままでは画像データ全体に一様な合成処理を加えるだけで、局所性がなく、従来の高画質化手法と大きな違いは見られない。また、全てのデータに対して、最適の合成比率を算出できていないので、合成結果もあまり良いものは得られない。
【0032】
そこで、本実施の形態では、最小ブロック毎に露出アンダーの画像データのエントロピー値と露出オーバーの画像データのエントロピー値とを用い、各ブロック毎の合成比率決定テーブルを作成する。具体的には、低輝度域での露出アンダーの画像データの合成割合を増加させるために、明度値0の部分を矢印のように露出アンダーの画像データのエントロピー値分だけ持ち上げる。また、高輝度域での露出オーバーの画像データの合成割合を増やすために、明度値255の部分を露出オーバーの画像データのエントロピー値分だけ矢印のように持ち上げる (図では押し下げられているが、比率は持ち上げられている)。このように処理した合成比率決定テーブルの例を図5(b)に示す。このような処理を加えることによって、低輝度域でも高輝度域でも適度に両方の画像データを合成出来るようになり、結果的に画像のコントラストを上げることが出来る。そして、この処理を各最小ブロック毎に行うため、部分部分での最適な合成比率決定テーブルを自動的に作成でき、局所性のある処理が行える。
【0033】
合成比率決定テーブル作成手段19により最小ブロックの合成比率決定テーブルが算出されたが、このままでは、隣り合うテーブルが異なるために、ブロック間の境界部分で不連続性(ブロックノイズ)が生じてしまう。このブロックノイズを除去するために、合成比率空間的内挿手段20により、合成比率決定テーブルの空間的内挿を行う(ステップS6)。この空間的内挿は次の2段階の処理からなる。まず、注目ブロックの合成比率決定テーブルを近傍の4つのブロックの合成比率決定テーブルを用いて平均する。画像中の左からK番目、上からL番目のブロックにおける合成比率決定テーブルをh(K,L)とおき、4つの近傍ブロックの合成比率決定テーブルと平均した合成比率決定テーブルをh'(K,L)とおくと、平均 後の合成比率決定テーブルは次の式[6]で求めることが出来る。
【0034】
【数3】
Figure 0003817635
【0035】
次に、h'(K,L)を算出した後、図6に示すように、注目画素の合成比率を、こ の画素が属するブロックB1および近傍の三つのブロックB2、B3、B4のそれぞれの合成比率決定テーブルの合成比率h、h、h、hを用い、下記の式[7]に基づいて、内挿後の合成比率f(x,y)を算出する。この式[7]において、(x,y)は注目画素のx−y直交座標における位置である。つまり、前記合成比率h、h、h、hを、四つのブロックB1、B2、B3、B4の中心から注目画素までの距離に応じて重み付けする。この内挿処理により、領域の境界に近づくにつれて互いの合成比率を近づけ、ブロックノイズの発生を抑制することが出来る。
【0036】
【数4】
Figure 0003817635
【0037】
このようにして合成比率空間的内挿手段20で内挿された合成比率決定テーブルを用いて、露出オーバーおよび露出アンダーの入力画像データを合成する。この段階では、各ピクセルレベルで合成比率決定テーブルを持っていることになる。ここで、合成を行う前に、露出アンダーの画像データの明度値または露出オーバーの画像データの明度値のどちらを合成比率決定テーブルに使用するかが問題になる。露出アンダーの画像データの明度値を用いれば、低輝度の部分は良く見えるが、高輝度の部分はあまり良くない。逆に、露出オーバーの画像データの明度値を用いれば、逆の現象が起きてしまう。
【0038】
そこで、まず、露出アンダーの画像データの明度値を用いて露出アンダーの画像データの合成割合を求める。次に、露出オーバーの画像データの明度値を用いて露出オーバーの画像データの合成割合を求める。その様子を図7に示す。図7において、下側の台形は露出アンダーの画像データの合成比率を示し、上側の台形は露出オーバーの画像データの合成比率を示す。その2つの合成比率を100%に正規化し、2つの入力画像データの合成比率を決定する。そして、決定した合成比率を用いて2つの入力画像データを合成する。例えば図7において、合成しようとする画素の露出アンダーの画像データの明度値がu1、合成比率がp%であり、露出オーバーの画像データの明度値がu2、合成比率がq%であったとすると、このままではp+qが100%にならないので、露出アンダーの画像データの合成比率をp/(p+q)×100%とし、露出オーバーの画像データの合成比率をq/(p+q)×100%とする。この合成比率を用いて、Y合成手段21、Cr合成手段22、およびCb合成手段23において、それぞれの露出アンダーの画像データであるY1、Cr1、およびCb1と、それぞれの露出オーバーの画像データであるY2、Cr2、およびCb2とを合成し、明度画像データY3、コンポーネントカラー画像データCr3およびCb3を得る。このようにして、Y合成手段21により、ステップS7の明度値合成が行われる。
【0039】
Y合成手段21、Cr合成手段22、およびCb合成手段23の出力は、第3の色形式変換手段24に入力され、RGB画像データ(R3,G3,B3)に戻される (ステップS8)。ここで、第2の色形式変換手段24における変換アルゴリズムを下記式[8]〜[10]に示す。
R3=1.00000×Y3+1.40200×Cr3 …式[8]
G3=1.00000×Y3−0.34414×Cb3−0.71414×Cr3 …式[9]
B3=1.00000×Y3+1.77200×Cb3 …式[10]
【0040】
また、以上の説明では、第1の色形式変換手段12および第2の色形式変換手段16は、RGB原色カラー画像データをY/Cb/Crに変換したが、他の変換アルゴリズム、例えば円筒座標系で規格化されたH(Hue:色相)/S(Saturation:彩度)/I(Intensity:明度)に変換しても良い。
【0041】
さらに、以上の説明では、明度画像データYから作成した合成比率決定テーブルを用いてCr合成手段22およびCb合成手段23の合成比率を決定する例を説明した。このように、明度画像データYから作成した合成比率決定テーブルを色画像データであるCrおよびCbについて共用することにより、CrおよびCbに対しても合成比率決定テーブルを作成する場合に比較して装置の構成を簡単にすることが出来るという利点がある。
【0042】
しかし、明度画像データYから作成した合成比率決定テーブルは画像の視認性を考慮して決定したものであるため、色画像データであるCrおよびCbについては、色の鮮やかさを示す彩度も考慮して合成比率を決定したほうが良好な合成結果が得られる。以下、具体例を説明する。まず彩度Saは下記の式[11]より算出する。
【0043】
【数5】
Figure 0003817635
【0044】
ある画素のCrおよびCbの合成処理を行う場合、この画素のYに対する合成比と彩度Saとを用いて、CrおよびCbに対する露出アンダーの画像データと露出オーバーの画像データとの合成比を定める。Yに対する露出アンダーの画像データと露出オーバーの画像データとの合成比をGu:Goとすると、CrおよびCbに対する露出アンダーの画像データと露出オーバーの画像データとの合成比は、下記の式[12]となる。
【0045】
Gu×Sau:Go×Sao …式[12]
【0046】
この式[12]において、Sauは露出アンダーの画像データの彩度であり、Saoは露出オーバーの画像データの彩度である。図7を参照しながら説明したように、Gu:Goはp:qであるから、式[12]は下記の式[12]のように書き換えることが出来る。
【0047】
p×Sau:q×Sao …式[13]
【0048】
この式[13]から、CrおよびCbに対する合成比は、Yに対する合成比に彩度を乗算した値であることが分かる。このように処理することで、視認性および色の鮮やかさを考慮した合成が行われる。回路構成の一例は、図1において合成比率空間的内挿手段20からCr合成手段22およびCb合成手段23に入力されるデータであるYに対する露出アンダーの画像データの合成比率にSauを乗算し、露出オーバーの画像データの合成比率にSaoを乗算するように構成することで実現出来る。なお、式[12]または[13]のアルゴリズムではなく、露出オーバーの画像データと露出アンダーの画像データの内、彩度の高い方のCbおよびCrを用いるように構成してもかまわない。また、▲1▼露出オーバーの画像データまたは露出アンダーの画像データのどちらかのCbおよびCrを用いる、▲2▼露出オーバーの画像データと露出アンダーの画像データのCbの平均値およびCrの平均値を用いる、などの変形を行ってもかまわない。
【0049】
(第2の実施の形態)
図8は本発明の第2の実施の形態のカラー画像処理装置の構成を示すブロック図である。本実施の形態のカラー画像処理装置はカラー動画像を処理対象とする。この図において、図1と同一または対応する構成要素には図1で使用した名称を付した。
【0050】
図8に示すように、本実施の形態のカラー画像処理装置は、第1の撮像手段31、第1の色形式変換手段32、第1の領域分割手段33、第1のエントロピー値算出手段34、第2の撮像手段35、第2の色形式変換手段36、第2の領域分割手段37、第2のエントロピー値算出手段38、合成比率決定テーブル作成手段39、合成比率ブレンド・時間的内挿手段40、合成比率空間的内挿手段41、Y合成手段42、Cr合成手段43、Cb合成手段44、および第3の色形式変換手段45を具備している。
【0051】
図8において、第1の撮像手段31および第2の撮像手段35は、CCDなどの撮像素子を備えており、実質的に同一の被写体を同時に撮像することが出来るように、カラー画像処理装置の筐体(図示せず)に位置決めされ固定されている。そして、図9のステップS11に示されているように、RGB動画像データを取得する。ここで、第1の撮像手段31は露出オーバーの画像データを取得し、第2の撮像手段35は露出アンダーの画像データを取得する。さらに、第1の撮像手段31および第2の撮像手段35は、図9のステップS12に示されているように、取得した動画像データをフレーム単位の静止画データに分割して、それぞれ第1の色形式変換手段32および第2の色形式変換手段36へ出力する。
【0052】
第1の色形式変換手段32は、第1の撮像手段31で取得されたRGB動画像データ(R5,G5,B5)をYCrCb動画像データ(Y5,Cr5,Cb5)に変換する。同様に、第2の色形式変換手段36は第2の撮像手段35で取得されたRGB動画像データ(R6,G6,B6)をYCrCb動画像データ(Y6,Cr6,Cb6)に変換する。第1の色形式変換手段32および第2の色形式変換手段36における変換アルゴリズムは式[1]〜[3]である。式[1]により、図9のステップS13に示されている明度画像データ作成が行われる。さらに、第1の色形式変換手段32は、複数フレーム毎の1フレームの明度画像データY5を抽出して第1の領域分割手段33に出力する。以下、抽出されたフレームを代表フレームと呼ぶ。同様に、第2の色形式変換手段36は、代表フレームの明度画像データY6を第2の領域分割手段37に出力する。
【0053】
第1の領域分割手段33、第1のエントロピー値算出手段34、第2の領域分割手段37、第2のエントロピー値算出手段38、および合成比率決定テーブル作成手段39の各々における処理は、図9のステップS14〜S16に示されているものである。そして、これらの処理は、第1の実施の形態における対応する処理が静止画の明度画像データY1,Y2を対象とするのに対し、第2の実施の形態は代表フレームの明度画像データY5,Y6を対象とするものである点以外は、基本的に同じであるため、説明を省略する。
【0054】
合成比率決定テーブル作成手段39で作成される合成比率決定テーブルは、合成比率ブレンド・時間的内挿手段40に入力される。合成比率ブレンド・時間的内挿手段40は、入力される合成比率決定テーブルを過去の代表フレームの合成比率決定テーブルとブレンドし、さらに時間的内挿を行う(ステップS17)。
【0055】
合成比率ブレンド・時間的内挿手段40は、まず合成比率決定テーブル作成手段39で作成された合成比率決定テーブルに対して、過去の代表フレームについて合成比率決定テーブル作成手段39で作成された合成比率決定テーブルを所定の割合でブレンドして、新たな合成比率決定テーブルを作成する。ここで、n番目(ただし、nは2以上の整数)の代表フレームについて合成比率ブレンド・時間的内挿手段40に入力される合成比率決定テーブルをH(n)、ブレンドされた合成比率決定テーブルをH'(n)とすると、下記の式[14]および[15]の関係が成立する。
【0056】
H'(n)=p・H'(n-1)+(1-p)・H(n) …式[14]
【0057】
H'(1)=H(1) …式[15]
【0058】
この式[14]において、p(0≦p≦1)は、過去の濃度変換曲線の重み付け係数である。図10は代表フレームを4フレーム毎にした場合を例示している。なお、図10では便宜上、H'(n)を作成する処理のみ示したが、H'(n+1)についても同様に処理されることは言うまでもない。
【0059】
H'(n)の導入により、代表フレーム間において合成比率決定テーブルが大きく変化することが抑制され、結果としてフリッカの発生を防ぐことが出来る。なお、ここでは、H'(n)を生成する際に、一つ前の代表フレームの合成比率決定テーブルH'(n-1)のみをブレンドしているが、さらに二つ前の代表フレームH'(n-2)や、それ以前の代表フレームをブレンドしても良い。
【0060】
次に、合成比率ブレンド・時間的内挿手段40は、ブレンドされた合成比率決定テーブルをH'(n)を時間軸方向に内挿する。時間軸方向の内挿とは、代表フレームにおける合成比率決定テーブルを基に代表フレーム以外のフレームの合成比率決定テーブルを生成する処理である。ここで、代表フレーム間隔をr枚とし、n番目の代表フレームからx枚(x<r)後のフレームの合成比率決定テーブルをH'(n,x)とすると、H'(n,x)は下記の式[16]で表される。
【0061】
H'(n,x)={(r-x)/r}・H'(n)+(x/r)・H'(n+1) …式[16]
【0062】
つまり、隣り合う2つの代表フレームからのフレーム枚数に応じて、それら2つの代表フレームの合成比率決定テーブルの加重平均をとることで、それら2つの代表フレームの合成比率決定テーブルを内挿し、各フレームの合成比率決定テーブルを決定する。そして、このようにして得られたH'(n,x)をn番目の代表フレームと(n+1)番目の代表フレームの間のフレームに適用される合成比率決定テーブルとして採用する。図11は代表フレームを4フレーム毎にした場合を例示している。
【0063】
H'(n,x)を採用することにより、全てのフレームについて合成比率決定テーブルH'(n)を作成することなく、全てのフレームについてフリッカの発生を防ぐことが可能な画像合成を行うことが出来る。
【0064】
合成比率ブレンド・時間的内挿手段40の出力は合成比率空間的内挿手段41に入力される。合成比率空間的内挿手段41は、第1の実施の形態における合成比率空間的内挿手段20と同様、ブロックノイズを除去するために、合成比率決定テーブルの空間的内挿を行う(ステップS18)。
【0065】
このようにして合成比率空間的内挿手段41で内挿された合成比率決定テーブルを用いて、Y合成手段42、Cr合成手段43、およびCb合成手段44において露出オーバーおよび露出アンダーの入力画像データを合成し、合成出力Y7、Cr7、およびCb7を得る。これらの手段における合成処理は第1の実施の形態と同様であるから、説明を省略する。Cr合成手段43およびCb合成手段44においては、合成比率空間的内挿手段41で内挿された合成比率決定テーブルを用いる代わりに、視認性および色の鮮やかさを考慮した合成を行うように構成しても良いことは言うまでもない。このようにして、Y合成手段42により、ステップS19の明度値合成が行われる。
【0066】
Y合成手段42、Cr合成手段43、およびCb合成手段44の合成出力Y7、Cr7、およびCb7は、第3の色形式変換手段45に入力され、RGB画像データ (R7,G7,B7)に戻される(ステップS20)。第3の色形式変換手段45における変換アルゴリズムは式[8]〜[10]である。第3の色形式変換手段45は、さらにRGB画像データ(R7,G7,B7)を動画像フレームに合成し、出力する(ステップS21)。
【0067】
なお、以上の第1の実施の形態および第2の実施の形態の説明では、露出オーバーの画像データを第1の撮像手段11により取得し、露出アンダーの画像データを第2の撮像手段15により取得するものとしたが、第1の実施の形態および第2の実施の形態において露出オーバーの画像データおよび露出アンダーの画像データを共通の1つの撮像手段により取得するように変形することも可能である。このような変形例としては、全画素読み出しCCDを用いる例と、高速シャッターを用いる例と、各画素毎にダイナミックレンジの異なる受光素子を配置したCCDを用いる例等がある。以下、全画素読み出しCCDを用いる例および高速シャッターを用いる例について簡単に説明する。
【0068】
通常、動画像の場合、1/30秒で1フレームの画像データを取得している。その場合、最初の1/60秒で奇数フィールドを撮像し、残りの1/60秒で偶数フィールドを撮像し、2つのフィールドを合わせて1フレームとしている。全画素読み出しCCDでは、奇数フィールドの画像データおよび偶数フィールドの画像データを同時に取得することができる。そこで、露出オーバーの奇数フィールドおよび偶数フィールドの画像データを最初の1/60秒で取得し、露出オーバーの奇数フィールドおよび偶数フィールドの画像データを残りの1/60秒で取得することにより、1枚のCCDで露出オーバーの画像データおよび露出アンダーの画像データを取得することができる。
【0069】
高速シャッターを用いる場合、例えば1/30秒間に4回シャッターを切るようにし、1/120秒毎に順次、露出アンダーの奇数フィールド、露出アンダーの偶数フィールド、露出オーバーの奇数フィールド、露出オーバーの偶数フィールドを撮像することにより、1枚のCCDで露出オーバーの画像データおよび露出アンダーの画像データ取得することができる。
【0070】
また、露出オーバーの画像データおよび露出アンダーの画像データを共通の1つの撮像手段により取得し、さらに色形式変換手段からエントロピー値算出手段までを各々1つずつ設け、露出オーバーの画像データおよび露出アンダーの画像データについて時分割処理を行うように構成しても良い。
【0071】
【発明の効果】
以上詳細に説明したように、本発明のカラー画像処理装置および処理方法によれば、露出アンダーの画像データと露出オーバーの画像データの各々の部分部分の視認性を自動的に判断し、局所的に異なる合成比率を自動的に決定して2つの入力画像データを全自動で最適に合成することにより、画像の潰れおよび白とびを抑制し、かつ各部分が最適な明度を有するカラー静止画像およびカラー動画像を得ることが出来る。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態のカラー画像処理装置の構成を示すブロック図、
【図2】本発明の第1の実施の形態におけるカラー画像処理の流れの概要を示すフロー図、
【図3】本発明の第1の実施の形態における領域分割手段の動作を説明するための図、
【図4】本発明の第1の実施の形態におけるエントロピー算出手段の動作を説明するための図、
【図5】本発明の第1の実施の形態における合成比率決定テーブルを示す図、
【図6】本発明の第1の実施の形態における合成比率決定テーブルの空間的内挿を説明するための図、
【図7】本発明の第1の実施の形態における画像合成比率を説明するための図、
【図8】本発明の第2の実施の形態のカラー画像処理装置の構成を示すブロック図、
【図9】本発明の第2の実施の形態におけるカラー画像処理の流れの概要を示すフロー図、
【図10】本発明の第2の実施の形態における合成比率決定テーブルのブレンドを説明するための図、
【図11】本発明の第2の実施の形態における合成比率決定テーブルの時間的内挿を説明するための図である。
【符号の説明】
11、31 第1の撮像手段
12、32 第1の色形式変換手段
13、33 第1の領域分割手段
14、44 第1のエントロピー値算出手段
15、35 第2の撮像手段
16、36 第2の色形式変換手段
17、37 第2の領域分割手段
18、38 第2のエントロピー値算出手段
19、39 合成比率決定テーブル作成手段
20、41 合成比率空間的内挿手段
21、42 Y合成手段
22、43 Cr合成手段
23、44 Cb合成手段
24、45 第3の色形式変換手段
40 合成比率ブレンド・時間的内挿手段[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an apparatus that captures color still images and color moving images with high image quality, and more particularly, to a color image processing apparatus and processing method capable of suppressing collapse and overexposure that occur due to a narrow dynamic range of an image sensor. Is.
[0002]
[Prior art]
When taking a commemorative photo with a bright scene in the background, the person is often crushed black. In recent years, digital still cameras and digital video cameras have a back light prevention function, but if you shoot with them, people can shoot vividly, but the background scenery is saturated and the white background is saturated. End up.
[0003]
In this way, in a situation where light and dark are mixed, it is difficult to capture the entire subject to be captured clearly without causing collapse or overexposure. The cause is the narrow dynamic range of the imaging apparatus. In general, since the dynamic range of the imaging apparatus is narrower than that of an actual photographing target, a minute brightness difference between a very bright part and a dark part of the photographing target is compressed, and detailed information is lost. Therefore, crushing and whiteout occur. In digital still cameras and digital video cameras that have become widespread in recent years, this problem becomes more serious as the image sensor becomes smaller.
[0004]
Conventionally, various techniques have been proposed in order to reduce the loss of detailed information as described above. Patent Document 1 uses image data from one CCD image sensor to calculate a region that needs to be corrected and calculate an appropriate correction degree, thereby enabling local image quality improvement to be performed fully automatically. A color image processing method and processing apparatus are disclosed. Further, in Patent Document 2 or 3, a plurality of image data having different exposure states are acquired by one imaging using a plurality of CCD image sensors or a single CCD image sensor, and the image data are synthesized, A digital still camera that can obtain an image with a wide dynamic range is described. Furthermore, in the printing industry, a technique for improving the quality of printed matter by multiple exposure has been used for some time.
[0005]
[Patent Document 1]
Japanese Patent Laid-Open No. 2002-140700
[Patent Document 2]
JP-A-9-275527
[Patent Document 3]
Japanese Patent Laid-Open No. 11-317905
[0006]
[Problems to be solved by the invention]
With respect to a technique for improving image quality using image data from a single CCD image sensor as described in Patent Document 1, an image quality improvement process is added after image capture, so that a blackened portion or saturation during image capture is removed. The image quality of the waking part cannot be improved. In addition, with respect to a method for synthesizing input image data having different exposure states from a CCD image sensor as described in Patent Documents 2 and 3, for all data, a plurality of a plurality of data at a constant synthesis ratio with respect to each density. Since the input image data is synthesized, optimal synthesis may not be performed in each part.
[0007]
The present invention has been made to solve such problems, and is a color image processing apparatus and process capable of suppressing image collapse and overexposure and obtaining an image having optimum brightness in each portion. It aims to provide a method.
[0008]
[Means for Solving the Problems]
The color image processing apparatus according to the present invention includes means for generating first lightness image data from overexposed first color primary color still image data generated by imaging a subject, and a subject substantially identical to the subject. Means for generating second brightness image data from the undercolored second color primary color still image data generated by imaging the image, and the first brightness image data is quantized and divided into a plurality of areas in units of blocks. Means, means for quantizing and dividing the second brightness image data into a plurality of areas in units of blocks, and means for calculating an entropy value of a density histogram for each of the divided areas of the first brightness image data; Means for calculating an entropy value of a density histogram for each divided area of the second brightness image data; the first brightness image data and the second brightness image; A composition ratio determination table for compositing data, wherein the ratio of the first brightness image data is relatively higher as the brightness is relatively lower, and the second brightness is higher as the brightness is higher. The ratio of the image data is relatively high, and the lowest brightness value is raised by the entropy value of the density histogram for each divided area of the second brightness image data, and the highest brightness value is the first brightness image. Means for creating a composition ratio determination table lifted by an entropy value of a density histogram for each divided area of the data; and the first brightness image data and the second brightness image data using the composition ratio determination table And a means for synthesizing. With this configuration, the composition ratio of the overexposed image data and the underexposed image data is changed based on the entropy value of the density histogram for each region serving as an index of image visibility. The composition ratio of two input image data having different exposure states is set to an optimum value in accordance with the partial portion, and an optimum composition result can be obtained without sacrificing any portion in the image.
[0009]
In addition, the color image processing apparatus according to the present invention is substantially the same as the subject, and means for generating first brightness image data from overexposed first color primary color moving image data generated by imaging the subject. Means for generating second lightness image data from underexposed second color primary color moving image data generated by picking up an image of a subject, and the first lightness image data for each predetermined frame is a plurality of regions. Means for quantizing and dividing the image data in units of blocks, means for quantizing and dividing the second brightness image data for each predetermined frame into a plurality of areas, and the first brightness image data Means for calculating the entropy value of the density histogram for each divided area, and calculating the entropy value of the density histogram for each divided area of the second brightness image data And a combination ratio determination table for combining the first brightness image data and the second brightness image data, wherein the ratio of the first brightness image data is lower as the brightness is relatively lower. The ratio of the second brightness image data is relatively higher as the brightness is relatively higher and the brightness is relatively higher, and the density of each divided region of the second brightness image data is the lowest brightness value. Means for creating a composition ratio determination table that is lifted by the entropy value of the histogram and lifted by the entropy value of the density histogram for each divided area of the first lightness image data at the highest lightness value, and the created composition ratio Means for temporally interpolating the determination table with the past composite ratio determination table, and the first brightness image data and the previous data using the temporally interpolated composite ratio determination table; Characterized by comprising a means for combining the second luminosity image data. With this configuration, the composition ratio of the overexposed image data and the underexposed image data is changed based on the entropy value of the density histogram for each region serving as an index of image visibility. The composition ratio of two input image data with different exposure states is set to an optimum value according to the partial part, and an optimum composition result can be obtained without sacrificing any part of the image, and the past composition ratio and interpolation can be obtained. By doing so, it is possible to suppress the composition ratio from greatly changing between frames of the moving image, and to suppress the occurrence of flicker.
[0010]
Furthermore, the color image processing apparatus of the present invention is characterized by comprising means for interpolating the composition ratio of adjacent blocks in the composition ratio determination table. With such a configuration, it is possible to prevent the occurrence of a portion where the brightness is greatly different locally.
[0011]
The color image processing apparatus of the present invention is characterized by comprising means for interpolating a composition ratio in the composition ratio determination table of adjacent frames among predetermined frames. With this configuration, it is possible to create a synthesis ratio determination table for all frames without performing region division and entropy value calculation for all frames of moving image data.
[0012]
In addition, the color image processing apparatus of the present invention is characterized by comprising means for interpolating the composition ratio in the composition ratio determination table for the block at the boundary of the region. With this configuration, the composition ratios can be made closer to each other as the region boundary is approached, and the occurrence of block noise can be suppressed.
[0013]
The color image processing apparatus of the present invention further includes means for generating first color image data from the first color primary color still image data, and second color image data from the second color primary color still image data. Generating means; and means for combining the first color image data and the second color image data using the combination ratio determination table. With this configuration, it is possible to simplify the configuration of a color image processing apparatus that processes a color still image as compared with a case where a dedicated composition ratio determination table for color image data is created.
[0014]
The color image processing apparatus according to the present invention further includes means for generating first color image data from the first color primary color moving image data, and second color image data from the second color primary color moving image data. Generating means; and means for combining the first color image data and the second color image data using the combination ratio determination table. With this configuration, it is possible to simplify the configuration of a color image processing apparatus that processes a color moving image as compared with the case of creating a dedicated composition ratio determination table for color image data.
[0015]
The color image processing apparatus according to the present invention further includes means for generating first color image data from the first color primary color still image data, and second color image data from the second color primary color still image data. The first color is generated by means of generating and a composition ratio obtained by changing the composition ratio of the composition ratio determination table in consideration of the saturation of the first color image data and the saturation of the second color image data. And a means for synthesizing the image data and the second color image data. With this configuration, it is possible to obtain a color still image in which underexposed image data and overexposed image data are combined at an optimum ratio in consideration of image visibility and color vividness.
[0016]
The color image processing apparatus of the present invention further includes means for generating first color image data from the first color primary color moving image data, and second color image data from the second color primary color moving image data. The first color is generated by means of generating and a composition ratio obtained by changing the composition ratio of the composition ratio determination table in consideration of the saturation of the first color image data and the saturation of the second color image data. And a means for synthesizing the image data and the second color image data. With this configuration, it is possible to obtain a color moving image in which underexposed image data and overexposed image data are combined at an optimum ratio in consideration of image visibility and color vividness.
[0017]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(First embodiment)
FIG. 1 is a block diagram showing a configuration of a color image processing apparatus according to a first embodiment of the present invention, and FIG. 2 is a flowchart showing an outline of a processing flow in the apparatus. The color image processing apparatus according to the present embodiment uses a color still image as a processing target.
[0018]
As shown in FIG. 1, the color image processing apparatus of the present embodiment includes a first imaging unit 11, a first color format conversion unit 12, a first region dividing unit 13, and a first entropy value calculating unit 14. , Second imaging means 15, second color format conversion means 16, second area dividing means 17, second entropy value calculating means 18, composition ratio determining table creating means 19, composition ratio spatial interpolation means 20 , Y composition means 21, Cr composition means 22, Cb composition means 23, and third color format conversion means 24. In this color image processing apparatus, portions other than the first image pickup means 11 and the second image pickup means 15 may be configured as application software of a computer, or may be configured as hardware.
[0019]
The first image pickup means 11 and the second image pickup means 15 are provided with an image pickup device such as a CCD, and the housing of the color image processing apparatus (see FIG. 5) so that substantially the same subject can be picked up simultaneously. (Not shown) is positioned and fixed. Further, a half mirror (not shown) is disposed in front of the optical path of the first imaging unit 11 and the second imaging unit 15, and a lens is further disposed in front of the half mirror. Then, the light beam from the subject that has passed through the lens is bisected by the half mirror, and is input to the first imaging means 11 and the second imaging means 15 simultaneously. The first imaging means 11 and the second imaging means 15 obtain RGB still image data as shown in step S1 of FIG. Here, the first imaging unit 11 acquires overexposed image data, and the second imaging unit 15 acquires underexposed image data.
[0020]
The first color format conversion means 12 converts the RGB still image data (R1, G1, B1) acquired by the first imaging means 11 into YCrCb still image data (Y1, Cr1, Cb1). That is, color primary color image data composed of three primary color (R, G, B) components is converted into lightness and color component image data composed of one brightness image data component (Y) and two color image data components (Cr, Cb). . Similarly, the second color format conversion means 16 converts the RGB still image data (R2, G2, B2) acquired by the second imaging means 15 into YCrCb still image data (Y2, Cr2, Cb2). Here, the conversion algorithms in the first color format conversion means 12 and the second color format conversion means 16 are shown in the following equations [1] to [3]. The brightness image data creation shown in step S2 of FIG. 2 is performed by the equation [1].
Y = 0.29900 x R + 0.58700 x G + 0.11400 x B Equation [1]
Cb = −0.16874 × R−0.33126 × G + 0.50000 × B Formula [2]
Cr = 0.50000 × R−0.41869 × G−0.08131 × B Formula [3]
[0021]
As shown in step S3, the first region dividing means 13 performs region division and spatial quantization of the boundaries of the divided regions on the input overexposed lightness image data Y1. . First, the texture of the input brightness image data Y1 is analyzed, and the input image is divided into a plurality of regions based on the analysis result. In the present embodiment, a region is determined by a filtering process that calculates a LOG (Laplacian Of Gaussian) filter expressed by the following equation [4] to input image data. FIG. 3C shows the result of dividing the input image shown in FIG. In equation [4], r 2 = X 2 + Y 2 It is. The LOG filter is well known as a basic algorithm of image processing (for example, “Image processing” written by Hiroshi Tsuchiya and Yoji Fukada, pp.68-74 (especially pp.73-74), 1990-1-25, Corona Co., Ltd. Detailed explanation is omitted here.
[0022]
[Expression 1]
Figure 0003817635
[0023]
Here, the result of area division by texture analysis is often different from the result of manual area division by a person viewing the same image. Therefore, if the result of region segmentation by the texture analysis is used as it is, the different parts of both results feel unnatural to human eyes.
[0024]
Therefore, in the present embodiment, the result of the region division analyzed in units of pixels is quantized by reducing the resolution somewhat. Specifically, the input image is divided into square blocks, which are superimposed on the result of area division shown in FIG. 3C, and the square block corresponding to the boundary of the area is selected depending on the area occupancy rate. To belong to the area. As a result, the region division result shown in FIG. 3C is quantized as shown in FIG. Here, for example, when a still image having an aspect ratio of 4: 3 and a number of pixels of 1600 × 1200 pixels is divided into 16 horizontal portions and 12 vertical portions, the size of the square block is 100 × 100 pixels. In the case of a second embodiment to be described later, when a moving image having a pixel number of 720 × 480 pixels is divided into 18 horizontal portions and 12 vertical portions, the size of the square block is 40 × 40 pixels. In the following description, this square block is referred to as a minimum block.
[0025]
Similar to the first region dividing unit 13, the second region dividing unit 17 performs region division on the input underexposed lightness image data Y2 and spatial quantization of the boundaries of the divided regions. Do. The processing contents of region division and spatial quantization are the same as those of the first region division means 13. FIG. 3D shows the result of area division of the input image shown in FIG. 3B, and FIG. 5F shows the result of quantization of the area division result shown in FIG.
[0026]
The brightness image data spatially quantized by the first region dividing means 13 is input to the first entropy value creating means 14. The first entropy value creating means 14 calculates the entropy value of the density histogram for each region divided and quantized by the first region dividing means 13 by the following equation [5] (step S4). Similarly, the brightness image data spatially quantized by the second region dividing means 17 is input to the second entropy value creating means 18. The second entropy value creating means 18 calculates the entropy value of the density histogram for each region divided and quantized by the second region dividing means 17 by the following equation [5].
[0027]
[Expression 2]
Figure 0003817635
[0028]
The entropy value of the density histogram calculated by the equation [5] serves as an index representing the visibility of the image. This value reflects the degree of variation in the density histogram. The region having good visibility has a density value over a wide range, and the entropy value becomes high. On the contrary, the density value concentrates in a narrow range in the poor visibility region, and the entropy value becomes low.
[0029]
The entropy values of the density histograms of the respective regions in the images shown in FIGS. 3 (e) and 3 (f) are normalized and expressed in gray scale, as shown in FIGS. 4 (a) and 4 (b). In this figure, the higher the entropy value, the lower the density. Comparing FIG. 3 and FIG. 4, it can be confirmed that the good visibility is reflected in the entropy value of the density histogram.
[0030]
The output of the first entropy value creation means 14 and the output of the second entropy value creation means 18 are input to the synthesis ratio determination table creation means 19. The composition ratio determination table creation means 19 creates a composition ratio determination table using these two inputs (step S5). The composition ratio determination table is a table showing in what ratio the two image data are composed in the density values of underexposed lightness image data and overexposed lightness image data. Here, since the area division results of the two input image data are different, each minimum block has a composition ratio determination table.
[0031]
A method for creating the composition ratio determination table will be described. First, as a feature of the image data, underexposed image data has high expressive power near high luminance, and overexposed image data has rich expressive power near low luminance. Therefore, the simplest combination ratio determination table shown in FIG. 5A can be considered. However, as it is, only uniform synthesis processing is applied to the entire image data, and there is no locality, and no significant difference from the conventional image quality enhancement technique is seen. In addition, since the optimum composition ratio cannot be calculated for all data, a composition result that is not very good cannot be obtained.
[0032]
Therefore, in this embodiment, the composition ratio determination table for each block is created using the entropy value of the underexposed image data and the entropy value of the overexposed image data for each minimum block. Specifically, in order to increase the composition ratio of underexposed image data in a low luminance region, the portion with a lightness value of 0 is raised by the entropy value of underexposed image data as shown by an arrow. Also, in order to increase the composition ratio of overexposed image data in the high luminance range, the portion of the brightness value 255 is raised as indicated by the arrow by the entropy value of the overexposed image data (although it is pushed down in the figure, The ratio is lifted). An example of the composition ratio determination table processed in this way is shown in FIG. By adding such processing, it becomes possible to synthesize both image data appropriately in both the low luminance region and the high luminance region, and as a result, the contrast of the image can be increased. Since this processing is performed for each minimum block, an optimum composition ratio determination table for the partial portion can be automatically created, and processing with locality can be performed.
[0033]
The composition ratio determination table for the minimum block is calculated by the composition ratio determination table creating means 19. However, since the adjacent tables are different as they are, discontinuity (block noise) occurs at the boundary portion between the blocks. In order to remove this block noise, the synthesis ratio spatial interpolation means 20 performs spatial interpolation of the synthesis ratio determination table (step S6). This spatial interpolation consists of the following two steps. First, the synthesis ratio determination table of the target block is averaged using the synthesis ratio determination table of four neighboring blocks. The composition ratio determination table in the Kth block from the left and the Lth block from the top is h (K, L) in the image, and the composition ratio determination table averaged with the composition ratio determination table of the four neighboring blocks is h ′ (K , L), the composite ratio determination table after averaging can be obtained by the following equation [6].
[0034]
[Equation 3]
Figure 0003817635
[0035]
Next, after calculating h ′ (K, L), as shown in FIG. 6, the composition ratio of the pixel of interest is determined for each of the block B1 to which this pixel belongs and the three neighboring blocks B2, B3, B4. Composition ratio h in composition ratio determination table 1 , H 2 , H 3 , H 4 Is used to calculate the combined ratio f (x, y) after interpolation based on the following equation [7]. In this equation [7], (x, y) is the position of the pixel of interest in the xy orthogonal coordinates. That is, the composition ratio h 1 , H 2 , H 3 , H 4 Are weighted according to the distance from the center of the four blocks B1, B2, B3, B4 to the target pixel. By this interpolation processing, the composition ratios can be made closer to each other as the boundary of the region is approached, and the occurrence of block noise can be suppressed.
[0036]
[Expression 4]
Figure 0003817635
[0037]
Using the composition ratio determination table interpolated by the composition ratio spatial interpolation means 20 in this manner, overexposed and underexposed input image data is synthesized. At this stage, each pixel level has a synthesis ratio determination table. Here, it becomes a problem whether to use the lightness value of the underexposed image data or the lightness value of the overexposed image data in the composition ratio determination table before performing composition. If the brightness value of the underexposed image data is used, the low luminance part looks good, but the high luminance part is not so good. Conversely, if the brightness value of overexposed image data is used, the reverse phenomenon occurs.
[0038]
Therefore, first, the composition ratio of underexposed image data is obtained using the brightness value of underexposed image data. Next, the composition ratio of the overexposed image data is obtained using the brightness value of the overexposed image data. This is shown in FIG. In FIG. 7, the lower trapezoid indicates a synthesis ratio of underexposed image data, and the upper trapezoid indicates a synthesis ratio of overexposed image data. The two composition ratios are normalized to 100%, and the composition ratio of the two input image data is determined. Then, the two input image data are synthesized using the decided synthesis ratio. For example, in FIG. 7, it is assumed that the lightness value of the underexposed image data of the pixel to be combined is u1, the combining ratio is p%, the lightness value of the overexposed image data is u2, and the combining ratio is q%. Since p + q does not become 100% in this state, the composition ratio of underexposed image data is p / (p + q) × 100%, and the composition ratio of overexposed image data is q / (p + q) × 100%. Using this composition ratio, the Y composition means 21, Cr composition means 22, and Cb composition means 23 are Y1, Cr1, and Cb1, which are underexposed image data, and overexposed image data, respectively. Y2, Cr2, and Cb2 are combined to obtain brightness image data Y3 and component color image data Cr3 and Cb3. In this way, the lightness value composition in step S7 is performed by the Y composition means 21.
[0039]
The outputs of the Y synthesizing unit 21, the Cr synthesizing unit 22, and the Cb synthesizing unit 23 are input to the third color format converting unit 24 and returned to the RGB image data (R3, G3, B3) (step S8). Here, the conversion algorithm in the second color format conversion means 24 is shown in the following equations [8] to [10].
R3 = 1.0000 × Y3 + 1.40200 × Cr3 Formula [8]
G3 = 1.0000 × Y3−0.34414 × Cb3−0.71414 × Cr3 Formula [9]
B3 = 1.0000 × Y3 + 1.77200 × Cb3 Formula [10]
[0040]
In the above description, the first color format conversion means 12 and the second color format conversion means 16 convert RGB primary color image data into Y / Cb / Cr, but other conversion algorithms such as cylindrical coordinates are used. It may be converted into H (Hue: Hue) / S (Saturation: Saturation) / I (Intensity: Lightness) standardized by the system.
[0041]
Furthermore, in the above description, the example in which the composition ratios of the Cr synthesizing means 22 and the Cb synthesizing means 23 are determined using the composition ratio determining table created from the brightness image data Y has been described. As described above, by sharing the composition ratio determination table created from the lightness image data Y for the color image data Cr and Cb, the apparatus is compared with the case where the composition ratio determination table is also created for Cr and Cb. There is an advantage that the configuration can be simplified.
[0042]
However, since the composition ratio determination table created from the brightness image data Y is determined in consideration of the visibility of the image, the color image data Cr and Cb also take into account the saturation indicating the color vividness. Therefore, better synthesis results can be obtained by determining the synthesis ratio. Specific examples will be described below. First, the saturation Sa is calculated from the following equation [11].
[0043]
[Equation 5]
Figure 0003817635
[0044]
When performing the process of combining Cr and Cb of a certain pixel, the composition ratio of underexposed image data and overexposed image data for Cr and Cb is determined using the composition ratio of Y and saturation Sa of the pixel. . If the combined ratio of underexposed image data and overexposed image data with respect to Y is Gu: Go, the combined ratio of underexposed image data and overexposed image data with respect to Cr and Cb is given by the following formula [12 ].
[0045]
Gu × Sau: Go × Sao Formula [12]
[0046]
In this equation [12], Sau is the saturation of underexposed image data, and Sao is the saturation of overexposed image data. As described with reference to FIG. 7, since Gu: Go is p: q, the equation [12] can be rewritten as the following equation [12].
[0047]
p × Sau: q × Sao Formula [13]
[0048]
From this equation [13], it can be seen that the composite ratio for Cr and Cb is a value obtained by multiplying the composite ratio for Y by the saturation. By processing in this way, composition is performed in consideration of visibility and color vividness. An example of the circuit configuration is shown in FIG. 1, in which Sau is multiplied by the composition ratio of the underexposed image data with respect to Y, which is data input from the composition ratio spatial interpolation means 20 to the Cr composition means 22 and the Cb composition means 23, This can be realized by multiplying the composition ratio of overexposed image data by Sao. Instead of the algorithm of equation [12] or [13], it may be configured to use Cb and Cr with higher saturation of overexposed image data and underexposed image data. Also, (1) Cb and Cr of either overexposed image data or underexposed image data are used. (2) Average value of Cb and average value of Cr of overexposed image data and underexposed image data Modifications such as using may be performed.
[0049]
(Second Embodiment)
FIG. 8 is a block diagram showing the configuration of the color image processing apparatus according to the second embodiment of the present invention. The color image processing apparatus according to this embodiment uses a color moving image as a processing target. In this figure, the same or corresponding components as those in FIG. 1 are given the names used in FIG.
[0050]
As shown in FIG. 8, the color image processing apparatus of the present embodiment includes a first imaging unit 31, a first color format conversion unit 32, a first region dividing unit 33, and a first entropy value calculating unit 34. , Second imaging means 35, second color format conversion means 36, second area dividing means 37, second entropy value calculating means 38, composition ratio determining table creating means 39, composition ratio blending / temporal interpolation Means 40, composition ratio spatial interpolation means 41, Y composition means 42, Cr composition means 43, Cb composition means 44, and third color format conversion means 45 are provided.
[0051]
In FIG. 8, a first image pickup means 31 and a second image pickup means 35 are provided with an image pickup device such as a CCD, so that substantially the same subject can be picked up simultaneously. It is positioned and fixed to a housing (not shown). Then, as shown in step S11 of FIG. 9, RGB moving image data is acquired. Here, the first imaging unit 31 acquires overexposed image data, and the second imaging unit 35 acquires underexposed image data. Further, as shown in step S12 of FIG. 9, the first imaging unit 31 and the second imaging unit 35 divide the acquired moving image data into still image data in units of frames, respectively, Are output to the color format conversion means 32 and the second color format conversion means 36.
[0052]
The first color format conversion means 32 converts the RGB moving image data (R5, G5, B5) acquired by the first imaging means 31 into YCrCb moving image data (Y5, Cr5, Cb5). Similarly, the second color format conversion means 36 converts the RGB moving image data (R6, G6, B6) acquired by the second imaging means 35 into YCrCb moving image data (Y6, Cr6, Cb6). The conversion algorithms in the first color format conversion means 32 and the second color format conversion means 36 are equations [1] to [3]. The brightness image data creation shown in step S13 of FIG. 9 is performed by the equation [1]. Further, the first color format conversion means 32 is for one frame of brightness image data Y5 for each of a plurality of frames. i Is extracted and output to the first area dividing means 33. Hereinafter, the extracted frame is referred to as a representative frame. Similarly, the second color format conversion means 36 uses the brightness image data Y6 of the representative frame. i Is output to the second area dividing means 37.
[0053]
The processing in each of the first area dividing means 33, the first entropy value calculating means 34, the second area dividing means 37, the second entropy value calculating means 38, and the composition ratio determining table creating means 39 is shown in FIG. These are shown in steps S14 to S16. These processes correspond to the brightness image data Y1 and Y2 of still images corresponding to the corresponding processes in the first embodiment, whereas the brightness image data Y5 of the representative frame in the second embodiment. i , Y6 i Since it is basically the same except that it is targeted, the description is omitted.
[0054]
The composition ratio determination table created by the composition ratio determination table creation means 39 is input to the composition ratio blend / temporal interpolation means 40. The composition ratio blend / temporal interpolation means 40 blends the input composition ratio determination table with the composition ratio determination table of the past representative frame, and further performs temporal interpolation (step S17).
[0055]
The composition ratio blending / temporal interpolation means 40 first combines the composition ratio created by the composition ratio decision table creation means 39 for the past representative frame with respect to the composition ratio decision table created by the composition ratio decision table creation means 39. The determination table is blended at a predetermined ratio to create a new synthesis ratio determination table. Here, the composite ratio determination table input to the composite ratio blend / temporal interpolation means 40 for the nth (where n is an integer of 2 or more) representative frame is H (n), and the blended composite ratio determination table. Is H ′ (n), the following equations [14] and [15] are established.
[0056]
H ′ (n) = p · H ′ (n−1) + (1−p) · H (n) Equation [14]
[0057]
H '(1) = H (1) ... Formula [15]
[0058]
In this formula [14], p (0 ≦ p ≦ 1) is a weighting coefficient of the past density conversion curve. FIG. 10 illustrates the case where the representative frame is set every four frames. In FIG. 10, only the process of creating H ′ (n) is shown for convenience, but it goes without saying that the process is similarly performed for H ′ (n + 1).
[0059]
By introducing H ′ (n), it is possible to suppress the composition ratio determination table from greatly changing between representative frames, and as a result, flicker can be prevented. Here, when generating H ′ (n), only the synthesis ratio determination table H ′ (n−1) of the previous representative frame is blended. '(n-2) or a representative frame before that may be blended.
[0060]
Next, the composition ratio blend / temporal interpolation means 40 interpolates H ′ (n) in the time axis direction of the blended composition ratio determination table. Interpolation in the time axis direction is a process of generating a composition ratio determination table for frames other than the representative frame based on the composition ratio determination table for the representative frame. Here, assuming that the representative frame interval is r, and the composite ratio determination table of frames after x (x <r) from the nth representative frame is H ′ (n, x), H ′ (n, x) Is represented by the following equation [16].
[0061]
H ′ (n, x) = {(rx) / r} · H ′ (n) + (x / r) · H ′ (n + 1) (16)
[0062]
That is, according to the number of frames from two adjacent representative frames, by taking a weighted average of the composite ratio determination table of the two representative frames, the composite ratio determination table of the two representative frames is interpolated, and each frame The composite ratio determination table is determined. Then, H ′ (n, x) obtained in this way is employed as a synthesis ratio determination table applied to a frame between the nth representative frame and the (n + 1) th representative frame. FIG. 11 illustrates a case where the representative frame is set every four frames.
[0063]
By adopting H ′ (n, x), image composition capable of preventing occurrence of flicker for all frames without creating a composition ratio determination table H ′ (n) for all frames I can do it.
[0064]
The output of the synthesis ratio blend / temporal interpolation means 40 is input to the synthesis ratio spatial interpolation means 41. The synthesis ratio spatial interpolation unit 41 performs spatial interpolation of the synthesis ratio determination table in order to remove block noise, similarly to the synthesis ratio spatial interpolation unit 20 in the first embodiment (step S18). ).
[0065]
By using the composition ratio determination table interpolated by the composition ratio spatial interpolation means 41 in this way, overexposed and underexposed input image data in the Y composition means 42, the Cr composition means 43, and the Cb composition means 44. Are combined to obtain combined outputs Y7, Cr7, and Cb7. Since the synthesizing process in these means is the same as that in the first embodiment, the description is omitted. The Cr synthesizing unit 43 and the Cb synthesizing unit 44 are configured to perform synthesis in consideration of visibility and color vividness instead of using the synthesis ratio determination table interpolated by the synthesis ratio spatial interpolation unit 41. Needless to say, you can. In this way, the lightness value composition in step S19 is performed by the Y composition means 42.
[0066]
The combined outputs Y7, Cr7, and Cb7 of the Y synthesizing unit 42, the Cr synthesizing unit 43, and the Cb synthesizing unit 44 are input to the third color format converting unit 45 and returned to the RGB image data (R7, G7, B7). (Step S20). Conversion algorithms in the third color format conversion means 45 are equations [8] to [10]. The third color format conversion means 45 further synthesizes the RGB image data (R7, G7, B7) with the moving image frame and outputs it (step S21).
[0067]
In the above description of the first embodiment and the second embodiment, overexposed image data is acquired by the first imaging unit 11, and underexposed image data is acquired by the second imaging unit 15. Although it is assumed to be acquired, in the first embodiment and the second embodiment, it is possible to modify the image data so that overexposed image data and underexposed image data are acquired by one common image pickup means. is there. Examples of such a modification include an example using an all-pixel readout CCD, an example using a high-speed shutter, and an example using a CCD in which light receiving elements having different dynamic ranges are arranged for each pixel. Hereinafter, an example using an all-pixel readout CCD and an example using a high-speed shutter will be briefly described.
[0068]
Normally, in the case of a moving image, one frame of image data is acquired in 1/30 seconds. In that case, an odd field is imaged in the first 1/60 seconds, an even field is imaged in the remaining 1/60 seconds, and the two fields are combined into one frame. In the all-pixel readout CCD, image data in odd fields and image data in even fields can be acquired simultaneously. Accordingly, the image data of the odd-numbered and even-numbered fields that are overexposed is acquired in the first 1/60 second, and the image data of the odd-numbered and even-numbered fields that are overexposed is acquired in the remaining 1/60 seconds. With this CCD, overexposed image data and underexposed image data can be acquired.
[0069]
When using a high-speed shutter, for example, the shutter is released four times in 1/30 seconds, and every 1/120 seconds sequentially, underexposed odd field, underexposed even field, overexposed odd field, overexposed even number By imaging the field, it is possible to acquire overexposed and underexposed image data with a single CCD.
[0070]
Further, overexposed image data and underexposed image data are obtained by a common image pickup means, and one each from a color format converting means to an entropy value calculating means is provided, and overexposed image data and underexposed image data are provided. The image data may be configured to be time-division processed.
[0071]
【The invention's effect】
As described above in detail, according to the color image processing apparatus and processing method of the present invention, the visibility of each partial portion of underexposed image data and overexposed image data is automatically determined, and locally A color still image in which each part has optimum brightness by suppressing image collapse and overexposure by automatically determining two different composition ratios and automatically synthesizing two input image data in a fully automatic manner. Color moving images can be obtained.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a color image processing apparatus according to a first embodiment of the present invention;
FIG. 2 is a flowchart showing an outline of the flow of color image processing in the first embodiment of the present invention;
FIG. 3 is a diagram for explaining the operation of the area dividing means in the first embodiment of the invention;
FIG. 4 is a diagram for explaining the operation of entropy calculation means in the first embodiment of the present invention;
FIG. 5 is a diagram showing a composition ratio determination table in the first embodiment of the present invention;
FIG. 6 is a diagram for explaining spatial interpolation of the composition ratio determination table in the first embodiment of the present invention;
FIG. 7 is a diagram for explaining an image composition ratio in the first embodiment of the present invention;
FIG. 8 is a block diagram showing a configuration of a color image processing apparatus according to a second embodiment of the present invention;
FIG. 9 is a flowchart showing an outline of the flow of color image processing in the second embodiment of the present invention;
FIG. 10 is a diagram for explaining blending of a composition ratio determination table in the second embodiment of the present invention;
FIG. 11 is a diagram for explaining temporal interpolation of a composition ratio determination table according to the second embodiment of the present invention.
[Explanation of symbols]
11, 31 First imaging means
12, 32 First color format conversion means
13, 33 First area dividing means
14, 44 First entropy value calculation means
15, 35 Second imaging means
16, 36 Second color format conversion means
17, 37 Second area dividing means
18, 38 Second entropy value calculation means
19, 39 Composite ratio determination table creation means
20, 41 Composite ratio spatial interpolation means
21, 42 Y composition means
22, 43 Cr synthesis means
23, 44 Cb synthesis means
24, 45 Third color format conversion means
40 Composition ratio blending and temporal interpolation

Claims (11)

被写体を撮像して生成した露出オーバーの第1のカラー原色静止画像データから第1の明度画像データを生成する手段と、
前記被写体と実質的に同一の被写体を撮像して生成した露出アンダーの第2のカラー原色静止画像データから第2の明度画像データを生成する手段と、
前記第1の明度画像データを複数の領域にブロック単位で量子化して分割する手段と、
前記第2の明度画像データを複数の領域にブロック単位で量子化して分割する手段と、
前記第1の明度画像データの分割された領域毎に濃度ヒストグラムのエントロピー値を算出する手段と、
前記第2の明度画像データの分割された領域毎に濃度ヒストグラムのエントロピー値を算出する手段と、
前記第1の明度画像データと前記第2の明度画像データとを合成するための合成比率決定テーブルであって、明度が相対的に低い程前記第1の明度画像データの比率が相対的に高くなり、明度が相対的に高い程前記第2の明度画像データの比率が相対的に高くなり、かつ明度の最低値では前記第2の明度画像データの分割された領域毎の濃度ヒストグラムのエントロピー値で持ち上げ、明度の最高値では前記第1の明度画像データの分割された領域毎の濃度ヒストグラムのエントロピー値で持ち上げた合成比率決定テーブルを作成する手段と、
前記合成比率決定テーブルを用いて前記第1の明度画像データと前記第2の明度画像データとを合成する手段と
を具備することを特徴とするカラー画像処理装置。
Means for generating first brightness image data from overexposed first color primary color still image data generated by imaging a subject;
Means for generating second brightness image data from underexposed second color primary color still image data generated by imaging a subject substantially identical to the subject;
Means for quantizing and dividing the first brightness image data into a plurality of areas in units of blocks;
Means for quantizing and dividing the second brightness image data into a plurality of areas in units of blocks;
Means for calculating an entropy value of a density histogram for each divided region of the first brightness image data;
Means for calculating an entropy value of a density histogram for each divided region of the second brightness image data;
A synthesis ratio determination table for synthesizing the first brightness image data and the second brightness image data, wherein the ratio of the first brightness image data is relatively higher as the brightness is lower. The ratio of the second brightness image data is relatively higher as the brightness is relatively higher, and the lowest value of the brightness is the entropy value of the density histogram for each divided area of the second brightness image data. Means for creating a composite ratio determination table that is lifted by the entropy value of the density histogram for each divided area of the first brightness image data at the highest brightness value;
A color image processing apparatus comprising: means for combining the first lightness image data and the second lightness image data using the combining ratio determination table.
被写体を撮像して生成した露出オーバーの第1のカラー原色動画像データから第1の明度画像データを生成する手段と、
前記被写体と実質的に同一の被写体を撮像して生成した露出アンダーの第2のカラー原色動画像データから第2の明度画像データを生成する手段と、
予め定められたフレーム毎の前記第1の明度画像データを複数の領域にブロック単位で量子化して分割する手段と、
予め定められたフレーム毎の前記第2の明度画像データを複数の領域にブロック単位で量子化して分割する手段と、
前記第1の明度画像データの分割された領域毎に濃度ヒストグラムのエントロピー値を算出する手段と、
前記第2の明度画像データの分割された領域毎に濃度ヒストグラムのエントロピー値を算出する手段と、
前記第1の明度画像データと前記第2の明度動画像データとを合成するための合成比率決定テーブルであって、明度が相対的に低い程前記第1の明度画像データの比率が相対的に高くなり、明度が相対的に高い程前記第2の明度画像データの比率が相対的に高くなり、かつ明度の最低値では前記第2の明度画像データの分割された領域毎の濃度ヒストグラムのエントロピー値で持ち上げ、明度の最高値では前記第1の明度画像データの分割された領域毎の濃度ヒストグラムのエントロピー値で持ち上げた合成比率決定テーブルを作成する手段と、
前記作成された合成比率決定テーブルを過去の合成比率決定テーブルと時間的に内挿する手段と、
前記時間的に内挿された合成比率決定テーブルを用いて前記第1の明度画像データと前記第2の明度画像データとを合成する手段と
を具備することを特徴とするカラ−画像処理装置。
Means for generating first brightness image data from overexposed first primary color moving image data generated by imaging a subject;
Means for generating second brightness image data from underexposed second color primary color moving image data generated by imaging a subject substantially identical to the subject;
Means for quantizing and dividing the first brightness image data for each predetermined frame into a plurality of areas in units of blocks;
Means for quantizing and dividing the second brightness image data for each predetermined frame into a plurality of areas in units of blocks;
Means for calculating an entropy value of a density histogram for each divided region of the first brightness image data;
Means for calculating an entropy value of a density histogram for each divided region of the second brightness image data;
A synthesis ratio determination table for synthesizing the first brightness image data and the second brightness moving image data, wherein the ratio of the first brightness image data is relatively lower as the brightness is relatively lower. The higher the lightness, the higher the ratio of the second lightness image data, and at the lowest lightness, the entropy of the density histogram for each divided region of the second lightness image data. Means for creating a composition ratio determination table that is lifted by a value and lifted by an entropy value of a density histogram for each divided region of the first brightness image data at the highest brightness value;
Means for temporally interpolating the created composite ratio determination table with a past composite ratio determination table;
A color image processing apparatus comprising: means for combining the first brightness image data and the second brightness image data using the temporally interpolated combining ratio determination table.
前記合成比率決定テーブルにおける隣接するブロックの合成比率を内挿する手段を具備することを特徴とする請求項1または2記載のカラ−画像処理装置。3. The color image processing apparatus according to claim 1, further comprising means for interpolating a composition ratio of adjacent blocks in the composition ratio determination table. 前記予め定められたフレームの内、隣り合うフレームの前記合成比率決定テーブルにおける合成比率を内挿する手段を具備することを特徴とする請求項2記載のカラ−画像処理装置。3. The color image processing apparatus according to claim 2, further comprising means for interpolating a composition ratio in the composition ratio determination table of adjacent frames among the predetermined frames. 前記領域の境界のブロックの前記合成比率決定テーブルにおける合成比率を内挿する手段を具備することを特徴とする請求項3記載のカラ−画像処理装置。4. The color image processing apparatus according to claim 3, further comprising means for interpolating a composition ratio in the composition ratio determination table of the boundary block of the region. 前記第1のカラー原色静止画像データから第1の色画像データを生成する手段と、
前記第2のカラー原色静止画像データから第2の色画像データを生成する手段と、
前記合成比率決定テーブルを用いて前記第1の色画像データと前記第2の色画像データとを合成する手段と
を具備することを特徴とする請求項1記載のカラ−画像処理装置。
Means for generating first color image data from the first color primary color still image data;
Means for generating second color image data from the second color primary color still image data;
2. A color image processing apparatus according to claim 1, further comprising means for synthesizing the first color image data and the second color image data using the synthesis ratio determination table.
前記第1のカラー原色動画像データから第1の色画像データを生成する手段と、
前記第2のカラー原色動画像データから第2の色画像データを生成する手段と、
前記合成比率決定テーブルを用いて前記第1の色画像データと前記第2の色画像データとを合成する手段と
を具備することを特徴とする請求項2記載のカラ−画像処理装置。
Means for generating first color image data from the first color primary color moving image data;
Means for generating second color image data from the second color primary color moving image data;
3. The color image processing apparatus according to claim 2, further comprising means for synthesizing the first color image data and the second color image data using the synthesis ratio determination table.
前記第1のカラー原色静止画像データから第1の色画像データを生成する手段と、
前記第2のカラー原色静止画像データから第2の色画像データを生成する手段と、
前記合成比率決定テーブルの合成比率を前記第1の色画像データの彩度および前記第2の色画像データの彩度を考慮して変更した合成比率により、前記第1の色画像データと前記第2の色画像データとを合成する手段と
を具備することを特徴とする請求項1記載のカラ−画像処理装置。
Means for generating first color image data from the first color primary color still image data;
Means for generating second color image data from the second color primary color still image data;
The first color image data and the first color image data are determined by a composition ratio obtained by changing the composition ratio of the composition ratio determination table in consideration of the saturation of the first color image data and the saturation of the second color image data. 2. A color image processing apparatus according to claim 1, further comprising means for synthesizing the two color image data.
前記第1のカラー原色動画像データから第1の色画像データを生成する手段と、
前記第2のカラー原色動画像データから第2の色画像データを生成する手段と、
前記合成比率決定テーブルの合成比率を前記第1の色画像データの彩度および前記第2の色画像データの彩度を考慮して変更した合成比率により、前記第1の色画像データと前記第2の色画像データとを合成する手段と
を具備することを特徴とする請求項2記載のカラ−画像処理装置。
Means for generating first color image data from the first color primary color moving image data;
Means for generating second color image data from the second color primary color moving image data;
The first color image data and the first color image data are determined by a composition ratio obtained by changing the composition ratio of the composition ratio determination table in consideration of the saturation of the first color image data and the saturation of the second color image data. 3. A color image processing apparatus according to claim 2, further comprising means for synthesizing the two color image data.
被写体を撮像して生成した露出オーバーの第1のカラー原色静止画像データから第1の明度画像データを生成するステップと、
前記被写体と実質的に同一の被写体を撮像して生成した露出アンダーの第2のカラー原色静止画像データから第2の明度画像データを生成するステップと、
前記第1の明度画像データを複数の領域にブロック単位で量子化して分割するステップと、
前記第2の明度画像データを複数の領域にブロック単位で量子化して分割するステップと、
前記第1の明度画像データの分割された領域毎に濃度ヒストグラムのエントロピー値を算出するステップと、
前記第2の明度画像データの分割された領域毎に濃度ヒストグラムのエントロピー値を算出するステップと、
前記第1の明度画像データと前記第2の明度画像データとを合成するための合成比率決定テーブルであって、明度が相対的に低い程前記第1の明度画像データの比率が相対的に高くなり、明度が相対的に高い程前記第2の明度画像データの比率が相対的に高くなり、かつ明度の最低値では前記第2の明度画像データの分割された領域毎の濃度ヒストグラムのエントロピー値で持ち上げ、明度の最高値では前記第1の明度画像データの分割された領域毎の濃度ヒストグラムのエントロピー値で持ち上げた合成比率決定テーブルを作成するステップと、
前記合成比率決定テーブルを用いて前記第1の明度画像データと前記第2の明度画像データとを合成するステップと
を具備することを特徴とするカラ−画像処理方法。
Generating first brightness image data from overexposed first color primary color still image data generated by imaging a subject;
Generating second brightness image data from underexposed second color primary color still image data generated by imaging a subject substantially identical to the subject;
Quantizing and dividing the first brightness image data into a plurality of areas in units of blocks;
Quantizing and dividing the second brightness image data into a plurality of areas in units of blocks;
Calculating an entropy value of a density histogram for each divided region of the first brightness image data;
Calculating an entropy value of a density histogram for each divided region of the second brightness image data;
A synthesis ratio determination table for synthesizing the first brightness image data and the second brightness image data, wherein the ratio of the first brightness image data is relatively higher as the brightness is lower. The ratio of the second brightness image data is relatively higher as the brightness is relatively higher, and the lowest value of the brightness is the entropy value of the density histogram for each divided area of the second brightness image data. Creating a composite ratio determination table lifted by the entropy value of the density histogram for each divided region of the first brightness image data at the highest brightness value,
A color image processing method comprising: combining the first lightness image data and the second lightness image data using the combining ratio determination table.
被写体を撮像して生成した露出オーバーの第1のカラー原色動画像データから第1の明度画像データを生成するステップと、
前記被写体と実質的に同一の被写体を撮像して生成した露出アンダーの第2のカラー原色動画像データから第2の明度画像データを生成するステップと、
予め定められたフレーム毎の前記第1の明度画像データを複数の領域にブロック単位で量子化して分割するステップと、
予め定められたフレーム毎の前記第2の明度画像データを複数の領域にブロック単位で量子化して分割するステップと、
前記第1の明度画像データの分割された領域毎に濃度ヒストグラムのエントロピー値を算出するステップと、
前記第2の明度画像データの分割された領域毎に濃度ヒストグラムのエントロピー値を算出するステップと、
前記第1の明度画像データと前記第2の明度画像データとを合成するための合成比率決定テーブルであって、明度が相対的に低い程前記第1の明度画像データの比率が相対的に高くなり、明度が相対的に高い程前記第2の明度画像データの比率が相対的に高くなり、かつ明度の最低値では前記第2の明度画像データの分割された領域毎の濃度ヒストグラムのエントロピー値で持ち上げ、明度の最高値では前記第1の明度画像データの分割された領域毎の濃度ヒストグラムのエントロピー値で持ち上げた合成比率決定テーブルを作成するステップと、
前記作成された合成比率決定テーブルを過去の合成比率決定テーブルと時間的に内挿するステップと、
前記時間的に内挿された合成比率決定テーブルを用いて前記第1の明度画像データと前記第2の明度画像データとを合成するステップと
を具備することを特徴とするカラ−画像処理方法。
Generating first brightness image data from overexposed first primary color moving image data generated by imaging a subject;
Generating second brightness image data from underexposed second color primary color moving image data generated by imaging a subject substantially identical to the subject;
Quantizing and dividing the first brightness image data for each predetermined frame into a plurality of areas in units of blocks;
Quantizing and dividing the second brightness image data for each predetermined frame into a plurality of areas in units of blocks;
Calculating an entropy value of a density histogram for each divided region of the first brightness image data;
Calculating an entropy value of a density histogram for each divided region of the second brightness image data;
A synthesis ratio determination table for synthesizing the first brightness image data and the second brightness image data, wherein the ratio of the first brightness image data is relatively higher as the brightness is lower. The ratio of the second brightness image data is relatively higher as the brightness is relatively higher, and the lowest value of the brightness is the entropy value of the density histogram for each divided area of the second brightness image data. Creating a composite ratio determination table lifted by the entropy value of the density histogram for each divided region of the first brightness image data at the highest brightness value,
Interpolating the created composite ratio determination table with a past composite ratio determination table in time;
A color image processing method comprising: combining the first lightness image data and the second lightness image data using the temporally interpolated composition ratio determination table.
JP2003053772A 2002-11-26 2003-02-28 Color image processing apparatus and processing method Expired - Fee Related JP3817635B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003053772A JP3817635B2 (en) 2002-11-26 2003-02-28 Color image processing apparatus and processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002342269 2002-11-26
JP2003053772A JP3817635B2 (en) 2002-11-26 2003-02-28 Color image processing apparatus and processing method

Publications (2)

Publication Number Publication Date
JP2004229259A JP2004229259A (en) 2004-08-12
JP3817635B2 true JP3817635B2 (en) 2006-09-06

Family

ID=32910864

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003053772A Expired - Fee Related JP3817635B2 (en) 2002-11-26 2003-02-28 Color image processing apparatus and processing method

Country Status (1)

Country Link
JP (1) JP3817635B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5050141B2 (en) * 2004-12-01 2012-10-17 国立大学法人徳島大学 Color image exposure evaluation method
JP4987355B2 (en) * 2005-10-14 2012-07-25 京セラ株式会社 Imaging apparatus and imaging method
US8115818B2 (en) 2005-12-27 2012-02-14 Kyocera Corporation Imaging device and image processing method of same
JP5411786B2 (en) * 2010-04-08 2014-02-12 日本放送協会 Image capturing apparatus and image integration program
JP5136664B2 (en) * 2010-07-09 2013-02-06 カシオ計算機株式会社 Image processing apparatus and program
JP5136665B2 (en) * 2010-07-21 2013-02-06 カシオ計算機株式会社 Image processing apparatus and program
US9544505B2 (en) * 2014-04-11 2017-01-10 Hanwha Techwin Co., Ltd. Image processing apparatus for synthesizing images based on a plurality of exposure time periods and image processing method thereof
JP2015204489A (en) * 2014-04-11 2015-11-16 ハンファテクウィン株式会社Hanwha Techwin Co.,Ltd. Image processing apparatus and image processing method
CN106464815B (en) * 2014-11-21 2020-01-14 深圳市大疆创新科技有限公司 System and method for fast adaptive blending for high dynamic range imaging
US20230162473A1 (en) * 2021-01-22 2023-05-25 Logic And Design Co., Ltd Image processing method

Also Published As

Publication number Publication date
JP2004229259A (en) 2004-08-12

Similar Documents

Publication Publication Date Title
US9094648B2 (en) Tone mapping for low-light video frame enhancement
US9307212B2 (en) Tone mapping for low-light video frame enhancement
JP4163353B2 (en) Image processing device
KR101442153B1 (en) Method and system for processing for low light level image.
KR100745386B1 (en) Image signal processor, image signal processing method, learning device, learning method, and recorded medium
JP5574792B2 (en) Imaging device
JP2005229198A (en) Image processing apparatus and method, and program
JP2014143702A (en) Block-based image stabilization
JP2002524929A (en) Method and apparatus for edge enhancement in digital images
JP2011109638A (en) Image processing apparatus and image processing method
WO2010118658A1 (en) Video processing method and device
JP5468930B2 (en) Image processing apparatus and image processing program
JP2021114696A (en) Image processing device, image processing method and program
JP3817635B2 (en) Color image processing apparatus and processing method
JP5882702B2 (en) Imaging device
JP2018182376A (en) Image processing apparatus
JP4272443B2 (en) Image processing apparatus and image processing method
JP2011171842A (en) Image processor and image processing program
JP2004246644A (en) Apparatus, method, and program for image processing
Lukac Single-sensor digital color imaging fundamentals
KR102199472B1 (en) Apparatus and method for processing image
JP2002288650A (en) Image processing device, digital camera, image processing method and recording medium
JP3731741B2 (en) Color moving image processing method and processing apparatus
JP2008219230A (en) Imaging apparatus, and image processing method
JP2009022044A (en) Image processing apparatus and image processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051213

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20051213

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20060210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060524

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090623

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100623

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110623

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120623

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees