JP4556319B2 - Image processing apparatus and method, and recording medium - Google Patents
Image processing apparatus and method, and recording medium Download PDFInfo
- Publication number
- JP4556319B2 JP4556319B2 JP2000328161A JP2000328161A JP4556319B2 JP 4556319 B2 JP4556319 B2 JP 4556319B2 JP 2000328161 A JP2000328161 A JP 2000328161A JP 2000328161 A JP2000328161 A JP 2000328161A JP 4556319 B2 JP4556319 B2 JP 4556319B2
- Authority
- JP
- Japan
- Prior art keywords
- luminance
- dynamic range
- luminance value
- function
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title description 66
- 230000006870 function Effects 0.000 claims description 184
- 238000013507 mapping Methods 0.000 claims description 109
- 230000001965 increasing effect Effects 0.000 claims description 15
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 238000003672 processing method Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 27
- 238000001514 detection method Methods 0.000 description 22
- 238000003384 imaging method Methods 0.000 description 16
- 230000003287 optical effect Effects 0.000 description 7
- 230000035945 sensitivity Effects 0.000 description 7
- 239000004065 semiconductor Substances 0.000 description 6
- 230000015572 biosynthetic process Effects 0.000 description 5
- 230000006835 compression Effects 0.000 description 5
- 238000007906 compression Methods 0.000 description 5
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 5
- 238000003786 synthesis reaction Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000001771 impaired effect Effects 0.000 description 2
- 239000012788 optical film Substances 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
Images
Landscapes
- Processing Of Color Television Signals (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
- Controls And Circuits For Display Device (AREA)
- Image Processing (AREA)
- Picture Signal Circuits (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、画像処理装置および方法、並びに記録媒体に関し、例えば、画像信号の輝度のダイナミックレンジを変更する場合に用いて好適な画像処理装置および方法、並びに記録媒体に関する。
【0002】
【従来の技術】
CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Mental-Oxide Semiconductor)イメージセンサのような固体撮像素子が、ビデオカメラやディジタルスチルカメラ等の撮像装置、FA(Factory Automation)の分野における部品検査装置、およびME(Medical Electronics)の分野における電子内視鏡等の光計測装置に幅広く利用されている。
【0003】
近年、それらの固体撮像素子を用いて、光学フィルム写真に匹敵するダイナミックレンジを有する画像信号を得ることができる技術が数多く開発されている。
【0004】
一方、撮像された動画像や静止画像を表示するCRT(Cathode Ray tube)のような表示装置、印刷するプリンタ、投影するプロジェクタ等の従来機器は、現在において、それらが表現し得る輝度階調に制限がある。すなわち、表現可能な画像のダイナミックレンジが狭い。よって、光学フィルム写真に匹敵するダイナミックレンジを有する画像の画像信号(以下、広ダイナミックレンジ画像と記述する)を取得することができたとしても、それを表現(表示や印刷等)することができない問題がある。
【0005】
したがって、広ダイナミックレンジ画像の輝度階調を圧縮してダイナミックレンジを狭め、表示装置等の従来機器が表現可能な画像(以下、狭ダイナミックレンジ画像と記述する)に変換するダイナミックレンジ圧縮処理技術が必要とされている。
【0006】
以下、従来において提案された4つのダイナミックレンジ圧縮技術について説明する。
【0007】
第1の技術として、画像信号の輝度のゲインとオフセットを調節することによって輝度をスケーリングする方法が挙げられる。この第1の技術は、極めて簡易であって、簡単に適用することができる。しかしながら、輝度階調を圧縮しないので、表示装置等のダイナミックレンジを越える輝度の値は全てクリッピングされてしまい、元の広ダイナミックレンジ画像が有する情報を活かしきることができない。
【0008】
第2の技術として、本来、表示装置等のガンマ特性を補正するために実行されるガンマ補正処理を流用してダイナミックレンジを圧縮する技術が挙げられる。
ガンマ補正処理に用いられるガンマ補正曲線はべき乗の関数であるので、ガンマ値である指数を変更することによって、簡単に補正特性を調節することができる。しかしながら、ダイナミックレンジ圧縮に流用することに起因して、本来のガンマ補正処理に影響を及ぼしてしまい、色バランスが崩れたり、コントラストの劣化が発生することがある。
【0009】
第3の技術として、画像の累積ヒストグラム曲線を階調補正曲線に用いるヒストグラム等化手法が挙げられる。ヒストグラム等化手法では、輝度分布(ヒストグラム)に対応して、画像中のより広い面積を占める輝度に対し、より多くの階調を与えるように階調変換が施される。したがって、画像全体としてはコントラストを強調する方向に作用し、狭いダイナミックレンジであっても細部が明確化された視認性が高い画像を得ることができる。しかしながら、階調変換の結果得られる画像は、元の広ダイナミックレンジ画像の輝度分布に大きく左右されるので、所望の画像が得られない場合がある。
【0010】
第4の技術として、局所オペレータを用いて細部を強調する技術が挙げられる。第4の技術では、画像が局所オペレータによって空間周波数帯域毎に分離され、分離された空間周波数帯域のそれぞれに対し、ゲインが調節された後、それらが再び統合される。ゲインを調整する際、低周波数帯域を減衰させことによって、階調を圧縮することができ、高周波数帯域の減衰量を少なくすることによって、細部のコントラストが損なわれないようにすることができる。
【0011】
よって、階調が少ない表示装置等の従来機器であっても、細部の視認性が高い画像を表現することができる。しかしながら、各帯域のバランスが変更された結果、画像内のエッジ部分等の高コントラスト領域に階調の反転が生じてしまい、その部分が場合によって非常に目障りなアーチファクト(artifact)として認知されてしまうことがある。
【0012】
【発明が解決しようとする課題】
以上説明したように、従来のダイナミックレンジ圧縮技術では、得られる狭ダイナミックレンジ画像がユーザの意図を反映した結果とはならないことがある。
具体的には、広ダイナミックレンジ画像を狭ダイナミックレンジ画像に変換する際、例えば画像中の被写体が占める領域を最適な輝度で表現させようとしても、その実行が困難である課題があった。
【0013】
本発明はこのような状況に鑑みてなされたものであり、広ダイナミックレンジ画像を狭ダイナミックレンジ画像に変換する際、画像中の任意の領域の輝度を最適化できるようにすることを目的とする。
【0014】
【課題を解決するための手段】
本発明の画像処理装置は、第2のダイナミックレンジにおける第2の輝度値を設定する設定手段と、第2の輝度値に対応する第1のダイナミックレンジにおける第1の輝度値を演算する演算手段と、第1の輝度値および第2の輝度値からなる第1の輝度対に基づいて、マッピング関数を生成するマッピング関数生成手段と、生成されたマッピング関数を用いて第1の画像信号を第2の画像信号に変換する変換手段とを含み、マッピング関数生成手段は、第1の輝度対に対応する点、第1のダイナミックレンジにおける最小輝度値付近の第3の輝度値と第2のダイナミックレンジにおける最小輝度値付近の第4の輝度値からなる第2の輝度対に対応する点、および第1のダイナミックレンジにおける最大輝度値付近の第5の輝度値と第2のダイナミックレンジにおける最大輝度値付近の第6の輝度値からなる第3の輝度対に対応する点の3点の近傍を通過する滑らかな単調増加関数をマッピング関数として生成する。
【0015】
前記マッピング関数生成手段は、第1の輝度対に対応する点と第2の輝度対に対応する点を通過する単調増加関数第1の関数としてを生成する第1の関数生成手段と、第1の輝度対に対応する点と第3の輝度対に対応する点を通過する単調増加関数を第2の関数として生成する第2の関数生成手段と、第1の輝度対が示す点の近傍において、第1の関数上の点および第2の関数上の点を通る単調増加関数である第3の関数をマッピング関数として生成する第3の関数生成手段とを含むことができる。
【0016】
前記第3の関数生成手段は、第1の関数が示す所定の1点、第1の輝度対が示す1点、および第2の関数が示す所定の1点の3点によって定義される2次曲線関数を、第3の関数として生成することができる。
【0017】
本発明の画像処理装置は、マッピング関数に基づいて、第2の画像信号を構成する3原色信号の色バランスを補正するための補正情報を算出する算出手段と、補正情報を用いて、第2の画像信号を構成する3原色信号を補正する補正手段とをさらに含むことができ、前記算出手段は、マッピング関数のガンマ特性を取得し、補正後の3原色信号とマッピング関数適用後輝度値の比率がそのガンマ特性によって算出される比率になるように、3原色信号への補正係数を決定することができる。
【0018】
本発明の画像処理方法は、第2のダイナミックレンジにおける第2の輝度値を設定する設定ステップと、第2の輝度値に対応する第1のダイナミックレンジにおける第1の輝度値を演算する演算ステップと、第1の輝度値および第2の輝度値からなる第1の輝度対に基づいて、マッピング関数を生成するマッピング関数生成ステップと、生成されたマッピング関数を用いて第1の画像信号を第2の画像信号に変換する変換ステップとを含み、マッピング関数生成ステップは、第1の輝度対に対応する点、第1のダイナミックレンジにおける最小輝度値付近の第3の輝度値と第2のダイナミックレンジにおける最小輝度値付近の第4の輝度値からなる第2の輝度対に対応する点、および第1のダイナミックレンジにおける最大輝度値付近の第5の輝度値と第2のダイナミックレンジにおける最大輝度値付近の第6の輝度値からなる第3の輝度対に対応する点の3点の近傍を通過する滑らかな単調増加関数をマッピング関数として生成する。
【0019】
本発明の記録媒体は、輝度値に関して、第1のダイナミックレンジを有する第1の画像信号を、第2のダイナミックレンジを有する第2の画像信号に変換する画像処理用のプログラムであって、第2のダイナミックレンジにおける第2の輝度値を設定する設定ステップと、第2の輝度値に対応する第1のダイナミックレンジにおける第1の輝度値を演算する演算ステップと、第1の輝度値および第2の輝度値からなる第1の輝度対に基づいて、マッピング関数を生成するマッピング関数生成ステップと、生成されたマッピング関数を用いて第1の画像信号を第2の画像信号に変換する変換ステップとを含み、マッピング関数生成ステップは、第1の輝度対に対応する点、第1のダイナミックレンジにおける最小輝度値付近の第3の輝度値と第2のダイナミックレンジにおける最小輝度値付近の第4の輝度値からなる第2の輝度対に対応する点、および第1のダイナミックレンジにおける最大輝度値付近の第5の輝度値と第2のダイナミックレンジにおける最大輝度値付近の第6の輝度値からなる第3の輝度対に対応する点の3点の近傍を通過する滑らかな単調増加関数をマッピング関数として生成する処理をコンピュータに実行させるプログラムが記録されている。
【0020】
本発明においては、第2のダイナミックレンジにおける第2の輝度値が設定され、第2の輝度値に対応する第1のダイナミックレンジにおける第1の輝度値が演算される。さらに、第1の輝度値および第2の輝度値からなる第1の輝度対に基づいて、マッピング関数が生成され、生成されたマッピング関数が用いられて第1の画像信号が第2の画像信号に変換される。なお、マッピング関数としては、第1の輝度対に対応する点、第1のダイナミックレンジにおける最小輝度値付近の第3の輝度値と第2のダイナミックレンジにおける最小輝度値付近の第4の輝度値からなる第2の輝度対に対応する点、および第1のダイナミックレンジにおける最大輝度値付近の第5の輝度値と第2のダイナミックレンジにおける最大輝度値付近の第6の輝度値からなる第3の輝度対に対応する点の3点の近傍を通過する滑らかな単調増加関数が生成される。
【0021】
【発明の実施の形態】
図1は、本発明を適用した画像処理システムの構成例を示している。この画像処理システムは、被写体を広ダイナミックレンジ画像信号として撮像するディジタルカメラ等よりなる撮像装置1、および、撮像装置1から供給される広ダイナミックレンジ画像信号を狭ダイナミックレンジ画像信号に変換するパーソナルコンピュータ等よりなる画像処理装置2から構成される。
【0022】
画像処置装置2は、画像信号を処理する画像処理部11、ユーザからの操作コマンド等を受け付け、その操作コマンドの情報を画像処理部11に通知する操作入力部12、および、操作入力部12に対応するGUI(Graphical User Interface)や画像処理部11の処理結果を表示する表示部13から構成される。画像処理装置2の画像処理部11は、処理結果である狭ダイナミックレンジ画像信号を、適宜、画像処理装置2の外部に出力する。
【0023】
図2は、撮像装置1の構成例を示している。撮像装置1は、被写体の光画像を集光するレンズ21、透過する光量を調整する絞り22、レンズ21および絞り22を介して入力される光画像を電気信号に変換するCCDイメージセンサ23、相関2重サンプリング回路、ガンマ補正回路およびニー特性回路等を含む前置増幅器24、前置増幅器24から入力される電気信号を広ダイナミックレンジ画像信号にエンコードするビデオエンコーダ25、並びに広ダイナミックレンジ画像信号を画像処理装置2に出力する出力部26から構成される。
【0024】
撮像装置1の構成要素であるCCDイメージセンサ23および前置増幅器24について説明する。図3は、CCDイメージセンサ23の構成例を示している。CCDイメージセンサ23は、インタレーススキャンを行うインタライン型CCDと同様の構成をなしている。すなわち、入射した光量に応じた電荷を蓄積すフォトダイオード(PD)31が2次元に配列されており、フォトダイオード31の各縦列間に垂直レジスタ(Vレジスタ)32が設けられ、垂直レジスタ32の終端(図3において下端)には、水平レジスタ(Hレジスタ)33が設けられている。
【0025】
なお、偶数フィールド構成する第2i(i=0,1,2,・・・)ラインには、高感度のフォトダイオード31Hが用いられ、奇数フィールド構成する第2i+1ラインには、低感度のフォトダイオード31Lが用いられている。
【0026】
フォトダイオード31H,31Lの感度特性について、図4を参照して説明する。図4において、横軸Eiはフォトダイオード31H,31Lに入力される光の強度を示しており、縦軸Eoはフォトダイオード31H,31Lに蓄積される電荷量を示している。
【0027】
低感度のフォトダイオード31Lは、図4の直線Aに示す感度特性を有する。
すなわち、入力される光の強度の全域に亘り、入射光の強度に比例した電荷を蓄積する。高感度のフォトダイオード31Hは、図4の直線Bに示す感度特性を有する。すなわち、強度が弱い光に対応し、その入射光の強度に比例して、低感度のフォトダイオード31Lよりも多くの電荷を蓄積する。
【0028】
図3に戻る。フォトダイオード31H,31Lに蓄積された電荷は、所定のタイミング毎に対応する垂直レジスタ32に読み出された後、水平レジスタ33に転送される。水平レジスタ33は、1水平ライン分の垂直レジスタ32から転送された電荷を順次出力する。
【0029】
フォトダイオード31H,31Lに蓄積された電荷を読み出すタイミングについて説明する。CCDイメージセンサ23は、インタレーススキャンを行うが、電荷読み出しの際、1画素に対応する電荷として、上下に隣接するフォトダイオード31H,31Lの電荷を読み出して加算するようになされている。
【0030】
例えば、偶数フィールドの第2iラインの電荷としては、第2iラインのフォトダイオード31Hに蓄積された電荷と、第2i+1ラインのフォトダイオード31Lに蓄積された電荷が読み出されて加算される。奇数フィールドの第2i+1ラインの電荷としては、第2i+1ラインのフォトダイオード31Lに蓄積された電荷と、第2(i+1)ラインのフォトダイオード31Hに蓄積された電荷が読み出されて加算される。
【0031】
したがって、CCDイメージセンサ23は、各画素に対応する電気信号として、低感度のフォトダイオード31Lに蓄積された電荷と高感度のフォトダイオード31Hに蓄積された電荷の和を出力するようになされている。よって、CCDイメージセンサ23は、図4の直線A(フォトダイオード31Lに対応する)と直線B(フォトダイオード31Hに対応する)を加算した線Cに示す感度特性を有することになる。すなわち、CCDイメージセンサ23は、光の強度が弱い領域において高感度のフォトダイオード31Hが電荷を蓄積し、光の強度が強い領域においては低感度のフォトダイオード31Lが電荷を蓄積するので、ノイズと飽和の少ない広ダイナミックレンジの電気信号を得ることができる。
【0032】
前置増幅器24は、図5に示す関数(図4の曲線Cの逆関数)を、CCDイメージセンサ23から出力された広ダイナミックレンジの電気信号Eoに適用して元の光信号の強度の推定値Ei’を得る。
【0033】
次に、図6は、画像処理用のアプリケーションプログラムを実行することより、画像処理装置2として動作するパーソナルコンピュータの構成例を示している。このパーソナルコンピュータは、CPU(Central Processing Unit)41を内蔵している。CPU41にはバス44を介して、入出力インタフェース45が接続されている。
【0034】
入出力インタフェース45には、操作入力部12に相当するキーボード、マウスなどの入力デバイスよりなる入力部46、GUIや処理結果としての画像信号を表示部13に出力する表示制御部47、撮像装置1から入力される広ダイナミックレンジ画像信号をデコードするビデオデコーダ48、各画素の輝度に相当する電圧を量子化してディジタル画像信号に変換するA/Dコンバータ49、ハードディスクやフレームメモリなどよりなり、画像処理用のプログラムやディジタル画像信号等を格納する記憶部50、並びに、磁気ディスク52(フロッピディスクを含む)、光ディスク53(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク54(MD(Mini Disc)を含む)、および半導体メモリ55などの記録媒体に対してデータを読み書きするドライブ51が接続されている。
【0035】
バス44には、入出力インタフェース45の他、ROM(Read Only Memory)42およびRAM(Random Access Memory)43が接続されている。
【0036】
このパーソナルコンピュータに画像処理装置2としての動作を実行させる画像処理用プログラムは、磁気ディスク52乃至半導体メモリ55に格納された状態でパーソナルコンピュータに供給され、ドライブ51によって読み出されて、記憶部50に内蔵されるハードディスクドライブにインストールされている。記憶部50にインストールされている画像処理用プログラムは、入力部46に入力されるユーザからのコマンドに対応するCPU41の指令によって、記憶部50からRAM43にロードされて実行される。
【0037】
次に、当該画像処理システムの動作について、図7のフローチャートを参照して説明する。ステップS1において、撮像装置1は、被写体の光画像を撮像し、得られた広ダイナミックレンジ画像信号を画像処理装置2に出力する。
【0038】
ステップS2において、画像処理装置2の画像処理部11は、ユーザの選択操作に対応して最適露出情報を設定する。最適露出情報を設定する第1の動作例について、図8のフローチャートを参照して説明する。
【0039】
ステップS11において、画像処理装置2の画像処理部11は、撮像装置1から入力された広ダイナミックレンジ画像信号から、所定の数の狭ダイナミックレンジ画像信号を簡易生成する。狭ダイナミックレンジ画像信号を簡易生成する処理について、図9のフローチャートを参照して説明する。以下、処理される画像信号は輝度信号であるとする。
【0040】
ステップS21において、画像処理部11は、撮像装置1から入力されて記憶されている広ダイナミックレンジ画像の各画素の画像信号Y(x,y)と、予め用意されている複数の露出比率rのうちの1つを、記憶部50から読み出す。ここで、x,yは、それぞれ、画像の縦または横の座標値である。
【0041】
ステップS22において、画像処理部11は、全ての画素の画像信号Y(x,y)に露出比率rを乗算して変換画像信号Yn(x,y)を生成する。ステップS23において、画像処理部11は、変換画像信号Yn(x,y)を、所定の閾値Ynmax,Ynminと比較して、閾値Ynmaxよりも大きい変換画像信号Yn(x,y)を、閾値Ynmaxを用いて置換し、閾値Ynminよりも小さい変換画像信号Yn(x,y)を、閾値Ynminを用いて置換する。このようにして生成された変換画像信号Yn(x,y)が、簡易生成した狭ダイナミックレンジ画像信号とされる。
【0042】
以上説明したステップS21乃至S23の処理は、予め用意されている露出比率rの種類の数と同じ数だけ繰り返し実行される。
【0043】
処理は、図8のステップS12に戻る。ステップS12において、画像処理部11は、ステップS11の処理で簡易生成された狭ダイナミックレンジ画像信号を表示部13に表示させ、また、表示させた複数の狭ダイナミックレンジ画像のうちの1つをユーザに選択させるためのGUIを表示部13に表示させる。
【0044】
図10は、簡易生成された狭ダイナミックレンジ画像を表示する表示部13の表示例を示している。この表示例では、表示部13の画像表示領域61に、9(=3×3)枚の簡易生成された狭ダイナミックレンジ画像62が表示可能とされており、4枚の簡易生成された狭ダイナミックレンジ画像62が表示されている。表示された狭ダイナミックレンジ画像62の周囲には、枠63が設けられている。
【0045】
図11は、表示部13に表示された複数の簡易生成された狭ダイナミックレンジ画像62を、ユーザが選択する際に操作するGUIの表示例を示している。GUIとしての画像選択ボタンパネル71には、現在指定されている画像の左側の画像を指定するときクリックされる左移動ボタン72、現在指定されている画像の右側の画像を指定するときクリックされる右移動ボタン73、および、指定されている画像を選択するときクリックされるセレクトボタン74が設けられている。
【0046】
表示部13の画像表示領域61に表示された枠63は、対応する画像がユーザによって指定されている場合、それをユーザが認識できるように、例えば、ハイライト表示される。図10の表示例の場合、3×3の画像のうちの左上の画像が指定されており、その枠63がハイライト表示されている。
【0047】
ユーザは、表示部13の画像表示領域61に表示された複数の画像のうち、画像中の被写体の階調が最も適切に表示されている画像を、画像選択ボタンパネル71を用いて選択するようにする。
【0048】
図8に戻り、ステップS13において、画像処理部11は、表示部13の画像表示領域61に表示されている簡易生成された狭ダイナミックレンジ画像のうちの1つをユーザが選択するまで待機し、簡易生成された狭ダイナミックレンジ画像のうちの1つをユーザが選択したと判定した場合、処理はステップS14に進む。ステップS14において、画像処理部11は、ユーザが選択した画像に対応する露出比率rを最適露出情報として設定する。処理は、図7のステップS3にリターンする。
【0049】
ステップS3において、画像処理部11は、ステップS2で設定した最適露出情報に従い、撮像装置1から入力された広ダイナミックレンジ画像信号を狭ダイナミックレンジ画像信号に変換して表示部13に出力する。
【0050】
最適露出情報に従って広ダイナミックレンジ画像信号を狭ダイナミックレンジ画像信号に変換する処理の詳細について説明する。
【0051】
図12は、当該処理に関わる画像処理部11の第1の構成例を示している。輝度対検出部81は、広ダイナミックレンジ画像信号および最適露出情報に基づき、注目輝度・最適注目輝度対(M,Mm)を検出してマッピング関数生成部82に出力する。マッピング関数生成部82は、広ダイナミックレンジ画像信号および輝度対検出部81からの注目輝度・最適注目輝度対(M,Mm)に基づき、マッピング関数を生成してマッピング部83に出力する。マッピング部83は、広ダイナミックレンジ画像信号を、マッピング関数生成部82からのマッピング関数に適用して狭ダイナミックレンジ画像信号を生成する。
【0052】
輝度対検出部81の注目輝度・最適注目輝度対(M,Mm)を検出する処理について、図13のフローチャートおよび図14を参照して説明する。図14は、広ダイナミックレンジ画像の輝度のダイナミックレンジと、簡易生成された狭ダイナミックレンジ画像の輝度のダイナミックレンジの関係を説明するための図であり、同図の横軸は、入力される広ダイナミックレンジ画像の輝度Yの対数値logYを示し、縦軸は簡易生成された狭ダイナミックレンジ画像の輝度Ynの対数値logYnを示している。
【0053】
ステップS31において、輝度対検出部81は、予め設定されている広ダイナミックレンジ画像の飽和輝度Ys、狭ダイナミックレンジ画像の飽和輝度Yns、および狭ダイナミックレンジ画像の中間輝度Ynmを記憶部50から取得する。ここで、狭ダイナミックレンジ画像の中間輝度Ynmは、例えば、例えば次式(1)に示すように、所定の狭ダイナミックレンジ画像の飽和輝度Ynsとノイズレベル輝度Ynnを用いて予め演算されているものとする。
中間輝度Ynm=(Yns+Ynn)/2 ・・・(1)
【0054】
ステップS32において、輝度対検出部81は、図8のステップS14で設定された最適露出情報(露出比率r)を取得する。ステップS33において、輝度対検出部81は、狭ダイナミックレンジ画像の中間輝度Ynmに対応する広ダイナミックレンジ画像の輝度を次式(2)を用いて演算する。この輝度を注目輝度Mに設定する。
注目輝度M=r・Ys(Ynm/Yns) ・・・(2)
【0055】
ステップS34において、輝度対検出部81は、狭ダイナミックレンジ画像の中間輝度Ynmを最適注目輝度Mmに設定する。ステップS35において、輝度対検出部81は、注目輝度・最適注目輝度対(M,Mm)をマッピング関数生成部82に出力する。
【0056】
次に、図15は、マッピング関数生成部82の詳細な構成例を示している。マッピング関数生成部82は、広ダイナミックレンジ画像の最大輝度Hと最小輝度Lを取得する最大・最小輝度取得部91、最大・最小輝度取得部91からの広ダイナミックレンジ画像の最大輝度Hと最小輝度L、および輝度対検出部81からの注目輝度・最適注目輝度対(M,Mm)に基づき、高域対数関数を生成する高域関数決定部92、最大・最小輝度取得部91からの広ダイナミックレンジ画像の最大輝度Hと最小輝度L、および輝度対検出部81からの注目輝度・最適注目輝度対(M,Mm)に基づき、低域対数関数を生成する低域関数決定部93、および、高域関数決定部92が生成する高域対数関数と、低域関数決定部93が生成する低域対数関数を合成してマッピング関数を生成する関数合成部94から構成される。
【0057】
マッピング関数生成部82がマッピング関数を生成する処理について、図16のフローチャートを参照して説明する。
【0058】
ステップS41において、最大・最小輝度取得部91は、図17に示すような広ダイナミックレンジ画像の輝度信号Yのヒストグラムを生成する。ステップS42において、最大・最小輝度取得部91は、輝度信号Yに含まれるノイズを考慮して、頻度を有する輝度の最大値よりも所定の割合(例えば、1%)だけ小さい値を最大輝度Hに決定し、頻度を有する輝度の最小値よりも所定の割合(例えば、1%)だけ大きい値を輝度の最小輝度Lに決定し、最大輝度Hおよび最小輝度Lを高域関数決定部92、低域関数決定部93、および関数合成部94に出力する。
【0059】
ステップS43において、関数合成部94は、図18に示す2点(logL,Lm),(logH,Hm)を通る直線Aに相当する対数関数Ym(Y)を生成する。
Ym(Y)=αlogY+β ・・・(3)
【数1】
【0060】
なお、図18は、広ダイナミックレンジ画像の輝度のダイナミックレンジと、変換後の狭ダイナミックレンジ画像の輝度のダイナミックレンジの関係を説明するための図であり、同図の横軸は、入力される広ダイナミックレンジ画像の輝度Yの対数値logYを示し、縦軸は変換後の狭ダイナミックレンジ画像の輝度Ymを示している。図19乃至図21も同様である。また、Hm,Lmは、それぞれ狭ダイナミックレンジの最大輝度または最小輝度を表しており、予め設定されている値である。
【0061】
ステップS44において、高域関数決定部92は、図18に示す2点(logM,Mm),(logH,Hm)を通る直線Cに相当する高域対数関数YmH(Y)を生成して関数合成部94に出力する。
YmH(Y)=αHlogY+βH ・・・(4)
【数2】
【0062】
ステップS45において、低域関数決定部93は、図18に示す2点(logL,Lm),(logM,Mm)を通る直線Bに相当する低域対数関数YmL(Y)を生成して関数合成部94に出力する。
YmL(Y)=αLlogY+βL ・・・(5)
【数3】
【0063】
なお、ステップS43,S44,S45の処理の順序は、適宜入れ替えてもよいし、平行して同時に実行するようにしてもよい。
【0064】
ステップS46において、関数合成部94は、 図18の直線Aに相当する対数関数Ym(Y)のYに注目輝度Mを代入し、得られたYm(M)と最適注目輝度Mmを比較して、その比較結果に基づき、注目輝度・最適注目輝度対に対応する点(logM,Mm)が、直線Aよりも上に位置するか、直線Aよりも下に位置するか、または直線Aに一致するかを判定する。
【0065】
比較結果が、MmがYm(M)よりも大きい場合には、図18に示すように、注目輝度・最適注目輝度対に対応する点(logM,Mm)は直線Aよりも上に位置すると判定されて、処理はステップS47に進む。ステップS47において、関数合成部94は、図19に示すような上に凸のマッピング関数となるように、図19の横軸上のパラメータCL,CHを次式(6)のように設定する。
【数4】
・・・(6)
【0066】
ステップS50において、関数合成部94は、高域対数関数YmH(Y)と低域対数関数YmL(Y)を滑らかに連結してマッピング関数を生成する。具体的には、入力輝度Y、すなわち、広ダイナミックレンジ画像の輝度Yを、最小輝度Lよりも小さい領域、最小輝度L以上であってCLよりも小さい領域、CL以上であってCHよりも小さい領域、CH以上で最大輝度Hよりも小さい領域、または、最大輝度H以上である領域に分け、各領域に対応するマッピング関数f(Y)を生成する(詳細は図22を参照して後述する)。
【0067】
ステップS46での比較結果が、MmがYm(M)と等しい場合、注目輝度・最適注目輝度対に対応する点(logM,Mm)は直線Aに一致すると判定されて、処理はステップS48に進む。ステップS48において、関数合成部94は、マッピング関数のパラメータCL,CHを次式(7)のように設定する。
CL=L
CH=H ・・・(7)
【0068】
ステップS46での比較結果が、MmがYm(M)よりも小さい場合には、図20に示すように、注目輝度・最適注目輝度対に対応する点(logM,Mm)は直線Aよりも下に位置すると判定されて、処理はステップS49に進む。ステップS49において、関数合成部94は、図21に示すような下に凸のマッピング関数となるようにパラメータCL,CHを次式(8)のように設定する。
【数5】
・・・(8)
【0069】
ステップS50における関数合成部94の処理の詳細について、図22のフローチャートを参照して説明する。ステップS61,S63,S65,S72における大小比較判定により、マッピング関数f(Y)の変数である入力輝度Yが5つの領域のうちのいずれかに分類される。
【0070】
ステップS61の処理を経て、最小輝度Lよりも小さい領域に分類された入力輝度Yに対しては、ステップS62において、次式(9)に示すようにマッピング関数f(Y)が定義される。
f(Y)=Lm Y<L ・・・(9)
【0071】
ステップS61,S63の処理を経て、最小輝度L以上であってCLよりも小さい領域に分類された入力輝度Yに対しては、ステップS64において、次式(10)に示すように、マッピング関数f(Y)が低域対数関数YmL(Y)によって定義される。
f(Y)=YmL(Y)=αLlogY+βL L≦Y<L・・・(10)
【0072】
ステップS61,S63,S65の処理を経て、CL以上であってCHよりも小さい領域に分類された場合、処理はステップS66に進む。
【0073】
ステップS66において、CL−2M+CHが0よりも大きいか否かが判定される。CL−2M+CHが0よりも大きいと判定された場合、処理はステップS67に進む。ステップS67において、媒介変数tが次式(11)によって定義される。
【数6】
・・・(11)
【0074】
ステップS68において、入力輝度Yに対し、次式(12)に示すように、マッピング関数f(Y)が定義される。
【数7】
CL≦Y<CH・・・(12)
【0075】
ステップS66において、CL−2M+CHが0よりも大きくないと判定された場合、処理はステップS69に進む。ステップS69において、CL−2M+CHが0よりも小さいか否かが判定される。CL−2M+CHが0よりも小さいと判定された場合、処理はステップS70に進む。ステップS70において、媒介変数tが次式(13)によって定義される。
【数8】
・・・(13)
【0076】
ステップS69において、CL−2M+CHが0よりも小さくない、すなわち、CL−2M+CH=0であると判定された場合、処理はステップS71に進む。ステップS71において、媒介変数tが次式(14)によって定義される。
t=(Y−CL)/2(M−CL) ・・・(14)
【0077】
ステップS61,S63,S65,S72の処理を経て、CH以上であって最大輝度Hよりも小さい領域に分類された入力輝度Yに対しては、ステップS73において、次式(15)に示すように、マッピング関数f(Y)が高域対数関数YmH(Y)によって定義される。
f(Y)=YmH(Y)=αHlogY+βH CH≦Y<H・・・(15)
【0078】
ステップS61,S63,S65,S72の処理を経て、最大輝度H以上である領域に分類された入力輝度Yに対しては、ステップS74において、次式(16)に示すように、マッピング関数f(Y)が高域対数関数YmH(Y)によって定義される。
f(Y)=Lm H<Y ・・・(16)
【0079】
以上説明したように、マッピング関数生成部82の一連の処理によって、マッピング関数f(Y)が生成される。
【0080】
次に、生成されたマッピング関数f(Y)に広ダイナミックレンジ画像信号を適用して狭ダイナミックレンジ画像信号を生成するマッピング部83の処理について、図23のフローチャートを参照して説明する。
【0081】
ステップS81において、マッピング部83は、記憶部50から広ダイナミックレンジ画像信号を取得する。また、マッピング部83は、マッピング関数生成部82からマッピング関数f(Y)を取得する。
【0082】
ステップS82において、マッピング部83は、広ダイナミックレンジ画像の全て画素の輝度信号Y(x,y)を、マッピング関数f(Y)に順次代入して狭ダイナミックレンジ画像信号を生成する。
【0083】
以上説明したように画像処理部11の一連の処理によれば、簡易生成されてた複数の狭ダイナミックレンジの画像がユーザに提示され、そのうちの被写体の階調が最も適切に表示されている画像がユーザによって選択されて、選択された画像に基づいて注目輝度・最適注目輝度対(M,Mm)が導き出される。さらに、注目輝度・最適注目輝度対(M,Mm)に基づいてマッピング関数f(Y)が生成されて、広ダイナミックレンジ画像信号がマッピング関数f(Y)によって狭ダイナミックレンジ画像信号に変換されるので、画像中の被写体が適切な階調で表現される狭ダイナミックレンジの画像を得ることができる。
【0084】
なお、上述した説明においては、注目輝度・最適注目輝度対(M,Mm)を1つだけ決定して、以降の処理を実行するようにしたが、2つ以上の注目輝度・最適注目輝度対を決定してマッピング関数を生成するようにしてもよい。
【0085】
次に、画像処理部11が最適露出情報を設定する第2の動作例について、図24および図25を参照して説明する。図8乃至図11を参照して上述した第1の動作例では、簡易生成された複数の狭ダイナミックレンジ画像のうちの1つをユーザに選択させるようにしたが、第2の動作例においては、所定の露出比率rを適用して簡易生成した狭ダイナミックレンジ画像を1枚だけ表示し、その画像の内で注目すべき範囲(例えば、被写体が表示されている範囲)をユーザに指定させるようにし、その指定された範囲(図24(B)のマスク103)を示す情報を最適露出情報に設定して輝度対検出部81に供給するようにする。
【0086】
図24は、簡易生成された1枚の狭ダイナミックレンジ画像を表示する表示部13の表示例を示している。同図(A)に示すように、表示部13の画像表示・指定範囲描画領域101には、簡易生成された狭ダイナミックレンジ画像102が1枚だけ表示される。画像表示・指定範囲描画領域101に表示された狭ダイナミックレンジ画像102には、同図(B)に示すような、ユーザによって指定された範囲を表すマスク103が重畳して表示される。
【0087】
図25は、狭ダイナミックレンジ画像102に重畳して表示されるマスク103をユーザが設定するとき操作するGUIの表示例を示している。GUIとしての範囲指定パネル111には、マスク103の設定を開始するときクリックされるペンボタン112、設定されたマスク103の設定を解除する消しゴムボタン113、および、設定したマスク103を確定する完了ボタン114が設けられている。
【0088】
ユーザは、ペンボタン112をクリックした後、マウス等の入力デバイスを用いてマスク103の範囲を描画し、完了ボタン114をクリックすることにより、描画したマスク103の範囲を確定させる。これに対応して、確定されたマスク103の範囲を示す情報が、最適露出情報として輝度対検出部81に供給される。
【0089】
第2の動作例において、輝度対検出部81は、最適注目輝度Mmとして、上述したステップS31(図13)の処理と同様に、予め設定されている狭ダイナミックレンジ画像の中間輝度Ynmを、記憶部50に記憶されている画像処理用アプリロケーションプログラムから取得する。
【0090】
一方の注目輝度Mを求めるために輝度対検出部81は、広ダイナミックレンジ画像のうち、マスク103の範囲に含まれる画素の輝度信号を取得して画素集合G1とし、画素集合G1のうち、所定の飽和レベルを上回る輝度の画素、および所定のノイズレベルを下回る輝度の画素を除外して画素集合G2とする。さらに、輝度対検出部81は、画素集合G2の輝度のヒストグラムを生成して、最も頻度が高い輝度を注目輝度Mに設定する。
【0091】
このようにして設定された注目輝度・最適注目輝度対(M,Mm)は、マッピング関数生成部82に供給されて、上述した一連の処理と同様に処理される。
【0092】
以上のように、最適露出情報を設定する第2の動作例によれば、ユーザが最適な輝度で表示してほしい被写体の範囲を指示するという直感的な操作によって、所望の狭ダイナミックレンジ画像を作成することが可能となる。
【0093】
次に、撮像装置1から画像処理装置2に対して、カラーの広ダイナミックレンジ画像信号(3原色信号R,G,B)が供給される場合に対応する画像処理部11の構成例(以下、画像処理部11の第2の構成例と記述する)および動作について、図26を参照して説明する。画像処理部11の第2の構成例においては、カラー画像の色バランスが損なわれないように階調変換が行われる。
【0094】
図26は、画像処理部11の第2の構成例を示している。輝度信号生成部121は、次式(17)を用いて、入力される広ダイナミックレンジ画像の各画素の3原色信号R,G,Bを用いて輝度Yを生成し、輝度対検出部122、色補正関数生成部123、マッピング部124、マッピング関数生成部125、マッピング部126、および、べき乗演算部127に出力する。
輝度Y=kr・R+kg・G+kb・B ・・・(17)
【0095】
ここで、kr,kg,kbは定数であり、例えば、kr=0.3、kg=0.6、kb=0.1とする。
【0096】
輝度対検出部121は、輝度信号生成部121からの広ダイナミックレンジ画像の各画素の輝度Y、および、上述した画像処理部11の第1または第2の動作例によって取得した最適露出情報に基づき、注目輝度・最適注目輝度対(M,Mm)を検出して色補正関数生成部123およびマッピング関数生成部82に出力する。
【0097】
色補正関数生成部123は、輝度信号生成部121からの広ダイナミックレンジ画像の各画素の輝度Y、および、輝度対検出部81からの注目輝度・最適注目輝度対(M,Mm)に基づき、輝度Yに対応する色補正量γを示す色補正関数fC(Y)を生成し、マッピング部124に出力する。
【0098】
色補正関数生成部123が色補正関数fC(Y)を生成する処理について、より詳細に説明する。当該色補正関数生成処理は、図16乃至図22を参照して上述したマッピング関数生成部82のマッピング関数生成処理とほぼ同様であり、図22を用いて説明したステップS50(図16)における処理だけが若干異なる。よって、当該色補正関数生成処理のうち、マッピング関数生成処理のうちのステップS50における処理に相当する処理についてのみ、図27を参照して説明する。
【0099】
色補正関数生成部123は、ステップS91,S93,S95,S102における大小比較判定により、色補正関数fC(Y)の変数である入力輝度Yを5つの領域のうちのいずれかに分類する。
【0100】
ステップS91の処理を経て、最小輝度Lよりも小さい領域に分類された入力輝度Yに対しては、ステップS92において、次式(17)に示すように色補正関数fC(Y)が定義される。
fC(Y)=αL Y<L ・・・(17)
【0101】
ステップS91,S93の処理を経て、最小輝度L以上であってCLよりも小さい領域に分類された入力輝度Yに対しては、ステップS94において、次式(18)に示すように、色補正関数fC(Y)が定義される。
fC(Y)=αL L≦Y<L・・・(18)
【0102】
ステップS91,S93,S95の処理を経て、CL以上であってCHよりも小さい領域に分類された場合、処理はステップS96に進む。
【0103】
ステップS96において、CL−2M+CHが0よりも大きいか否かが判定される。CL−2M+CHが0よりも大きいと判定された場合、処理はステップS97に進む。ステップS97において、媒介変数tが式(11)によって定義される。
【0104】
ステップS98において、入力輝度Yに対し、次式(19)に示すように、色補正関数fC(Y)が定義される。
fC(Y)=(1−t)αL+tαH CL≦Y<CH ・・・(19)
【0105】
ステップS96において、CL−2M+CHが0よりも大きくないと判定された場合、処理はステップS99に進む。ステップS99において、CL−2M+CHが0よりも小さいか否かが判定される。CL−2M+CHが0よりも小さいと判定された場合、処理はステップS100に進む。ステップS100において、媒介変数tが式(13)によって定義される。
【0106】
ステップS99において、CL−2M+CHが0よりも小さくない、すなわち、CL−2M+CH=0であると判定された場合、処理はステップS101に進む。ステップS101において、媒介変数tが式(14)によって定義される。
【0107】
ステップS91,S93,S95,S102の処理を経て、CH以上であって最大輝度Hよりも小さい領域に分類された入力輝度Yに対しては、ステップS103において、次式(20)に示すように、色補正関数fC(Y)が定義される。
fC(Y)=αH CH≦Y<H・・・(20)
【0108】
ステップS91,S93,S95,S102の処理を経て、最大輝度H以上である領域に分類された入力輝度Yに対しては、ステップS104において、次式(21)に示すように、色補正関数fC(Y)が定義される。
fC(Y)=αH H<Y ・・・(21)
【0109】
以上説明したような色補正関数生成部123の処理によって、色補正関数fC(Y)が生成される。
【0110】
マッピング部124は、輝度信号生成部121からの各画素の輝度Yを、色補正関数fC(Y)に適用して色補正量γを演算し、べき乗演算部127、128R,128G,128Bに出力する。
【0111】
マッピング関数生成部125は、上述したマッピング関数生成部82と同様に、広ダイナミックレンジ画像の各画素の輝度Yおよび注目輝度・最適注目輝度対(M,Mm)に基づき、マッピング関数f(Y)を生成してマッピング部126に出力する。マッピング部126は、広ダイナミックレンジ画像の各画素の輝度Yを、マッピング関数生成部125からのマッピング関数f(Y)に適用して狭ダイナミックレンジ画像の各画素の輝度Ymを生成し、スケーリング部129R,129G,129Bに出力する。
【0112】
べき乗演算部127は、広ダイナミックレンジ画像の各画素の輝度Yをγ乗して、得られた補正輝度Yγをスケーリング部129R,129G,129Bに出力する。べき乗演算部128Rは、広ダイナミックレンジ画像の各画素の赤色信号Rをγ乗して、得られた補正赤色信号Rγをスケーリング部129Rに出力する。べき乗演算部128Gは、広ダイナミックレンジ画像の各画素の緑色信号Gをγ乗して、得られた補正緑色信号Gγをスケーリング部129Gに出力する。
べき乗演算部128Bは、広ダイナミックレンジ画像の各画素の青色信号Bをγ乗して、得られた補正青色信号Bγをスケーリング部129Bに出力する。
【0113】
スケーリング部129R乃至129Bは、それぞれ、次式(22)乃至(24)を用い、狭ダイナミックレンジ画像の各画素の赤色信号Rm、緑色信号Gm、または青色信号Bmを演算する。
Rm=Rγ・Ym/Yγ ・・・(22)
Gm=Gγ・Ym/Yγ ・・・(23)
Bm=Bγ・Ym/Yγ ・・・(24)
【0114】
以上説明したように、画像処理部11の第2の構成例よれば、入力された広ダイナミックレンジ画像の3原色信号R,G,Bに対し、ダイナミックレンジを圧縮する度合いに応じて自然な色バランスとなるように補正を施すので、広ダイナミックレンジのカラー画像を、色バランスが不自然ではない狭ダイナミックレンジのカラー画像に変換することが可能となる。
【0115】
次に、図28は、本発明を適用したディジタルカメラの構成例を示している。
このディジタルカメラ140は、言わば、図1に示した画像処理システムを1つの筐体に納めたものであり、被写体を広ダイナミックレンジ画像信号として撮像し、適宜、狭ダイナミックレンジ画像信号に変換して内蔵するメモリ148に記録する。
【0116】
ディジタルカメラ140は、被写体の光画像を集光するレンズ141、光画像の光量を調整する絞り142、集光された光画像を光電変換して広ダイナミックレンジの電気信号に変換するCCDイメージセンサ143、CCDイメージセンサ143からの電気信号をサンプリングすることによってノイズを低減させるCDS(Corelated Double Sampling)144、および、アナログの電気信号をディジタル化するA/Dコンバータ145、ディジタル化された電気信号を画像信号に変換したり、ダイナミックレンジを圧縮したりする画像信号処理用プロセッサと画像用RAMよりなるDSP(Digital Signal Processor)146から構成される。
【0117】
また、ディジタルカメラ140は、DSP146が処理した画像信号を圧縮符号化してメモリ148に記録し、また、読み出して伸張し、DSP146に供給するCODEC(Compression/Decompression)147、DSP146が処理した画像信号をアナログ化するD/Aコンバータ149、アナログ化された画像信号を後段の表示部151に適合する形式のビデオ信号にエンコードするビデオエンコーダ150、および、ビデオ信号に対応する画像を表示することによりファインダとして機能するLCD(Liquid Crystal Display)等よりなる表示部151から構成される。
【0118】
さらに、ディジタルカメラ140は、ドライブ153を制御して、磁気ディスク154、光ディスク155、光磁気ディスク156、または半導体メモリ157に記憶されている制御用プログラムを読み出して、読み出した制御用プログラム、操作部158から入力されるユーザからのコマンド等に基づいて、ディジタルカメラ140の全体を制御するCPUなどよりなる制御部152、ユーザがシャッタタイミングやその他のコマンドを入力する操作部158、および、CCDイメージセンサ143乃至DSP146の動作タイミングを制御するタイミングジェネレータ159から構成される。
【0119】
ディジタルカメラ140においては、DSP146が、上述した画像処理システムの画像処理部11に相当し、広ダイナミックレンジ画像信号を狭ダイナミックレンジ画像信号に変換する処理を実行する。
【0120】
なお、ディジタルカメラ140を構成する操作部158および表示部151は、図1の画像処理システムの画像処理装置2(パーソナルコンピュータ等よりなる)を構成する操作入力部12および表示部13に比較して、小型のものが用いられるので、より簡単にユーザが各種の操作入力を実行できるようにする必要がある。
【0121】
そこで、ディジタルカメラ140では、全体的な処理の順序を、図7のフローチャートにより説明した図1の画像処理システムの処理の順序とは異なり、広ダイナミックレンジ画像信号を取得する前に、最適露出情報を設定するようになされている。
【0122】
ディジタルカメラ140の第1の動作例について、図29のフローチャートを参照して説明する。ステップS111において、撮像する画像の構図がユーザによって選択される。選択された画像の構図(後述するガイド172に相当する)が最適露出情報として設定される。
【0123】
当該最適露出情報を設定する処理について、図30乃至図32を参照して説明する。図30は、ファインダとして機能する表示部151の画像表示エリア171の表示例を示している。同図に示すように、画像表示エリア171には、被写体の画像に重畳して太線等によって示されるガイド172や破線によって示される補助線が重畳して表示される。なお、ガイド172の形状としては、複数のパターンが用意されており、操作部158に設けられたガイド選択パネル181(図32)がユーザによって操作される毎、その形状が切り替わるようになされている。
【0124】
図31(A)乃至(Q)は、予め用意されているガイド172の形状の例を示している。ガイド172の各形状には、所定のインデックスが付与されている。
なお、ガイド172の形状は、同図に示すような矩形の他、例えば、円形や多角形であってもよい。
【0125】
図32は、操作部158に設けられたガイド選択パネル181を示している。
ガイド切替ボタン182は、ガイド172の形状を1つ前のインデックスに対応するものに切り替えるとき押下される。切替ボタン183は、ガイド172の形状を1つ先のインデックスに対応するものに切り替えるとき押下される。選択ボタン184は、表示されているガイド172の形状を確定させるとき押下される。
【0126】
例えば、図30は、ガイド172の形状として図31(J)の例に切り替えられている状態を示しているが、この状態において、切替ボタン182が押下された場合には、ガイド172の形状が同図(I)の例に切り替えられ、切替ボタン183が押下された場合には、ガイド172の形状が同図(K)の例に切り替えられる。
【0127】
ユーザは、ファインダとして機能する表示部151を見ながら被写体(例えば、人物)がガイド172の中に収まるように、ガイド選択パネル181の切替ボタン182,183を操作してガイド172の切り替えた後、選択ボタン184を押下してガイド172の形状を確定させる。選択ボタン184の押下に対応して、現在表示されているガイド172の形状に対応するインデックスが最適露出情報として設定される。
【0128】
図29に戻る。ステップS112において、ユーザが操作部158に設けられたシャッタを操作した場合、それに対応して、広ダイナミックレンジ画像信号が取得され、DSP146が内蔵する画像用RAMに格納される。
【0129】
ステップS113において、ステップS111で設定された最適露出情報(ガイド172の形状を示すインデックス)に基づき、広ダイナミックレンジ画像信号が狭ダイナミックレンジ画像信号に変換される。
【0130】
具体的には、注目輝度・最適注目輝度対については、最適露出情報(ガイド172の形状を示すインデックス)に基づいてガイド172の内部領域の画像信号が取得され、その輝度のヒストグラムが生成されて、最も高い頻度を示す輝度が注目輝度Mに設定される。最適注目輝度Mmには、予め設定された狭ダイナミックレンジの中間輝度が設定される。それ以降の処理は、図24および図25を用いて上述した、画像処理システムの画像処理部11が最適露出情報を設定する際の第2の動作例と同様である。
【0131】
変換された狭ダイナミックレンジ画像信号は、メモリ148に格納される。
【0132】
なお、ディジタルカメラ140のDSP146においても、図26に示した画像処理システムの画像処理部11の第2の構成例と同様に、カラーの広ダイナミックレンジ画像を、色バランスを損なうことなく、カラーの狭ダイナミックレンジ画像に変換する処理を実行するようにしてもよい。
【0133】
次に、ディジタルカメラ140の第2の動作例について、図33のフローチャートを参照して説明する。ステップS121において、撮像する画像の構図がユーザによって選択される。選択された画像の構図(ガイド172に相当する)が第1の最適露出情報として設定される。
【0134】
当該第1の最適露出情報を設定する処理については、図30乃至図32を参照して上述した第1の動作例の最適露出情報を設定する処理と同様である。
【0135】
ステップS122において、ユーザが操作部158に設けられたシャッタを操作した場合、それに対応して、広ダイナミックレンジ画像信号が取得され、DSP146が内蔵する画像用RAMに格納される。
【0136】
ステップS123において、ユーザの操作に対応し、第2の最適露出情報として露出比率rが設定される。第2の最適露出情報として露出比率rを設定する処理について、図34および図35を参照して説明する。
【0137】
図34は、ステップS123における表示部151の画像表示エリア171の表示例を示している。いまの場合、画像表示エリア171には、ステップS122で取得された広ダイナミックレンジ画像が表示され、それに重畳してステップS121で設定されたガイド172や補助線(破線)が表示される。ただし、画像表示エリア171のガイド172の内部領域には、操作部158に設けられた輝度補正パネル191(図35)に対するユーザの操作に対応して変更される露出比率rを用いて簡易生成された狭ダイナミックレンジ画像が表示される。
【0138】
図35は、操作部158に設けられた輝度補正パネル191を示している。明補正(BRIGHTER)ボタン192は、ガイド172の内部領域に表示される狭ダイナミックレンジ画像の輝度を、現状よりも1段階だけ明るくする(輝度を上げる)とき押下される。暗補正(DARKER)ボタン193は、ガイド172の内部領域に表示される狭ダイナミックレンジ画像の輝度を、現状よりも1段階だけ暗くする(輝度を下げる)とき押下される。OKボタン194は、現状の輝度を確定するとき押下される。
【0139】
例えば、明補正ボタン192が押下された場合、狭ダイナミックレンジ画像の簡易生成に用いられる露出比率rが所定の値だけ増加される。よって、ガイド172の内部領域の狭ダイナミックレンジ画像の輝度が増して表示される。反対に、暗補正ボタン193が押下された場合、狭ダイナミックレンジ画像の簡易生成に用いられる露出比率rが所定の値だけ減少される。よって、ガイド172の内部領域の狭ダイナミックレンジ画像の輝度が減じて表示される。OKボタン194が押下された場合、現状の露出比率rが第2の最適露出情報として設定される。
【0140】
図33に戻る。ステップS124において、ステップS121で設定された第1の最適露出情報(ガイド172の形状を示すインデックス)、およびステップS123で設定された第2の最適露出情報に基づき、広ダイナミックレンジ画像信号が狭ダイナミックレンジ画像信号に変換される。
【0141】
具体的には、注目輝度・最適注目輝度対については、第1の最適露出情報(ガイド172の形状を示すインデックス)に基づいてガイド172の内部領域の広ダイナミックレンジ画像の輝度が取得され、その輝度のヒストグラムが生成されて、最も高い頻度を示す輝度が注目輝度Mに設定される。
【0142】
最適注目輝度Mmとしては、広ダイナミックレンジ画像の輝度に第2の最適露出情報としての露出比率rが乗算されて狭ダイナミックレンジ画像が簡易生成され、そのうちのガイド172の内部領域の輝度が抽出されて、ヒストグラムが生成され、最も高い頻度を示す輝度が最適注目輝度Mmに設定される。それ以降の処理は、図24および図25を用いて上述した、画像処理システムの画像処理部11が最適露出情報を設定する際の第2の動作例と同様である。
【0143】
変換された狭ダイナミックレンジ画像信号は、メモリ148に格納される。
【0144】
以上説明したように、ディジタルカメラ140の第2の動作例によれば、操作部158に対する簡易な操作により、ユーザが注目したい領域をガイド172で指定することができ、さらに、ガイド172の内部領域に対して所望する輝度を指定することができるので、得られる狭ダイナミックレンジ画像の階調がユーザが所望する結果により近いものとなる。
【0145】
なお、ディジタルカメラ140のDSP146に、上述した画像処理システムの画像処理部11と同様の処理を実行させるようにしてもよい。反対に、画像処理システムの画像処理部11に、ディジタルカメラ140のDSP146と同様の処理を実行させるようにしてもよい。
【0146】
ところで、本発明は、画像のダイナミックレンジを変更せずに輝度を変更させる場合に適用することも可能である。
【0147】
また、本発明は、本実施の形態のような画像変換システムやディジタルカメラのみならず、例えば、スキャナ、ファクシミリ、コピー機など、画像信号を処理する電子機器に適用することが可能である。
【0148】
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に従って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
【0149】
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
【0150】
【発明の効果】
以上のように、本発明によれば、広ダイナミックレンジ画像を狭ダイナミックレンジ画像に変換する際、画像中の任意の位置の輝度を最適化することが可能となる。
【図面の簡単な説明】
【図1】本発明の一実施の形態である画像処理システムの構成例を示すブロック図である。
【図2】図1の撮像装置1の構成例を示すブロック図である。
【図3】図2のCCDイメージセンサ23の構成例を示すブロック図である。
【図4】 CCDイメージセンサ23の感度特性を説明するための図である。
【図5】前置増幅器24の処理を説明するための図である。
【図6】図1の画像処理装置2を実現するパーソナルコンピュータの構成例を示すブロック図である。
【図7】画像処理システムの動作を説明するフローチャートである。
【図8】画像処理装置2の最適露出情報設定処理を説明するフローチャートである。
【図9】画像処理装置2が狭ダイナミックレンジ画像を簡易生成する処理を説明するフローチャートである。
【図10】最適露出情報を設定する第1の動作例を説明するための表示部13の表示例を示す図である。
【図11】最適露出情報を設定する第1の動作例におけるGUIの表示例を示す図である。
【図12】画像処理部11の第1の構成例を示すブロック図である。
【図13】図12の輝度対検出部81の処理を説明するフローチャートである。
【図14】輝度対検出部81の処理を説明するための図である。
【図15】図12のマッピング関数生成部82の構成例を示すブロック図である。
【図16】マッピング関数生成部82の処理を説明するフローチャートである。
【図17】図15の最大・最小輝度取得部91の処理を説明するための図である。
【図18】マッピング関数生成部82の処理を説明するための図である。
【図19】マッピング関数生成部82の処理を説明するための図である。
【図20】マッピング関数生成部82の処理を説明するための図である。
【図21】マッピング関数生成部82の処理を説明するための図である。
【図22】図16のステップS50の処理の詳細を説明するフローチャートである。
【図23】図12のマッピング部83の処理を説明するフローチャートである。
【図24】最適露出情報を設定する第2の動作例を説明するための表示部13の表示例を示す図である。
【図25】最適露出情報を設定する第2の動作例におけるGUIの表示例を示す図である。
【図26】画像処理部11の第2の構成例を示すブロック図である。
【図27】画像処理部11の第2の構成例の処理を説明するフローチャートである。
【図28】本発明の一実施の形態であるディジタルカメラ140の構成例を示すブロック図である。
【図29】ディジタルカメラ140の第1の動作例を説明するフローチャートである。
【図30】ディジタルカメラ140の第1の動作例において最適露出情報を設定する処理を説明するための表示部151の表示例を示す図である。
【図31】表示部151に表示されるガイド172の形状の種類を示す図である。
【図32】ディジタルカメラ140の操作部158に設けられるガイド選択パネル181を示す図である。
【図33】ディジタルカメラ140の第2の動作例を説明するフローチャートである。
【図34】ディジタルカメラ140の第1の動作例において最適露出情報を設定する処理を説明するための表示部151の表示例を示す図である。
【図35】ディジタルカメラ140の操作部158に設けられる輝度補正パネル191を示す図である。
【符号の説明】
1 撮像装置, 2 画像処理装置, 11 画像処理部, 12 操作入力部, 13 表示部, 41 CPU, 52 磁気ディスク, 53 光ディスク, 54 光磁気ディスク, 55 半導体メモリ, 71画像選択ボタンパネル, 81 輝度対検出部, 82 マッピング関数生成部, 83 マッピング部, 91 最大・最小輝度取得部, 92 高域関数決定部, 93 低域関数決定部, 94 関数合成部, 111 範囲指定パネル, 121 輝度信号生成部, 122 輝度対検出部, 123 色補正関数生成部, 124 マッピング部, 125 マッピング関数生成部, 126 マッピング部, 127,128 べき乗演算部, 129 スケーリング部, 140 ディジタルカメラ, 146 DSP, 152 制御部, 154 磁気ディスク, 155 光ディスク, 156 光磁気ディスク, 157 半導体メモリ, 158 操作部, 172 ガイド, 181 ガイド選択パネル, 191 輝度補正パネル[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus and method, and a recording medium. For example, the present invention relates to an image processing apparatus and method suitable for use in changing the dynamic range of luminance of an image signal, and a recording medium.
[0002]
[Prior art]
Solid-state imaging devices such as CCD (Charge Coupled Device) image sensors and CMOS (Complementary Mental-Oxide Semiconductor) image sensors are imaging devices such as video cameras and digital still cameras, and component inspection devices in the field of FA (Factory Automation). And widely used in optical measuring devices such as electronic endoscopes in the field of ME (Medical Electronics).
[0003]
In recent years, many techniques have been developed that can obtain an image signal having a dynamic range comparable to that of an optical film photograph using these solid-state imaging devices.
[0004]
On the other hand, conventional devices such as a display device such as a CRT (Cathode Ray tube) that displays captured moving images and still images, printers for printing, projectors for projection, etc. currently have brightness gradations that they can represent. There is a limit. That is, the dynamic range of an image that can be expressed is narrow. Therefore, even if an image signal of an image having a dynamic range comparable to that of an optical film photograph (hereinafter referred to as a wide dynamic range image) can be obtained, it cannot be expressed (displayed or printed). There's a problem.
[0005]
Therefore, there is a dynamic range compression processing technology that compresses the luminance gradation of a wide dynamic range image to narrow the dynamic range and converts it into an image that can be expressed by a conventional device such as a display device (hereinafter referred to as a narrow dynamic range image). is needed.
[0006]
Hereinafter, four conventionally proposed dynamic range compression techniques will be described.
[0007]
As a first technique, there is a method of scaling the luminance by adjusting the luminance gain and offset of the image signal. This first technique is very simple and can be easily applied. However, since the luminance gradation is not compressed, all luminance values exceeding the dynamic range of the display device or the like are clipped, and the information of the original wide dynamic range image cannot be fully utilized.
[0008]
As a second technique, there is a technique of compressing the dynamic range by diverting a gamma correction process originally performed to correct the gamma characteristic of a display device or the like.
Since the gamma correction curve used for the gamma correction process is a function of a power, the correction characteristic can be easily adjusted by changing the exponent which is the gamma value. However, due to the diversion to the dynamic range compression, the original gamma correction process is affected, and the color balance may be lost or the contrast may deteriorate.
[0009]
As a third technique, there is a histogram equalization method using an accumulated histogram curve of an image as a gradation correction curve. In the histogram equalization method, gradation conversion is performed so as to give more gradations to the luminance occupying a wider area in the image, corresponding to the luminance distribution (histogram). Therefore, the entire image acts in the direction of enhancing the contrast, and an image with high visibility in which details are clarified can be obtained even in a narrow dynamic range. However, since the image obtained as a result of the gradation conversion is greatly influenced by the luminance distribution of the original wide dynamic range image, a desired image may not be obtained.
[0010]
As a fourth technique, there is a technique of emphasizing details using a local operator. In the fourth technique, images are separated for each spatial frequency band by a local operator, and after adjusting the gain for each of the separated spatial frequency bands, they are integrated again. When adjusting the gain, it is possible to compress the gradation by attenuating the low frequency band, and to reduce the attenuation amount of the high frequency band so that the detail contrast is not impaired.
[0011]
Therefore, even a conventional device such as a display device with few gradations can express an image with high visibility of details. However, as a result of changing the balance of each band, gradation inversion occurs in a high-contrast region such as an edge portion in an image, and this portion is recognized as a very annoying artifact in some cases. Sometimes.
[0012]
[Problems to be solved by the invention]
As described above, with the conventional dynamic range compression technique, the obtained narrow dynamic range image may not result in reflecting the user's intention.
Specifically, when converting a wide dynamic range image to a narrow dynamic range image, for example, even if an area occupied by a subject in the image is expressed with an optimum luminance, there is a problem that it is difficult to execute.
[0013]
The present invention has been made in view of such circumstances, and an object thereof is to optimize the luminance of an arbitrary region in an image when converting a wide dynamic range image into a narrow dynamic range image. .
[0014]
[Means for Solving the Problems]
The image processing apparatus according to the present invention includes a setting unit that sets a second luminance value in the second dynamic range, and an arithmetic unit that calculates the first luminance value in the first dynamic range corresponding to the second luminance value. And a first luminance value and a second luminance valueFirstMapping function generating means for generating a mapping function based on the luminance pair;LivingCompletionIsConversion means for converting the first image signal into the second image signal using the mapping function.The mapping function generation means includes a point corresponding to the first luminance pair, a third luminance value near the minimum luminance value in the first dynamic range, and a fourth luminance value near the minimum luminance value in the second dynamic range. And a third brightness point consisting of a fifth brightness value near the maximum brightness value in the first dynamic range and a sixth brightness value near the maximum brightness value in the second dynamic range. A smooth monotonically increasing function passing through the vicinity of the three points corresponding to the luminance pairs of.
[0015]
The mapping function generation meansIs,Generate a monotonically increasing function as a first function passing through a point corresponding to the first luminance pair and a point corresponding to the second luminance pairFirst function generating means;A monotonically increasing function passing through a point corresponding to the first luminance pair and a point corresponding to the third luminance pair is generated as the second function.A second function generating means;FirstIn the vicinity of the point indicated by the luminance pair, the firstIs a monotonically increasing function through a point on the function and a point on the second functionThe third functionAs a mapping functionThird function generation means for generatingMube able to.
[0016]
Said third function generating meansIsA predetermined point indicated by the first function,FirstA quadratic curve function defined by three points of one point indicated by the luminance pair and a predetermined one point indicated by the second function is generated as a third function.Dobe able to.
[0017]
The image processing apparatus according to the present invention uses the calculation information to calculate correction information for correcting the color balance of the three primary color signals constituting the second image signal based on the mapping function, and the correction information. And a correction means for correcting the three primary color signals constituting the image signal.The calculation means acquires the gamma characteristic of the mapping function, and corrects the three primary color signals so that the ratio between the corrected three primary color signals and the luminance value after applying the mapping function becomes a ratio calculated by the gamma characteristics. A coefficient can be determined.
[0018]
The image processing method of the present invention includes a setting step for setting a second luminance value in the second dynamic range, and a calculation step for calculating the first luminance value in the first dynamic range corresponding to the second luminance value. And a first luminance value and a second luminance valueFirstA mapping function generation step for generating a mapping function based on the luminance pair;LivingConverting the first image signal into the second image signal using the generated mapping function.In the mapping function generation step, the point corresponding to the first luminance pair, the third luminance value near the minimum luminance value in the first dynamic range, and the fourth luminance near the minimum luminance value in the second dynamic range. A point corresponding to the second luminance pair consisting of values, and a fifth luminance value near the maximum luminance value in the first dynamic range and a sixth luminance value near the maximum luminance value in the second dynamic range. A smooth monotonically increasing function passing through the vicinity of the three points corresponding to the three luminance pairs is generated as a mapping function.
[0019]
Recording medium of the present inventionIsAn image processing program for converting a first image signal having a first dynamic range into a second image signal having a second dynamic range with respect to a luminance value, wherein the first image signal has a second dynamic range. A setting step for setting a luminance value of 2, a calculation step for calculating a first luminance value in a first dynamic range corresponding to the second luminance value, and a first luminance value and a second luminance valueFirstA mapping function generation step for generating a mapping function based on the luminance pair;LivingConverting the first image signal into the second image signal using the generated mapping function.In the mapping function generation step, the point corresponding to the first luminance pair, the third luminance value near the minimum luminance value in the first dynamic range, and the fourth luminance near the minimum luminance value in the second dynamic range. A point corresponding to the second luminance pair consisting of values, and a fifth luminance value near the maximum luminance value in the first dynamic range and a sixth luminance value near the maximum luminance value in the second dynamic range. A process for generating a smooth monotonically increasing function passing through the vicinity of the three points corresponding to the three luminance pairs as a mapping functionComputerTo runThe program is recorded.
[0020]
The present inventionInIn this case, the second luminance value in the second dynamic range is set, and the first luminance value in the first dynamic range corresponding to the second luminance value is calculated. Furthermore, it consists of a first luminance value and a second luminance valueFirstA mapping function is generated based on the luminance pair, and the first image signal is converted into a second image signal using the generated mapping function. In addition,The mapping function includes a point corresponding to the first luminance pair, a third luminance value near the minimum luminance value in the first dynamic range, and a fourth luminance value near the minimum luminance value in the second dynamic range. A third luminance composed of a point corresponding to the second luminance pair and a fifth luminance value near the maximum luminance value in the first dynamic range and a sixth luminance value near the maximum luminance value in the second dynamic range A smooth monotonically increasing function is generated that passes in the vicinity of the three points corresponding to the pair.
[0021]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 shows a configuration example of an image processing system to which the present invention is applied. This image processing system includes an imaging device 1 including a digital camera that images a subject as a wide dynamic range image signal, and a personal computer that converts a wide dynamic range image signal supplied from the imaging device 1 into a narrow dynamic range image signal. The
[0022]
The
[0023]
FIG. 2 shows a configuration example of the imaging apparatus 1. The imaging apparatus 1 includes a
[0024]
The
[0025]
Note that the high sensitivity photodiode 31H is used for the 2i (i = 0, 1, 2,...) Line constituting the even field, and the low sensitivity photodiode is used for the 2i + 1 line constituting the odd field. 31L is used.
[0026]
The sensitivity characteristics of the
[0027]
The low-
That is, a charge proportional to the intensity of incident light is accumulated over the entire range of the intensity of input light. The high-sensitivity photodiode 31H has a sensitivity characteristic indicated by a straight line B in FIG. That is, it corresponds to light with low intensity, and accumulates more charge than the low-
[0028]
Returning to FIG. The charges accumulated in the
[0029]
The timing for reading out the charges accumulated in the
[0030]
For example, as the charge of the second i line in the even field, the charge accumulated in the photodiode 31H of the second i line and the charge accumulated in the
[0031]
Therefore, the
[0032]
The
[0033]
Next, FIG. 6 shows a configuration example of a personal computer that operates as the
[0034]
The input /
[0035]
In addition to the input /
[0036]
An image processing program for causing the personal computer to execute the operation as the
[0037]
Next, the operation of the image processing system will be described with reference to the flowchart of FIG. In step S <b> 1, the imaging device 1 captures a light image of a subject and outputs the obtained wide dynamic range image signal to the
[0038]
In step S <b> 2, the
[0039]
In step S <b> 11, the
[0040]
In step S <b> 21, the
[0041]
In step S22, the
[0042]
The processes in steps S21 to S23 described above are repeatedly executed as many times as the number of types of exposure ratio r prepared in advance.
[0043]
The process returns to step S12 in FIG. In step S12, the
[0044]
FIG. 10 shows a display example of the
[0045]
FIG. 11 shows a display example of a GUI that is operated when the user selects a plurality of simply generated narrow
[0046]
The
[0047]
The user uses the image
[0048]
Returning to FIG. 8, in step S13, the
[0049]
In step S3, the
[0050]
Details of processing for converting a wide dynamic range image signal into a narrow dynamic range image signal according to the optimum exposure information will be described.
[0051]
FIG. 12 shows a first configuration example of the
[0052]
Processing for detecting the target luminance / optimal target luminance pair (M, Mm) of the luminance
[0053]
In step S31, the luminance
Intermediate luminance Ynm = (Yns + Ynn) / 2 (1)
[0054]
In step S32, the luminance
Attention luminance M = r · Ys (Ynm / Yns) (2)
[0055]
In step S34, the luminance
[0056]
Next, FIG. 15 shows a detailed configuration example of the mapping
[0057]
The process in which the mapping
[0058]
In step S41, the maximum / minimum
[0059]
In step S43, the
Ym (Y) = αlogY + β (3)
[Expression 1]
[0060]
FIG. 18 is a diagram for explaining the relationship between the dynamic range of the luminance of the wide dynamic range image and the dynamic range of the luminance of the narrow dynamic range image after conversion, and the horizontal axis in FIG. The logarithmic value logY of the brightness Y of the wide dynamic range image is shown, and the vertical axis shows the brightness Ym of the narrow dynamic range image after conversion. The same applies to FIGS. 19 to 21. Hm and Lm represent the maximum brightness or the minimum brightness in a narrow dynamic range, and are preset values.
[0061]
In step S44, the high frequency
YmH (Y) = αHlogY + βH (4)
[Expression 2]
[0062]
In step S45, the low frequency
YmL (Y) = αLlogY + βL (5)
[Equation 3]
[0063]
Note that the order of the processes of steps S43, S44, and S45 may be changed as appropriate, or may be executed simultaneously in parallel.
[0064]
In step S46, the
[0065]
When the comparison result indicates that Mm is larger than Ym (M), it is determined that the point (logM, Mm) corresponding to the target luminance / optimal target luminance pair is located above the straight line A as shown in FIG. Then, the process proceeds to step S47. In step S47, the
[Expression 4]
... (6)
[0066]
In step S50, the
[0067]
If the comparison result in step S46 is that Mm is equal to Ym (M), it is determined that the point (logM, Mm) corresponding to the target luminance / optimal target luminance pair matches the straight line A, and the process proceeds to step S48. . In step S48, the
CL = L
CH = H (7)
[0068]
When the comparison result in step S46 is smaller than Ym (M), the point (logM, Mm) corresponding to the target luminance / optimal target luminance pair is lower than the straight line A as shown in FIG. If it is determined that the current position is located in step S49, the process proceeds to step S49. In step S49, the
[Equation 5]
... (8)
[0069]
Details of the processing of the
[0070]
For the input luminance Y classified in the region smaller than the minimum luminance L through the process of step S61, a mapping function f (Y) is defined in step S62 as shown in the following equation (9).
f (Y) = Lm Y <L (9)
[0071]
For the input luminance Y classified into the region that is equal to or greater than the minimum luminance L and smaller than CL through the processing of steps S61 and S63, in step S64, as shown in the following equation (10), the mapping function f (Y) is defined by the low-frequency logarithm function YmL (Y).
f (Y) = YmL (Y) = αLlogY + βL L ≦ Y <L (10)
[0072]
If the process is classified into an area that is greater than or equal to CL and smaller than CH through the processes of steps S61, S63, and S65, the process proceeds to step S66.
[0073]
In step S66, it is determined whether CL-2M + CH is greater than zero. If it is determined that CL-2M + CH is greater than 0, the process proceeds to step S67. In step S67, the parameter t is defined by the following equation (11).
[Formula 6]
(11)
[0074]
In step S68, a mapping function f (Y) is defined for the input luminance Y as shown in the following equation (12).
[Expression 7]
CL ≦ Y <CH (12)
[0075]
If it is determined in step S66 that CL-2M + CH is not greater than 0, the process proceeds to step S69. In step S69, it is determined whether CL-2M + CH is smaller than zero. If it is determined that CL-2M + CH is smaller than 0, the process proceeds to step S70. In step S70, the parameter t is defined by the following equation (13).
[Equation 8]
(13)
[0076]
If it is determined in step S69 that CL-2M + CH is not smaller than 0, that is, CL-2M + CH = 0, the process proceeds to step S71. In step S71, the parameter t is defined by the following equation (14).
t = (Y-CL) / 2 (M-CL) (14)
[0077]
As shown in the following equation (15), in step S73, for the input luminance Y classified into the region that is higher than CH and smaller than the maximum luminance H through the processing of steps S61, S63, S65, and S72. , The mapping function f (Y) is defined by the high-frequency logarithm function YmH (Y).
f (Y) = YmH (Y) = αHlogY + βH CH ≦ Y <H (15)
[0078]
For the input luminance Y classified into the region having the maximum luminance H or higher through the processing of steps S61, S63, S65, and S72, in step S74, as shown in the following equation (16), the mapping function f ( Y) is defined by the high-frequency log function YmH (Y).
f (Y) = Lm H <Y (16)
[0079]
As described above, the mapping function f (Y) is generated by a series of processes of the mapping
[0080]
Next, processing of the
[0081]
In step S <b> 81, the
[0082]
In step S82, the
[0083]
As described above, according to the series of processes of the
[0084]
In the above description, only one target brightness / optimum target brightness pair (M, Mm) is determined and the subsequent processing is executed. And a mapping function may be generated.
[0085]
Next, a second operation example in which the
[0086]
FIG. 24 illustrates a display example of the
[0087]
FIG. 25 shows a display example of a GUI operated when the user sets the
[0088]
After the user clicks the
[0089]
In the second operation example, the luminance
[0090]
In order to obtain one target luminance M, the luminance
[0091]
The attention brightness / optimum attention brightness pair (M, Mm) set in this way is supplied to the mapping
[0092]
As described above, according to the second operation example in which the optimum exposure information is set, a desired narrow dynamic range image can be obtained by an intuitive operation in which the user designates the range of the subject that the user wants to display at the optimum brightness. It becomes possible to create.
[0093]
Next, a configuration example of the
[0094]
FIG. 26 shows a second configuration example of the
Luminance Y = kr · R + kg · G + kb · B (17)
[0095]
Here, kr, kg, and kb are constants. For example, kr = 0.3, kg = 0.6, and kb = 0.1.
[0096]
The luminance
[0097]
The color correction
[0098]
A process in which the color correction
[0099]
The color correction
[0100]
For the input luminance Y classified in the area smaller than the minimum luminance L through the processing of step S91, a color correction function fC (Y) is defined in step S92 as shown in the following equation (17). .
fC (Y) = αL Y <L (17)
[0101]
For the input luminance Y classified into the area that is equal to or higher than the minimum luminance L and smaller than CL through the processing of steps S91 and S93, in step S94, as shown in the following equation (18), the color correction function fC (Y) is defined.
fC (Y) = αL L ≦ Y <L (18)
[0102]
If the process is classified into an area that is greater than or equal to CL and smaller than CH through the processes of steps S91, S93, and S95, the process proceeds to step S96.
[0103]
In step S96, it is determined whether CL-2M + CH is greater than zero. If it is determined that CL-2M + CH is greater than 0, the process proceeds to step S97. In step S97, the parameter t is defined by equation (11).
[0104]
In step S98, the color correction function fC (Y) is defined for the input luminance Y as shown in the following equation (19).
fC (Y) = (1-t) αL + tαH CL ≦ Y <CH (19)
[0105]
If it is determined in step S96 that CL-2M + CH is not greater than 0, the process proceeds to step S99. In step S99, it is determined whether CL-2M + CH is smaller than zero. If it is determined that CL-2M + CH is smaller than 0, the process proceeds to step S100. In step S100, the parameter t is defined by equation (13).
[0106]
If it is determined in step S99 that CL-2M + CH is not smaller than 0, that is, CL-2M + CH = 0, the process proceeds to step S101. In step S101, the parameter t is defined by equation (14).
[0107]
As shown in the following equation (20), in step S103, for the input luminance Y classified into the region that is higher than CH and smaller than the maximum luminance H through the processing of steps S91, S93, S95, and S102. A color correction function fC (Y) is defined.
fC (Y) = αH CH ≦ Y <H (20)
[0108]
For the input luminance Y classified into the region having the maximum luminance H or higher through the processing of steps S91, S93, S95, and S102, in step S104, as shown in the following equation (21), the color correction function fC (Y) is defined.
fC (Y) = αH H <Y (21)
[0109]
The color correction function fC (Y) is generated by the processing of the color correction
[0110]
The mapping unit 124 calculates the color correction amount γ by applying the luminance Y of each pixel from the luminance
[0111]
Similar to the mapping
[0112]
The
The power calculation unit 128B multiplies the blue signal B of each pixel of the wide dynamic range image by γ and outputs the obtained corrected blue signal Bγ to the
[0113]
The scaling
Rm = Rγ · Ym / Yγ (22)
Gm = Gγ · Ym / Yγ (23)
Bm = Bγ · Ym / Yγ (24)
[0114]
As described above, according to the second configuration example of the
[0115]
Next, FIG. 28 shows a configuration example of a digital camera to which the present invention is applied.
In other words, the digital camera 140 has the image processing system shown in FIG. 1 housed in a single housing. The digital camera 140 captures a subject as a wide dynamic range image signal and appropriately converts it into a narrow dynamic range image signal. Record in the built-in
[0116]
The digital camera 140 includes a
[0117]
Further, the digital camera 140 compresses and encodes the image signal processed by the
[0118]
Further, the digital camera 140 controls the
[0119]
In the digital camera 140, the
[0120]
The
[0121]
Therefore, in the digital camera 140, the overall processing order is different from the processing order of the image processing system of FIG. 1 described with reference to the flowchart of FIG. 7, and the optimum exposure information is obtained before acquiring the wide dynamic range image signal. Has been made to set.
[0122]
A first operation example of the digital camera 140 will be described with reference to a flowchart of FIG. In step S111, the composition of the image to be captured is selected by the user. The composition of the selected image (corresponding to a
[0123]
Processing for setting the optimum exposure information will be described with reference to FIGS. FIG. 30 shows a display example of the
[0124]
31A to 31Q show examples of the shape of the
The shape of the
[0125]
FIG. 32 shows a
The
[0126]
For example, FIG. 30 shows a state in which the shape of the
[0127]
The user switches the
[0128]
Returning to FIG. In step S112, when the user operates the shutter provided on the
[0129]
In step S113, the wide dynamic range image signal is converted into the narrow dynamic range image signal based on the optimum exposure information (index indicating the shape of the guide 172) set in step S111.
[0130]
Specifically, for the target luminance / optimal target luminance pair, an image signal of the internal region of the
[0131]
The converted narrow dynamic range image signal is stored in the
[0132]
Note that, in the
[0133]
Next, a second operation example of the digital camera 140 will be described with reference to the flowchart of FIG. In step S121, the composition of the image to be captured is selected by the user. The composition of the selected image (corresponding to the guide 172) is set as the first optimum exposure information.
[0134]
The process for setting the first optimum exposure information is the same as the process for setting the optimum exposure information in the first operation example described above with reference to FIGS. 30 to 32.
[0135]
In step S122, when the user operates the shutter provided in the
[0136]
In step S123, the exposure ratio r is set as the second optimum exposure information corresponding to the user's operation. Processing for setting the exposure ratio r as the second optimum exposure information will be described with reference to FIGS. 34 and 35. FIG.
[0137]
FIG. 34 shows a display example of the
[0138]
FIG. 35 shows the
[0139]
For example, when the
[0140]
Returning to FIG. In step S124, based on the first optimum exposure information (index indicating the shape of the guide 172) set in step S121 and the second optimum exposure information set in step S123, the wide dynamic range image signal is narrowly dynamic. It is converted into a range image signal.
[0141]
Specifically, for the target luminance / optimal target luminance pair, the luminance of the wide dynamic range image in the inner region of the
[0142]
As the optimum attention brightness Mm, the brightness of the wide dynamic range image is multiplied by the exposure ratio r as the second optimum exposure information to easily generate the narrow dynamic range image, and the brightness of the inner region of the
[0143]
The converted narrow dynamic range image signal is stored in the
[0144]
As described above, according to the second operation example of the digital camera 140, an area that the user wants to pay attention to can be specified with the
[0145]
Note that the
[0146]
By the way, the present invention can also be applied to the case where the luminance is changed without changing the dynamic range of the image.
[0147]
Further, the present invention can be applied not only to the image conversion system and the digital camera as in the present embodiment, but also to electronic devices that process image signals such as scanners, facsimiles, and copiers.
[0148]
In the present specification, the step of describing the program recorded in the recording medium is not limited to the processing performed in time series according to the described order, but is not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.
[0149]
Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.
[0150]
【The invention's effect】
As described above, the present inventionInAccording toWideWhen converting a dynamic range image into a narrow dynamic range image, it is possible to optimize the luminance at an arbitrary position in the image.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration example of an image processing system according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a configuration example of the imaging apparatus 1 in FIG.
3 is a block diagram illustrating a configuration example of a
FIG. 4 is a diagram for explaining sensitivity characteristics of the
FIG. 5 is a diagram for explaining processing of the
6 is a block diagram illustrating a configuration example of a personal computer that implements the
FIG. 7 is a flowchart illustrating the operation of the image processing system.
FIG. 8 is a flowchart for explaining optimum exposure information setting processing of the
FIG. 9 is a flowchart illustrating a process for the
FIG. 10 is a diagram showing a display example of the
FIG. 11 is a diagram showing a GUI display example in the first operation example for setting optimum exposure information.
12 is a block diagram illustrating a first configuration example of an
13 is a flowchart for explaining processing of a luminance
FIG. 14 is a diagram for explaining processing of a luminance
15 is a block diagram illustrating a configuration example of a mapping
FIG. 16 is a flowchart illustrating processing of a mapping function generation unit.
FIG. 17 is a diagram for explaining processing of a maximum / minimum
FIG. 18 is a diagram for explaining processing of a mapping
FIG. 19 is a diagram for explaining the processing of the mapping
FIG. 20 is a diagram for explaining processing of a mapping
FIG. 21 is a diagram for explaining processing of the mapping
FIG. 22 is a flowchart illustrating details of the process in step S50 of FIG.
FIG. 23 is a flowchart for explaining processing of the
FIG. 24 is a diagram showing a display example of the
FIG. 25 is a diagram showing a GUI display example in the second operation example for setting optimum exposure information.
26 is a block diagram illustrating a second configuration example of the
FIG. 27 is a flowchart illustrating processing of a second configuration example of the image processing unit.
FIG. 28 is a block diagram illustrating a configuration example of a digital camera 140 according to an embodiment of the present invention.
29 is a flowchart for explaining a first operation example of the digital camera 140. FIG.
30 is a diagram showing a display example of the
31 is a diagram showing types of shapes of
32 is a diagram showing a
FIG. 33 is a flowchart for explaining a second operation example of the digital camera.
34 is a diagram showing a display example of the
35 is a diagram showing a
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 Imaging device, 2 Image processing device, 11 Image processing part, 12 Operation input part, 13 Display part, 41 CPU, 52 Magnetic disk, 53 Optical disk, 54 Magneto-optical disk, 55 Semiconductor memory, 71 Image selection button panel, 81 Brightness Pair detection unit, 82 mapping function generation unit, 83 mapping unit, 91 maximum / minimum luminance acquisition unit, 92 high frequency function determination unit, 93 low frequency function determination unit, 94 function synthesis unit, 111 range specification panel, 121 luminance signal generation Unit, 122 luminance pair detection unit, 123 color correction function generation unit, 124 mapping unit, 125 mapping function generation unit, 126 mapping unit, 127, 128 exponentiation operation unit, 129 scaling unit, 140 digital camera, 146 DSP, 152 control unit , 154 Magnetic Disc, 155 disc, 156 a magneto-optical disk, 157 a semiconductor memory, 158 operation unit, 172
Claims (6)
前記第2のダイナミックレンジにおける第2の輝度値を設定する設定手段と、
前記第2の輝度値に対応する前記第1のダイナミックレンジにおける第1の輝度値を演算する演算手段と、
前記第1の輝度値および前記第2の輝度値からなる第1の輝度対に基づいて、マッピング関数を生成するマッピング関数生成手段と、
生成された前記マッピング関数を用いて前記第1の画像信号を前記第2の画像信号に変換する変換手段と
を含み、
前記マッピング関数生成手段は、
前記第1の輝度対に対応する点、
前記第1のダイナミックレンジにおける最小輝度値付近の第3の輝度値と前記第2のダイナミックレンジにおける最小輝度値付近の第4の輝度値からなる第2の輝度対に対応する点、
および前記第1のダイナミックレンジにおける最大輝度値付近の第5の輝度値と前記第2のダイナミックレンジにおける最大輝度値付近の第6の輝度値からなる第3の輝度対に対応する点
の3点の近傍を通過する滑らかな単調増加関数を前記マッピング関数として生成する
画像処理装置。In an image processing apparatus for converting a first image signal having a first dynamic range into a second image signal having a second dynamic range with respect to a luminance value,
Setting means for setting a second luminance value in the second dynamic range;
Computing means for computing a first luminance value in the first dynamic range corresponding to the second luminance value;
Mapping function generating means for generating a mapping function based on a first luminance pair consisting of the first luminance value and the second luminance value;
And a converting means for converting the first image signal into the second image signal using the mapping function that is generate,
The mapping function generation means includes
A point corresponding to the first luminance pair;
A point corresponding to a second luminance pair consisting of a third luminance value near the minimum luminance value in the first dynamic range and a fourth luminance value near the minimum luminance value in the second dynamic range;
And a point corresponding to a third luminance pair consisting of a fifth luminance value near the maximum luminance value in the first dynamic range and a sixth luminance value near the maximum luminance value in the second dynamic range
An image processing apparatus that generates a smooth monotonically increasing function passing through the vicinity of the three points as the mapping function .
前記第1の輝度対に対応する点と前記第2の輝度対に対応する点を通過する単調増加関数第1の関数としてを生成する第1の関数生成手段と、
前記第1の輝度対に対応する点と前記第3の輝度対に対応する点を通過する単調増加関数を第2の関数として生成する第2の関数生成手段と、
前記第1の輝度対が示す点の近傍において、前記第1の関数上の点および前記第2の関数上の点を通る単調増加関数である第3の関数を前記マッピング関数として生成する第3の関数生成手段と
を含む
請求項1に記載の画像処理装置。The mapping function generation means includes
First function generating means for generating as a first monotonically increasing function a first function passing through a point corresponding to the first luminance pair and a point corresponding to the second luminance pair ;
Second function generating means for generating, as a second function, a monotonically increasing function that passes through a point corresponding to the first luminance pair and a point corresponding to the third luminance pair ;
A third function that generates, as the mapping function , a third function that is a monotonically increasing function passing through a point on the first function and a point on the second function in the vicinity of the point indicated by the first luminance pair. Including function generation means of
The image processing apparatus according to 請 Motomeko 1.
前記第1の関数が示す所定の1点、
前記第1の輝度対が示す1点、
および前記第2の関数が示す所定の1点
の3点によって定義される2次曲線関数を、前記第3の関数として生成する
請求項2に記載の画像処理装置。The third function generation means includes:
A predetermined point indicated by the first function,
1 point showing the first luminance pair,
And a quadratic curve function defined by three predetermined points indicated by the second function is generated as the third function.
The image processing apparatus according to 請 Motomeko 2.
前記補正情報を用いて、前記第2の画像信号を構成する前記3原色信号を補正する補正手段と
をさらに含み、
前記算出手段は、前記マッピング関数のガンマ特性を取得し、補正後の前記3原色信号と前記マッピング関数適用後輝度値の比率がそのガンマ特性によって算出される比率になるように、前記3原色信号への補正係数を決定する
請求項1に記載の画像処理装置。Calculation means for calculating correction information for correcting the color balance of the three primary color signals constituting the second image signal based on the mapping function;
Correction means for correcting the three primary color signals constituting the second image signal using the correction information ; and
The calculation means acquires the gamma characteristic of the mapping function, and the three primary color signal so that a ratio between the corrected three primary color signal and the luminance value after applying the mapping function is a ratio calculated by the gamma characteristic. The image processing apparatus according to claim 1 , wherein a correction coefficient is determined .
前記第2のダイナミックレンジにおける第2の輝度値を設定する設定ステップと、
前記第2の輝度値に対応する前記第1のダイナミックレンジにおける第1の輝度値を演算する演算ステップと、
前記第1の輝度値および前記第2の輝度値からなる第1の輝度対に基づいて、マッピング関数を生成するマッピング関数生成ステップと、
生成された前記マッピング関数を用いて前記第1の画像信号を前記第2の画像信号に変換する変換ステップと
を含み、
前記マッピング関数生成ステップは、
前記第1の輝度対に対応する点、
前記第1のダイナミックレンジにおける最小輝度値付近の第3の輝度値と前記第2のダイナミックレンジにおける最小輝度値付近の第4の輝度値からなる第2の輝度対に対応する点、
および前記第1のダイナミックレンジにおける最大輝度値付近の第5の輝度値と前記第2のダイナミックレンジにおける最大輝度値付近の第6の輝度値からなる第3の輝度対に対応する点
の3点の近傍を通過する滑らかな単調増加関数を前記マッピング関数として生成する
画像処理方法。In an image processing method of an image processing apparatus for converting a first image signal having a first dynamic range into a second image signal having a second dynamic range with respect to a luminance value,
A setting step of setting a second luminance value in the second dynamic range;
A calculation step of calculating a first luminance value in the first dynamic range corresponding to the second luminance value;
A mapping function generating step for generating a mapping function based on a first luminance pair comprising the first luminance value and the second luminance value;
Look including a conversion step of converting the first image signal into the second image signal using the mapping functions generated and
The mapping function generation step includes
A point corresponding to the first luminance pair;
A point corresponding to a second luminance pair consisting of a third luminance value near the minimum luminance value in the first dynamic range and a fourth luminance value near the minimum luminance value in the second dynamic range;
And a point corresponding to a third luminance pair consisting of a fifth luminance value near the maximum luminance value in the first dynamic range and a sixth luminance value near the maximum luminance value in the second dynamic range
An image processing method for generating, as the mapping function, a smooth monotonically increasing function that passes in the vicinity of the three points .
前記第2のダイナミックレンジにおける第2の輝度値を設定する設定ステップと、
前記第2の輝度値に対応する前記第1のダイナミックレンジにおける第1の輝度値を演算する演算ステップと、
前記第1の輝度値および前記第2の輝度値からなる第1の輝度対に基づいて、マッピング関数を生成するマッピング関数生成ステップと、
生成された前記マッピング関数を用いて前記第1の画像信号を前記第2の画像信号に変換する変換ステップと
を含み、
前記マッピング関数生成ステップは、
前記第1の輝度対に対応する点、
前記第1のダイナミックレンジにおける最小輝度値付近の第3の輝度値と前記第2のダイナミックレンジにおける最小輝度値付近の第4の輝度値からなる第2の輝度対に対応する点、
および前記第1のダイナミックレンジにおける最大輝度値付近の第5の輝度値と前記第2のダイナミックレンジにおける最大輝度値付近の第6の輝度値からなる第3の輝度対に対応する点
の3点の近傍を通過する滑らかな単調増加関数を前記マッピング関数として生成する
処理をコンピュータに実行させるプログラムが記録されている記録媒体。A program for image processing that converts a first image signal having a first dynamic range into a second image signal having a second dynamic range with respect to a luminance value,
A setting step of setting a second luminance value in the second dynamic range;
A calculation step of calculating a first luminance value in the first dynamic range corresponding to the second luminance value;
A mapping function generating step for generating a mapping function based on a first luminance pair comprising the first luminance value and the second luminance value;
Look including a conversion step of converting the first image signal into the second image signal using the mapping functions generated and
The mapping function generation step includes
A point corresponding to the first luminance pair;
A point corresponding to a second luminance pair consisting of a third luminance value near the minimum luminance value in the first dynamic range and a fourth luminance value near the minimum luminance value in the second dynamic range;
And a point corresponding to a third luminance pair consisting of a fifth luminance value near the maximum luminance value in the first dynamic range and a sixth luminance value near the maximum luminance value in the second dynamic range
A smooth monotonically increasing function passing through the vicinity of the three points is generated as the mapping function
A recording medium on which a program for causing a computer to execute processing is recorded.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000328161A JP4556319B2 (en) | 2000-10-27 | 2000-10-27 | Image processing apparatus and method, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000328161A JP4556319B2 (en) | 2000-10-27 | 2000-10-27 | Image processing apparatus and method, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002132243A JP2002132243A (en) | 2002-05-09 |
JP4556319B2 true JP4556319B2 (en) | 2010-10-06 |
Family
ID=18805057
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000328161A Expired - Fee Related JP4556319B2 (en) | 2000-10-27 | 2000-10-27 | Image processing apparatus and method, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4556319B2 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4835593B2 (en) * | 2005-03-15 | 2011-12-14 | オムロン株式会社 | Image processing apparatus, image processing method, program, and recording medium |
EP1871093A4 (en) * | 2005-03-15 | 2009-09-02 | Omron Tateisi Electronics Co | Image processor, image processing method, image processing system, program and recording medium |
CN102473295B (en) * | 2009-06-29 | 2016-05-04 | 汤姆森特许公司 | Based on the tone mapping in district |
US9275605B2 (en) | 2010-11-23 | 2016-03-01 | Dolby Laboratories Licensing Corporation | Content metadata enhancement of high dynamic range images |
JP6421504B2 (en) | 2014-07-28 | 2018-11-14 | ソニー株式会社 | Image processing apparatus and image processing method |
US10242435B2 (en) * | 2016-09-07 | 2019-03-26 | Gvbb Holdings S.A.R.L. | High dynamic range processing |
JP2018091999A (en) * | 2016-12-02 | 2018-06-14 | キヤノン株式会社 | Image processor, display device and image processing method |
KR102480182B1 (en) * | 2017-07-07 | 2022-12-21 | 가부시키가이샤 한도오따이 에네루기 켄큐쇼 | Display system and operation method of the display system |
ES2945657T3 (en) * | 2019-04-25 | 2023-07-05 | Dolby Laboratories Licensing Corp | Content-aware PQ range analyzer and tone mapping on live feeds |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2779080B2 (en) * | 1991-09-20 | 1998-07-23 | 大日本印刷株式会社 | Gradation correction device |
-
2000
- 2000-10-27 JP JP2000328161A patent/JP4556319B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2002132243A (en) | 2002-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6825884B1 (en) | Imaging processing apparatus for generating a wide dynamic range image | |
JP4427001B2 (en) | Image processing apparatus and image processing program | |
JP4163353B2 (en) | Image processing device | |
JP4293174B2 (en) | Imaging apparatus and image processing apparatus | |
JP5509750B2 (en) | Image processing apparatus and program | |
US8031968B2 (en) | Image processing apparatus and image processing program | |
US8654221B2 (en) | Image processing device and method, and program | |
JP4192418B2 (en) | Image processing apparatus and method, and recording medium | |
JP4720537B2 (en) | Imaging device | |
US20030174230A1 (en) | Digital camera | |
KR20080035981A (en) | Image processing apparatus, imaging apparatus, image processing method, and computer program | |
JP4556319B2 (en) | Image processing apparatus and method, and recording medium | |
JP2011228807A (en) | Image processing program, image processing apparatus, and image processing method | |
JP6108680B2 (en) | Imaging apparatus, control method therefor, program, and storage medium | |
US6525763B1 (en) | Film image reading device and method with focus adjustment | |
JP7297406B2 (en) | Control device, imaging device, control method and program | |
JP5284183B2 (en) | Image processing apparatus and method | |
JP2003230022A (en) | Image processing apparatus and method, and recording medium | |
JP4299753B2 (en) | Image signal processing apparatus and image signal processing method | |
KR101605769B1 (en) | Image processing method and apparatus, and digital photographing apparatus using thereof | |
JP7257768B2 (en) | Image processing device, its control method, and program | |
JP2010034848A (en) | Image processing program, image processing device and image processing method | |
JP2003325443A (en) | Electronic endoscopic equipment | |
EP4270974A1 (en) | Imaging device, method for controlling imaging device, program and computer-readable storage medium | |
JP2024070628A (en) | IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND IMAGING APPARATUS |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070220 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100420 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100614 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100629 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100712 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130730 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |