JP3914810B2 - Imaging apparatus, imaging method, and program thereof - Google Patents

Imaging apparatus, imaging method, and program thereof Download PDF

Info

Publication number
JP3914810B2
JP3914810B2 JP2002119302A JP2002119302A JP3914810B2 JP 3914810 B2 JP3914810 B2 JP 3914810B2 JP 2002119302 A JP2002119302 A JP 2002119302A JP 2002119302 A JP2002119302 A JP 2002119302A JP 3914810 B2 JP3914810 B2 JP 3914810B2
Authority
JP
Japan
Prior art keywords
image
index
signal
chromaticity
image signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002119302A
Other languages
Japanese (ja)
Other versions
JP2003319404A (en
Inventor
英明 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2002119302A priority Critical patent/JP3914810B2/en
Publication of JP2003319404A publication Critical patent/JP2003319404A/en
Application granted granted Critical
Publication of JP3914810B2 publication Critical patent/JP3914810B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、CCD等の撮像素子を用いた撮像装置に係り、特にダイナミックレンジの拡大のために複数画像を合成する技術に関する。
【0002】
【従来の技術】
近年、露光量の異なる複数の画像を合成することによって広ダイナミックレンジの撮像画像を得る試みは、種々提案されている。
【0003】
その1つは、露出量の異なる2つの原画像データから、一旦1つの広いダイナミックレンジ(以下、「Dレンジ」という)の画像を生成し、この画像に対して各種の画像処理を施して記録対象画像を生成するものである。ここで、中間段階で生成される広いDレンジの画像とは、全てのレンジをカバーできるように原画像のデータのビット数よりも多くのビット数を有した画像である。このように、広いDレンジの画像を用いて各種の画像処理を行うことにより、最良の処理を施し得る可能性を有している。
【0004】
また、他の方法の1つは、2つの原画像データを画素毎に加算平均して加重合成した画像を生成するものである。この方法では、画像の演算処理が単純であるため、撮像装置への適用が容易であるという利点を備えている。
【0005】
さらに、他の方法の1つは、片側の原画像の輝度データの内、Dレンジの範囲を逸脱した領域にあるデータを、他の原画像のデータで置き換えるものである。この方法では、上記の方法と同様に画像の演算処理が単純であるため、撮像装置への適用が容易であるという利点を備えている。
【0006】
【発明が解決しようとする課題】
しかしながら、中間段階で広Dレンジ画像を作成する方法では、この作成とその後の演算のための処理が複雑化し、また多くのメモリ領域が必要になるという問題があり、例えば撮像装置に要求されるリアルタイム処理、小型化、コスト低減等のニーズを考えた場合は好ましいものではないと考えられる。
【0007】
また、一時的に広Dレンジの画像情報を得られるとしても、最終的に生成されるレンジの狭い画像において輝度圧縮等の信号処理が施されるとすれば、結局は画質は低下することになる。従って、この観点から充分な画質の得られる信号処理技術は未だ確立しているとは言えなかった。
【0008】
また、加算平均処理では、Dレンジは拡大するが階調が圧縮されてしまい、そのままの画像として見た場合にはコントラストが低下する。これに対して何らかの画像補正を行う場合には、逆に量子化ノイズの増加を生じて画質の低下を生じさせてしまうことがある。
【0009】
また、逸脱データ置換処理では、輝度情報によって採用する画像を切り替えることになるため、被写体の絵柄などの輝度分布によっては不自然な画像が得られることがある。例えば、解像度チャートの縞模様等の高周波かつ高コントラストの被写体の画像では、反転模様の偽信号的な画像を生じてしまうことになる。
【0010】
本発明は係る事情に鑑みてなされたものであって、撮像装置への適用が容易であり、Dレンジが拡大された自然な撮像画像を得ることのできる撮像装置、撮像方法及びそのプログラムを提供することを目的とする。
【0011】
【課題を解決するための手段】
上記課題を解消するための本発明は、異なる露光量を与えて得られる複数の原画像の画像信号のそれぞれについて処理して少なくとも1の画素で構成される分割領域毎に色度に相当する指標を算出する指標化手段と、指標に基づいて分割領域毎に複数の原画像の画像信号の内から1の画像信号を選択する選択手段と、選択された画像信号から一つの合成画像信号を生成する画像生成手段とを備えた撮像装置である。
【0012】
また本発明は、上記記載の発明である撮像装置において、選択手段は、分割領域毎にそれぞれの指標を比較して最も絶対値の大きい指標を決定し、該指標を与える原画像の画像信号を選択する撮像装置である。
【0013】
また本発明は、上記記載の発明である撮像装置において、指標化手段は、輝度信号Y、色差信号R−Y及びB−Y、所定の値αを用いて、下記式から色度に相当する指標Cを算出する撮像装置である。
【0014】
C={(R−Y)+(B−Y)}/(Y+α)
また本発明は、上記記載の発明である撮像装置において、指標化手段は、1つの画像の輝度信号Y、色差信号R−Y及びB−Y、比較する他の画像の輝度信号Y、所定の値αを用いて、下記式から色度に相当する指標Cを算出する撮像装置である。
【0015】
C={(R−Y)+(B−Y)}*(Y+α)
また本発明は、上記記載の発明である撮像装置において、指標化手段は、1つの画像の輝度信号Y、色差信号R−Y及びB−Y、比較する他の画像の輝度信号Y、所定の値αを用いて、下記式から色度に相当する指標Cを算出することを特徴とする撮像装置である。
【0016】
C={|R−Y|+|B−Y|}*(Y+α)
また本発明は、異なる露光量を与えて得られる複数の画像信号のそれぞれについて処理して、少なくとも1の画素で構成される分割領域毎に色度に相当する指標を算出し、指標に基づいて分割領域毎に複数の原画像の画像信号の内から1の画像信号を選択し、選択された画像信号から一つの合成画像信号を生成する撮像方法である。
【0017】
また本発明は、コンピュータに、異なる露光量を与えて得られる複数の原画像の画像信号のそれぞれについて処理して、少なくとも1の画素で構成される分割領域毎に色度に相当する指標を算出する手順、指標に基づいて分割領域毎に複数の原画像の画像信号の内から1の画像信号を選択する手順、選択された画像信号から一つの合成画像信号を生成する手順、を実行させるためのプログラムである。
【0018】
【発明の実施の形態】
図1は、本発明が適用される撮像装置の構成を示すブロック図である。
【0019】
本撮像装置は、各種レンズからなるレンズ系101、レンズ系101を駆動するためのレンズ駆動機構102、レンズ系101の絞りを制御するための露出制御機構103、メカニカルシャッタ104、CCD撮像素子105、CCD撮像素子105を駆動するためのCCDドライバ106、A/D変換器などを含むプリプロセス部107、マトリックス変換処理その他のデジタル処理を行うためのデジタルプロセス部108、カードインターフェース109、メモリカード110、LCD画像表示系111を備えている。
【0020】
更に本撮像装置は、各部を統括的に制御するためのシステムコントローラ112、各種SWからなる操作スイッチ系113、操作状態及びモード状態等を表示するための操作表示系114、レンズ駆動機構を制御するためのレンズドライバ115、発光手段としてのストロボ116、ストロボ116を制御するための露出制御ドライバ117、各種設定情報等を記憶するための不揮発性メモリ(EEPROM)を備えている。
【0021】
本撮像装置においては、システムコントローラ112が全ての制御を統括的に行っており、特に露出制御機構103及びメカニカルシャッタ104とCCDドライバ106によるCCD撮像素子105の駆動を制御して露光(電荷蓄積)及び信号の読出しを行ない、それをプリプロセス部107を介してデジタルプロセス部108に取り込み、各種信号処理を施した後にカードインターフェース109を介してメモリカード110に記録するようになっている。
【0022】
次に、本撮像装置を用いてDレンジを拡大する処理方法について説明する。
【0023】
先ず、システムコントローラ112は露出制御機構103、メカニカルシャッタ104、CCDドライバ106によるCCD撮像素子105の駆動を制御して第1の露光条件の下で撮影した第1の画像信号をCCD撮像素子115から読出し、続いて第2の露光条件の下で撮影した第2の画像信号をCCD撮像素子115から読出す。
【0024】
ここで、第1及び第2の画像信号をその時間差を極力少なくするようにして読み出すことは、2画像の撮影の間に被写体が動いた場合に生ずる「処理の破綻」を防止するために必要である。これは、例えば特願2000−077136号公報に記載の、プログレシブ走査(フルフレーム読出し)対応型CCDとメカニカルシャッタを組み合わせた駆動方法を用いて実現することができる。
【0025】
ところで、CCD撮像素子105から読み出される画像信号の高輝度側の信号はCCD撮像素子105の飽和レベルが限界になり、低輝度側の信号は撮像装置に組み込まれた状態での撮像素子出力のノイズレベルが限界となるため、少なくともこれらのレベルを超えた撮像レンジを得ることはできない。
【0026】
図2は、一般的な撮像素子の光電変換特性を模式的に示す図である。
【0027】
本図において、横軸は入射光量、縦軸は信号レベルをそれぞれ対数表示したものである。図中、高輝度側の信号の限界レベルをUL、低輝度側の信号の限界レベルをLLで示している。ULは撮像素子の飽和レベルにほぼ対応する値であり、一方LLはノイズレベルであるNLとは異なり、一義的に定められるものではなく、例えば画像が鑑賞に耐えうる所定のS/N比を有するレベルとして定められるものである。尚、LLについては上記基準でなくても、視覚評価を行って「これ以下のレベルは黒つぶれである」レベルを決定して、その限界レベルをLLとしても良い。
【0028】
このようにして定められたULとLLの間が有効輝度域となり、対数軸上でのこれらの差DR(=UL−LL)が撮像レンジとなる。このDRは、撮像装置の設計された構造によって異なるが、通常の撮像装置では場合は5〜6EV(30〜36dB)のものが多く用いられており、本実施形態の撮像装置もこのクラスの撮像レンジをもつものである。
【0029】
従って、CCD撮像素子105から読み出された2つの画像信号の光電変換特性は模式的に図3で示される。本図では、第1の画像信号は短い露光時間で撮像され、第2の画像信号は長い露光時間で撮像された信号である。このため、2つの画像信号の光電変換特性は、その露光時間の違いに相当する分だけ横軸方向に移動した関係にある。この結果、これらの2つの画像信号には同じ撮像レンジDRを持つ撮像装置であっても拡大輝度域にある被写体の輝度についての画像信号が含まれていることになる。
【0030】
尚、本発明においては、露光時間のずらし量については任意に選定することができ、また露光レベルは露光時間以外のパラメータ、例えば絞りによって変化させるものであっても良い。
【0031】
続いて、露出レベルの異なる2つの画像信号から1つの合成画像を得る方法について説明する。
【0032】
図4は、画像合成に係る撮像装置の構成を示す図である。画像合成処理は、システムコントローラ112に設けられた画像生成処理部122がデジタルプロセス部108に設けられたマトリクス変換処理部120との間で信号の授受を行なって実行される。そして、画像生成処理部122には、指標化部123、画像信号選択部124及び画像生成部125が設けられている。
【0033】
先ず、画像合成処理部122は、第1、第2の画像信号のカラー信号である点順次信号(R、G、B)をデジタルプロセス部108に入力させる。そして、マトリクス変換処理部120を動作させて、同時化されたコンポーネント信号を生成させる。ここで、第1原画像のコンポーネント信号をS1、第2原画像のコンポーネント信号をS2とする。尚、代表的なコンポーネント信号Sn(n=1、2を示す)の具体的構成としては、輝度信号(Yn)と色差信号(Rn−Yn、Bn−Yn)であり、以下の実施の形態では、この輝度信号(Yn)と色差信号(Rn−Yn、Bn−Yn)を用いた実施形態について説明する。
【0034】
本発明に係る第1の実施の形態では、指標化部123は上記手順で得られたコンポーネント信号Snから各画素ごとに色度に相当する指標である色彩度Cnを式(1)によって算出する。
【0035】
Cn={(Rn−Yn)+(Bn−Yn)}/(Yn+α) …(1)
但し、α:定数
ここで、式(1)で定義した色彩度Cnは本発明において導入した概念であり、その物理的な意味を図5の色差座標に基づいて説明する。この色差座標は、横軸を色差信号R−Yとし、縦軸を色差信号B−Yとした座標で、色差信号に対応する点Dn(Rn−Yn、Bn−Yn)は原点(0、0)を始点とし偏角をθとする色差ベクトルであらわされる。
【0036】
本座標系において、偏角θは色相を表し、座標の原点(0,0)は無色の状態を表している。従って、この色差ベクトルの大きさ、即ち点Dnと原点を結ぶ線分の大きさは物理量として色の濃さである彩度と明るさ(明度)を表す輝度との積に相当しているため、この大きさを用いれば色の濃さを識別できるものと考えられる。
【0037】
しかしながら、上述のようにこの色差ベクトルの大きさには明るさが含まれているため、色の濃さのみをこの指標によって判断することはできない。そこで、式(1)においては、色差ベクトルの大きさを輝度信号Yで除して基準化することによって、色の濃さを代表する指標としたものである。一般に、カラー画像を一定明度に正規化する変換を色度変換と呼ぶが、本発明における色彩度も色差を輝度信号によって基準化した値である。そこで、この指標を色度に相当する指標と呼ぶ。
【0038】
尚、上記指標は本来√Cnとして定義されるべきものであるが、本実施形態で色彩度を2乗した値として定義したのは指標の演算処理が高速にかつ簡便に行えるようにするためである。また、分母は本来の意味からすれば輝度信号Yの2乗であるべきものだが、これに微小オフセットα加えているのは、輝度信号Ynの値が小さい場合に、除算に起因して生じるノイズ成分による誤差の相対的増大の影響を低減し、また0除算エラーを回避するためである。このオフセットαの作用により輝度レベルが微小な場合(本来分子分母とも微小の不定に近づく場合)は色彩度が微小と見なされることになる。
【0039】
次に画像信号選択部124は、このようにして求めた第1原画像の色彩度C1と、第2原画像の色彩度C2とを各画素毎に比較する。そして、大きい色彩度をもつ原画像のコンポーネント信号を選択して新しく合成する画像のコンポーネント信号とする。即ち、C1>C2の場合(またはC1≫C2)にはS1を選択し、C1<C2の場合(またはC1≪C2)にはS2を選択する。また、C1=C2の場合(またはC1≒C2)には(S1+S2)/2を新たなコンポーネント信号とする。
【0040】
そして、画像生成部125がこの選択された画像信号に基づいて1つの合成画像を生成する。こうして得られた画素信号は、従来の撮像信号と同様に後段の回路で処理され、メモリカード110に記録あるいはLCD画像表示系111に表示される。このように、原画像の色成分に基づいて画素毎に色の濃さの大きい画像を選択するように構成しているため、輝度成分に基いた処理等に比して階調圧縮の影響を受けにくく、偽信号の生じない自然な画像を簡単な処理で得ることができる。
【0041】
尚、本実施形態では画素毎に色彩度を算出しているが、本発明はこの形態に限定されるものではなく、原画像を少なくとも1つの画素を含む領域に分割してその分割領域毎に指標を算出するように構成しても良い。
【0042】
次に、本発明に係る第2の実施の形態では、式(1)の代わりに指標化部123はコンポーネント信号Snから各画素毎に色彩度Cnを式(2)によって算出する。
【0043】
Cn={(Rn−Yn)+(Bn−Yn)}*(Ym+α) …(2)
但し、α:定数
ここで、mはnとは異なる数を意味する。即ち、n=1のときはm=2となり、n=2のときはm=1を意味する。
【0044】
いま、C1>C2の関係が成立したとすると、この関係式に式(2)を代入すると式(3)となる。
{(R1−Y1)+(B1−Y1)}*(Y2+α)
>{(R2−Y2)+(B2−Y2)}*(Y1+α) …(3)
そして、式(3)を変形すると式(4)となる。
{(R1−Y1)+(B1−Y1)}/(Y1+α)
>{(R2−Y2)+(B2−Y2)}/(Y2+α) …(4)
式(4)は、第1の実施形態の色彩度の大小を比較することと等価である。即ち、2つの値を比較する場合は、式(2)で定義された値を用いて大小を比較しても、式(1)で定義された値の大小を比較するのと同一の結果を得ることになる。
【0045】
従って、式(2)で定義される値を色彩度として用いることによって、除算の演算機能を用いる必要がなくなるため、演算の高速化と簡略化を図ることができる。
【0046】
次に、本発明に係る第3の実施の形態では、式(1)の代わりに指標化部123はコンポーネント信号Snから各画素毎に色彩度Cnを式(5)によって算出する。
【0047】
Cn={|Rn−Yn|+|Bn−Yn|}/(Yn+α) …(5)
但し、α:定数
式(5)で定義した指標は、式(1)と同様の考え方に基づくものであって、分子は上記の色差ベクトルの大きさに関連した値(ただし色差ベクトルの各成分の大きさの和)となり、より簡単な表現となっている。この式(5)を用いることによって、2乗の演算が不要となるため第1の実施形態に比して演算の高速化と簡略化を図ることができる。
【0048】
次に、本発明に係る第4の実施の形態では、式(1)の代わりに指標化部123はコンポーネント信号Snから各画素毎に色彩度Cnを式(6)によって算出する。
【0049】
Cn={|Rn−Yn|+|Bn−Yn|}*(Ym+α) …(6)
但し、α:定数、 nはmと異なる数を意味する。
【0050】
式(6)は、第3の実施形態で用いる指標を、第2の実施形態で述べた考え方に従って変形したものである。従って、この式(6)を用いることによって、二乗の演算と除算が不要となるため更に演算の高速化と簡略化を図ることが可能となる。
【0051】
尚、この2画素の比較、選択は画像信号の全画素に対して行っても良く、図3に示す共通輝度域以外の輝度域にある画素を対象として処理しても良い。
【0052】
また、上記各実施の形態では2つの画像を合成する場合の処理について説明したが、本発明はこの形態に限定されるものではなく、3つ以上の画像を用いるものであっても良い。例えば、露光レベルが大中小であるA、B、Cの3画像を用いて上記と同様の処理を行って色彩度Cnが最大のものを選択するように構成することができる。
【0053】
更に、本実施形態では輝度と色差信号を用いて色彩度を定義したが、この形態に限定されず、例えば、L空間で定義される所量に基づいて色の濃さを定義するものであっても良い。
【0054】
また、本発明は、回路などのハードウェアを用いて構成しても良く、マイクロコンピュータに処理プログラムを組み込んで実現するものであっても良い。
【0055】
【発明の効果】
以上説明したように本発明を適用すれば、Dレンジが拡大された自然な撮像画像を得ることのできる撮像装置を提供することができる。
【図面の簡単な説明】
【図1】本発明が適用される撮像装置の構成を示すブロック図。
【図2】一般的な撮像素子の光電変換特性を模式的に示す図。
【図3】2つの画像信号の光電変換特性を模式的に示す図。
【図4】画像合成に係る撮像装置の構成を示す図。
【図5】色彩度の物理的な意味を表す図。
【符号の説明】
105…CCD撮像素子
107…プリプロセス部
108…デジタルプロセス部
112…システムコントローラ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image pickup apparatus using an image pickup device such as a CCD, and more particularly to a technique for synthesizing a plurality of images for expanding a dynamic range.
[0002]
[Prior art]
In recent years, various attempts to obtain a captured image with a wide dynamic range by combining a plurality of images having different exposure amounts have been proposed.
[0003]
One of them is to generate an image of one wide dynamic range (hereinafter referred to as “D range”) from two original image data with different exposure amounts, and perform various image processing on the image and record it. A target image is generated. Here, the wide D range image generated in the intermediate stage is an image having a larger number of bits than the number of bits of the data of the original image so as to cover the entire range. In this way, there is a possibility that the best processing can be performed by performing various kinds of image processing using an image of a wide D range.
[0004]
Another method is to generate an image obtained by performing weighted synthesis by averaging two original image data for each pixel. This method has an advantage that it can be easily applied to an imaging apparatus because the arithmetic processing of the image is simple.
[0005]
Furthermore, one of the other methods is to replace the data in the area deviating from the range of the D range in the luminance data of the original image on one side with the data of the other original image. This method has an advantage that it can be easily applied to the imaging apparatus because the image calculation process is simple as in the above method.
[0006]
[Problems to be solved by the invention]
However, the method of creating a wide D-range image at an intermediate stage has a problem that the creation and subsequent processing are complicated, and a large memory area is required. Considering needs such as real-time processing, miniaturization, and cost reduction, it is not preferable.
[0007]
Even if image information of a wide D range can be obtained temporarily, if signal processing such as luminance compression is performed on an finally generated image having a narrow range, the image quality will eventually deteriorate. Become. Therefore, it cannot be said that a signal processing technique capable of obtaining sufficient image quality has been established from this viewpoint.
[0008]
In addition, in the averaging process, the D range is expanded but the gradation is compressed, and the contrast is lowered when viewed as an image as it is. On the other hand, when some kind of image correction is performed, there is a case where the quantization noise is increased and the image quality is deteriorated.
[0009]
Further, in the deviation data replacement process, an image to be adopted is switched depending on the luminance information, and therefore an unnatural image may be obtained depending on the luminance distribution of the subject image or the like. For example, a high-frequency and high-contrast image of an object such as a stripe pattern on a resolution chart will produce a false signal image with an inverted pattern.
[0010]
The present invention has been made in view of such circumstances, and provides an imaging apparatus, an imaging method, and a program thereof that can be easily applied to an imaging apparatus and can obtain a natural captured image with an expanded D range. The purpose is to do.
[0011]
[Means for Solving the Problems]
The present invention for solving the above-described problem is an index corresponding to chromaticity for each divided region formed of at least one pixel by processing each of the image signals of a plurality of original images obtained by giving different exposure amounts. Indexing means for calculating the image, selection means for selecting one image signal from among the image signals of the plurality of original images for each divided region based on the index, and generating one composite image signal from the selected image signal And an image generating unit that performs image generation.
[0012]
According to the present invention, in the imaging device according to the above-described invention, the selection unit compares each index for each divided region to determine an index having the largest absolute value, and determines an image signal of the original image that provides the index. The imaging device to be selected.
[0013]
In the imaging apparatus according to the invention described above, the indexing unit corresponds to chromaticity from the following equation using the luminance signal Y, the color difference signals RY and BY, and the predetermined value α. It is an imaging device that calculates an index C.
[0014]
C = {(R−Y) 2 + (B−Y) 2 } / (Y + α) 2
Further, according to the present invention, in the imaging device according to the above-described invention, the indexing unit includes a luminance signal Y of one image, color difference signals RY and BY, a luminance signal Y * of another image to be compared, a predetermined value This is an imaging device that calculates an index C corresponding to chromaticity from the following equation using the value α.
[0015]
C = {(R−Y) 2 + (B−Y) 2 } * (Y * + α) 2
Further, according to the present invention, in the imaging device according to the above-described invention, the indexing unit includes a luminance signal Y of one image, color difference signals RY and BY, a luminance signal Y * of another image to be compared, a predetermined value An index C corresponding to chromaticity is calculated from the following equation using the value α of the imaging device.
[0016]
C = {| R−Y | + | B−Y |} * (Y * + α)
Further, the present invention processes each of a plurality of image signals obtained by giving different exposure amounts, calculates an index corresponding to chromaticity for each divided region composed of at least one pixel, and based on the index In this imaging method, one image signal is selected from image signals of a plurality of original images for each divided region, and one composite image signal is generated from the selected image signal.
[0017]
The present invention also processes each of the image signals of a plurality of original images obtained by giving different exposure amounts to a computer, and calculates an index corresponding to chromaticity for each divided area composed of at least one pixel. A procedure for selecting one image signal from among a plurality of image signals of original images for each divided region based on an index, and a procedure for generating one composite image signal from the selected image signal It is a program.
[0018]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a block diagram illustrating a configuration of an imaging apparatus to which the present invention is applied.
[0019]
The imaging apparatus includes a lens system 101 composed of various lenses, a lens driving mechanism 102 for driving the lens system 101, an exposure control mechanism 103 for controlling a diaphragm of the lens system 101, a mechanical shutter 104, a CCD imaging device 105, A CCD driver 106 for driving the CCD image sensor 105, a preprocessing unit 107 including an A / D converter, a digital processing unit 108 for performing matrix conversion processing and other digital processing, a card interface 109, a memory card 110, An LCD image display system 111 is provided.
[0020]
Further, the imaging apparatus controls a system controller 112 for comprehensively controlling each unit, an operation switch system 113 including various SWs, an operation display system 114 for displaying an operation state and a mode state, and a lens driving mechanism. A lens driver 115 for light emission, a strobe 116 as light emitting means, an exposure control driver 117 for controlling the strobe 116, and a nonvolatile memory (EEPROM) for storing various setting information.
[0021]
In this image pickup apparatus, the system controller 112 performs all the control in an integrated manner. In particular, exposure (charge accumulation) is controlled by controlling the drive of the CCD image pickup device 105 by the exposure control mechanism 103, the mechanical shutter 104, and the CCD driver 106. The signal is read out, taken into the digital process unit 108 via the pre-processing unit 107, and subjected to various signal processing, and then recorded in the memory card 110 via the card interface 109.
[0022]
Next, a processing method for enlarging the D range using the imaging apparatus will be described.
[0023]
First, the system controller 112 controls the drive of the CCD image sensor 105 by the exposure control mechanism 103, the mechanical shutter 104, and the CCD driver 106, and obtains a first image signal taken under the first exposure condition from the CCD image sensor 115. Next, the second image signal photographed under the second exposure condition is read out from the CCD image sensor 115.
[0024]
Here, it is necessary to read out the first and second image signals while minimizing the time difference between them in order to prevent the “processing failure” that occurs when the subject moves during the photographing of the two images. It is. This can be realized, for example, by using a driving method described in Japanese Patent Application No. 2000-077136 in which a progressive scan (full frame readout) compatible CCD and a mechanical shutter are combined.
[0025]
By the way, the saturation level of the CCD image pickup device 105 is a limit for the high luminance side signal of the image signal read from the CCD image pickup device 105, and the low luminance side signal is noise of the image pickup device output in a state where it is incorporated in the image pickup apparatus. Since the level is limited, an imaging range exceeding at least these levels cannot be obtained.
[0026]
FIG. 2 is a diagram schematically illustrating photoelectric conversion characteristics of a general image sensor.
[0027]
In this figure, the horizontal axis indicates the incident light amount, and the vertical axis indicates the signal level logarithmically. In the drawing, the limit level of the signal on the high luminance side is indicated by UL, and the limit level of the signal on the low luminance side is indicated by LL. UL is a value that substantially corresponds to the saturation level of the image sensor, while LL is not uniquely defined, unlike NL that is a noise level. For example, a predetermined S / N ratio that an image can withstand viewing is obtained. It is determined as a level to have. Even if LL is not the above-mentioned standard, visual evaluation may be performed to determine a level “the level below this is blackout”, and the limit level may be set to LL.
[0028]
The effective luminance range is between UL and LL determined in this way, and the difference DR (= UL−LL) on the logarithmic axis is the imaging range. This DR varies depending on the designed structure of the image pickup apparatus, but in the case of a normal image pickup apparatus, 5 to 6 EV (30 to 36 dB) is often used, and the image pickup apparatus of the present embodiment is also of this class. It has a range.
[0029]
Therefore, the photoelectric conversion characteristics of the two image signals read from the CCD image sensor 105 are schematically shown in FIG. In this figure, the first image signal is imaged with a short exposure time, and the second image signal is a signal imaged with a long exposure time. For this reason, the photoelectric conversion characteristics of the two image signals have a relationship of moving in the horizontal axis direction by an amount corresponding to the difference in exposure time. As a result, these two image signals include image signals regarding the luminance of the subject in the enlarged luminance range even in the imaging apparatus having the same imaging range DR.
[0030]
In the present invention, the shift amount of the exposure time can be arbitrarily selected, and the exposure level may be changed by a parameter other than the exposure time, such as a diaphragm.
[0031]
Next, a method for obtaining one composite image from two image signals having different exposure levels will be described.
[0032]
FIG. 4 is a diagram illustrating a configuration of an imaging apparatus related to image synthesis. The image composition processing is executed by the image generation processing unit 122 provided in the system controller 112 exchanging signals with the matrix conversion processing unit 120 provided in the digital process unit 108. The image generation processing unit 122 includes an indexing unit 123, an image signal selection unit 124, and an image generation unit 125.
[0033]
First, the image composition processing unit 122 inputs a dot sequential signal (R, G, B) that is a color signal of the first and second image signals to the digital processing unit 108. Then, the matrix conversion processing unit 120 is operated to generate a synchronized component signal. Here, the component signal of the first original image is S1, and the component signal of the second original image is S2. The specific configuration of the representative component signal Sn (n = 1, 2 is shown) is a luminance signal (Yn) and a color difference signal (Rn−Yn, Bn−Yn). In the following embodiments, An embodiment using the luminance signal (Yn) and the color difference signals (Rn−Yn, Bn−Yn) will be described.
[0034]
In the first embodiment according to the present invention, the indexing unit 123 calculates the chromaticity Cn, which is an index corresponding to chromaticity, for each pixel from the component signal Sn obtained by the above-described procedure, using Expression (1). .
[0035]
Cn = {(Rn−Yn) 2 + (Bn−Yn) 2 } / (Yn + α) 2 (1)
Here, α: constant Here, the color saturation Cn defined by the equation (1) is a concept introduced in the present invention, and its physical meaning will be described based on the color difference coordinates of FIG. The color difference coordinates are coordinates having the horizontal axis as the color difference signal RY and the vertical axis as the color difference signal BY, and the point Dn (Rn-Yn, Bn-Yn) corresponding to the color difference signal is the origin (0, 0). ) As a starting point and a color difference vector with a declination of θ.
[0036]
In this coordinate system, the declination θ represents the hue, and the coordinate origin (0, 0) represents a colorless state. Therefore, the size of the color difference vector, that is, the size of the line segment connecting the point Dn and the origin corresponds to the product of the saturation representing the color density and the luminance representing brightness (lightness) as a physical quantity. If this size is used, it is considered that the color intensity can be identified.
[0037]
However, as described above, brightness is included in the magnitude of the color difference vector, so that it is not possible to determine only the color density using this index. Therefore, in the expression (1), the magnitude of the color difference vector is divided by the luminance signal Y and is normalized to be used as an index representing the color density. In general, a conversion for normalizing a color image to a constant lightness is called chromaticity conversion. The color saturation in the present invention is also a value obtained by standardizing a color difference with a luminance signal. Therefore, this index is called an index corresponding to chromaticity.
[0038]
The index should be originally defined as √Cn, but the reason why the index is defined as a value obtained by squaring the color saturation in this embodiment is to enable the calculation process of the index to be performed quickly and easily. is there. In addition, the denominator should be the square of the luminance signal Y in its original meaning. However, the small offset α is added to this when the value of the luminance signal Yn is small. This is because the influence of the relative increase in error due to the components is reduced, and a zero division error is avoided. When the luminance level is very small due to the action of the offset α (when the numerator denominator is close to a very small indefinite state), the color saturation is regarded as small.
[0039]
Next, the image signal selection unit 124 compares the color saturation C1 of the first original image thus obtained with the color saturation C2 of the second original image for each pixel. Then, the component signal of the original image having a large color saturation is selected and used as the component signal of the newly synthesized image. That is, S1 is selected when C1> C2 (or C1 >> C2), and S2 is selected when C1 <C2 (or C1 << C2). When C1 = C2 (or C1≈C2), (S1 + S2) / 2 is set as a new component signal.
[0040]
Then, the image generation unit 125 generates one composite image based on the selected image signal. The pixel signal thus obtained is processed by a subsequent circuit in the same manner as a conventional imaging signal, and is recorded on the memory card 110 or displayed on the LCD image display system 111. As described above, since an image having a large color density is selected for each pixel based on the color component of the original image, the influence of gradation compression is reduced compared to processing based on the luminance component. A natural image that is not easily received and does not generate a false signal can be obtained by simple processing.
[0041]
In the present embodiment, the color saturation is calculated for each pixel. However, the present invention is not limited to this mode, and the original image is divided into regions including at least one pixel and is divided into the divided regions. The index may be calculated.
[0042]
Next, in the second embodiment according to the present invention, the indexing unit 123 calculates the color saturation Cn for each pixel from the component signal Sn according to the equation (2) instead of the equation (1).
[0043]
Cn = {(Rn−Yn) 2 + (Bn−Yn) 2 } * (Ym + α) 2 (2)
Where α is a constant, where m is a number different from n. That is, when n = 1, m = 2, and when n = 2, m = 1.
[0044]
Now, assuming that the relationship of C1> C2 is established, substituting equation (2) into this relationship equation yields equation (3).
{(R1-Y1) 2 + (B1-Y1) 2 } * (Y2 + α) 2
> {(R2-Y2) 2 + (B2-Y2) 2 } * (Y1 + α) 2 (3)
And if Formula (3) is deformed, Formula (4) is obtained.
{(R1-Y1) 2 + (B1-Y1) 2 } / (Y1 + α) 2
> {(R2-Y2) 2 + (B2-Y2) 2 } / (Y2 + α) 2 (4)
Formula (4) is equivalent to comparing the magnitudes of the color saturations of the first embodiment. That is, when comparing two values, even if the magnitudes are compared using the values defined in Equation (2), the same result as comparing the values defined in Equation (1) is obtained. Will get.
[0045]
Therefore, by using the value defined by the expression (2) as the color saturation, it is not necessary to use the division calculation function, so that the calculation can be speeded up and simplified.
[0046]
Next, in the third embodiment according to the present invention, instead of Equation (1), the indexing unit 123 calculates the color saturation Cn for each pixel from the component signal Sn by Equation (5).
[0047]
Cn = {| Rn−Yn | + | Bn−Yn |} / (Yn + α) (5)
However, α: The index defined by the constant equation (5) is based on the same concept as in the equation (1), and the numerator is a value related to the size of the color difference vector (however, each component of the color difference vector) Is the sum of the sizes of By using this equation (5), the calculation of the square is not necessary, so that the calculation can be speeded up and simplified as compared with the first embodiment.
[0048]
Next, in the fourth embodiment according to the present invention, instead of Equation (1), the indexing unit 123 calculates the color saturation Cn for each pixel from the component signal Sn by Equation (6).
[0049]
Cn = {| Rn−Yn | + | Bn−Yn |} * (Ym + α) (6)
Where α is a constant, and n is a number different from m.
[0050]
Expression (6) is obtained by modifying the index used in the third embodiment according to the concept described in the second embodiment. Therefore, by using this formula (6), the calculation and division of the square are not required, and the calculation can be further speeded up and simplified.
[0051]
Note that the comparison and selection of the two pixels may be performed for all the pixels of the image signal, or may be processed for pixels in a luminance region other than the common luminance region shown in FIG.
[0052]
In the above-described embodiments, the processing for combining two images has been described. However, the present invention is not limited to this embodiment, and three or more images may be used. For example, it is possible to perform a process similar to the above using three images A, B, and C having exposure levels of large, medium, and small, and select the one having the maximum color saturation Cn.
[0053]
Furthermore, in the present embodiment, the color saturation is defined using the luminance and the color difference signal. However, the present invention is not limited to this form. For example, the color intensity is determined based on the amount defined in the L * a * b * space. It may be defined.
[0054]
The present invention may be configured using hardware such as a circuit, or may be realized by incorporating a processing program into a microcomputer.
[0055]
【The invention's effect】
As described above, by applying the present invention, it is possible to provide an imaging apparatus capable of obtaining a natural captured image with an expanded D range.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of an imaging apparatus to which the present invention is applied.
FIG. 2 is a diagram schematically illustrating photoelectric conversion characteristics of a general image sensor.
FIG. 3 is a diagram schematically illustrating photoelectric conversion characteristics of two image signals.
FIG. 4 is a diagram illustrating a configuration of an imaging apparatus related to image synthesis.
FIG. 5 is a diagram showing the physical meaning of color saturation.
[Explanation of symbols]
105 ... CCD image sensor 107 ... pre-process unit 108 ... digital process unit 112 ... system controller

Claims (7)

異なる露光量を与えて得られる複数の原画像の画像信号のそれぞれについて処理して、少なくとも1の画素で構成される分割領域毎に色度に相当する指標を算出する指標化手段と、
前記指標に基づいて前記分割領域毎に前記複数の原画像の画像信号の内から1の画像信号を選択する選択手段と、
前記選択された画像信号から一つの合成画像信号を生成する画像生成手段と
を備えたことを特徴とする撮像装置。
Indexing means for processing each of the image signals of the plurality of original images obtained by giving different exposure amounts, and calculating an index corresponding to chromaticity for each divided region composed of at least one pixel;
Selection means for selecting one image signal from among the image signals of the plurality of original images for each of the divided regions based on the index;
An image pickup apparatus comprising: image generation means for generating one composite image signal from the selected image signal.
前記選択手段は、
前記分割領域毎に前記それぞれの指標を比較して最も絶対値の大きい指標を決定し、該指標を与える前記原画像の画像信号を選択することを特徴とする請求項1記載の撮像装置。
The selection means includes
2. The imaging apparatus according to claim 1, wherein the index having the largest absolute value is determined by comparing the respective indexes for each of the divided regions, and the image signal of the original image that gives the index is selected.
前記指標化手段は、
輝度信号Y、色差信号R−Y及びB−Y、所定の値αを用いて、
下記式から色度に相当する指標Cを算出すること
を特徴とする請求項1または2に記載の撮像装置。
C={(R−Y)+(B−Y)}/(Y+α)
The indexing means includes
Using the luminance signal Y, the color difference signals RY and BY, and a predetermined value α,
The imaging apparatus according to claim 1, wherein an index C corresponding to chromaticity is calculated from the following equation.
C = {(R−Y) 2 + (B−Y) 2 } / (Y + α) 2
前記指標化手段は、
1つの画像の輝度信号Y、色差信号R−Y及びB−Y、比較する他の画像の輝度信号Y、所定の値αを用いて、
下記式から色度に相当する指標Cを算出すること
を特徴とする請求項1または2に記載の撮像装置。
C={(R−Y)+(B−Y)}*(Y+α)
The indexing means includes
Using the luminance signal Y of one image, the color difference signals RY and BY, the luminance signal Y * of another image to be compared, and a predetermined value α,
The imaging apparatus according to claim 1, wherein an index C corresponding to chromaticity is calculated from the following equation.
C = {(R−Y) 2 + (B−Y) 2 } * (Y * + α) 2
前記指標化手段は、
1つの画像の輝度信号Y、色差信号R−Y及びB−Y、比較する他の画像の輝度信号Y、所定の値αを用いて、
下記式から色度に相当する指標Cを算出すること
を特徴とする請求項1または2に記載の撮像装置。
C={|R−Y|+|B−Y|}*(Y+α)
The indexing means includes
Using the luminance signal Y of one image, the color difference signals RY and BY, the luminance signal Y * of another image to be compared, and a predetermined value α,
The imaging apparatus according to claim 1, wherein an index C corresponding to chromaticity is calculated from the following equation.
C = {| R−Y | + | B−Y |} * (Y * + α)
異なる露光量を与えて得られる複数の原画像の画像信号のそれぞれについて処理して、少なくとも1の画素で構成される分割領域毎に色度に相当する指標を算出し、
前記指標に基づいて前記分割領域毎に前記複数の原画像の画像信号の内から1の画像信号を選択し、
前記選択された画像信号から一つの合成画像信号を生成すること
を特徴とする撮像方法。
Process each of the image signals of the plurality of original images obtained by giving different exposure amounts, calculate an index corresponding to chromaticity for each divided region composed of at least one pixel,
One image signal is selected from the image signals of the plurality of original images for each of the divided regions based on the index,
An imaging method, wherein one composite image signal is generated from the selected image signal.
撮像装置の処理プログラムにおいて、
コンピュータに、
異なる露光量を与えて得られる複数の原画像の画像信号のそれぞれについて処理して、少なくとも1の画素で構成される分割領域毎に色度に相当する指標を算出する手順、
前記指標に基づいて前記分割領域毎に前記複数の原画像の画像信号の内から1の画像信号を選択する手順、
前記選択された画像信号から一つの合成画像信号を生成する手順、
を実行させるためのプログラム。
In the processing program of the imaging device,
On the computer,
A procedure for processing each of the image signals of the plurality of original images obtained by giving different exposure amounts, and calculating an index corresponding to chromaticity for each divided region composed of at least one pixel,
A procedure for selecting one image signal from among the image signals of the plurality of original images for each of the divided regions based on the index,
Generating a composite image signal from the selected image signal;
A program for running
JP2002119302A 2002-04-22 2002-04-22 Imaging apparatus, imaging method, and program thereof Expired - Fee Related JP3914810B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002119302A JP3914810B2 (en) 2002-04-22 2002-04-22 Imaging apparatus, imaging method, and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002119302A JP3914810B2 (en) 2002-04-22 2002-04-22 Imaging apparatus, imaging method, and program thereof

Publications (2)

Publication Number Publication Date
JP2003319404A JP2003319404A (en) 2003-11-07
JP3914810B2 true JP3914810B2 (en) 2007-05-16

Family

ID=29535906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002119302A Expired - Fee Related JP3914810B2 (en) 2002-04-22 2002-04-22 Imaging apparatus, imaging method, and program thereof

Country Status (1)

Country Link
JP (1) JP3914810B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9294695B2 (en) 2011-11-01 2016-03-22 Clarion Co., Ltd. Image processing apparatus, image pickup apparatus, and storage medium for generating a color image

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009224971A (en) * 2008-03-14 2009-10-01 Omron Corp Image processing device
WO2012032707A1 (en) * 2010-09-07 2012-03-15 コニカミノルタオプト株式会社 Image capture device and false color alleviation method
JP5990004B2 (en) * 2012-02-08 2016-09-07 キヤノン株式会社 Imaging device
JP6213061B2 (en) * 2013-08-28 2017-10-18 株式会社リコー Imaging apparatus, image processing apparatus, and vehicle

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9294695B2 (en) 2011-11-01 2016-03-22 Clarion Co., Ltd. Image processing apparatus, image pickup apparatus, and storage medium for generating a color image

Also Published As

Publication number Publication date
JP2003319404A (en) 2003-11-07

Similar Documents

Publication Publication Date Title
CN102724400B (en) Image processing equipment and control method thereof
US7349119B2 (en) Image storage and control device for camera to generate synthesized image with wide dynamic range
US8525904B2 (en) Image processing device, image processing method, and capturing device
JP5767485B2 (en) Image processing apparatus and control method
JP4372747B2 (en) Luminance level conversion device, luminance level conversion method, solid-state imaging device, luminance level conversion program, and recording medium
US7406213B2 (en) Image processing apparatus and method, and computer program
JP5445363B2 (en) Image processing apparatus, image processing method, and image processing program
JP5672796B2 (en) Image processing apparatus and image processing method
US20050008254A1 (en) Image generation from plurality of images
JP4806476B2 (en) Image processing apparatus, image generation system, method, and program
US8373769B2 (en) Imaging apparatus, imaging processing method and recording medium
JP2004517384A (en) Dynamic image correction and image system
JP4066803B2 (en) Image processing apparatus, image processing program, image processing method, and electronic camera
US20090027519A1 (en) Noise reduction device, noise reduction method and video camera
JP5411786B2 (en) Image capturing apparatus and image integration program
US7346210B2 (en) Image processing device and image processing program for determining similarity factors of pixels
JP2013162347A (en) Image processor, image processing method, program, and device
JP2007180851A (en) Gray scale transformation device, program and method for raw image, and electronic camera
JP3914810B2 (en) Imaging apparatus, imaging method, and program thereof
JP4014436B2 (en) Imaging device
KR101493695B1 (en) Image processing apparatus, method for processing image, and recording medium storing program to implement the method
JP4936222B2 (en) Motion vector collation device, image composition device, and program
JP2007306083A (en) Imaging apparatus and signal processing apparatus
KR101396353B1 (en) Digital photographing apparatus, method for controlling the same, and recording medium storing program to implement the method
JP2003322902A (en) Imaging unit and method for displaying luminance distribution chart

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070205

R151 Written notification of patent or utility model registration

Ref document number: 3914810

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110209

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110209

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120209

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120209

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130209

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140209

Year of fee payment: 7

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees