JP2004254151A - Imaging unit and imaging method - Google Patents
Imaging unit and imaging method Download PDFInfo
- Publication number
- JP2004254151A JP2004254151A JP2003043608A JP2003043608A JP2004254151A JP 2004254151 A JP2004254151 A JP 2004254151A JP 2003043608 A JP2003043608 A JP 2003043608A JP 2003043608 A JP2003043608 A JP 2003043608A JP 2004254151 A JP2004254151 A JP 2004254151A
- Authority
- JP
- Japan
- Prior art keywords
- image signal
- image
- exposure amount
- determination
- ratio
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、撮像装置に関し、特に広いダイナミックレンジの画像を得ることのできる撮像装置に関する。
【0002】
【従来の技術】
従来、デジタルスチルカメラやビデオカメラにおいては、異なる露光量で2回の撮像を行い、該2回の撮像から得られる2種類の画像信号を信号処理して、広いダイナミックレンジを有する画像を得ることが知られている。上記の異なる露光量の撮像とは、例えば、短い時間間隔で、長いシャッタ時間(ロングシャッタ)と短いシャッタ時間(ショートシャッタ)との2回の撮像を行うことである。シャッタ時間の切り替えは、例えば、電子シャッタ単独、あるいは、メカシャッタを併用して行われている。(例えば、特許文献1参照。)
【0003】
【特許文献1】特開平11−75118号公報
図9は、従来の撮像装置51の構成例を示すブロック図である。撮像装置51は、説明の便宜上、白黒のエリアセンサを使用している。
【0004】
撮像装置51は、少なくとも、CCDイメージセンサ52、アナログデジタルコンバータ(ADC)53、スイッチ54、メモリ55、及び画像合成部56を含んで構成される。
【0005】
CCDイメージセンサ52は、ロングシャッタとショートシャッタによる撮像を順次行い、ロングシャッタによる画像信号SLとショートシャッタによる画像信号SSを、順番に出力する。
【0006】
ADC53は、CCDイメージセンサ52から出力されるアナログ形式の画像信号SL及び画像信号SSを、デジタル形式の画像信号にそれぞれ変換する。デジタル形式に変換された画像信号SL及び画像信号SSは、スイッチ54により、振り分けられる。先に撮像される画像信号SLは、メモリ55に一時的に記憶され、その後、メモリ55を介ささない画像信号SSと同時に、後段の画像合成部56に送られる。
【0007】
画像合成部56では、下記の式(A)に従い、入力される画像信号SL及び画像信号SSを合成して、合成画像信号SCとして出力する。
【0008】
ただし、SC(x,y)は、画素位置(x,y)における合成画像信号SC、SL(x,y)は、画素位置(x,y)におけるロングシャッタの画像信号SL、SS(x,y)は、画素位置(x,y)におけるショートシャッタの画像信号SS、SSATは、CCDイメージセンサ52の飽和信号レベル、Kは、ロングシャッタとショートシャッタの感度比(ロングシャッタ/ショートシャッタ)である。
【0009】
上記の式(A)から、明らかなように、ショートシャッタの画像信号SSは、感度比Kを乗算することにより、ロングシャッタの画像信号SLと同様の信号レベルにしている。
【0010】
この画像合成部56では、上記の式(A)により、画素位置(x,y)におけるロングシャッタの画像信号SL(x,y)が、飽和信号レベルSSAT未満である時には、画素位置(x,y)における合成画像信号SC(x,y)として、画像信号SL(x,y)を用い、飽和信号レベルSSAT以上である時には、画像信号SS(x,y)を用いている。すなわち、ロングシャッタの画像信号SLの飽和信号レベルSSATを境界にして、ロングシャッタの画像信号SLとショートシャッタの画像信号SSとを切り替えて用いるように構成されている。
【0011】
【発明が解決しようとする課題】
従来の撮像装置51では、被写体が動いている場合に、暗い部分と明るい部分の境界付近で、不自然な画像となる場合がある。これは、主に暗い部分を撮影するための大きい露光量(ロングシャッタ)のシャッタ期間と、主に明るい部分を撮影するための小さい露光量(ショートシャッタ)のシャッタ期間の時間がずれている為と考えられる。
【0012】
図10は、白いストライプをロングシャッタ、ショートシャッタの順で撮像した時の1水平ラインの画像信号を表す図である。図10(A)は、ロングシャッタの画像信号SLを表し、図10(B)は、ショートシャッタの画像信号SSを表し、図10(C)は、図10(A)と図10(B)の上述の式(A)を用いて画像信号を合成することにより得られる合成画像信号SCを表す。なお、図中、縦軸は、信号レベルを表し、横軸は、水平方向の画素位置を表す。
【0013】
ロングシャッタの画像信号SLは、シャッタ期間が長いので、移動する被写体を撮像する場合は、図に示すように、白いストライプと背景の境界線が、斜めになる。また、点線で示す飽和信号レベルSSAT以上の部分は、出力されないので、実線で示したような形となる。
【0014】
ショートシャッタは、ロングシャッタの後に撮像されるので、ショートシャッタの画像信号SSは、ロングシャッタの画像信号SLよりも、水平方向に移動する。これは、シャッタ期間開始時の時間差分だけ、白いストライプが横方向に移動しているからである。
【0015】
以上の、2つの画像信号SL及び画像信号SSを上述の式(A)を用いて合成して得られる画像信号が、合成画像信号SCである。この時、上述したように、ロングシャッタの画像信号SLの飽和信号レベルSSATを境界にして、ロングシャッタの画像信号SLとショートシャッタの画像信号SSとを切り替えるので、図10(C)に示すように、本来の白いストライプから離れた場所に、濃く太い白線が現れる。これは、被写体が移動しているので、ロングシャッタの画像信号SLが飽和信号レベルSSATになる水平ライン上の位置とショートシャッタの画像信号SSの水平ライン上の最端部の位置にずれが生じるためである。
【0016】
本発明の目的は、良質で広いダイナミックレンジを持つ撮像装置を提供することである。
【0017】
【課題を解決するための手段】
本発明の一観点によれば、撮像装置は、大きい露光量と小さい露光量で被写体を撮像し、大きい露光量の撮像による第1の画像信号と、前記第1の画像信号と同一画素位置における小さい露光量の撮像による第2の画像信号を出力する撮像手段と、前記第1の画像信号と前記第2の画像信号に基づき、動いている被写体領域と前記第1の画像信号の飽和領域とを判定し判定信号を出力する判定手段と、前記判定信号に基づき、前記第1の画像信号と前記第2の画像信号との占める比率を変化させて画像合成を行う画像合成手段とを有する。
【0018】
【発明の実施の形態】
図1は、本発明の第1の実施例による撮像装置1の構成例を示すブロック図である。本実施例の撮像装置1は、白黒のエリアセンサを使用している。
【0019】
撮像装置1は、少なくとも、CCDイメージセンサ2、アナログデジタルコンバータ(ADC)3、スイッチ4、メモリ5、画像合成部6及び判定部7を含んで構成される。
【0020】
CCDイメージセンサ2は、例えば、水平(x)及び垂直(y)方向に配列される多数の光電変換素子(画素)及び垂直電荷転送路(VCCD)を含む受光領域、水平電荷転送路(HCCD)等を含んで構成されるCCD型固体撮像素子である。CCDイメージセンサ2は、大きい露光量(ロングシャッタ)と小さい露光量(ショートシャッタ)による撮像を順次行い、ロングシャッタによる1枚分(1フレーム分)の画像信号SLとショートシャッタによる1枚分(1フレーム分)の画像信号SSを、順番に出力する。
【0021】
ADC3は、CCDイメージセンサ2から出力されるアナログ形式の画像信号SL及び画像信号SSを、デジタル形式の画像信号にそれぞれ変換する。デジタル形式に変換された画像信号SL及び画像信号SSは、スイッチ4により、振り分けられる。先に撮像される画像信号SLは、メモリ5に一時的に記憶され、その後、メモリ5を介ささない画像信号SSと同時に、後段の画像合成部6に送られる。
【0022】
判定部7は、被写体の移動及び露光量の飽和を検出して、判定信号を画像合成部6に供給する。被写体の移動の検出は、画像信号SLと画像信号SSとの比Rと感度比Kを比較することにより行われる。
【0023】
画像合成部6は、判定部7から供給される判定信号に基づき、画像信号SL及び画像信号SSを合成(若しくはいずれか一方を選択的に使用)して、合成画像信号SCを生成して出力する。なお、画像合成部6及び判定部7における処理の詳細は、図2及び図3を参照して後述する。
【0024】
図2は、本発明の実施例による固体撮像処理の撮像処理を表すフローチャートである。
【0025】
ステップSA1では、ユーザによる撮像処理の開始指示(例えば、シャッタ操作)により、撮像処理を開始する。
【0026】
ステップSA2では、図1のCCDセンサー2において、大きい露光量による撮像を行い、該大きい露光量による撮像で得られた画像信号SLを、ADC3に出力する。
【0027】
ステップSA3では、図1のADC3において、画像信号SLをアナログ形式の信号電荷から、デジタル形式の画像データに変換する。
【0028】
ステップSA4では、図1のスイッチ4をメモリ5側に切り替え、画像信号SLをADC3から、メモリ5に転送して、一時的に記憶する。
【0029】
ステップSA5では、図1のCCDセンサー2において、小さい露光量による撮像を行い、該小さい露光量による撮像で得られた画像信号SSを、ADC3に出力する。
【0030】
ステップSA6では、図1のADC3において、画像信号SSをアナログ形式の信号電荷から、デジタル形式の画像データに変換する。
【0031】
ステップSA7では、スイッチ4を画像合成部6側に切り替え、画像信号SSを判定部7と画像合成部6に供給すると同時に、メモリ5に一時記憶された画像信号SLを判定部7と画像合成部6に供給する。
【0032】
ステップSA8では、後述する判定・合成処理を行う。判定・合成処理では、判定部7から供給される判定信号に基づき、画像信号SL及び画像信号SSを合成(若しくはいずれか一方を選択的に使用)して、合成画像信号SCを生成して出力する。
【0033】
ステップSA9では、合成画像信号SCを出力して、ステップSA10で撮像処理を終了する。
【0034】
図3は、本発明の第1の実施例による判定・合成処理を表すフローチャートである。判定・合成処理は、被写体の移動及び露光量の飽和を検出して、該検出結果に基づき、合成画像信号SCを生成する。なお、この判定・合成処理は、全ての画素位置の画像信号に対して行われる。
【0035】
ステップSB1では、判定・合成処理を開始する。
【0036】
ステップSB2では、画素位置(x,y)が飽和領域であるか否かを判定する。ここでは、以下の式(A−1)又は(A−2)のいずれかを満たす場合に、画像信号が飽和信号レベルを超えていると判定される。
【0037】
SL(x,y)≧SSAT …(A−1)
KSS(x,y)≧SSAT …(A−2)
ただし、SSATは、CCDセンサー2の飽和信号レベル、Kは、大きい露光量(長いシャッタ時間)/小さい露光量(短いシャッタ時間)から求められる感度比である。なお、小さい露光量の画像信号SS(x,y)を感度比Kで乗算するのは、大きい露光量の画像信号SL(x,y)と信号レベルのスケールを合わせるためである。
【0038】
画素位置(x,y)の画像信号が飽和レベルを超えている場合は、画素位置(x,y)が飽和領域であると判定して、YESの矢印で示すステップSB5に進む。飽和信号レベルを超えていない場合は、飽和領域ではないと判定して、NOの矢印で示すステップSB3に進む。
【0039】
ステップSB3では、下記式(B)に基づき、画素位置(x,y)における画像信号SL(x,y)及び画像信号SS(x,y)の信号比R(x,y)を求める。
【0040】
R(x,y)=SL(x,y)/SS(x,y) …(B)
ステップSB4では、画素位置(x,y)が、移動被写体領域であるか否かを判定する。具体的には、ステップSB3で求めた信号比R(x,y)を下記式(C1)及び(C2)を用いて、予め設定される上限感度比KMAX及び下限感度比KMINと比較する。信号比R(x,y)が、上限感度比KMAXより大きい(式(C−1)を満たす)場合、若しくは、下限感度比KMINより小さい(式(C−2)を満たす)場合は、画素位置(x,y)が、移動被写体領域である(移動被写体である)と判定して、YESの矢印で示すステップSB5に進む。それ以外の場合は、移動被写体領域でない(移動被写体ではない)と判断して、NOの矢印で示すステップSB6に進む。
【0041】
R(x,y)>KMAX …(C−1)
R(x,y)<KMIN …(C−2)
上限感度比KMAX及び下限感度比KMINは、感度比Kに応じて、予め設定される値である。例えば、感度比Kが、「8」である場合は、上限感度比KMAXを「10」とし、下限感度比KMINを「6」と設定する等、感度比Kの上下に任意に設定できる。上限感度比KMAX及び下限感度比KMINを感度比Kに近い値に設定すれば、後述の図4に示す合成信号に現れる白線は、薄く、細い白線となり、より目立たなくなる。
【0042】
ステップSB5では、画素位置(x,y)の合成画像信号SC(x,y)として、感度比Kで乗算した画素位置(x,y)の小さい露光量の画像信号KSS(x,y)を採用する。その後、ステップSB7に進み、判定・合成処理を終了する。つまり、ステップSB2で画像信号の露光量が飽和に達したと判断された場合と、ステップSB4で、被写体が移動していると判断された場合は、小さい露光量の画像信号KSSを採用する。こうすることにより、例えば、露光量は飽和していないものの、移動被写体領域では、即座に小さい露光量の画像信号KSSに切り替えることができるので、大きい露光量の画像信号から小さい露光量の画像信号に切り替わる際の時間差による画像の破綻(例えば、明るい被写体と暗い被写体の境界部分に出る白線)を小さく(細く)することができる。
【0043】
ステップSB6では、画素位置(x,y)の合成画像信号SC(x,y)として、画素位置(x,y)の大きい露光量の画像信号SL(x,y)を採用する。その後、ステップSB7に進み、判定・合成処理を終了する。つまり、ステップSB2で画像信号の露光量が飽和に達していないと判断され、且つ、ステップSB4で、被写体が移動していない判断された場合は、小さい露光量の画像信号SLを採用する。このようにすることで、移動被写体領域及び飽和領域以外では、よりS/N比が高い大きい露光量の画像信号SLを用いて画像信号を生成することができる。
【0044】
以上のように、本発明の第1の実施例による判定・合成処理では、被写体の移動を検出して、大きい露光量の画像信号SLが飽和露光量に達するのを待たずに、小さい露光量の画像信号SSに切り替えることができる。よって、被写体が移動している場合でも、画像の破綻を抑えることができる。
【0045】
図4は、白いストライプを、本実施例による撮像装置1において、ロングシャッタ、ショートシャッタの順で撮像した時の1水平ラインの画像信号を表す図である。図4(A)は、ロングシャッタの画像信号SLを表し、図4(B)は、ショートシャッタの画像信号SSを表し、図4(C)は、図4(A)と図4(B)を、図3に示す判定・合成処理により合成することにより得られる合成画像信号SCを表す。なお、図中、縦軸は、信号レベルを表し、横軸は、水平(x)方向の画素位置を表す。
【0046】
ロングシャッタの画像信号SLは、シャッタ期間が長いので、移動する被写体を撮像する場合は、図に示すように、白いストライプと背景の境界線が、斜めになる。また、点線で示す飽和信号レベルSSAT以上の部分は、出力されないので、実線で示したような形となる。
【0047】
ショートシャッタは、ロングシャッタの後に撮像されるので、ショートシャッタの画像信号SSは、ロングシャッタの画像信号SLよりも、水平方向に移動する。これは、シャッタ期間開始時の時間差分だけ、白いストライプが横方向に移動しているからである。
【0048】
以上の、2つの画像信号SL及び画像信号SSを、図3に示す判定・合成処理により合成することにより得られる画像信号が、図4(C)に示す合成画像信号SCである。本実施例による画像合成を行った場合には、図10(C)に示したような濃く太い白線ではなく、薄く細い白線となる。
【0049】
この薄く細い白線は、実際には動いている被写体であっても、上限感度比KMA X及び下限感度比KMINの設定(感度比Kから比較的遠い値に設定)により移動被写体ではないと判定され領域に現れるものであり、上限感度比KMAX及び下限感度比KMINを感度比Kに近づければ、さらに、薄く、細くなる。なお、上限感度比KMAX及び下限感度比KMINを感度比Kと同一値にすれば、この白線は現れなくなるが、その場合は、常に、露光量の小さい映像信号が使用されることになるので、好ましくは、上限感度比KMAX及び下限感度比KMINを感度比Kから少し離れた値に設定する。
【0050】
図5は、本発明の第2の実施例による判定・合成処理を表すフローチャートである。この第2の実施例の撮像装置1のシステム構成及び撮像処理は、上述の第1の実施例と同様である。
【0051】
上述の第1の実施例では、大きい露光量の画像信号SLの飽和点で大きい露光量の画像信号SLから小さい露光量の画像信号SSに急峻に切り替わるため、この部分で合成画像に不自然な画像が現れることがある。例えば、感度比Kの設定値と実際の値とに差が生じた場合にこのような不自然な合成画像が発生する。この点につき第1の実施例を改良したものが、この第2の実施例である。
【0052】
ステップSC1からステップSC5までの処理は、図3に示す第1の実施例と同様なので、説明を省略する。
【0053】
ステップSC6では、画素位置(x,y)における大きい露光量の画像信号SL(x,y)が、予め設定される定数ALよりも大きいか否かが判定される。画像信号SL(x,y)が、定数ALよりも大きい場合は、YESの矢印で示すステップSC7に進み、画素位置(x,y)の合成画像信号SC(x,y)として、画素位置(x,y)の大きい露光量の画像信号SL(x,y)を採用する。その後、ステップSC10に進み、判定・合成処理を終了する。画像信号SL(x,y)が、定数ALよりも小さい場合は、NOの矢印で示すステップSC8に進む。
【0054】
なお、定数ALは、大きい露光量の画像信号SL(x,y)の飽和信号レベルSSATよりも小さい値に設定される。
【0055】
ステップSC8では、画素位置(x,y)の大きい露光量の画像信号SL(x,y)と小さい露光量の画像信号SS(x,y)の合成比率αを求める。合成比率αは、以下の式(D)により求められる。その後、ステップSC9に進む。
【0056】
α=(SSAT−SL(x,y))/(SSAT−AL) …(D)
なお、上記式(E)より、合成比率αは、SL(x,y)=ALの時は、「1」であり、SL(x,y)=SSATの時は、「0」であることが分かる。すなわち、予め設定する定数ALから飽和レベルSSATにかけて徐々に
ステップSC9では、ステップSC8で求めた合成比率αに基づき、大きい露光量の画像信号SL(x,y)と小さい露光量の画像信号SS(x,y)とを合成して画素位置(x,y)の合成画像信号SCを生成する(式(E)参照)。その後、ステップSC10に進み、判定・合成処理を終了する。
【0057】
SC(x,y)=αSL(x,y)+(1−α)KSS(x,y) …(E)
なお、上記式(E)より、合成比率αは、SL(x,y)=ALの時は、「1」であり、SL(x,y)=SSATの時は、「0」であることが分かる。よって、予め設定する定数ALから飽和レベルSSATにかけて徐々に大きい露光量の画像信号SL(x,y)の合成比率が下がっていくことが分かる。
【0058】
以上のように、本発明の第2の実施例によれば、大きい露光量の画像信号SL(x,y)が飽和レベルSSATに達する前の段階から、小さい露光量の画像信号SS(x,y)との合成比率αを徐々に変えることで、飽和点付近の合成画像の繋がりを良くする事ができる。従って、飽和点付近での不自然な画像を抑制することができる。
【0059】
図6は、本発明の第3の実施例による判定・合成処理を表すフローチャートである。この第3の実施例の撮像装置1のシステム構成及び撮像処理は、上述の第1の実施例と同様である。
【0060】
上述の第1の実施例では、実際には被写体が動いている場合でも、上限感度比KMAX及び下限感度比KMINの設定(感度比Kから比較的遠い値に設定)により移動被写体ではないと判定される場合がある。この場合、図4に示したように、薄く、細い白線が現れることがある。この点につき第1の実施例を改良したものが、この第3の実施例である。
【0061】
この第3の実施例では、被写体が動いていないと判定された領域では、合成画像信号SCが、小さい露光量の画像信号SS×感度比Kの値にほぼ一致するように、小さい露光量の画像信号SSと大きい露光量の画像信号SLを、図6に示すフローチャートに従い加重加算する。このようにすると、実際には動いている被写体領域であるが、判定範囲(上限感度比KMAX及び下限感度比KMIN)の設定により、動いていないと判定された場合でも、合成画像信号SCが小さい露光量の画像信号SS×感度比Kの値にほぼ一致する。よって、図4に示したような、薄く、細い白線を無くすことができる。
【0062】
ステップSD1からステップSD5までの処理は、図3に示す第1の実施例と同様なので、説明を省略する。
【0063】
ステップSD6では、ステップSD3で求める画素位置(x,y)における画像信号SL(x,y)及び画像信号SS(x,y)の信号比R(x,y)が、感度比K以上か否かを判定する。感度比K以上である場合は、YESの矢印で示すステップSD7に進み、感度比K以下である場合は、NOの矢印で示すステップSD8に進む。
【0064】
ステップSD7では、以下の式(F)に従い、R(x,y)≧Kの場合の、加重平均βを求める。その後、ステップSD9に進む。
【0065】
β=(KMAX−R(x,y))/(KMAX−K) …(F)
ステップSD8では、以下の式(G)に従い、R(x,y)<Kの場合の、加重平均βを求める。その後、ステップSD9に進む。
【0066】
β=(R(x,y)−KMIN)/(K−KMIN) …(G)
なお、上記のステップSD7及びステップSD8で求める加重平均βは、画像信号SL(x,y)及び画像信号SS(x,y)の合成比率を決定するために用いられる。
【0067】
ステップSD9では、ステップSD7又はステップSD8で求めた加重平均βを用いて、以下の式(H)に従い、合成画像信号SCを小さい露光量の画像信号SS×感度比Kの値にほぼ一致させるための調整利得Gを求める。その後、ステップSD10に進む。
【0068】
G=1+β(SL(x,y)/KSS(x,y)−1) …(H)
ステップSD10では、ステップSD7又はステップSD8で求めた加重平均β及びステップSD9で求めた調整利得Gを用いて、以下の式(I)に従い、画素位置(x,y)の大きい露光量の画像信号SL(x,y)と小さい露光量の画像信号SS(x,y)とを合成して画素位置(x,y)の合成画像信号SC(x,y)を生成する。その後、ステップSD11に進み、判定・合成処理を終了する。
【0069】
SC(x,y)=(βSL(x,y)+(1−β)KSS(x,y))/G …(I)
なお、信号比R(x,y)=感度比Kの場合は、加重平均β=1、調整利得G=1となり、上記式(I)により、大きい露光量の画像信号SL(x,y)のみが、合成画像信号SC(x,y)として用いられることがわかる。また、信号比R(x,y)=判定範囲(上限感度比KMAX及び下限感度比KMIN)である場合は、加重平均β=0、調整利得G=1となり、上記式(I)により、小さい露光量の画像信号SS(x,y)のみが、合成画像信号SC(x,y)として用いられることがわかる。
【0070】
以上のように、本発明の第3の実施例によれば、実際には動いている被写体領域であるが、判定範囲(上限感度比KMAX及び下限感度比KMIN)の設定により、動いていないと判定された場合でも、合成画像信号SCを小さい露光量の画像信号SS×感度比Kの値にほぼ一致させて、細い白線を無くすことができる。
【0071】
図7は、本発明の第4の実施例による撮像装置11の構成例を示すブロック図である。
【0072】
撮像装置11のCCDイメージセンサ12、及びホワイトバランス部8以外の構成は、第1の実施例による撮像装置1の構成とほぼ同様であるので、その説明を省略する。
【0073】
CCDイメージセンサ12は、単板カラーセンサであり、例えば、水平(x)及び垂直(y)方向に配列される多数の光電変換素子(画素)、画素上に赤(R)、緑(G)、青(B)のモザイク色フィルタ及び垂直電荷転送路(VCCD)を含む受光領域、水平電荷転送路(HCCD)等を含んで構成されるCCD型固体撮像素子である。CCDイメージセンサ2は、大きい露光量(ロングシャッタ)と小さい露光量(ショートシャッタ)による撮像を順次行い、ロングシャッタによる1枚分(1フレーム分)の画像信号CLとショートシャッタによる1枚分(1フレーム分)の画像信号CSを、順番に出力する。なお、画像信号CLと画像信号CSは、画素位置ごとに色が異なる。
【0074】
ホワイトバランス部8は、CCDイメージセンサ12から出力されるRGB各色の画像信号CLと画像信号CSがホワイトバランスを得られるように、信号レベルを調整する。
【0075】
この第4の実施例においても、上述の第1の実施例による撮像処理及び第1〜第3の実施例のいずれかによる判定・合成処理を行う。上述の第1〜第3の実施例との違いは、画像信号SLと画像信号SSの代わりに、ホワイトバランス部8から出力されるホワイトバランス後の画像信号CLと画像信号CSを用いることである。また、CCDセンサー2の飽和信号レベルSSATの代わりに、ホワイトバランス後のCCDセンサー12の飽和信号レベルCSATを用いる。その他の処理は、上述の第1〜第3の実施例と同様である。
【0076】
単板カラーセンサであるCCDセンサー12に、上述の第1〜第3の実施例を単に適用した第4の実施例では、各映像信号の色の違いにかかわらず、各画素単独で、判定・合成処理を行っている。そのため、例えば、緑色に近い被写体の場合、緑の画素に対応する画像信号SLは、飽和信号レベルCSATに達しているが、隣の赤の画素に対応する画像信号SLは、飽和信号レベルCSATに達していないことが考えられる。このように、各画素でその色信号から飽和判定や動いている被写体の判定を行うと、色相が狂う場合がある。この点につき第4の実施例を改良したものが、第5の実施例である。
【0077】
図8は、本発明の第5の実施例による判定・合成処理を表すフローチャートである。この第5の実施例による判定・合成処理は、上述の第4の実施例と同様に、画像信号SLと画像信号SSの代わりに、ホワイトバランス部8から出力されるホワイトバランス後の画像信号CLと画像信号CSを用いるとともに、CCDセンサー2の飽和信号レベルSSATの代わりに、ホワイトバランス後のCCDセンサー12の飽和信号レベルCSATを用いる点で第1の実施例と異なる。また、上述の第1の実施例及び第4の実施例との相違点は、ステップSE2〜ステップSE4において、画素位置(x,y)の代わりに、判定画素位置(x,y)を含む複数の周辺画素位置(x’,y’)を用いる。それ以外の点については、第1の実施例による判定・合成処理と同様であるので、詳しい説明は省略する。なお、この第5の実施例の撮像装置11のシステム構成及び撮像処理は、上述の第4の実施例と同様である。
【0078】
なお、この第5の実施例も、第4の実施例と同様に、第2及び第3の実施例に適用することができる。その場合には、画像信号SLと画像信号SSの代わりに、ホワイトバランス部8から出力されるホワイトバランス後の画像信号CLと画像信号CSを用いるとともに、CCDセンサー2の飽和信号レベルSSATの代わりに、ホワイトバランス後のCCDセンサー12の飽和信号レベルCSATを用いることとし、図5のステップSC2〜ステップSC4又は図6のステップSD2〜ステップSD4の処理の代わりにステップSE2〜ステップSE4の処理を行うようにする。
【0079】
また、複数の周辺画素位置(x’,y’)は、判定画素位置(x,y)に近接する全ての色(例えば、赤、緑、青)に対応する画素を含むことが望ましい。
【0080】
以上のように、本発明の第5の実施例によれば、判定画素位置(x,y)を含む複数の周辺画素位置(x’,y’)を参照して、飽和判定や動いている被写体の判定を行うので、合成画像信号の色相の狂いを無くすことができる。
【0081】
なお、以上の第1〜第5の実施例では、リニアな画像信号で合成し、その後にガンマ補正等の処理を行うが、ガンマ補正後の画像信号に対しても、本発明を適用することができる。その場合は、ガンマ補正後の小さい露光量の画像信号VSと、ガンマ補正後の大きい露光量の画像信号VLは、感度比に一致しないため、予め感度比から計算した変換テーブル(VL=LUT[VS])を使用する。実際のVL値と実際のVS値のLUT換算値から飽和判定と移動体の判定を行い、この判定信号に基づき画像合成を行う。
【0082】
また、以上の第1〜第5の実施例では、大きい露光量の画像信号のみを一旦メモリに記憶し、小さい露光量の画像信号をCCDイメージセンサからリアルタイムに読み出すと同時に、大きい露光量の画像信号をメモリから読み出し、両方の画像信号を画像合成部と判定部に同時に供給しているが、小さい露光量の画像信号をメモリに記憶し、大きい露光量の画像信号をCCDイメージセンサからリアルタイムで読み出すようにしてもよい。また、両方の画像信号をメモリに記憶し、同時に読み出すようにしてもよい。
【0083】
以上実施例に沿って本発明を説明したが、本発明はこれらに制限されるものではない。例えば、種々の変更、改良、組合せ等が可能なことは当業者に自明であろう。
【0084】
【発明の効果】
以上説明したように、本発明によれば、良質で広いダイナミックレンジを持つ撮像装置を提供することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施例による撮像装置1の構成例を示すブロック図である。
【図2】本発明の第1の実施例による固体撮像処理の撮像処理を表すフローチャートである。
【図3】本発明の第1の実施例による判定・合成処理を表すフローチャートである。
【図4】白いストライプを、本実施例による撮像装置1において、ロングシャッタ、ショートシャッタの順で撮像した時の1水平ラインの画像信号を表す図である。
【図5】本発明の第2の実施例による判定・合成処理を表すフローチャートである。
【図6】本発明の第3の実施例による判定・合成処理を表すフローチャートである。
【図7】本発明の第4の実施例による撮像装置11の構成例を示すブロック図である。
【図8】本発明の第5の実施例による判定・合成処理を表すフローチャートである。
【図9】従来の撮像装置51の構成例を示すブロック図である。
【図10】従来の撮像装置51において白いストライプをロングシャッタ、ショートシャッタの順で撮像した時の1水平ラインの画像信号を表す図である。
【符号の説明】
1、11、51…固体撮像装置、2、12、52…CCDイメージセンサ、3、53…ADC、4、54…スイッチ、5、55…メモリ、6、56…画像合成部、7…判定部、8…ホワイトバランス部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an imaging apparatus, and more particularly to an imaging apparatus capable of obtaining an image with a wide dynamic range.
[0002]
[Prior art]
Conventionally, in a digital still camera or a video camera, an image having a wide dynamic range is obtained by imaging twice with different exposure amounts and performing signal processing on two types of image signals obtained from the two times of imaging. It has been known. The above-described imaging with different exposure amounts means, for example, that imaging is performed twice at a short time interval, that is, a long shutter time (long shutter) and a short shutter time (short shutter). The switching of the shutter time is performed, for example, using an electronic shutter alone or a mechanical shutter. (For example, refer to
[0003]
[Patent Document 1] JP-A-11-75118
FIG. 9 is a block diagram illustrating a configuration example of a
[0004]
The
[0005]
The
[0006]
The
[0007]
In the image compositing
[0008]
However, SC(X, y) is the composite image signal S at the pixel position (x, y).C, SL(X, y) is the image signal S of the long shutter at the pixel position (x, y).L, SS(X, y) is the image signal S of the short shutter at the pixel position (x, y).S, SSATIs the saturation signal level of the
[0009]
As apparent from the above formula (A), the image signal S of the short shutter is shown.SIs multiplied by the sensitivity ratio K to obtain a long shutter image signal S.LThe signal level is the same.
[0010]
In the
[0011]
[Problems to be solved by the invention]
In the
[0012]
FIG. 10 is a diagram illustrating an image signal of one horizontal line when a white stripe is imaged in the order of a long shutter and a short shutter. FIG. 10A shows a long shutter image signal S.LFIG. 10B shows a short shutter image signal S.SFIG. 10C shows a synthesized image signal S obtained by synthesizing the image signal using the above-described equation (A) in FIGS. 10A and 10B.CRepresents. In the figure, the vertical axis represents the signal level, and the horizontal axis represents the pixel position in the horizontal direction.
[0013]
Long shutter image signal SLSince the shutter period is long, when the moving subject is imaged, the boundary between the white stripe and the background is slanted as shown in the figure. Further, the saturation signal level S indicated by the dotted lineSATSince the above portion is not output, the shape is as shown by the solid line.
[0014]
Since the short shutter is imaged after the long shutter, the image signal S of the short shutter is obtained.SIs the image signal S of the long shutterLThan move horizontally. This is because the white stripe moves in the horizontal direction by the time difference at the start of the shutter period.
[0015]
The above two image signals SLAnd image signal SSIs synthesized using the above-described equation (A) to obtain a synthesized image signal SCIt is. At this time, as described above, the image signal S of the long shutterLSaturation signal level SSATIs the long shutter image signal S.LAnd short shutter image signal SSAs shown in FIG. 10C, a thick and thick white line appears at a location away from the original white stripe. This is because the subject is moving, so the image signal S of the long shutterLIs the saturation signal level SSATThe position on the horizontal line to become and the image signal S of the short shutterSThis is because there is a shift in the position of the end on the horizontal line.
[0016]
An object of the present invention is to provide an imaging apparatus having a high quality and a wide dynamic range.
[0017]
[Means for Solving the Problems]
According to an aspect of the present invention, an imaging device captures an image of a subject with a large exposure amount and a small exposure amount, and a first image signal obtained by imaging with a large exposure amount and the same pixel position as the first image signal. An imaging means for outputting a second image signal obtained by imaging with a small exposure amount, a moving subject area and a saturation area of the first image signal based on the first image signal and the second image signal Determination means for determining whether or not the image signal is output, and image composition means for performing image composition by changing a ratio of the first image signal and the second image signal based on the determination signal.
[0018]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a block diagram illustrating a configuration example of an
[0019]
The
[0020]
The CCD image sensor 2 includes, for example, a light receiving region including a large number of photoelectric conversion elements (pixels) and a vertical charge transfer path (VCCD) arranged in the horizontal (x) and vertical (y) directions, a horizontal charge transfer path (HCCD). It is a CCD type solid-state imaging device comprised including the above. The CCD image sensor 2 sequentially performs imaging with a large exposure amount (long shutter) and a small exposure amount (short shutter), and the image signal S for one sheet (one frame) by the long shutter.LAnd the image signal S for one frame (one frame) by the short shutterSAre output in order.
[0021]
The ADC 3 is an analog image signal S output from the CCD image sensor 2.LAnd image signal SSAre converted into digital image signals, respectively. Image signal S converted to digital formatLAnd image signal SSAre distributed by the switch 4. Image signal S captured firstLIs temporarily stored in the
[0022]
The
[0023]
The
[0024]
FIG. 2 is a flowchart showing the imaging process of the solid-state imaging process according to the embodiment of the present invention.
[0025]
In step SA1, the imaging process is started in response to a user's instruction to start the imaging process (for example, a shutter operation).
[0026]
In step SA2, the CCD sensor 2 in FIG. 1 performs imaging with a large exposure amount, and an image signal S obtained by imaging with the large exposure amount.LIs output to the ADC 3.
[0027]
In step SA3, the image signal S in the ADC 3 of FIG.LAre converted from analog signal charges into digital image data.
[0028]
In step SA4, the switch 4 in FIG.LIs transferred from the ADC 3 to the
[0029]
In step SA5, the CCD sensor 2 in FIG. 1 performs imaging with a small exposure amount, and an image signal S obtained by imaging with the small exposure amount.SIs output to the ADC 3.
[0030]
In step SA6, the image signal S in the ADC 3 of FIG.SAre converted from analog signal charges into digital image data.
[0031]
In step SA7, the switch 4 is switched to the
[0032]
In step SA8, a determination / combination process described later is performed. In the determination / combination processing, the image signal S is based on the determination signal supplied from the determination unit 7.LAnd image signal SSAre synthesized (or one of them is selectively used) to produce a synthesized image signal SCIs generated and output.
[0033]
In step SA9, the composite image signal SCIs output and the imaging process is terminated in step SA10.
[0034]
FIG. 3 is a flowchart showing the determination / combination processing according to the first embodiment of the present invention. The determination / combination processing detects the movement of the subject and the saturation of the exposure amount, and based on the detection result, the composite image signal SCIs generated. This determination / combination process is performed on the image signals at all pixel positions.
[0035]
In step SB1, determination / combination processing is started.
[0036]
In step SB2, it is determined whether or not the pixel position (x, y) is a saturated region. Here, when either of the following expressions (A-1) or (A-2) is satisfied, it is determined that the image signal exceeds the saturation signal level.
[0037]
SL(X, y) ≧ SSAT ... (A-1)
KSS(X, y) ≧ SSAT ... (A-2)
However, SSATIs a saturation signal level of the CCD sensor 2, and K is a sensitivity ratio obtained from a large exposure amount (long shutter time) / small exposure amount (short shutter time). The image signal S with a small exposure amountSMultiplying (x, y) by the sensitivity ratio K is the reason why the image signal S having a large exposure amount is multiplied.LThis is because (x, y) and the scale of the signal level are matched.
[0038]
If the image signal at the pixel position (x, y) exceeds the saturation level, it is determined that the pixel position (x, y) is in the saturation region, and the process proceeds to step SB5 indicated by the YES arrow. If it does not exceed the saturation signal level, it is determined that it is not the saturation region, and the process proceeds to Step SB3 indicated by a NO arrow.
[0039]
In step SB3, the image signal S at the pixel position (x, y) is based on the following equation (B).L(X, y) and image signal SSA signal ratio R (x, y) of (x, y) is obtained.
[0040]
R (x, y) = SL(X, y) / SS(X, y) (B)
In step SB4, it is determined whether or not the pixel position (x, y) is a moving subject area. Specifically, the upper limit sensitivity ratio K set in advance using the following equations (C1) and (C2) for the signal ratio R (x, y) obtained in step SB3.MAXAnd lower sensitivity ratio KMINCompare with The signal ratio R (x, y) is the upper limit sensitivity ratio KMAXGreater than (satisfies equation (C-1)) or lower limit sensitivity ratio KMINIf it is smaller (Equation (C-2) is satisfied), it is determined that the pixel position (x, y) is a moving subject area (moving subject), and the process proceeds to Step SB5 indicated by an arrow of YES. In other cases, it is determined that it is not a moving subject area (not a moving subject), and the process proceeds to Step SB6 indicated by a NO arrow.
[0041]
R (x, y)> KMAX ... (C-1)
R (x, y) <KMIN ... (C-2)
Upper sensitivity ratio KMAXAnd lower sensitivity ratio KMINIs a value set in advance according to the sensitivity ratio K. For example, when the sensitivity ratio K is “8”, the upper limit sensitivity ratio KMAXIs “10”, and the lower limit sensitivity ratio KMINCan be arbitrarily set above and below the sensitivity ratio K, such as “6”. Upper sensitivity ratio KMAXAnd lower sensitivity ratio KMINIs set to a value close to the sensitivity ratio K, a white line appearing in a composite signal shown in FIG. 4 to be described later becomes a thin and thin white line and becomes less conspicuous.
[0042]
In step SB5, the composite image signal S at the pixel position (x, y).CAs (x, y), an image signal KS having a small exposure amount at the pixel position (x, y) multiplied by the sensitivity ratio K.S(X, y) is adopted. Thereafter, the process proceeds to step SB7, and the determination / combination process is terminated. That is, if it is determined in step SB2 that the exposure amount of the image signal has reached saturation, or if it is determined in step SB4 that the subject is moving, the image signal KS having a small exposure amount.SIs adopted. In this way, for example, although the exposure amount is not saturated, in the moving subject area, the image signal KS with a small exposure amount is immediately generated.STherefore, it is possible to reduce (thinner) an image breakdown (for example, a white line appearing at a boundary between a bright subject and a dark subject) due to a time difference when switching from a large exposure amount image signal to a small exposure amount image signal. be able to.
[0043]
In Step SB6, the composite image signal S at the pixel position (x, y).CAs (x, y), an image signal S having a large exposure amount at the pixel position (x, y).L(X, y) is adopted. Thereafter, the process proceeds to step SB7, and the determination / combination process is terminated. That is, if it is determined in step SB2 that the exposure amount of the image signal has not reached saturation, and it is determined in step SB4 that the subject has not moved, the image signal S having a small exposure amount.LIs adopted. By doing so, the image signal S of a large exposure amount with a higher S / N ratio is obtained outside the moving subject area and the saturated area.LCan be used to generate an image signal.
[0044]
As described above, in the determination / combination processing according to the first embodiment of the present invention, the movement of the subject is detected, and the image signal S having a large exposure amount is detected.LImage signal S with a small exposure amount without waiting for the saturation exposure amount to be reached.SYou can switch to Therefore, even when the subject is moving, the failure of the image can be suppressed.
[0045]
FIG. 4 is a diagram illustrating an image signal of one horizontal line when a white stripe is imaged in the order of a long shutter and a short shutter in the
[0046]
Long shutter image signal SLSince the shutter period is long, when the moving subject is imaged, the boundary between the white stripe and the background is slanted as shown in the figure. Further, the saturation signal level S indicated by the dotted lineSATSince the above portion is not output, the shape is as shown by the solid line.
[0047]
Since the short shutter is imaged after the long shutter, the image signal S of the short shutter is obtained.SIs the image signal S of the long shutterLThan move horizontally. This is because the white stripe moves in the horizontal direction by the time difference at the start of the shutter period.
[0048]
The above two image signals SLAnd image signal SSIs obtained by combining the determination and combination processing shown in FIG. 3 into a combined image signal S shown in FIG.CIt is. When the image composition according to the present embodiment is performed, the thin white line is not a thick and thick white line as shown in FIG.
[0049]
This thin and thin white line indicates the upper limit sensitivity ratio K even if the subject is actually moving.MA XAnd lower sensitivity ratio KMIN(Set to a relatively far value from the sensitivity ratio K), it is determined that the subject is not a moving subject and appears in the area.MAXAnd lower sensitivity ratio KMINIs closer to the sensitivity ratio K, it becomes thinner and thinner. The upper limit sensitivity ratio KMAXAnd lower sensitivity ratio KMINIf the value is equal to the sensitivity ratio K, this white line will not appear. In this case, however, a video signal with a small exposure amount is always used.MAXAnd lower sensitivity ratio KMINIs set to a value slightly away from the sensitivity ratio K.
[0050]
FIG. 5 is a flowchart showing the determination / combination processing according to the second embodiment of the present invention. The system configuration and imaging process of the
[0051]
In the first embodiment described above, the image signal S having a large exposure amount.LImage signal S with a large exposure at the saturation pointLTo image signal S with a small exposure amountSTherefore, an unnatural image may appear in the composite image at this portion. For example, when there is a difference between the set value of the sensitivity ratio K and the actual value, such an unnatural composite image is generated. In this respect, the second embodiment is an improvement of the first embodiment.
[0052]
The processing from step SC1 to step SC5 is the same as that of the first embodiment shown in FIG.
[0053]
In step SC6, the image signal S having a large exposure amount at the pixel position (x, y).L(X, y) is a preset constant ALIt is determined whether or not the value is greater than. Image signal SL(X, y) is the constant ALIf larger, the process proceeds to step SC7 indicated by a YES arrow, and the composite image signal S at the pixel position (x, y)CAs (x, y), an image signal S having a large exposure amount at the pixel position (x, y).L(X, y) is adopted. Thereafter, the process proceeds to step SC10, and the determination / combination process is terminated. Image signal SL(X, y) is the constant ALIf not, the process proceeds to step SC8 indicated by a NO arrow.
[0054]
Constant ALIs a large exposure image signal SLSaturation signal level S of (x, y)SATIs set to a smaller value.
[0055]
In step SC8, the image signal S having a large exposure amount at the pixel position (x, y).LImage signal S with a small exposure amount (x, y)SA composite ratio α of (x, y) is obtained. The synthesis ratio α is obtained by the following formula (D). Thereafter, the process proceeds to Step SC9.
[0056]
α = (SSAT-SL(X, y)) / (SSAT-AL(D)
From the above formula (E), the composition ratio α is SL(X, y) = ALIn case of, it is “1” and SL(X, y) = SSATIn the case of, it is understood that it is “0”. That is, a preset constant ALTo saturation level SSATGradually
In step SC9, the image signal S having a large exposure amount is based on the composition ratio α obtained in step SC8.LImage signal S with a small exposure amount (x, y)S(X, y) and the synthesized image signal S at the pixel position (x, y)C(See equation (E)). Thereafter, the process proceeds to step SC10, and the determination / combination process is terminated.
[0057]
SC(X, y) = αSL(X, y) + (1-α) KSS(X, y) (E)
From the above formula (E), the composition ratio α is SL(X, y) = ALIn case of, it is “1” and SL(X, y) = SSATIn the case of, it is understood that it is “0”. Therefore, the preset constant ALTo saturation level SSATThe image signal S with a gradually increasing exposure amountLIt can be seen that the synthesis ratio of (x, y) decreases.
[0058]
As described above, according to the second embodiment of the present invention, the image signal S having a large exposure amount.L(X, y) is the saturation level SSATImage signal S with a small exposure amount from the stage before reachingSBy gradually changing the composition ratio α with (x, y), it is possible to improve the connection of the composite image near the saturation point. Therefore, an unnatural image near the saturation point can be suppressed.
[0059]
FIG. 6 is a flowchart showing the determination / combination processing according to the third embodiment of the present invention. The system configuration and imaging process of the
[0060]
In the first embodiment described above, even when the subject is actually moving, the upper limit sensitivity ratio KMAXAnd lower sensitivity ratio KMINMay be determined as not being a moving subject. In this case, as shown in FIG. 4, a thin and thin white line may appear. In this respect, the third embodiment is an improvement of the first embodiment.
[0061]
In the third embodiment, in the region where it is determined that the subject is not moving, the composite image signal SCIs a small exposure image signal SSX Image signal S with a small exposure amount so as to substantially match the value of sensitivity ratio KSAnd large exposure image signal SLAre weighted and added according to the flowchart shown in FIG. In this way, although the subject area is actually moving, the determination range (upper limit sensitivity ratio KMAXAnd lower sensitivity ratio KMIN), Even if it is determined not to move, the composite image signal SCImage signal S with a small exposure amountSX It almost coincides with the value of sensitivity ratio K. Therefore, a thin and thin white line as shown in FIG. 4 can be eliminated.
[0062]
The processing from step SD1 to step SD5 is the same as that of the first embodiment shown in FIG.
[0063]
In step SD6, the image signal S at the pixel position (x, y) obtained in step SD3.L(X, y) and image signal SSIt is determined whether the signal ratio R (x, y) of (x, y) is equal to or greater than the sensitivity ratio K. When the sensitivity ratio is equal to or greater than K, the process proceeds to step SD7 indicated by an arrow of YES, and when the sensitivity ratio is equal to or less than K, the process proceeds to step SD8 indicated by an arrow of NO.
[0064]
In step SD7, the weighted average β in the case of R (x, y) ≧ K is obtained according to the following equation (F). Thereafter, the process proceeds to step SD9.
[0065]
β = (KMAX-R (x, y)) / (KMAX-K) ... (F)
In step SD8, a weighted average β is obtained when R (x, y) <K, according to the following equation (G). Thereafter, the process proceeds to step SD9.
[0066]
β = (R (x, y) −KMIN) / (KKMIN(G)
Note that the weighted average β obtained in step SD7 and step SD8 is the image signal S.L(X, y) and image signal SSUsed to determine the composite ratio of (x, y).
[0067]
In step SD9, using the weighted average β obtained in step SD7 or step SD8, the composite image signal S is expressed according to the following equation (H).CImage signal S with a small exposure amountSX An adjustment gain G for substantially matching the value of the sensitivity ratio K is obtained. Thereafter, the process proceeds to step SD10.
[0068]
G = 1 + β (SL(X, y) / KSS(X, y) -1) (H)
In step SD10, using the weighted average β obtained in step SD7 or step SD8 and the adjustment gain G obtained in step SD9, an image signal having a large exposure amount with a pixel position (x, y) according to the following equation (I): SLImage signal S with a small exposure amount (x, y)S(X, y) and the synthesized image signal S at the pixel position (x, y)C(X, y) is generated. Thereafter, the process proceeds to step SD11, and the determination / combination process ends.
[0069]
SC(X, y) = (βSL(X, y) + (1-β) KSS(X, y)) / G (I)
When the signal ratio R (x, y) = sensitivity ratio K, the weighted average β = 1 and the adjustment gain G = 1, and the image signal S having a large exposure amount is obtained by the above equation (I).LOnly (x, y) is the composite image signal SCIt can be seen that it is used as (x, y). Further, signal ratio R (x, y) = determination range (upper limit sensitivity ratio KMAXAnd lower sensitivity ratio KMIN), The weighted average β = 0 and the adjustment gain G = 1, and the image signal S having a small exposure amount is obtained by the above equation (I).SOnly (x, y) is the composite image signal SCIt can be seen that it is used as (x, y).
[0070]
As described above, according to the third embodiment of the present invention, although the subject area is actually moving, the determination range (upper sensitivity ratio KMAXAnd lower sensitivity ratio KMIN), Even if it is determined not to move, the composite image signal SCImage signal S with a small exposure amountSX A thin white line can be eliminated by substantially matching the value of the sensitivity ratio K.
[0071]
FIG. 7 is a block diagram illustrating a configuration example of the
[0072]
Since the configuration other than the
[0073]
The
[0074]
The
[0075]
Also in the fourth embodiment, the imaging process according to the first embodiment and the determination / combination process according to any one of the first to third embodiments are performed. The difference from the first to third embodiments described above is that the image signal SLAnd image signal SSInstead of the white balance image signal C output from the
[0076]
In the fourth embodiment in which the above-described first to third embodiments are simply applied to the
[0077]
FIG. 8 is a flowchart showing the determination / combination processing according to the fifth embodiment of the present invention. The determination / combination processing according to the fifth embodiment is similar to the fourth embodiment described above in that the image signal SLAnd image signal SSInstead of the white balance image signal C output from the
[0078]
The fifth embodiment can also be applied to the second and third embodiments, similarly to the fourth embodiment. In that case, the image signal SLAnd image signal SSInstead of the white balance image signal C output from the
[0079]
Further, it is desirable that the plurality of peripheral pixel positions (x ′, y ′) include pixels corresponding to all colors (for example, red, green, and blue) close to the determination pixel position (x, y).
[0080]
As described above, according to the fifth embodiment of the present invention, saturation determination and movement are performed with reference to a plurality of peripheral pixel positions (x ′, y ′) including the determination pixel position (x, y). Since the subject is determined, the hue of the composite image signal can be eliminated.
[0081]
In the first to fifth embodiments described above, synthesis is performed using a linear image signal, and thereafter processing such as gamma correction is performed. However, the present invention is also applied to an image signal after gamma correction. Can do. In that case, the image signal V with a small exposure after gamma correction is applied.SAnd a large exposure image signal V after gamma correction.LDoes not match the sensitivity ratio, so the conversion table (VL= LUT [VS]). Actual VLValue and actual VSSaturation determination and moving body determination are performed from the LUT converted value, and image synthesis is performed based on the determination signal.
[0082]
In the first to fifth embodiments described above, only the image signal having a large exposure amount is temporarily stored in the memory, and the image signal having a small exposure amount is read out in real time from the CCD image sensor. The signal is read from the memory, and both image signals are supplied to the image composition unit and the determination unit simultaneously. However, the image signal with a small exposure amount is stored in the memory, and the image signal with a large exposure amount is received from the CCD image sensor in real time. You may make it read. Alternatively, both image signals may be stored in a memory and read out simultaneously.
[0083]
Although the present invention has been described with reference to the embodiments, the present invention is not limited thereto. It will be apparent to those skilled in the art that various modifications, improvements, combinations, and the like can be made.
[0084]
【The invention's effect】
As described above, according to the present invention, it is possible to provide an imaging apparatus having a high quality and a wide dynamic range.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration example of an
FIG. 2 is a flowchart showing imaging processing of solid-state imaging processing according to the first embodiment of the present invention.
FIG. 3 is a flowchart showing determination / combination processing according to the first embodiment of the present invention;
FIG. 4 is a diagram illustrating an image signal of one horizontal line when a white stripe is imaged in the order of a long shutter and a short shutter in the
FIG. 5 is a flowchart showing a determination / combination process according to the second embodiment of the present invention.
FIG. 6 is a flowchart showing a determination / combination process according to the third embodiment of the present invention.
FIG. 7 is a block diagram illustrating a configuration example of an
FIG. 8 is a flowchart showing a determination / combination process according to a fifth embodiment of the present invention.
FIG. 9 is a block diagram illustrating a configuration example of a
10 is a diagram illustrating an image signal of one horizontal line when a white stripe is imaged in the order of a long shutter and a short shutter in the
[Explanation of symbols]
DESCRIPTION OF
Claims (20)
前記第1の画像信号と前記第2の画像信号に基づき、動いている被写体領域と前記第1の画像信号の飽和領域とを判定し判定信号を出力する判定手段と、
前記判定信号に基づき、前記第1の画像信号と前記第2の画像信号との占める比率を変化させて画像合成を行う画像合成手段と
を有する撮像装置。The subject is imaged with a large exposure amount and a small exposure amount, and a first image signal based on the large exposure amount and a second image signal based on the small exposure amount at the same pixel position as the first image signal are output. Imaging means to perform,
Determination means for determining a moving subject area and a saturation area of the first image signal based on the first image signal and the second image signal and outputting a determination signal;
An image pickup apparatus comprising: an image composition unit configured to perform image composition by changing a ratio of the first image signal and the second image signal based on the determination signal.
前記第1の画像信号と前記第2の画像信号に基づき、動いている被写体領域と前記第1の画像信号の飽和領域とを判定し判定信号を出力する判定工程と、
前記判定信号に基づき、前記第1の画像信号と前記第2の画像信号との占める比率を変化させて画像合成を行う画像合成工程と
を有する撮像方法。The subject is imaged with a large exposure amount and a small exposure amount, and a first image signal based on the large exposure amount and a second image signal based on the small exposure amount at the same pixel position as the first image signal are output. An imaging process to
A determination step of determining a moving subject area and a saturation area of the first image signal based on the first image signal and the second image signal and outputting a determination signal;
An image pickup method comprising: an image composition step of performing image composition by changing a ratio of the first image signal and the second image signal based on the determination signal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003043608A JP2004254151A (en) | 2003-02-21 | 2003-02-21 | Imaging unit and imaging method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003043608A JP2004254151A (en) | 2003-02-21 | 2003-02-21 | Imaging unit and imaging method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004254151A true JP2004254151A (en) | 2004-09-09 |
Family
ID=33026556
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003043608A Withdrawn JP2004254151A (en) | 2003-02-21 | 2003-02-21 | Imaging unit and imaging method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004254151A (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007020087A (en) * | 2005-07-11 | 2007-01-25 | Casio Comput Co Ltd | Imaging apparatus and imaging method |
JP2007124400A (en) * | 2005-10-28 | 2007-05-17 | Toshiba Corp | Solid state imaging apparatus |
JP2009010691A (en) * | 2007-06-28 | 2009-01-15 | Seiko Epson Corp | Imaging apparatus, imaging method, image processor, image processing program, and image processing method |
US7952629B2 (en) | 2007-09-24 | 2011-05-31 | Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg | Image sensor |
JP2012191360A (en) * | 2011-03-09 | 2012-10-04 | Fujitsu Ltd | Image composition device, image composition method, and image composition program |
JP2013187681A (en) * | 2012-03-07 | 2013-09-19 | Canon Inc | Image composition device and image composition method |
WO2014112291A1 (en) * | 2013-01-17 | 2014-07-24 | ソニー株式会社 | Image processing device, image processing method, and program |
JP2015082675A (en) * | 2013-10-21 | 2015-04-27 | 三星テクウィン株式会社Samsung Techwin Co., Ltd | Image processing device and image processing method |
US9251573B2 (en) | 2011-11-28 | 2016-02-02 | Fujitsu Limited | Device, method, and storage medium for high dynamic range imaging of a combined image having a moving object |
JP2021013131A (en) * | 2019-07-09 | 2021-02-04 | キヤノン株式会社 | Imaging apparatus and driving method of the same |
-
2003
- 2003-02-21 JP JP2003043608A patent/JP2004254151A/en not_active Withdrawn
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007020087A (en) * | 2005-07-11 | 2007-01-25 | Casio Comput Co Ltd | Imaging apparatus and imaging method |
JP4622711B2 (en) * | 2005-07-11 | 2011-02-02 | カシオ計算機株式会社 | Image composition apparatus, image composition method, and program |
JP2007124400A (en) * | 2005-10-28 | 2007-05-17 | Toshiba Corp | Solid state imaging apparatus |
JP4649313B2 (en) * | 2005-10-28 | 2011-03-09 | 株式会社東芝 | Solid-state imaging device |
JP2009010691A (en) * | 2007-06-28 | 2009-01-15 | Seiko Epson Corp | Imaging apparatus, imaging method, image processor, image processing program, and image processing method |
US7952629B2 (en) | 2007-09-24 | 2011-05-31 | Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg | Image sensor |
JP2012191360A (en) * | 2011-03-09 | 2012-10-04 | Fujitsu Ltd | Image composition device, image composition method, and image composition program |
US9251573B2 (en) | 2011-11-28 | 2016-02-02 | Fujitsu Limited | Device, method, and storage medium for high dynamic range imaging of a combined image having a moving object |
JP2013187681A (en) * | 2012-03-07 | 2013-09-19 | Canon Inc | Image composition device and image composition method |
WO2014112291A1 (en) * | 2013-01-17 | 2014-07-24 | ソニー株式会社 | Image processing device, image processing method, and program |
US9569821B2 (en) | 2013-01-17 | 2017-02-14 | Sony Semiconductor Solutions Corporation | Image processing device, image processing method, and program |
JP2015082675A (en) * | 2013-10-21 | 2015-04-27 | 三星テクウィン株式会社Samsung Techwin Co., Ltd | Image processing device and image processing method |
JP2021013131A (en) * | 2019-07-09 | 2021-02-04 | キヤノン株式会社 | Imaging apparatus and driving method of the same |
JP7374630B2 (en) | 2019-07-09 | 2023-11-07 | キヤノン株式会社 | Imaging device and its driving method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7791775B2 (en) | Imaging apparatus for generating image having wide dynamic range by using different exposures | |
KR101247647B1 (en) | Image synthesizing device, image synthesizing method, and recording medium | |
KR100798230B1 (en) | Imaging device, imaging method and computerreadable recording medium | |
KR100914090B1 (en) | Image pickup apparatus | |
JP3382359B2 (en) | Imaging device | |
WO2001039490A1 (en) | Solid-state imaging device | |
EP0493586A1 (en) | A distributed digital signal processing system using standard resolution processors for a high resolution sensor | |
CN112714252B (en) | Image pickup apparatus | |
EP1246453A2 (en) | Signal processing apparatus and method, and image sensing apparatus | |
KR100854163B1 (en) | Imager and image quality correcting method | |
WO2017101546A1 (en) | Image sensor, imaging device, mobile terminal and imaging method | |
WO2007049418A1 (en) | Image processing system and image processing program | |
JP4763469B2 (en) | Solid-state imaging device, image input device, and image correction method thereof | |
JP2004254151A (en) | Imaging unit and imaging method | |
JP2008271123A (en) | Imaging device | |
EP2214136B1 (en) | Method and program for controlling image capture apparatus | |
US20060087569A1 (en) | Image apparatus and method and program for producing interpolation signal | |
JP2004048663A (en) | Image pickup device, image composition method and image synthesis program | |
JP2001238126A (en) | Imaging apparatus and image processing method | |
JP3674420B2 (en) | Solid-state imaging device | |
JP3988760B2 (en) | Solid-state imaging device | |
JP2013207427A (en) | Image pickup device and image pickup method | |
JP2006352716A (en) | Imaging apparatus and imaging method | |
JP2004032171A (en) | Imaging apparatus | |
JP2005223769A (en) | Imaging apparatus and method therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20060509 |