JP2004254151A - Imaging unit and imaging method - Google Patents

Imaging unit and imaging method Download PDF

Info

Publication number
JP2004254151A
JP2004254151A JP2003043608A JP2003043608A JP2004254151A JP 2004254151 A JP2004254151 A JP 2004254151A JP 2003043608 A JP2003043608 A JP 2003043608A JP 2003043608 A JP2003043608 A JP 2003043608A JP 2004254151 A JP2004254151 A JP 2004254151A
Authority
JP
Japan
Prior art keywords
image signal
image
exposure amount
determination
ratio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003043608A
Other languages
Japanese (ja)
Inventor
Nobuo Suzuki
信雄 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Fujifilm Microdevices Co Ltd
Original Assignee
Fujifilm Microdevices Co Ltd
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Microdevices Co Ltd, Fuji Photo Film Co Ltd filed Critical Fujifilm Microdevices Co Ltd
Priority to JP2003043608A priority Critical patent/JP2004254151A/en
Publication of JP2004254151A publication Critical patent/JP2004254151A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging unit having a high quality and wide dynamic range. <P>SOLUTION: The imaging unit has an imaging means for imaging an object with large light exposure and small light exposure and for outputting a first image signal by imaging with the large light exposure and a second image signal by imaging with the small light exposure at the same pixel position as the first image signal, a decision means for deciding a moving object region and the saturation region of the first image signal on the basis of the first and second image signals and for outputting a decision signal, and an image compositing means for performing image composition by varying ratio occupied by the first and second image signals on the basis of the decision signal. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、撮像装置に関し、特に広いダイナミックレンジの画像を得ることのできる撮像装置に関する。
【0002】
【従来の技術】
従来、デジタルスチルカメラやビデオカメラにおいては、異なる露光量で2回の撮像を行い、該2回の撮像から得られる2種類の画像信号を信号処理して、広いダイナミックレンジを有する画像を得ることが知られている。上記の異なる露光量の撮像とは、例えば、短い時間間隔で、長いシャッタ時間(ロングシャッタ)と短いシャッタ時間(ショートシャッタ)との2回の撮像を行うことである。シャッタ時間の切り替えは、例えば、電子シャッタ単独、あるいは、メカシャッタを併用して行われている。(例えば、特許文献1参照。)
【0003】
【特許文献1】特開平11−75118号公報
図9は、従来の撮像装置51の構成例を示すブロック図である。撮像装置51は、説明の便宜上、白黒のエリアセンサを使用している。
【0004】
撮像装置51は、少なくとも、CCDイメージセンサ52、アナログデジタルコンバータ(ADC)53、スイッチ54、メモリ55、及び画像合成部56を含んで構成される。
【0005】
CCDイメージセンサ52は、ロングシャッタとショートシャッタによる撮像を順次行い、ロングシャッタによる画像信号Sとショートシャッタによる画像信号Sを、順番に出力する。
【0006】
ADC53は、CCDイメージセンサ52から出力されるアナログ形式の画像信号S及び画像信号Sを、デジタル形式の画像信号にそれぞれ変換する。デジタル形式に変換された画像信号S及び画像信号Sは、スイッチ54により、振り分けられる。先に撮像される画像信号Sは、メモリ55に一時的に記憶され、その後、メモリ55を介ささない画像信号Sと同時に、後段の画像合成部56に送られる。
【0007】
画像合成部56では、下記の式(A)に従い、入力される画像信号S及び画像信号Sを合成して、合成画像信号Sとして出力する。
【0008】

Figure 2004254151
ただし、S(x,y)は、画素位置(x,y)における合成画像信号S、S(x,y)は、画素位置(x,y)におけるロングシャッタの画像信号S、S(x,y)は、画素位置(x,y)におけるショートシャッタの画像信号S、SSATは、CCDイメージセンサ52の飽和信号レベル、Kは、ロングシャッタとショートシャッタの感度比(ロングシャッタ/ショートシャッタ)である。
【0009】
上記の式(A)から、明らかなように、ショートシャッタの画像信号Sは、感度比Kを乗算することにより、ロングシャッタの画像信号Sと同様の信号レベルにしている。
【0010】
この画像合成部56では、上記の式(A)により、画素位置(x,y)におけるロングシャッタの画像信号S(x,y)が、飽和信号レベルSSAT未満である時には、画素位置(x,y)における合成画像信号S(x,y)として、画像信号S(x,y)を用い、飽和信号レベルSSAT以上である時には、画像信号S(x,y)を用いている。すなわち、ロングシャッタの画像信号Sの飽和信号レベルSSATを境界にして、ロングシャッタの画像信号Sとショートシャッタの画像信号Sとを切り替えて用いるように構成されている。
【0011】
【発明が解決しようとする課題】
従来の撮像装置51では、被写体が動いている場合に、暗い部分と明るい部分の境界付近で、不自然な画像となる場合がある。これは、主に暗い部分を撮影するための大きい露光量(ロングシャッタ)のシャッタ期間と、主に明るい部分を撮影するための小さい露光量(ショートシャッタ)のシャッタ期間の時間がずれている為と考えられる。
【0012】
図10は、白いストライプをロングシャッタ、ショートシャッタの順で撮像した時の1水平ラインの画像信号を表す図である。図10(A)は、ロングシャッタの画像信号Sを表し、図10(B)は、ショートシャッタの画像信号Sを表し、図10(C)は、図10(A)と図10(B)の上述の式(A)を用いて画像信号を合成することにより得られる合成画像信号Sを表す。なお、図中、縦軸は、信号レベルを表し、横軸は、水平方向の画素位置を表す。
【0013】
ロングシャッタの画像信号Sは、シャッタ期間が長いので、移動する被写体を撮像する場合は、図に示すように、白いストライプと背景の境界線が、斜めになる。また、点線で示す飽和信号レベルSSAT以上の部分は、出力されないので、実線で示したような形となる。
【0014】
ショートシャッタは、ロングシャッタの後に撮像されるので、ショートシャッタの画像信号Sは、ロングシャッタの画像信号Sよりも、水平方向に移動する。これは、シャッタ期間開始時の時間差分だけ、白いストライプが横方向に移動しているからである。
【0015】
以上の、2つの画像信号S及び画像信号Sを上述の式(A)を用いて合成して得られる画像信号が、合成画像信号Sである。この時、上述したように、ロングシャッタの画像信号Sの飽和信号レベルSSATを境界にして、ロングシャッタの画像信号Sとショートシャッタの画像信号Sとを切り替えるので、図10(C)に示すように、本来の白いストライプから離れた場所に、濃く太い白線が現れる。これは、被写体が移動しているので、ロングシャッタの画像信号Sが飽和信号レベルSSATになる水平ライン上の位置とショートシャッタの画像信号Sの水平ライン上の最端部の位置にずれが生じるためである。
【0016】
本発明の目的は、良質で広いダイナミックレンジを持つ撮像装置を提供することである。
【0017】
【課題を解決するための手段】
本発明の一観点によれば、撮像装置は、大きい露光量と小さい露光量で被写体を撮像し、大きい露光量の撮像による第1の画像信号と、前記第1の画像信号と同一画素位置における小さい露光量の撮像による第2の画像信号を出力する撮像手段と、前記第1の画像信号と前記第2の画像信号に基づき、動いている被写体領域と前記第1の画像信号の飽和領域とを判定し判定信号を出力する判定手段と、前記判定信号に基づき、前記第1の画像信号と前記第2の画像信号との占める比率を変化させて画像合成を行う画像合成手段とを有する。
【0018】
【発明の実施の形態】
図1は、本発明の第1の実施例による撮像装置1の構成例を示すブロック図である。本実施例の撮像装置1は、白黒のエリアセンサを使用している。
【0019】
撮像装置1は、少なくとも、CCDイメージセンサ2、アナログデジタルコンバータ(ADC)3、スイッチ4、メモリ5、画像合成部6及び判定部7を含んで構成される。
【0020】
CCDイメージセンサ2は、例えば、水平(x)及び垂直(y)方向に配列される多数の光電変換素子(画素)及び垂直電荷転送路(VCCD)を含む受光領域、水平電荷転送路(HCCD)等を含んで構成されるCCD型固体撮像素子である。CCDイメージセンサ2は、大きい露光量(ロングシャッタ)と小さい露光量(ショートシャッタ)による撮像を順次行い、ロングシャッタによる1枚分(1フレーム分)の画像信号Sとショートシャッタによる1枚分(1フレーム分)の画像信号Sを、順番に出力する。
【0021】
ADC3は、CCDイメージセンサ2から出力されるアナログ形式の画像信号S及び画像信号Sを、デジタル形式の画像信号にそれぞれ変換する。デジタル形式に変換された画像信号S及び画像信号Sは、スイッチ4により、振り分けられる。先に撮像される画像信号Sは、メモリ5に一時的に記憶され、その後、メモリ5を介ささない画像信号Sと同時に、後段の画像合成部6に送られる。
【0022】
判定部7は、被写体の移動及び露光量の飽和を検出して、判定信号を画像合成部6に供給する。被写体の移動の検出は、画像信号Sと画像信号Sとの比Rと感度比Kを比較することにより行われる。
【0023】
画像合成部6は、判定部7から供給される判定信号に基づき、画像信号S及び画像信号Sを合成(若しくはいずれか一方を選択的に使用)して、合成画像信号Sを生成して出力する。なお、画像合成部6及び判定部7における処理の詳細は、図2及び図3を参照して後述する。
【0024】
図2は、本発明の実施例による固体撮像処理の撮像処理を表すフローチャートである。
【0025】
ステップSA1では、ユーザによる撮像処理の開始指示(例えば、シャッタ操作)により、撮像処理を開始する。
【0026】
ステップSA2では、図1のCCDセンサー2において、大きい露光量による撮像を行い、該大きい露光量による撮像で得られた画像信号Sを、ADC3に出力する。
【0027】
ステップSA3では、図1のADC3において、画像信号Sをアナログ形式の信号電荷から、デジタル形式の画像データに変換する。
【0028】
ステップSA4では、図1のスイッチ4をメモリ5側に切り替え、画像信号SをADC3から、メモリ5に転送して、一時的に記憶する。
【0029】
ステップSA5では、図1のCCDセンサー2において、小さい露光量による撮像を行い、該小さい露光量による撮像で得られた画像信号Sを、ADC3に出力する。
【0030】
ステップSA6では、図1のADC3において、画像信号Sをアナログ形式の信号電荷から、デジタル形式の画像データに変換する。
【0031】
ステップSA7では、スイッチ4を画像合成部6側に切り替え、画像信号Sを判定部7と画像合成部6に供給すると同時に、メモリ5に一時記憶された画像信号Sを判定部7と画像合成部6に供給する。
【0032】
ステップSA8では、後述する判定・合成処理を行う。判定・合成処理では、判定部7から供給される判定信号に基づき、画像信号S及び画像信号Sを合成(若しくはいずれか一方を選択的に使用)して、合成画像信号Sを生成して出力する。
【0033】
ステップSA9では、合成画像信号Sを出力して、ステップSA10で撮像処理を終了する。
【0034】
図3は、本発明の第1の実施例による判定・合成処理を表すフローチャートである。判定・合成処理は、被写体の移動及び露光量の飽和を検出して、該検出結果に基づき、合成画像信号Sを生成する。なお、この判定・合成処理は、全ての画素位置の画像信号に対して行われる。
【0035】
ステップSB1では、判定・合成処理を開始する。
【0036】
ステップSB2では、画素位置(x,y)が飽和領域であるか否かを判定する。ここでは、以下の式(A−1)又は(A−2)のいずれかを満たす場合に、画像信号が飽和信号レベルを超えていると判定される。
【0037】
(x,y)≧SSAT …(A−1)
KS(x,y)≧SSAT …(A−2)
ただし、SSATは、CCDセンサー2の飽和信号レベル、Kは、大きい露光量(長いシャッタ時間)/小さい露光量(短いシャッタ時間)から求められる感度比である。なお、小さい露光量の画像信号S(x,y)を感度比Kで乗算するのは、大きい露光量の画像信号S(x,y)と信号レベルのスケールを合わせるためである。
【0038】
画素位置(x,y)の画像信号が飽和レベルを超えている場合は、画素位置(x,y)が飽和領域であると判定して、YESの矢印で示すステップSB5に進む。飽和信号レベルを超えていない場合は、飽和領域ではないと判定して、NOの矢印で示すステップSB3に進む。
【0039】
ステップSB3では、下記式(B)に基づき、画素位置(x,y)における画像信号S(x,y)及び画像信号S(x,y)の信号比R(x,y)を求める。
【0040】
R(x,y)=S(x,y)/S(x,y) …(B)
ステップSB4では、画素位置(x,y)が、移動被写体領域であるか否かを判定する。具体的には、ステップSB3で求めた信号比R(x,y)を下記式(C1)及び(C2)を用いて、予め設定される上限感度比KMAX及び下限感度比KMINと比較する。信号比R(x,y)が、上限感度比KMAXより大きい(式(C−1)を満たす)場合、若しくは、下限感度比KMINより小さい(式(C−2)を満たす)場合は、画素位置(x,y)が、移動被写体領域である(移動被写体である)と判定して、YESの矢印で示すステップSB5に進む。それ以外の場合は、移動被写体領域でない(移動被写体ではない)と判断して、NOの矢印で示すステップSB6に進む。
【0041】
R(x,y)>KMAX …(C−1)
R(x,y)<KMIN …(C−2)
上限感度比KMAX及び下限感度比KMINは、感度比Kに応じて、予め設定される値である。例えば、感度比Kが、「8」である場合は、上限感度比KMAXを「10」とし、下限感度比KMINを「6」と設定する等、感度比Kの上下に任意に設定できる。上限感度比KMAX及び下限感度比KMINを感度比Kに近い値に設定すれば、後述の図4に示す合成信号に現れる白線は、薄く、細い白線となり、より目立たなくなる。
【0042】
ステップSB5では、画素位置(x,y)の合成画像信号S(x,y)として、感度比Kで乗算した画素位置(x,y)の小さい露光量の画像信号KS(x,y)を採用する。その後、ステップSB7に進み、判定・合成処理を終了する。つまり、ステップSB2で画像信号の露光量が飽和に達したと判断された場合と、ステップSB4で、被写体が移動していると判断された場合は、小さい露光量の画像信号KSを採用する。こうすることにより、例えば、露光量は飽和していないものの、移動被写体領域では、即座に小さい露光量の画像信号KSに切り替えることができるので、大きい露光量の画像信号から小さい露光量の画像信号に切り替わる際の時間差による画像の破綻(例えば、明るい被写体と暗い被写体の境界部分に出る白線)を小さく(細く)することができる。
【0043】
ステップSB6では、画素位置(x,y)の合成画像信号S(x,y)として、画素位置(x,y)の大きい露光量の画像信号S(x,y)を採用する。その後、ステップSB7に進み、判定・合成処理を終了する。つまり、ステップSB2で画像信号の露光量が飽和に達していないと判断され、且つ、ステップSB4で、被写体が移動していない判断された場合は、小さい露光量の画像信号Sを採用する。このようにすることで、移動被写体領域及び飽和領域以外では、よりS/N比が高い大きい露光量の画像信号Sを用いて画像信号を生成することができる。
【0044】
以上のように、本発明の第1の実施例による判定・合成処理では、被写体の移動を検出して、大きい露光量の画像信号Sが飽和露光量に達するのを待たずに、小さい露光量の画像信号Sに切り替えることができる。よって、被写体が移動している場合でも、画像の破綻を抑えることができる。
【0045】
図4は、白いストライプを、本実施例による撮像装置1において、ロングシャッタ、ショートシャッタの順で撮像した時の1水平ラインの画像信号を表す図である。図4(A)は、ロングシャッタの画像信号Sを表し、図4(B)は、ショートシャッタの画像信号Sを表し、図4(C)は、図4(A)と図4(B)を、図3に示す判定・合成処理により合成することにより得られる合成画像信号Sを表す。なお、図中、縦軸は、信号レベルを表し、横軸は、水平(x)方向の画素位置を表す。
【0046】
ロングシャッタの画像信号Sは、シャッタ期間が長いので、移動する被写体を撮像する場合は、図に示すように、白いストライプと背景の境界線が、斜めになる。また、点線で示す飽和信号レベルSSAT以上の部分は、出力されないので、実線で示したような形となる。
【0047】
ショートシャッタは、ロングシャッタの後に撮像されるので、ショートシャッタの画像信号Sは、ロングシャッタの画像信号Sよりも、水平方向に移動する。これは、シャッタ期間開始時の時間差分だけ、白いストライプが横方向に移動しているからである。
【0048】
以上の、2つの画像信号S及び画像信号Sを、図3に示す判定・合成処理により合成することにより得られる画像信号が、図4(C)に示す合成画像信号Sである。本実施例による画像合成を行った場合には、図10(C)に示したような濃く太い白線ではなく、薄く細い白線となる。
【0049】
この薄く細い白線は、実際には動いている被写体であっても、上限感度比KMA 及び下限感度比KMINの設定(感度比Kから比較的遠い値に設定)により移動被写体ではないと判定され領域に現れるものであり、上限感度比KMAX及び下限感度比KMINを感度比Kに近づければ、さらに、薄く、細くなる。なお、上限感度比KMAX及び下限感度比KMINを感度比Kと同一値にすれば、この白線は現れなくなるが、その場合は、常に、露光量の小さい映像信号が使用されることになるので、好ましくは、上限感度比KMAX及び下限感度比KMINを感度比Kから少し離れた値に設定する。
【0050】
図5は、本発明の第2の実施例による判定・合成処理を表すフローチャートである。この第2の実施例の撮像装置1のシステム構成及び撮像処理は、上述の第1の実施例と同様である。
【0051】
上述の第1の実施例では、大きい露光量の画像信号Sの飽和点で大きい露光量の画像信号Sから小さい露光量の画像信号Sに急峻に切り替わるため、この部分で合成画像に不自然な画像が現れることがある。例えば、感度比Kの設定値と実際の値とに差が生じた場合にこのような不自然な合成画像が発生する。この点につき第1の実施例を改良したものが、この第2の実施例である。
【0052】
ステップSC1からステップSC5までの処理は、図3に示す第1の実施例と同様なので、説明を省略する。
【0053】
ステップSC6では、画素位置(x,y)における大きい露光量の画像信号S(x,y)が、予め設定される定数Aよりも大きいか否かが判定される。画像信号S(x,y)が、定数Aよりも大きい場合は、YESの矢印で示すステップSC7に進み、画素位置(x,y)の合成画像信号S(x,y)として、画素位置(x,y)の大きい露光量の画像信号S(x,y)を採用する。その後、ステップSC10に進み、判定・合成処理を終了する。画像信号S(x,y)が、定数Aよりも小さい場合は、NOの矢印で示すステップSC8に進む。
【0054】
なお、定数Aは、大きい露光量の画像信号S(x,y)の飽和信号レベルSSATよりも小さい値に設定される。
【0055】
ステップSC8では、画素位置(x,y)の大きい露光量の画像信号S(x,y)と小さい露光量の画像信号S(x,y)の合成比率αを求める。合成比率αは、以下の式(D)により求められる。その後、ステップSC9に進む。
【0056】
α=(SSAT−S(x,y))/(SSAT−A) …(D)
なお、上記式(E)より、合成比率αは、S(x,y)=Aの時は、「1」であり、S(x,y)=SSATの時は、「0」であることが分かる。すなわち、予め設定する定数Aから飽和レベルSSATにかけて徐々に
ステップSC9では、ステップSC8で求めた合成比率αに基づき、大きい露光量の画像信号S(x,y)と小さい露光量の画像信号S(x,y)とを合成して画素位置(x,y)の合成画像信号Sを生成する(式(E)参照)。その後、ステップSC10に進み、判定・合成処理を終了する。
【0057】
(x,y)=αS(x,y)+(1−α)KS(x,y) …(E)
なお、上記式(E)より、合成比率αは、S(x,y)=Aの時は、「1」であり、S(x,y)=SSATの時は、「0」であることが分かる。よって、予め設定する定数Aから飽和レベルSSATにかけて徐々に大きい露光量の画像信号S(x,y)の合成比率が下がっていくことが分かる。
【0058】
以上のように、本発明の第2の実施例によれば、大きい露光量の画像信号S(x,y)が飽和レベルSSATに達する前の段階から、小さい露光量の画像信号S(x,y)との合成比率αを徐々に変えることで、飽和点付近の合成画像の繋がりを良くする事ができる。従って、飽和点付近での不自然な画像を抑制することができる。
【0059】
図6は、本発明の第3の実施例による判定・合成処理を表すフローチャートである。この第3の実施例の撮像装置1のシステム構成及び撮像処理は、上述の第1の実施例と同様である。
【0060】
上述の第1の実施例では、実際には被写体が動いている場合でも、上限感度比KMAX及び下限感度比KMINの設定(感度比Kから比較的遠い値に設定)により移動被写体ではないと判定される場合がある。この場合、図4に示したように、薄く、細い白線が現れることがある。この点につき第1の実施例を改良したものが、この第3の実施例である。
【0061】
この第3の実施例では、被写体が動いていないと判定された領域では、合成画像信号Sが、小さい露光量の画像信号S×感度比Kの値にほぼ一致するように、小さい露光量の画像信号Sと大きい露光量の画像信号Sを、図6に示すフローチャートに従い加重加算する。このようにすると、実際には動いている被写体領域であるが、判定範囲(上限感度比KMAX及び下限感度比KMIN)の設定により、動いていないと判定された場合でも、合成画像信号Sが小さい露光量の画像信号S×感度比Kの値にほぼ一致する。よって、図4に示したような、薄く、細い白線を無くすことができる。
【0062】
ステップSD1からステップSD5までの処理は、図3に示す第1の実施例と同様なので、説明を省略する。
【0063】
ステップSD6では、ステップSD3で求める画素位置(x,y)における画像信号S(x,y)及び画像信号S(x,y)の信号比R(x,y)が、感度比K以上か否かを判定する。感度比K以上である場合は、YESの矢印で示すステップSD7に進み、感度比K以下である場合は、NOの矢印で示すステップSD8に進む。
【0064】
ステップSD7では、以下の式(F)に従い、R(x,y)≧Kの場合の、加重平均βを求める。その後、ステップSD9に進む。
【0065】
β=(KMAX−R(x,y))/(KMAX−K) …(F)
ステップSD8では、以下の式(G)に従い、R(x,y)<Kの場合の、加重平均βを求める。その後、ステップSD9に進む。
【0066】
β=(R(x,y)−KMIN)/(K−KMIN) …(G)
なお、上記のステップSD7及びステップSD8で求める加重平均βは、画像信号S(x,y)及び画像信号S(x,y)の合成比率を決定するために用いられる。
【0067】
ステップSD9では、ステップSD7又はステップSD8で求めた加重平均βを用いて、以下の式(H)に従い、合成画像信号Sを小さい露光量の画像信号S×感度比Kの値にほぼ一致させるための調整利得Gを求める。その後、ステップSD10に進む。
【0068】
G=1+β(S(x,y)/KS(x,y)−1) …(H)
ステップSD10では、ステップSD7又はステップSD8で求めた加重平均β及びステップSD9で求めた調整利得Gを用いて、以下の式(I)に従い、画素位置(x,y)の大きい露光量の画像信号S(x,y)と小さい露光量の画像信号S(x,y)とを合成して画素位置(x,y)の合成画像信号S(x,y)を生成する。その後、ステップSD11に進み、判定・合成処理を終了する。
【0069】
(x,y)=(βS(x,y)+(1−β)KS(x,y))/G …(I)
なお、信号比R(x,y)=感度比Kの場合は、加重平均β=1、調整利得G=1となり、上記式(I)により、大きい露光量の画像信号S(x,y)のみが、合成画像信号S(x,y)として用いられることがわかる。また、信号比R(x,y)=判定範囲(上限感度比KMAX及び下限感度比KMIN)である場合は、加重平均β=0、調整利得G=1となり、上記式(I)により、小さい露光量の画像信号S(x,y)のみが、合成画像信号S(x,y)として用いられることがわかる。
【0070】
以上のように、本発明の第3の実施例によれば、実際には動いている被写体領域であるが、判定範囲(上限感度比KMAX及び下限感度比KMIN)の設定により、動いていないと判定された場合でも、合成画像信号Sを小さい露光量の画像信号S×感度比Kの値にほぼ一致させて、細い白線を無くすことができる。
【0071】
図7は、本発明の第4の実施例による撮像装置11の構成例を示すブロック図である。
【0072】
撮像装置11のCCDイメージセンサ12、及びホワイトバランス部8以外の構成は、第1の実施例による撮像装置1の構成とほぼ同様であるので、その説明を省略する。
【0073】
CCDイメージセンサ12は、単板カラーセンサであり、例えば、水平(x)及び垂直(y)方向に配列される多数の光電変換素子(画素)、画素上に赤(R)、緑(G)、青(B)のモザイク色フィルタ及び垂直電荷転送路(VCCD)を含む受光領域、水平電荷転送路(HCCD)等を含んで構成されるCCD型固体撮像素子である。CCDイメージセンサ2は、大きい露光量(ロングシャッタ)と小さい露光量(ショートシャッタ)による撮像を順次行い、ロングシャッタによる1枚分(1フレーム分)の画像信号Cとショートシャッタによる1枚分(1フレーム分)の画像信号Cを、順番に出力する。なお、画像信号Cと画像信号Cは、画素位置ごとに色が異なる。
【0074】
ホワイトバランス部8は、CCDイメージセンサ12から出力されるRGB各色の画像信号Cと画像信号Cがホワイトバランスを得られるように、信号レベルを調整する。
【0075】
この第4の実施例においても、上述の第1の実施例による撮像処理及び第1〜第3の実施例のいずれかによる判定・合成処理を行う。上述の第1〜第3の実施例との違いは、画像信号Sと画像信号Sの代わりに、ホワイトバランス部8から出力されるホワイトバランス後の画像信号Cと画像信号Cを用いることである。また、CCDセンサー2の飽和信号レベルSSATの代わりに、ホワイトバランス後のCCDセンサー12の飽和信号レベルCSATを用いる。その他の処理は、上述の第1〜第3の実施例と同様である。
【0076】
単板カラーセンサであるCCDセンサー12に、上述の第1〜第3の実施例を単に適用した第4の実施例では、各映像信号の色の違いにかかわらず、各画素単独で、判定・合成処理を行っている。そのため、例えば、緑色に近い被写体の場合、緑の画素に対応する画像信号Sは、飽和信号レベルCSATに達しているが、隣の赤の画素に対応する画像信号Sは、飽和信号レベルCSATに達していないことが考えられる。このように、各画素でその色信号から飽和判定や動いている被写体の判定を行うと、色相が狂う場合がある。この点につき第4の実施例を改良したものが、第5の実施例である。
【0077】
図8は、本発明の第5の実施例による判定・合成処理を表すフローチャートである。この第5の実施例による判定・合成処理は、上述の第4の実施例と同様に、画像信号Sと画像信号Sの代わりに、ホワイトバランス部8から出力されるホワイトバランス後の画像信号Cと画像信号Cを用いるとともに、CCDセンサー2の飽和信号レベルSSATの代わりに、ホワイトバランス後のCCDセンサー12の飽和信号レベルCSATを用いる点で第1の実施例と異なる。また、上述の第1の実施例及び第4の実施例との相違点は、ステップSE2〜ステップSE4において、画素位置(x,y)の代わりに、判定画素位置(x,y)を含む複数の周辺画素位置(x’,y’)を用いる。それ以外の点については、第1の実施例による判定・合成処理と同様であるので、詳しい説明は省略する。なお、この第5の実施例の撮像装置11のシステム構成及び撮像処理は、上述の第4の実施例と同様である。
【0078】
なお、この第5の実施例も、第4の実施例と同様に、第2及び第3の実施例に適用することができる。その場合には、画像信号Sと画像信号Sの代わりに、ホワイトバランス部8から出力されるホワイトバランス後の画像信号Cと画像信号Cを用いるとともに、CCDセンサー2の飽和信号レベルSSATの代わりに、ホワイトバランス後のCCDセンサー12の飽和信号レベルCSATを用いることとし、図5のステップSC2〜ステップSC4又は図6のステップSD2〜ステップSD4の処理の代わりにステップSE2〜ステップSE4の処理を行うようにする。
【0079】
また、複数の周辺画素位置(x’,y’)は、判定画素位置(x,y)に近接する全ての色(例えば、赤、緑、青)に対応する画素を含むことが望ましい。
【0080】
以上のように、本発明の第5の実施例によれば、判定画素位置(x,y)を含む複数の周辺画素位置(x’,y’)を参照して、飽和判定や動いている被写体の判定を行うので、合成画像信号の色相の狂いを無くすことができる。
【0081】
なお、以上の第1〜第5の実施例では、リニアな画像信号で合成し、その後にガンマ補正等の処理を行うが、ガンマ補正後の画像信号に対しても、本発明を適用することができる。その場合は、ガンマ補正後の小さい露光量の画像信号Vと、ガンマ補正後の大きい露光量の画像信号Vは、感度比に一致しないため、予め感度比から計算した変換テーブル(V=LUT[V])を使用する。実際のV値と実際のV値のLUT換算値から飽和判定と移動体の判定を行い、この判定信号に基づき画像合成を行う。
【0082】
また、以上の第1〜第5の実施例では、大きい露光量の画像信号のみを一旦メモリに記憶し、小さい露光量の画像信号をCCDイメージセンサからリアルタイムに読み出すと同時に、大きい露光量の画像信号をメモリから読み出し、両方の画像信号を画像合成部と判定部に同時に供給しているが、小さい露光量の画像信号をメモリに記憶し、大きい露光量の画像信号をCCDイメージセンサからリアルタイムで読み出すようにしてもよい。また、両方の画像信号をメモリに記憶し、同時に読み出すようにしてもよい。
【0083】
以上実施例に沿って本発明を説明したが、本発明はこれらに制限されるものではない。例えば、種々の変更、改良、組合せ等が可能なことは当業者に自明であろう。
【0084】
【発明の効果】
以上説明したように、本発明によれば、良質で広いダイナミックレンジを持つ撮像装置を提供することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施例による撮像装置1の構成例を示すブロック図である。
【図2】本発明の第1の実施例による固体撮像処理の撮像処理を表すフローチャートである。
【図3】本発明の第1の実施例による判定・合成処理を表すフローチャートである。
【図4】白いストライプを、本実施例による撮像装置1において、ロングシャッタ、ショートシャッタの順で撮像した時の1水平ラインの画像信号を表す図である。
【図5】本発明の第2の実施例による判定・合成処理を表すフローチャートである。
【図6】本発明の第3の実施例による判定・合成処理を表すフローチャートである。
【図7】本発明の第4の実施例による撮像装置11の構成例を示すブロック図である。
【図8】本発明の第5の実施例による判定・合成処理を表すフローチャートである。
【図9】従来の撮像装置51の構成例を示すブロック図である。
【図10】従来の撮像装置51において白いストライプをロングシャッタ、ショートシャッタの順で撮像した時の1水平ラインの画像信号を表す図である。
【符号の説明】
1、11、51…固体撮像装置、2、12、52…CCDイメージセンサ、3、53…ADC、4、54…スイッチ、5、55…メモリ、6、56…画像合成部、7…判定部、8…ホワイトバランス部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an imaging apparatus, and more particularly to an imaging apparatus capable of obtaining an image with a wide dynamic range.
[0002]
[Prior art]
Conventionally, in a digital still camera or a video camera, an image having a wide dynamic range is obtained by imaging twice with different exposure amounts and performing signal processing on two types of image signals obtained from the two times of imaging. It has been known. The above-described imaging with different exposure amounts means, for example, that imaging is performed twice at a short time interval, that is, a long shutter time (long shutter) and a short shutter time (short shutter). The switching of the shutter time is performed, for example, using an electronic shutter alone or a mechanical shutter. (For example, refer to Patent Document 1.)
[0003]
[Patent Document 1] JP-A-11-75118
FIG. 9 is a block diagram illustrating a configuration example of a conventional imaging device 51. The imaging device 51 uses a black and white area sensor for convenience of explanation.
[0004]
The imaging device 51 includes at least a CCD image sensor 52, an analog / digital converter (ADC) 53, a switch 54, a memory 55, and an image composition unit 56.
[0005]
The CCD image sensor 52 sequentially performs imaging with a long shutter and a short shutter, and an image signal S by the long shutter.LAnd image signal S by short shutterSAre output in order.
[0006]
The ADC 53 is an analog image signal S output from the CCD image sensor 52.LAnd image signal SSAre converted into digital image signals, respectively. Image signal S converted to digital formatLAnd image signal SSAre distributed by the switch 54. Image signal S captured firstLIs temporarily stored in the memory 55, and thereafter the image signal S not via the memory 55.SAt the same time, it is sent to the subsequent image composition unit 56.
[0007]
In the image compositing unit 56, the input image signal S according to the following equation (A).LAnd image signal SSAre combined into a composite image signal SCOutput as.
[0008]
Figure 2004254151
However, SC(X, y) is the composite image signal S at the pixel position (x, y).C, SL(X, y) is the image signal S of the long shutter at the pixel position (x, y).L, SS(X, y) is the image signal S of the short shutter at the pixel position (x, y).S, SSATIs the saturation signal level of the CCD image sensor 52, and K is the sensitivity ratio of the long shutter to the short shutter (long shutter / short shutter).
[0009]
As apparent from the above formula (A), the image signal S of the short shutter is shown.SIs multiplied by the sensitivity ratio K to obtain a long shutter image signal S.LThe signal level is the same.
[0010]
In the image composition unit 56, the image signal S of the long shutter at the pixel position (x, y) is obtained by the above equation (A).L(X, y) is the saturation signal level SSATIs less than the composite image signal S at the pixel position (x, y).CAs (x, y), the image signal SLUsing (x, y), the saturation signal level SSATWhen this is the case, the image signal SS(X, y) is used. That is, the image signal S of the long shutterLSaturation signal level SSATIs the long shutter image signal S.LAnd short shutter image signal SSAnd are used by switching.
[0011]
[Problems to be solved by the invention]
In the conventional imaging device 51, when the subject is moving, an unnatural image may be formed near the boundary between the dark part and the bright part. This is because the shutter time of a large exposure amount (long shutter) mainly for photographing a dark part and the shutter period of a small exposure amount (short shutter) mainly for photographing a bright part are shifted. it is conceivable that.
[0012]
FIG. 10 is a diagram illustrating an image signal of one horizontal line when a white stripe is imaged in the order of a long shutter and a short shutter. FIG. 10A shows a long shutter image signal S.LFIG. 10B shows a short shutter image signal S.SFIG. 10C shows a synthesized image signal S obtained by synthesizing the image signal using the above-described equation (A) in FIGS. 10A and 10B.CRepresents. In the figure, the vertical axis represents the signal level, and the horizontal axis represents the pixel position in the horizontal direction.
[0013]
Long shutter image signal SLSince the shutter period is long, when the moving subject is imaged, the boundary between the white stripe and the background is slanted as shown in the figure. Further, the saturation signal level S indicated by the dotted lineSATSince the above portion is not output, the shape is as shown by the solid line.
[0014]
Since the short shutter is imaged after the long shutter, the image signal S of the short shutter is obtained.SIs the image signal S of the long shutterLThan move horizontally. This is because the white stripe moves in the horizontal direction by the time difference at the start of the shutter period.
[0015]
The above two image signals SLAnd image signal SSIs synthesized using the above-described equation (A) to obtain a synthesized image signal SCIt is. At this time, as described above, the image signal S of the long shutterLSaturation signal level SSATIs the long shutter image signal S.LAnd short shutter image signal SSAs shown in FIG. 10C, a thick and thick white line appears at a location away from the original white stripe. This is because the subject is moving, so the image signal S of the long shutterLIs the saturation signal level SSATThe position on the horizontal line to become and the image signal S of the short shutterSThis is because there is a shift in the position of the end on the horizontal line.
[0016]
An object of the present invention is to provide an imaging apparatus having a high quality and a wide dynamic range.
[0017]
[Means for Solving the Problems]
According to an aspect of the present invention, an imaging device captures an image of a subject with a large exposure amount and a small exposure amount, and a first image signal obtained by imaging with a large exposure amount and the same pixel position as the first image signal. An imaging means for outputting a second image signal obtained by imaging with a small exposure amount, a moving subject area and a saturation area of the first image signal based on the first image signal and the second image signal Determination means for determining whether or not the image signal is output, and image composition means for performing image composition by changing a ratio of the first image signal and the second image signal based on the determination signal.
[0018]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a block diagram illustrating a configuration example of an imaging apparatus 1 according to the first embodiment of the present invention. The imaging apparatus 1 of the present embodiment uses a monochrome area sensor.
[0019]
The imaging device 1 includes at least a CCD image sensor 2, an analog / digital converter (ADC) 3, a switch 4, a memory 5, an image composition unit 6, and a determination unit 7.
[0020]
The CCD image sensor 2 includes, for example, a light receiving region including a large number of photoelectric conversion elements (pixels) and a vertical charge transfer path (VCCD) arranged in the horizontal (x) and vertical (y) directions, a horizontal charge transfer path (HCCD). It is a CCD type solid-state imaging device comprised including the above. The CCD image sensor 2 sequentially performs imaging with a large exposure amount (long shutter) and a small exposure amount (short shutter), and the image signal S for one sheet (one frame) by the long shutter.LAnd the image signal S for one frame (one frame) by the short shutterSAre output in order.
[0021]
The ADC 3 is an analog image signal S output from the CCD image sensor 2.LAnd image signal SSAre converted into digital image signals, respectively. Image signal S converted to digital formatLAnd image signal SSAre distributed by the switch 4. Image signal S captured firstLIs temporarily stored in the memory 5 and thereafter the image signal S not passing through the memory 5.SAt the same time, it is sent to the subsequent image composition unit 6.
[0022]
The determination unit 7 detects the movement of the subject and saturation of the exposure amount, and supplies a determination signal to the image composition unit 6. The movement of the subject is detected by the image signal SLAnd image signal SSThe ratio R is compared with the sensitivity ratio K.
[0023]
The image composition unit 6 is based on the determination signal supplied from the determination unit 7, and the image signal SLAnd image signal SSAre synthesized (or one of them is selectively used) to produce a synthesized image signal SCIs generated and output. Details of processing in the image composition unit 6 and the determination unit 7 will be described later with reference to FIGS.
[0024]
FIG. 2 is a flowchart showing the imaging process of the solid-state imaging process according to the embodiment of the present invention.
[0025]
In step SA1, the imaging process is started in response to a user's instruction to start the imaging process (for example, a shutter operation).
[0026]
In step SA2, the CCD sensor 2 in FIG. 1 performs imaging with a large exposure amount, and an image signal S obtained by imaging with the large exposure amount.LIs output to the ADC 3.
[0027]
In step SA3, the image signal S in the ADC 3 of FIG.LAre converted from analog signal charges into digital image data.
[0028]
In step SA4, the switch 4 in FIG.LIs transferred from the ADC 3 to the memory 5 and temporarily stored.
[0029]
In step SA5, the CCD sensor 2 in FIG. 1 performs imaging with a small exposure amount, and an image signal S obtained by imaging with the small exposure amount.SIs output to the ADC 3.
[0030]
In step SA6, the image signal S in the ADC 3 of FIG.SAre converted from analog signal charges into digital image data.
[0031]
In step SA7, the switch 4 is switched to the image composition unit 6 side, and the image signal SSAt the same time as the image signal S temporarily stored in the memory 5.LIs supplied to the determination unit 7 and the image composition unit 6.
[0032]
In step SA8, a determination / combination process described later is performed. In the determination / combination processing, the image signal S is based on the determination signal supplied from the determination unit 7.LAnd image signal SSAre synthesized (or one of them is selectively used) to produce a synthesized image signal SCIs generated and output.
[0033]
In step SA9, the composite image signal SCIs output and the imaging process is terminated in step SA10.
[0034]
FIG. 3 is a flowchart showing the determination / combination processing according to the first embodiment of the present invention. The determination / combination processing detects the movement of the subject and the saturation of the exposure amount, and based on the detection result, the composite image signal SCIs generated. This determination / combination process is performed on the image signals at all pixel positions.
[0035]
In step SB1, determination / combination processing is started.
[0036]
In step SB2, it is determined whether or not the pixel position (x, y) is a saturated region. Here, when either of the following expressions (A-1) or (A-2) is satisfied, it is determined that the image signal exceeds the saturation signal level.
[0037]
SL(X, y) ≧ SSAT  ... (A-1)
KSS(X, y) ≧ SSAT  ... (A-2)
However, SSATIs a saturation signal level of the CCD sensor 2, and K is a sensitivity ratio obtained from a large exposure amount (long shutter time) / small exposure amount (short shutter time). The image signal S with a small exposure amountSMultiplying (x, y) by the sensitivity ratio K is the reason why the image signal S having a large exposure amount is multiplied.LThis is because (x, y) and the scale of the signal level are matched.
[0038]
If the image signal at the pixel position (x, y) exceeds the saturation level, it is determined that the pixel position (x, y) is in the saturation region, and the process proceeds to step SB5 indicated by the YES arrow. If it does not exceed the saturation signal level, it is determined that it is not the saturation region, and the process proceeds to Step SB3 indicated by a NO arrow.
[0039]
In step SB3, the image signal S at the pixel position (x, y) is based on the following equation (B).L(X, y) and image signal SSA signal ratio R (x, y) of (x, y) is obtained.
[0040]
R (x, y) = SL(X, y) / SS(X, y) (B)
In step SB4, it is determined whether or not the pixel position (x, y) is a moving subject area. Specifically, the upper limit sensitivity ratio K set in advance using the following equations (C1) and (C2) for the signal ratio R (x, y) obtained in step SB3.MAXAnd lower sensitivity ratio KMINCompare with The signal ratio R (x, y) is the upper limit sensitivity ratio KMAXGreater than (satisfies equation (C-1)) or lower limit sensitivity ratio KMINIf it is smaller (Equation (C-2) is satisfied), it is determined that the pixel position (x, y) is a moving subject area (moving subject), and the process proceeds to Step SB5 indicated by an arrow of YES. In other cases, it is determined that it is not a moving subject area (not a moving subject), and the process proceeds to Step SB6 indicated by a NO arrow.
[0041]
R (x, y)> KMAX  ... (C-1)
R (x, y) <KMIN  ... (C-2)
Upper sensitivity ratio KMAXAnd lower sensitivity ratio KMINIs a value set in advance according to the sensitivity ratio K. For example, when the sensitivity ratio K is “8”, the upper limit sensitivity ratio KMAXIs “10”, and the lower limit sensitivity ratio KMINCan be arbitrarily set above and below the sensitivity ratio K, such as “6”. Upper sensitivity ratio KMAXAnd lower sensitivity ratio KMINIs set to a value close to the sensitivity ratio K, a white line appearing in a composite signal shown in FIG. 4 to be described later becomes a thin and thin white line and becomes less conspicuous.
[0042]
In step SB5, the composite image signal S at the pixel position (x, y).CAs (x, y), an image signal KS having a small exposure amount at the pixel position (x, y) multiplied by the sensitivity ratio K.S(X, y) is adopted. Thereafter, the process proceeds to step SB7, and the determination / combination process is terminated. That is, if it is determined in step SB2 that the exposure amount of the image signal has reached saturation, or if it is determined in step SB4 that the subject is moving, the image signal KS having a small exposure amount.SIs adopted. In this way, for example, although the exposure amount is not saturated, in the moving subject area, the image signal KS with a small exposure amount is immediately generated.STherefore, it is possible to reduce (thinner) an image breakdown (for example, a white line appearing at a boundary between a bright subject and a dark subject) due to a time difference when switching from a large exposure amount image signal to a small exposure amount image signal. be able to.
[0043]
In Step SB6, the composite image signal S at the pixel position (x, y).CAs (x, y), an image signal S having a large exposure amount at the pixel position (x, y).L(X, y) is adopted. Thereafter, the process proceeds to step SB7, and the determination / combination process is terminated. That is, if it is determined in step SB2 that the exposure amount of the image signal has not reached saturation, and it is determined in step SB4 that the subject has not moved, the image signal S having a small exposure amount.LIs adopted. By doing so, the image signal S of a large exposure amount with a higher S / N ratio is obtained outside the moving subject area and the saturated area.LCan be used to generate an image signal.
[0044]
As described above, in the determination / combination processing according to the first embodiment of the present invention, the movement of the subject is detected, and the image signal S having a large exposure amount is detected.LImage signal S with a small exposure amount without waiting for the saturation exposure amount to be reached.SYou can switch to Therefore, even when the subject is moving, the failure of the image can be suppressed.
[0045]
FIG. 4 is a diagram illustrating an image signal of one horizontal line when a white stripe is imaged in the order of a long shutter and a short shutter in the imaging apparatus 1 according to the present embodiment. FIG. 4A shows a long shutter image signal S.LFIG. 4B shows a short shutter image signal S.S4C shows a composite image signal S obtained by combining FIG. 4A and FIG. 4B by the determination / combination processing shown in FIG.CRepresents. In the figure, the vertical axis represents the signal level, and the horizontal axis represents the pixel position in the horizontal (x) direction.
[0046]
Long shutter image signal SLSince the shutter period is long, when the moving subject is imaged, the boundary between the white stripe and the background is slanted as shown in the figure. Further, the saturation signal level S indicated by the dotted lineSATSince the above portion is not output, the shape is as shown by the solid line.
[0047]
Since the short shutter is imaged after the long shutter, the image signal S of the short shutter is obtained.SIs the image signal S of the long shutterLThan move horizontally. This is because the white stripe moves in the horizontal direction by the time difference at the start of the shutter period.
[0048]
The above two image signals SLAnd image signal SSIs obtained by combining the determination and combination processing shown in FIG. 3 into a combined image signal S shown in FIG.CIt is. When the image composition according to the present embodiment is performed, the thin white line is not a thick and thick white line as shown in FIG.
[0049]
This thin and thin white line indicates the upper limit sensitivity ratio K even if the subject is actually moving.MA XAnd lower sensitivity ratio KMIN(Set to a relatively far value from the sensitivity ratio K), it is determined that the subject is not a moving subject and appears in the area.MAXAnd lower sensitivity ratio KMINIs closer to the sensitivity ratio K, it becomes thinner and thinner. The upper limit sensitivity ratio KMAXAnd lower sensitivity ratio KMINIf the value is equal to the sensitivity ratio K, this white line will not appear. In this case, however, a video signal with a small exposure amount is always used.MAXAnd lower sensitivity ratio KMINIs set to a value slightly away from the sensitivity ratio K.
[0050]
FIG. 5 is a flowchart showing the determination / combination processing according to the second embodiment of the present invention. The system configuration and imaging process of the imaging apparatus 1 of the second embodiment are the same as those of the first embodiment described above.
[0051]
In the first embodiment described above, the image signal S having a large exposure amount.LImage signal S with a large exposure at the saturation pointLTo image signal S with a small exposure amountSTherefore, an unnatural image may appear in the composite image at this portion. For example, when there is a difference between the set value of the sensitivity ratio K and the actual value, such an unnatural composite image is generated. In this respect, the second embodiment is an improvement of the first embodiment.
[0052]
The processing from step SC1 to step SC5 is the same as that of the first embodiment shown in FIG.
[0053]
In step SC6, the image signal S having a large exposure amount at the pixel position (x, y).L(X, y) is a preset constant ALIt is determined whether or not the value is greater than. Image signal SL(X, y) is the constant ALIf larger, the process proceeds to step SC7 indicated by a YES arrow, and the composite image signal S at the pixel position (x, y)CAs (x, y), an image signal S having a large exposure amount at the pixel position (x, y).L(X, y) is adopted. Thereafter, the process proceeds to step SC10, and the determination / combination process is terminated. Image signal SL(X, y) is the constant ALIf not, the process proceeds to step SC8 indicated by a NO arrow.
[0054]
Constant ALIs a large exposure image signal SLSaturation signal level S of (x, y)SATIs set to a smaller value.
[0055]
In step SC8, the image signal S having a large exposure amount at the pixel position (x, y).LImage signal S with a small exposure amount (x, y)SA composite ratio α of (x, y) is obtained. The synthesis ratio α is obtained by the following formula (D). Thereafter, the process proceeds to Step SC9.
[0056]
α = (SSAT-SL(X, y)) / (SSAT-AL(D)
From the above formula (E), the composition ratio α is SL(X, y) = ALIn case of, it is “1” and SL(X, y) = SSATIn the case of, it is understood that it is “0”. That is, a preset constant ALTo saturation level SSATGradually
In step SC9, the image signal S having a large exposure amount is based on the composition ratio α obtained in step SC8.LImage signal S with a small exposure amount (x, y)S(X, y) and the synthesized image signal S at the pixel position (x, y)C(See equation (E)). Thereafter, the process proceeds to step SC10, and the determination / combination process is terminated.
[0057]
SC(X, y) = αSL(X, y) + (1-α) KSS(X, y) (E)
From the above formula (E), the composition ratio α is SL(X, y) = ALIn case of, it is “1” and SL(X, y) = SSATIn the case of, it is understood that it is “0”. Therefore, the preset constant ALTo saturation level SSATThe image signal S with a gradually increasing exposure amountLIt can be seen that the synthesis ratio of (x, y) decreases.
[0058]
As described above, according to the second embodiment of the present invention, the image signal S having a large exposure amount.L(X, y) is the saturation level SSATImage signal S with a small exposure amount from the stage before reachingSBy gradually changing the composition ratio α with (x, y), it is possible to improve the connection of the composite image near the saturation point. Therefore, an unnatural image near the saturation point can be suppressed.
[0059]
FIG. 6 is a flowchart showing the determination / combination processing according to the third embodiment of the present invention. The system configuration and imaging process of the imaging apparatus 1 of the third embodiment are the same as those of the first embodiment described above.
[0060]
In the first embodiment described above, even when the subject is actually moving, the upper limit sensitivity ratio KMAXAnd lower sensitivity ratio KMINMay be determined as not being a moving subject. In this case, as shown in FIG. 4, a thin and thin white line may appear. In this respect, the third embodiment is an improvement of the first embodiment.
[0061]
In the third embodiment, in the region where it is determined that the subject is not moving, the composite image signal SCIs a small exposure image signal SSX Image signal S with a small exposure amount so as to substantially match the value of sensitivity ratio KSAnd large exposure image signal SLAre weighted and added according to the flowchart shown in FIG. In this way, although the subject area is actually moving, the determination range (upper limit sensitivity ratio KMAXAnd lower sensitivity ratio KMIN), Even if it is determined not to move, the composite image signal SCImage signal S with a small exposure amountSX It almost coincides with the value of sensitivity ratio K. Therefore, a thin and thin white line as shown in FIG. 4 can be eliminated.
[0062]
The processing from step SD1 to step SD5 is the same as that of the first embodiment shown in FIG.
[0063]
In step SD6, the image signal S at the pixel position (x, y) obtained in step SD3.L(X, y) and image signal SSIt is determined whether the signal ratio R (x, y) of (x, y) is equal to or greater than the sensitivity ratio K. When the sensitivity ratio is equal to or greater than K, the process proceeds to step SD7 indicated by an arrow of YES, and when the sensitivity ratio is equal to or less than K, the process proceeds to step SD8 indicated by an arrow of NO.
[0064]
In step SD7, the weighted average β in the case of R (x, y) ≧ K is obtained according to the following equation (F). Thereafter, the process proceeds to step SD9.
[0065]
β = (KMAX-R (x, y)) / (KMAX-K) ... (F)
In step SD8, a weighted average β is obtained when R (x, y) <K, according to the following equation (G). Thereafter, the process proceeds to step SD9.
[0066]
β = (R (x, y) −KMIN) / (KKMIN(G)
Note that the weighted average β obtained in step SD7 and step SD8 is the image signal S.L(X, y) and image signal SSUsed to determine the composite ratio of (x, y).
[0067]
In step SD9, using the weighted average β obtained in step SD7 or step SD8, the composite image signal S is expressed according to the following equation (H).CImage signal S with a small exposure amountSX An adjustment gain G for substantially matching the value of the sensitivity ratio K is obtained. Thereafter, the process proceeds to step SD10.
[0068]
G = 1 + β (SL(X, y) / KSS(X, y) -1) (H)
In step SD10, using the weighted average β obtained in step SD7 or step SD8 and the adjustment gain G obtained in step SD9, an image signal having a large exposure amount with a pixel position (x, y) according to the following equation (I): SLImage signal S with a small exposure amount (x, y)S(X, y) and the synthesized image signal S at the pixel position (x, y)C(X, y) is generated. Thereafter, the process proceeds to step SD11, and the determination / combination process ends.
[0069]
SC(X, y) = (βSL(X, y) + (1-β) KSS(X, y)) / G (I)
When the signal ratio R (x, y) = sensitivity ratio K, the weighted average β = 1 and the adjustment gain G = 1, and the image signal S having a large exposure amount is obtained by the above equation (I).LOnly (x, y) is the composite image signal SCIt can be seen that it is used as (x, y). Further, signal ratio R (x, y) = determination range (upper limit sensitivity ratio KMAXAnd lower sensitivity ratio KMIN), The weighted average β = 0 and the adjustment gain G = 1, and the image signal S having a small exposure amount is obtained by the above equation (I).SOnly (x, y) is the composite image signal SCIt can be seen that it is used as (x, y).
[0070]
As described above, according to the third embodiment of the present invention, although the subject area is actually moving, the determination range (upper sensitivity ratio KMAXAnd lower sensitivity ratio KMIN), Even if it is determined not to move, the composite image signal SCImage signal S with a small exposure amountSX A thin white line can be eliminated by substantially matching the value of the sensitivity ratio K.
[0071]
FIG. 7 is a block diagram illustrating a configuration example of the imaging apparatus 11 according to the fourth embodiment of the present invention.
[0072]
Since the configuration other than the CCD image sensor 12 and the white balance unit 8 of the imaging device 11 is substantially the same as the configuration of the imaging device 1 according to the first embodiment, the description thereof is omitted.
[0073]
The CCD image sensor 12 is a single plate color sensor, for example, a large number of photoelectric conversion elements (pixels) arranged in the horizontal (x) and vertical (y) directions, and red (R) and green (G) on the pixels. , A CCD solid-state imaging device including a blue (B) mosaic color filter, a light receiving region including a vertical charge transfer path (VCCD), a horizontal charge transfer path (HCCD), and the like. The CCD image sensor 2 sequentially performs imaging with a large exposure amount (long shutter) and a small exposure amount (short shutter), and the image signal C for one sheet (one frame) by the long shutter.LAnd image signal C for one frame (one frame) by the short shutterSAre output in order. The image signal CLAnd image signal CSHave different colors for each pixel position.
[0074]
The white balance unit 8 outputs RGB image signals C output from the CCD image sensor 12.LAnd image signal CSAdjusts the signal level so that can achieve white balance.
[0075]
Also in the fourth embodiment, the imaging process according to the first embodiment and the determination / combination process according to any one of the first to third embodiments are performed. The difference from the first to third embodiments described above is that the image signal SLAnd image signal SSInstead of the white balance image signal C output from the white balance unit 8LAnd image signal CSIs to use. Also, the saturation signal level S of the CCD sensor 2SATInstead of the saturation signal level C of the CCD sensor 12 after white balance.SATIs used. Other processes are the same as those in the first to third embodiments.
[0076]
In the fourth embodiment in which the above-described first to third embodiments are simply applied to the CCD sensor 12 which is a single-plate color sensor, each pixel is determined and determined regardless of the color difference of each video signal. Synthetic processing is performed. Therefore, for example, in the case of a subject close to green, the image signal S corresponding to the green pixelLIs the saturation signal level CSAT, But the image signal S corresponding to the adjacent red pixelLIs the saturation signal level CSATIt is thought that it has not reached. As described above, when saturation determination or determination of a moving subject is performed from the color signal in each pixel, the hue may be out of order. In this regard, the fifth embodiment is an improvement of the fourth embodiment.
[0077]
FIG. 8 is a flowchart showing the determination / combination processing according to the fifth embodiment of the present invention. The determination / combination processing according to the fifth embodiment is similar to the fourth embodiment described above in that the image signal SLAnd image signal SSInstead of the white balance image signal C output from the white balance unit 8LAnd image signal CSAnd the saturation signal level S of the CCD sensor 2SATInstead of the saturation signal level C of the CCD sensor 12 after white balance.SATIs different from the first embodiment in that The difference between the first embodiment and the fourth embodiment described above is that a plurality of determination pixel positions (x, y) are included in step SE2 to step SE4 instead of the pixel position (x, y). Peripheral pixel position (x ′, y ′). Since the other points are the same as the determination / combination processing according to the first embodiment, detailed description thereof is omitted. Note that the system configuration and imaging processing of the imaging apparatus 11 of the fifth embodiment are the same as those of the above-described fourth embodiment.
[0078]
The fifth embodiment can also be applied to the second and third embodiments, similarly to the fourth embodiment. In that case, the image signal SLAnd image signal SSInstead of the white balance image signal C output from the white balance unit 8LAnd image signal CSAnd the saturation signal level S of the CCD sensor 2SATInstead of the saturation signal level C of the CCD sensor 12 after white balance.SATIs used, and the processing of step SE2 to step SE4 is performed instead of the processing of step SC2 to step SC4 of FIG. 5 or the processing of step SD2 to step SD4 of FIG.
[0079]
Further, it is desirable that the plurality of peripheral pixel positions (x ′, y ′) include pixels corresponding to all colors (for example, red, green, and blue) close to the determination pixel position (x, y).
[0080]
As described above, according to the fifth embodiment of the present invention, saturation determination and movement are performed with reference to a plurality of peripheral pixel positions (x ′, y ′) including the determination pixel position (x, y). Since the subject is determined, the hue of the composite image signal can be eliminated.
[0081]
In the first to fifth embodiments described above, synthesis is performed using a linear image signal, and thereafter processing such as gamma correction is performed. However, the present invention is also applied to an image signal after gamma correction. Can do. In that case, the image signal V with a small exposure after gamma correction is applied.SAnd a large exposure image signal V after gamma correction.LDoes not match the sensitivity ratio, so the conversion table (VL= LUT [VS]). Actual VLValue and actual VSSaturation determination and moving body determination are performed from the LUT converted value, and image synthesis is performed based on the determination signal.
[0082]
In the first to fifth embodiments described above, only the image signal having a large exposure amount is temporarily stored in the memory, and the image signal having a small exposure amount is read out in real time from the CCD image sensor. The signal is read from the memory, and both image signals are supplied to the image composition unit and the determination unit simultaneously. However, the image signal with a small exposure amount is stored in the memory, and the image signal with a large exposure amount is received from the CCD image sensor in real time. You may make it read. Alternatively, both image signals may be stored in a memory and read out simultaneously.
[0083]
Although the present invention has been described with reference to the embodiments, the present invention is not limited thereto. It will be apparent to those skilled in the art that various modifications, improvements, combinations, and the like can be made.
[0084]
【The invention's effect】
As described above, according to the present invention, it is possible to provide an imaging apparatus having a high quality and a wide dynamic range.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration example of an imaging apparatus 1 according to a first embodiment of the present invention.
FIG. 2 is a flowchart showing imaging processing of solid-state imaging processing according to the first embodiment of the present invention.
FIG. 3 is a flowchart showing determination / combination processing according to the first embodiment of the present invention;
FIG. 4 is a diagram illustrating an image signal of one horizontal line when a white stripe is imaged in the order of a long shutter and a short shutter in the imaging apparatus 1 according to the present embodiment.
FIG. 5 is a flowchart showing a determination / combination process according to the second embodiment of the present invention.
FIG. 6 is a flowchart showing a determination / combination process according to the third embodiment of the present invention.
FIG. 7 is a block diagram illustrating a configuration example of an imaging apparatus 11 according to a fourth embodiment of the present invention.
FIG. 8 is a flowchart showing a determination / combination process according to a fifth embodiment of the present invention.
FIG. 9 is a block diagram illustrating a configuration example of a conventional imaging device 51.
10 is a diagram illustrating an image signal of one horizontal line when a white stripe is imaged in the order of a long shutter and a short shutter in the conventional imaging device 51. FIG.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1, 11, 51 ... Solid-state imaging device 2, 12, 52 ... CCD image sensor 3, 53 ... ADC 4, 54 ... Switch 5, 55 ... Memory, 6, 56 ... Image composition part, 7 ... Determination part 8 ... White balance section

Claims (20)

大きい露光量と小さい露光量で被写体を撮像し、大きい露光量の撮像による第1の画像信号と、前記第1の画像信号と同一画素位置における小さい露光量の撮像による第2の画像信号を出力する撮像手段と、
前記第1の画像信号と前記第2の画像信号に基づき、動いている被写体領域と前記第1の画像信号の飽和領域とを判定し判定信号を出力する判定手段と、
前記判定信号に基づき、前記第1の画像信号と前記第2の画像信号との占める比率を変化させて画像合成を行う画像合成手段と
を有する撮像装置。
The subject is imaged with a large exposure amount and a small exposure amount, and a first image signal based on the large exposure amount and a second image signal based on the small exposure amount at the same pixel position as the first image signal are output. Imaging means to perform,
Determination means for determining a moving subject area and a saturation area of the first image signal based on the first image signal and the second image signal and outputting a determination signal;
An image pickup apparatus comprising: an image composition unit configured to perform image composition by changing a ratio of the first image signal and the second image signal based on the determination signal.
前記画像合成手段は、前記判定手段に判定される前記飽和領域及び前記動いている被写体領域においては、前記第2の画像信号のみを用いて画像合成を行う請求項1記載の撮像装置。2. The imaging apparatus according to claim 1, wherein the image composition unit performs image composition using only the second image signal in the saturated region and the moving subject region determined by the determination unit. 前記画像合成手段は、前記判定手段に判定される前記飽和領域及び前記動いている被写体領域以外においては、前記第1の画像信号のみを用いて画像合成を行う請求項1又は2記載の撮像装置。3. The imaging apparatus according to claim 1, wherein the image composition unit performs image composition using only the first image signal except for the saturated region and the moving subject region determined by the determination unit. . 前記画像合成手段は、前記判定手段に判定される前記飽和領域及び前記動いている被写体領域以外においては、前記第1の画像信号と前記第2の画像信号との占める比率を徐々に変化させて画像合成を行う請求項1又は2記載の撮像装置。The image synthesizing unit gradually changes a ratio of the first image signal and the second image signal except for the saturated region and the moving subject region determined by the determining unit. The imaging apparatus according to claim 1, wherein image synthesis is performed. 前記第1の画像信号の飽和レベルに近づくに従い、前記第2の画像信号の占める比率が増大する請求項4記載の撮像装置。The imaging apparatus according to claim 4, wherein a ratio occupied by the second image signal increases as the saturation level of the first image signal approaches. 前記画像合成手段は、さらに、前記合成した画像を前記第2の画像信号のレベルにほぼ一致させる請求項4又は5記載の撮像装置。The imaging apparatus according to claim 4, wherein the image synthesizing unit further causes the synthesized image to substantially match a level of the second image signal. 前記画像合成手段は、前記判定信号と前記第1の画像信号と前記第2の画像信号との少なくとも一方とに基づき、前記第1の画像信号と前記第2の画像信号との合成比率を変化させて画像合成を行う請求項1記載の撮像装置。The image synthesizing means changes a synthesis ratio of the first image signal and the second image signal based on at least one of the determination signal, the first image signal, and the second image signal. The imaging apparatus according to claim 1, wherein image synthesis is performed. 前記判定手段は、同一画素位置における前記第1の画像信号と前記第2の画像信号の比が所定の範囲内にあることにより動いている被写体領域を判定し、同一画素位置における前記第1の画像信号と、前記第2の画像信号に前記大きい露光量と小さい露光量の比を乗算したものとに基づき、前記第1の画像信号の飽和領域を判定する請求項1〜7のいずれか1項に記載の撮像装置。The determination unit determines a moving subject area when a ratio between the first image signal and the second image signal at the same pixel position is within a predetermined range, and the first image signal at the same pixel position is determined. The saturated region of the first image signal is determined based on the image signal and the second image signal multiplied by the ratio of the large exposure amount and the small exposure amount. The imaging device according to item. 前記判定手段は、判定対象画素を含む複数の周辺画素に対して、該周辺画素における前記第1の画像信号と前記第2の画像信号の比が所定の範囲内にあることにより動いている被写体領域を判定し、該周辺画素における前記第1の画像信号と、前記第2の画像信号に前記大きい露光量と小さい露光量の比を乗算したものとに基づき、前記第1の画像信号の飽和領域を判定する請求項1〜7のいずれか1項に記載の撮像装置。The determination means is a subject that moves when a ratio of the first image signal and the second image signal in the peripheral pixels is within a predetermined range with respect to a plurality of peripheral pixels including the determination target pixel. Determining a region and saturating the first image signal based on the first image signal at the surrounding pixels and the second image signal multiplied by the ratio of the large exposure amount to the small exposure amount. The imaging apparatus according to claim 1, wherein the area is determined. 前記所定の範囲は、前記前記第1の画像信号と前記第2の画像信号に応じて変化する請求項8又は9記載の撮像装置。The imaging device according to claim 8 or 9, wherein the predetermined range changes in accordance with the first image signal and the second image signal. 大きい露光量と小さい露光量で被写体を撮像し、大きい露光量の撮像による第1の画像信号と、前記第1の画像信号と同一画素位置における小さい露光量の撮像による第2の画像信号を出力する撮像工程と、
前記第1の画像信号と前記第2の画像信号に基づき、動いている被写体領域と前記第1の画像信号の飽和領域とを判定し判定信号を出力する判定工程と、
前記判定信号に基づき、前記第1の画像信号と前記第2の画像信号との占める比率を変化させて画像合成を行う画像合成工程と
を有する撮像方法。
The subject is imaged with a large exposure amount and a small exposure amount, and a first image signal based on the large exposure amount and a second image signal based on the small exposure amount at the same pixel position as the first image signal are output. An imaging process to
A determination step of determining a moving subject area and a saturation area of the first image signal based on the first image signal and the second image signal and outputting a determination signal;
An image pickup method comprising: an image composition step of performing image composition by changing a ratio of the first image signal and the second image signal based on the determination signal.
前記画像合成工程は、前記判定工程に判定される前記飽和領域及び前記動いている被写体領域においては、前記第2の画像信号のみを用いて画像合成を行う請求項11記載の撮像方法。The imaging method according to claim 11, wherein the image composition step performs image composition using only the second image signal in the saturated region and the moving subject region determined in the determination step. 前記画像合成工程は、前記判定工程に判定される前記飽和領域及び前記動いている被写体領域以外においては、前記第1の画像信号のみを用いて画像合成を行う請求項11又は12記載の撮像方法。The imaging method according to claim 11 or 12, wherein the image composition step performs image composition using only the first image signal except for the saturated region and the moving subject region determined in the determination step. . 前記画像合成工程は、前記判定工程に判定される前記飽和領域及び前記動いている被写体領域以外においては、前記第1の画像信号と前記第2の画像信号との占める比率を徐々に変化させて画像合成を行う請求項11又は12記載の撮像方法。In the image composition step, the ratio of the first image signal and the second image signal is gradually changed except in the saturated region and the moving subject region determined in the determination step. The imaging method according to claim 11 or 12, wherein image synthesis is performed. 前記第1の画像信号の飽和レベルに近づくに従い、前記第2の画像信号の占める比率が増大する請求項14記載の撮像方法。The imaging method according to claim 14, wherein a ratio occupied by the second image signal increases as the saturation level of the first image signal approaches. 前記画像合成工程は、さらに、前記合成した画像を前記第2の画像信号のレベルにほぼ一致させる請求項14又は15記載の撮像方法。The imaging method according to claim 14 or 15, wherein the image synthesizing step further makes the synthesized image substantially coincide with a level of the second image signal. 前記画像合成工程は、前記判定信号と前記第1の画像信号と前記第2の画像信号との少なくとも一方とに基づき、前記第1の画像信号と前記第2の画像信号との合成比率を変化させて画像合成を行う請求項11記載の撮像方法。The image synthesis step changes a synthesis ratio of the first image signal and the second image signal based on at least one of the determination signal, the first image signal, and the second image signal. The imaging method according to claim 11, wherein image synthesis is performed. 前記判定工程は、同一画素位置における前記第1の画像信号と前記第2の画像信号の比が所定の範囲内にあることにより動いている被写体領域を判定し、同一画素位置における前記第1の画像信号と、前記第2の画像信号に前記大きい露光量と小さい露光量の比を乗算したものとに基づき、前記第1の画像信号の飽和領域を判定する請求項11〜17のいずれか1項に記載の撮像方法。The determination step determines a moving subject area when a ratio of the first image signal and the second image signal at the same pixel position is within a predetermined range, and the first image signal at the same pixel position is determined. The saturated region of the first image signal is determined based on an image signal and the second image signal multiplied by the ratio of the large exposure amount and the small exposure amount. The imaging method according to item. 前記判定工程は、判定対象画素を含む複数の周辺画素に対して、該周辺画素における前記第1の画像信号と前記第2の画像信号の比が所定の範囲内にあることにより動いている被写体領域を判定し、該周辺画素における前記第1の画像信号と、前記第2の画像信号に前記大きい露光量と小さい露光量の比を乗算したものとに基づき、前記第1の画像信号の飽和領域を判定する請求項11〜17のいずれか1項に記載の撮像方法。In the determination step, for a plurality of peripheral pixels including the determination target pixel, a subject moving when a ratio between the first image signal and the second image signal in the peripheral pixel is within a predetermined range. Determining a region and saturating the first image signal based on the first image signal at the surrounding pixels and the second image signal multiplied by the ratio of the large exposure amount to the small exposure amount. The imaging method according to claim 11, wherein the region is determined. 前記所定の範囲は、前記前記第1の画像信号と前記第2の画像信号に応じて変化する請求項18又は19記載の撮像方法。The imaging method according to claim 18 or 19, wherein the predetermined range changes according to the first image signal and the second image signal.
JP2003043608A 2003-02-21 2003-02-21 Imaging unit and imaging method Withdrawn JP2004254151A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003043608A JP2004254151A (en) 2003-02-21 2003-02-21 Imaging unit and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003043608A JP2004254151A (en) 2003-02-21 2003-02-21 Imaging unit and imaging method

Publications (1)

Publication Number Publication Date
JP2004254151A true JP2004254151A (en) 2004-09-09

Family

ID=33026556

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003043608A Withdrawn JP2004254151A (en) 2003-02-21 2003-02-21 Imaging unit and imaging method

Country Status (1)

Country Link
JP (1) JP2004254151A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007020087A (en) * 2005-07-11 2007-01-25 Casio Comput Co Ltd Imaging apparatus and imaging method
JP2007124400A (en) * 2005-10-28 2007-05-17 Toshiba Corp Solid state imaging apparatus
JP2009010691A (en) * 2007-06-28 2009-01-15 Seiko Epson Corp Imaging apparatus, imaging method, image processor, image processing program, and image processing method
US7952629B2 (en) 2007-09-24 2011-05-31 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Image sensor
JP2012191360A (en) * 2011-03-09 2012-10-04 Fujitsu Ltd Image composition device, image composition method, and image composition program
JP2013187681A (en) * 2012-03-07 2013-09-19 Canon Inc Image composition device and image composition method
WO2014112291A1 (en) * 2013-01-17 2014-07-24 ソニー株式会社 Image processing device, image processing method, and program
JP2015082675A (en) * 2013-10-21 2015-04-27 三星テクウィン株式会社Samsung Techwin Co., Ltd Image processing device and image processing method
US9251573B2 (en) 2011-11-28 2016-02-02 Fujitsu Limited Device, method, and storage medium for high dynamic range imaging of a combined image having a moving object
JP2021013131A (en) * 2019-07-09 2021-02-04 キヤノン株式会社 Imaging apparatus and driving method of the same

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007020087A (en) * 2005-07-11 2007-01-25 Casio Comput Co Ltd Imaging apparatus and imaging method
JP4622711B2 (en) * 2005-07-11 2011-02-02 カシオ計算機株式会社 Image composition apparatus, image composition method, and program
JP2007124400A (en) * 2005-10-28 2007-05-17 Toshiba Corp Solid state imaging apparatus
JP4649313B2 (en) * 2005-10-28 2011-03-09 株式会社東芝 Solid-state imaging device
JP2009010691A (en) * 2007-06-28 2009-01-15 Seiko Epson Corp Imaging apparatus, imaging method, image processor, image processing program, and image processing method
US7952629B2 (en) 2007-09-24 2011-05-31 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Image sensor
JP2012191360A (en) * 2011-03-09 2012-10-04 Fujitsu Ltd Image composition device, image composition method, and image composition program
US9251573B2 (en) 2011-11-28 2016-02-02 Fujitsu Limited Device, method, and storage medium for high dynamic range imaging of a combined image having a moving object
JP2013187681A (en) * 2012-03-07 2013-09-19 Canon Inc Image composition device and image composition method
WO2014112291A1 (en) * 2013-01-17 2014-07-24 ソニー株式会社 Image processing device, image processing method, and program
US9569821B2 (en) 2013-01-17 2017-02-14 Sony Semiconductor Solutions Corporation Image processing device, image processing method, and program
JP2015082675A (en) * 2013-10-21 2015-04-27 三星テクウィン株式会社Samsung Techwin Co., Ltd Image processing device and image processing method
JP2021013131A (en) * 2019-07-09 2021-02-04 キヤノン株式会社 Imaging apparatus and driving method of the same
JP7374630B2 (en) 2019-07-09 2023-11-07 キヤノン株式会社 Imaging device and its driving method

Similar Documents

Publication Publication Date Title
US7791775B2 (en) Imaging apparatus for generating image having wide dynamic range by using different exposures
KR101247647B1 (en) Image synthesizing device, image synthesizing method, and recording medium
KR100798230B1 (en) Imaging device, imaging method and computer­readable recording medium
KR100914090B1 (en) Image pick­up apparatus
JP3382359B2 (en) Imaging device
WO2001039490A1 (en) Solid-state imaging device
EP0493586A1 (en) A distributed digital signal processing system using standard resolution processors for a high resolution sensor
CN112714252B (en) Image pickup apparatus
EP1246453A2 (en) Signal processing apparatus and method, and image sensing apparatus
KR100854163B1 (en) Imager and image quality correcting method
WO2017101546A1 (en) Image sensor, imaging device, mobile terminal and imaging method
WO2007049418A1 (en) Image processing system and image processing program
JP4763469B2 (en) Solid-state imaging device, image input device, and image correction method thereof
JP2004254151A (en) Imaging unit and imaging method
JP2008271123A (en) Imaging device
EP2214136B1 (en) Method and program for controlling image capture apparatus
US20060087569A1 (en) Image apparatus and method and program for producing interpolation signal
JP2004048663A (en) Image pickup device, image composition method and image synthesis program
JP2001238126A (en) Imaging apparatus and image processing method
JP3674420B2 (en) Solid-state imaging device
JP3988760B2 (en) Solid-state imaging device
JP2013207427A (en) Image pickup device and image pickup method
JP2006352716A (en) Imaging apparatus and imaging method
JP2004032171A (en) Imaging apparatus
JP2005223769A (en) Imaging apparatus and method therefor

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060509