JP2004328657A - Image input device, image input method and program - Google Patents

Image input device, image input method and program Download PDF

Info

Publication number
JP2004328657A
JP2004328657A JP2003124147A JP2003124147A JP2004328657A JP 2004328657 A JP2004328657 A JP 2004328657A JP 2003124147 A JP2003124147 A JP 2003124147A JP 2003124147 A JP2003124147 A JP 2003124147A JP 2004328657 A JP2004328657 A JP 2004328657A
Authority
JP
Japan
Prior art keywords
image
imaging
time
light
imaging target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003124147A
Other languages
Japanese (ja)
Inventor
Shunichi Numazaki
俊一 沼崎
Takahiro Harashima
高広 原島
Norio Mihara
功雄 三原
Kunihisa Kishikawa
晋久 岸川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2003124147A priority Critical patent/JP2004328657A/en
Publication of JP2004328657A publication Critical patent/JP2004328657A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image input method, and an image input device using it, capable of obtaining the depth information on a substance in an image or a picture comprising the depth information easily and moreover at a low cost. <P>SOLUTION: This image input device is equipped with an imaging means for taking an image of an object of imaging by a set exposure time interval, and a light emitting means for radiating light to the object of imaging. When the direction for imaging is inputted, the exposure time is set to a first time interval, light is radiated to the object of imaging with the light emitting means to take a first image of the object with the imaging means. The exposure time is set to the first time, and a second picture of the object of imaging is taken without radiating light to the object. The difference between the first image and the second image is found, and a third picture which is a picture representing the intensity distribution of reflected light by the object of imaging of light radiated to the object by the light emitting means, and comprises depth information on the object, is obtained. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、例えば、MOS型撮像デバイス、CCD撮像デバイスなどの固体撮像デバイスを用いて構成されるデジタルスチルカメラに関連する。
【0002】
【従来の技術】
近年、CCDイメージセンサをはじめとする固体撮像装置を用いた、画像入力装置が広く使用されるようになってきている。最近では、パーソナルコンピュータ(以下、PC)などに簡単に画像を転送し、また広く普及しているカラープリンタに印刷することも可能になっている。
【0003】
一方、昔から3次元画像の撮像が試みられてきた。古くは、2眼の銀塩カメラで、視差画像を撮像し、専用観察装置で見ることにより、立体視を行うことができた。近年では、単に3次元画像を見るだけではなく、様々に加工したり、再利用したりするために、視差のある2つの画像ではなく、奥行き値を持った画像を入力することが求められることが多い。これにより、撮像した物体を別の視点から見た3次元画像を再生したり、3次元CG(コンピュータグラフィクス)と合成したりすることができる。
【0004】
ここで、奥行き値と言う時、厳密にある基準点もしくは基準面からの距離値であったり、いくつかのレイヤー(例えば、近い、中くらい、遠い、など)に分ける属性であったり、あるいは取得系の特性によりある程度の誤差が生じた距離値であったりするが、ここでは、それらをひろく奥行き値と呼ぶことにする。
【0005】
また奥行き値は、対応する画像の1画素に付き1つあることもあるし、そうでないこともある。また、被測定物もしくはシーンの奥行き値の分布を奥行き画像と呼ぶことにする。
【0006】
奥行き画像を取得する装置は、これまでも既に存在する。代表的なものとして、レーザーレンジファインダがある。これは、主にレーザーによるスリット光を被測定物に照射し、その反射光を異なる位置から撮像し、スリット光の形状の歪から、三角法を用いて各部分の距離を求めるものである(例えば、特許文献1参照)。
【0007】
また、スリット光ではなく縞模様などのパターン光を照射して、その反射光を撮像し、パターン光の変化から、奥行きを求めるものもある(例えば、特許文献2参照)。
【0008】
レーザーレンジファインダや空間コード法を用いる場合は、特定用途向け製品のものが多く、装置が大掛かりになり、コストがかかってしまうという問題がある。また一般的には、複数の画像を取得し、処理する必要があることから、撮像するために時間がかかる。そのため、取得できるのは静止している物体に限られる。
【0009】
対象物に照射光を当て、その反射光が戻ってくるまでの時間を測定することで、距離を測定するものもある(例えば、非特許文献1参照)。しかし、このタイプも主に放送局などの専用用途向けであり、非常に大型であり、高額の装置となってします。
【0010】
人間が対象物の奥行きを判断するのと同じように、2眼カメラの画像の差異から奥行き情報を求めようというアプローチとして、ステレオカメラ法がある。従来のステレオカメラ法はカメラキャリブレーションを厳密に行う必要があるなど、問題があったが、最近では、参照点を配置した床面の上に物体を置き、参照点を含めた複数の画像を取得することで、複数の画像とそれぞれの画像を撮像した位置の両方を取得し、画像間の相関を用いて3次元形状を求める手法もある(例えば、特許文献3参照)。
【0011】
ステレオカメラ法では、一般に複数台のカメラの位置を厳密に調整する必要があり、運用の難しさ、コストアップにつながる。また、ステレオカメラ法は複数の画像間で、同じ部分が映っている対応点(対応領域)を求めることで、距離を計算するが、この対応点探索に非常に計算コストがかかり、また画像のクオリティや撮像条件により探索の正確さが顕著に悪くなるという傾向がある。実際に使用する際には、背景を単色素材で覆い、また複数視点からの画像が違いすぎないように照明を均一にするなどの工夫をして、対応点探索エラーが置きにくくすることが必要である。カメラ位置を特定するための参照チャートなどを用いるタイプの技術では、複数台のカメラを使わない分、カメラ位置の校正の問題は無いが、それ以外は、同じ問題が発生する。さらにこの場合は、複数の撮像を同じカメラで長時間にわたり撮像するため、人のような静止していることが難しい対象物の撮像は難しい。またチャートに対して、大きすぎる物体の撮像も難しい。
【0012】
複数の既知の照明を対象物に照射して撮像した、複数の画像から画像の奥行きを取得するアプローチもある。
【0013】
しかし、一般的に、光を照射するタイプの技術では、明るい場所で撮像を行うと、外光の影響によって正しく奥行き取得ができないことが多い。そのため、専用の撮影場所を用意する必要があるなどの不便もある。
【0014】
このように、従来の奥行き情報を含む画像を取得するための技術は、主に特定用途向けで高額で大掛かりな装置ばかりであり、撮像の手軽さが無い。すなわち、既存技術では、現在多くのデジタルカメラのユーザが手軽にデジタル写真の撮影、利用を行っているように、奥行き画像を取得することは不可能である。
【0015】
最近では、3次元画像表示装置も著しく進化、低コスト化して来ており、携帯電話のディスプレイに搭載されるまでになっている。しかし、上述のように手軽に奥行き画像を取得できる環境が無いため、表示するコンテンツは専門企業が制作したものをダウンロードして表示するか、ある程度対象を仮定した上で画像処理により、奥行きを推定して作成するツールを使うことになる。このようなツールで作成した奥行き画像はあくまで推定であり、実態とは異なるものである。仮定された対象物で無い場合は、最適な推定は行われないことが多い。
【0016】
【特許文献1】
特許第3317093号 (第1図)
【0017】
【特許文献2】
特許第3269484号 (第3図)
【0018】
【特許文献3】
特開平11−96374号公報 (第10図)
【0019】
【非特許文献1】
3DV Systems社のホームページ、[online]、[2003年3月25日検索]、インターネット<URL:http://www.3dvsystems.com/>
【0020】
【発明が解決しようとする課題】
このように、従来の奥行き情報を含む画像を取得するための技術は、主に特定用途向けで高額で大掛かりな装置ばかりであり、容易にしかも低コストで画像中の物体の奥行き情報を取得するができないという問題点があった。
【0021】
そこで、本発明は、上記問題点に鑑み、容易にしかも低コストで画像中の物体の奥行き情報あるいは奥行き情報を含む画像を取得することができる画像入力方法およびそれを用いた画像入力装置を提供することを目的とする。
【0022】
また、一般的なデジタルカメラなどの撮像操作と同じ操作を行うだけで、通常の画像(自然画像)と当該画像中の物体の奥行き情報あるいは奥行き情報を含む画像を取得することができる、画像入力方法およびそれを用いた画像入力装置を提供することを目的とする。
【0023】
【課題を解決するための手段】
(1)本発明は、設定された露光時間で撮像対象の画像を撮像する撮像手段と、前記撮像対象に光を照射するための発光手段を有する画像入力装置において、(ユーザからの)撮像指示が入力されると、前記露光時間を第1の時間に設定し、前記発光手段で前記撮像対象に光を照射して、前記撮像手段で前記撮像対象の第1の画像を撮像し、前記露光時間を前記第1の時間に設定し、前記発光手段で前記撮像対象に光を照射せずに、前記撮像手段で前記撮像対象の第2の画像を撮像し、前記第1の画像と前記第2の画像の差分を求めて、前記発光手段で前記撮像対象に照射した光の当該撮像対象による反射光の強度分布を表す画像であって、前記撮像対象の奥行き情報を含む第3の画像を得ることを特徴とする。
【0024】
また、前記第2の画像を撮像した後、前記露光時間を前記第1の時間とは異なる(例えば、第1の時間より長い)第2の時間に設定して、前記撮像手段で前記撮像対象の第4の画像を撮像する。
【0025】
本発明によれば、容易にしかも低コストで画像中の物体の奥行き情報あるいは奥行き情報を含む画像を取得することができる。1度の撮像指示で、露光時間が第1の時間で発光手段での発光を伴う第1の画像と、露光時間が第1の時間で発光手段での発光を伴わない第2の画像と、露光時間が第2の時間の第4の画像といった3枚の画像を撮像し、第1の画像と第2の画像とから奥行き情報を含む第3の画像を求めることができる。また、1度の撮像指示で、この奥行き情報を含む第3の画像とともに、通常の画像(通常の適切な露光時間で撮像される画像)である第4の画像(自然画像)を得ることができる。
【0026】
なお、第1の画像を撮像した後第2の画像を撮像してもよいし第2の画像を撮像した後に第1の画像を撮像してもよい。どちらを先に撮像しても上記のような効果等には影響はない。
【0027】
(2)本発明は、設定された露光時間で撮像対象の画像を撮像する撮像手段と、前記撮像対象に光を照射するための発光手段とを有する画像入力装置において、(ユーザからの)撮像指示が入力されると、前記露光時間を第1の時間に設定し、前記発光手段で前記撮像対象に光を照射して、前記撮像手段で前記撮像対象の第1の画像を撮像し、前記露光時間を前記第1の時間とは異なる(例えば第1の時間より長い)第2の時間に設定し、前記発光手段で前記撮像対象に光を照射せずに、前記撮像手段で前記撮像対象の第2の画像を撮像し、前記第2の画像の各画素値から、前記第2の時間のうち前記第1の時間の間に撮像された画像成分を抽出して、各画素値が前記抽出された画像成分である第3の画像を求め、前記第1の画像と前記第3の画像との差分を求めて、前記発光手段で前記撮像対象に照射した光の当該撮像対象による反射光の強度分布を表す画像であって、前記撮像対象の奥行き情報を含む第4の画像を得ることを特徴とする。
【0028】
前記第3の画像は、前記第2の画像の各画素値に、前記第2の時間に対する前記第1の時間の比率を乗じて求める。
【0029】
前記第3の画像は、前記第2の画像を構成する複数の画素のそれぞれの画素値を当該複数の画素のそれぞれに対応する前記第1の画像の画素値で除した結果得られる当該複数の画素のそれぞれに対応する値のなかから、前記第2の時間に対する前記第1の時間の比率に対応する値を選択し、前記第2の画像の各画素値に前記選択された値を乗じて、前記第3の画像を求める。
【0030】
本発明によれば、容易にしかも低コストで画像中の物体の奥行き情報あるいは奥行き情報を含む画像を取得することができる。また、1度の撮像指示で、露光時間が第1の時間で発光手段での発光を伴う第1の画像と、露光時間が第2の時間で発光手段での発光を伴わない第2の画像といった2枚の画像を撮像し、第1の画像と第2の画像とから奥行き情報を含む第4の画像を求めることができる。また、1度の撮像指示で、この奥行き情報を含む第4の画像とともに、通常の画像(通常の適切な露光時間で撮像される画像)である第2の画像(自然画像)を得ることができる。
【0031】
なお、第1の画像を撮像した後第2の画像を撮像してもよいし第2の画像を撮像した後に第1の画像を撮像してもよい。どちらを先に撮像しても上記のような効果等には影響はない。
【0032】
【発明の実施の形態】
以下、本発明の実施形態について、図面を参照して説明する。
【0033】
本実施形態では、低コストに奥行き画像を取得することができる画像入力装置の実現を目的とする。従って、従来のデジタルカメラになるべく近い構成で実現できることが特徴となっている。そこで、本実施形態を説明する前に、まず、従来のデジタルカメラの構成、動作について説明する。
【0034】
従来のデジタルカメラの概略的な構成を図16に示す。被写体はレンズ101を通して、イメージセンサ104上に結像する。レンズ101とイメージセンサ104の間には、絞り102とシャッタ103がある。正確には絞り102、シャッタ103は、複数枚のレンズで構成されるレンズ系の内部にあることもあるが、図16では、簡略化して示している。
【0035】
絞り102は、イメージセンサ104に入ってくる光の量を調節し、シャッタ103は撮像時に開いて、イメージセンサ104上に光を到達させる。イメージセンサはCCD(電荷結合素子)イメージセンサとCMOSイメージセンサが代表的であるが、ここでは、主にCCDイメージセンサを用いて説明する。イメージセンサ104は、光を電荷に変換する各画素に対応する複数のフォトダイオード(PD)を2次元的に配列し、各フォトダイオードが受光した光の強さに応じて電荷を蓄積して、光学像を電荷像に変換する光電変換部104aと、各フォトダイオードに蓄積された電荷(電荷像)を信号処理回路へ転送するための転送部104bからなる。光電変換部104aの各フォトダイオードに蓄積された電荷(電荷像)は、一旦転送部104bへ転送される。転送部104bは、電荷像を1次元の電気信号(画像信号)として信号処理回路105へ出力する。
【0036】
PDで電荷蓄積を行う時間をイメージセンサ104自体で制御できるため、フィルムカメラと異なり、メカニカルシャッタが無くても動作する。しかし、イメージセンサ104は撮像していないときでも光がセンサ上に当たることにより、ノイズなど様々な問題を発生させるため、デジタルスチルカメラではメカニカルシャッタを併用することが多い。
【0037】
イメージセンサ104からの出力(画像信号)は信号処理回路105を経て、メモリ106に蓄えられる。信号処理回路105では、イメージセンサ104上の各R、G、Bの画素の信号から、カラー画像を生成するカラー画像処理やノイズの低減、コントラストの調整やガンマ変換などを行う。
【0038】
CCDイメージセンサの場合は、出力はアナログの電圧出力であることが一般的なので、上記の信号処理の前に、アンプやA/D変換器などが入る場合が多いがここでは、信号処理回路105が、これらを含む構成となっている。なお、CCDイメージセンサのチップセットでは、このアンプ、A/D変換器からカラー処理などまでを含めてひとつのLSIで実現することが多い。
【0039】
ストロボ112は被写体に対し、光を照射する。暗い環境で撮影するときや逆光で被写体がまわりに比べ暗くなってしまったときに、補助的な光源として使用する。制御部113が上記各構成部を制御する。
【0040】
実際の撮像の動作タイミングを図17を参照して説明する。ここではストロボ撮影を行った場合の動作を説明する。図17(a)はシャッタ103の動作、図17(b)は、イメージセンサ104の中での光電変換部104aの電荷蓄積動作、図17(c)はイメージセンサ104の(転送部104bの)出力動作、図17(d)はストロボの発光動作を表している。いずれも横軸は時間軸であり、時間経過(図17の左から右)に伴う各動作タイミングを表している。
【0041】
まず、使用者の撮影指示(一般的にはシャッタボタンの押し下げによる、図示しない)により、イメージセンサ104の各PD(光電変換部104a)が一斉にリセットされる(ステップS201)。具体的にはそれまで各PDに貯まっていた電荷を排出することにより、この時点から新たな電荷蓄積が始まる。光電変換部104aのリセット後にシャッタが開く(ステップS202)。図17(a)のシャッタ103動作は「1」のときはシャッタが開いていることを表し、「0」のときは閉じていることを表す。厳密にはメカニカルシャッタはその応答遅れと動作時間が存在するので、瞬時に全開放とはならず、「0」から「1」へはなだらかに立ち上がるが、図17(a)では簡略化のために「0」から「1」へと瞬時に立ち上がっているように表されている。
【0042】
シャッタ103が開いた後にストロボ112が発光する(ステップS203)。なお、図17(d)のストロボ112の発光動作は「1」のときは発光している状態を表し、「0」のときは発光していない状態を表す。
【0043】
シャッタ103が開いてから一定時間txの後、シャッタ103が閉じ(ステップS204)、光電変換部104aの各PDの電荷がイメージセンサ104の転送部104bへ転送される(ステップS205)。転送部104bに出力された電荷は転送部104bから順次信号処理回路105へ出力される(ステップS206)。
【0044】
光電変換部104aのリセットや光電変換部104aから転送部104bへの電荷転送のタイミングと、シャッタ103の開閉のタイミングの前後関係は必ずしも図示したとおりでなく、例えば、シャッタ103が開いてから光電変換部104aをリセットしても構わないし、転送部104bに電荷を転送してからシャッタ103を閉じても構わない。
【0045】
光電変換部104aの動作で、リセット(電荷排出)してから、転送部104bへ電荷転送されるまでが、光電変換された電荷が蓄積される時間である。
【0046】
実際には、CCDイメージセンサ104が電荷蓄積できる状態であってもシャッタ103が閉じていれば光は入らない。従って、CCDイメージセンサ104が電荷蓄積できる状態であり、かつシャッタが開いている時間が、いわゆる露光時間となる。図17では、露光時間はtxとなる。以後、この状態(露光時間帯)を「撮像している状態」と呼ぶことにする。また、ストロボを使わずに撮影する際には、単に上述の動作でストロボを発光させなければ良い。露光時間txをどのように設定するかは、マニュアル設定やあるいは自動露光制御により決定された値が用いられる。
【0047】
図16に示した従来のデジタルカメラの撮像動作の他の例について、図18に示すフローチャートを参照して説明する。使用者からの撮影要求に従って、フローチャートがスタートする。シャッタ103を開け(ステップS211)、光電変換部104aの各PDの電荷を排出し電荷蓄積を開始する(ステップS212)。開始直後にストロボ112を発光する(ステップS213)。その後、撮像開始後txだけ経つまで待ち(ステップS214)、光電変換部104aの各PDの電荷を転送部104bに転送し(ステップS215)、シャッタ103を閉じる(ステップS217)。CCDイメージセンサ104からの画像信号の出力を開始する(ステップS218)。
【0048】
図18のフローチャートには示されていないが、イメージセンサ104から出力された画像信号は、信号処理回路105へ入力し、信号処理回路105で所定の信号処理が施されて、メモリ106に被写体の画像が蓄積される。
【0049】
次に、本発明の第1の実施形態について図面を参照して説明する。
【0050】
なお、ここで、奥行き情報とは、例えば、ある基準点もしくは基準面からの距離値、いくつかのレイヤー(例えば、近い、中くらい、遠い、など)に分ける属性であったり、あるいは画像の撮像系の特性によりある程度の誤差が生じた距離値であったりする。すなわち、画像中の撮像対象物の3次元的な形状に関する情報や、画像中の複数の撮像対象物の位置関係を(絶対的なあるいはある基準点からみた相対的な)距離値や、レベルなどを表す情報である。
【0051】
反射光画像は、ストロボなどの発光手段で撮像対象に照射した光の当該撮像対象による反射光の強度分布を表す画像である。上記奥行き情報としての距離値やレベルなどの数値等は、反射光画像の各画素値を基に算出することができるので、反射光画像は上記奥行き情報を含む画像といえる。
【0052】
奥行き画像は、厳密には、その画素値が上記奥行き情報であり、上記反射光画像から求めることができる画像である。しかし、ここでは、上記反射光画像もその画素値に奥行き情報が含まれているので、奥行き画像の一種とみなしている。
【0053】
<第1の実施形態>
図1は、第1の実施形態に係る画像入力装置の概略的な構成例を示したものである。なお、図1において、図16と同一部分には同一符号を付している。この構成は、図16に示した一般的なデジタルスチルカメラの構成とよく似ている。図16に示したデジタルカメラの構成と異なる点は、図1では、図16に示した従来のデジタルカメラにはない演算部111を有し、さらに、図16に示した制御部113の代わりに、図1では制御部114が接続されている。また、使用者による1度のシャッタ操作(シャッタボタンの押し下げ)により3枚の画像(第1の画像107〜第3の画像109)が撮像され、それらがメモリ106に蓄積される。そして、後述するように、第1の画像107と第2の画像108から奥行き画像が生成され、それもメモリ106に蓄積される。
【0054】
まず、図1の画像入力装置の各構成部について説明する。
【0055】
被写体はレンズ101を通して、イメージセンサ104上に結像する。レンズ101とイメージセンサ104の間には、絞り102とシャッタ103がある。正確には絞り102、シャッタ103は、複数枚のレンズで構成されるレンズ系の内部にあることもあるが、図1では、簡略化して示している。また、絞りとシャッタを兼ねて一体化されているものを用いることもある。
【0056】
絞り102は、イメージセンサ104に入ってくる光の量を調節し、シャッタ103は撮像時に開いて、イメージセンサ104上に光を到達させる。イメージセンサは、例えばCCD(電荷結合素子)イメージセンサとCMOSイメージセンサなどが代表的であるが、ここでは、主にCCDイメージセンサを用いて説明する。イメージセンサ104は、光を電荷に変換する各画素に対応する複数のフォトダイオード(PD)を2次元的に配列し、各フォトダイオードが受光した光の強さに応じて電荷を蓄積して、光学像を電荷像に変換する光電変換部104aと、各フォトダイオードに蓄積された電荷(電荷像)を信号処理回路へ転送するための転送部104bからなる。光電変換部104aの各フォトダイオードに蓄積された電荷(電荷像)は、一旦転送部104bへ転送される。転送部104bは、電荷像を1次元の電気信号(画像信号)として信号処理回路105へ出力する。
【0057】
イメージセンサ104の出力は信号処理回路105を経て、メモリ106に蓄えられる。信号処理回路105では、イメージセンサ104上の各R、G、Bの画素の信号から、カラー画像を生成するカラー画像処理やノイズの低減、コントラストの調整やガンマ変換などを行う。CCDイメージセンサの場合は、出力はアナログの電圧出力であることが一般的なので、上記の信号処理の前に、アンプやA/D変換器などが入る場合が多いがここでは、信号処理回路105が、これらを含む構成となっている。
【0058】
メモリ106の中の、第1の画像107、第2の画像108、第3の画像109、奥行き画像110は、それぞれ画像データを表している。ここでは、イメージセンサ104から3枚の画像をまずメモリ106に蓄え、次いで後述する演算部111が第1の画像107と第2の画像108から、奥行き画像110を生成し、それをメモリ106に蓄積する。
【0059】
演算部111は各画素が被写体の奥行き情報を表す奥行き画像110を演算して生成する。ストロボ112は被写体に対し、光を照射する。通常は補助的な光源として使用するが、本実施形態では、それと異なる役割もする。制御部114が上記各構成部を制御する。
【0060】
イメージセンサ104は、具体的には、例えば、図2に示すような構成のCCD撮像デバイスである。ここでは、説明の簡単のため、4×4画素の合計16画素の場合を表している。16個のフォトダイオードPDは、4行4列に配置され、各列のフォトダイオードの間には、それぞれ垂直転送CCDが配列され、最後の行の垂直転送CCDに隣接して水平転送CCDが1本設けられている。
【0061】
レンズ101により、この表面に被写体の光学像が結像されると各フォトダイオードPDでは、光電変換が行われ、光の強さと時間に応じて電荷が蓄積されていく。このようにして電荷像ができあがる。この電荷像を1次元の電気信号として外部に取り出すために、縦横に順次信号を転送していき、1個の信号出力端子から信号を取り出すように工夫されている。この役目をするのが、垂直転送CCDと、水平転送CCDといった転送部である。
【0062】
まず、16画素のフォトダイオードPDに蓄積された電荷はフィールドシフトパルスにより、一斉に垂直転送CCDの一部に転送される。次に、4列の垂直転送CCDが並列に垂直方向に電荷を転送し始める。垂直に転送された信号電荷は水平転送CCDにつぎつぎ送り込まれる。1行分、4画素の信号が入るたびに、水平方向CCDは素早く、信号を水平方向に転送し、左端に設けられた出力回路を通じて信号を出力する。このようにして、1ラインずつの信号が出力端子から得られる。
【0063】
イメージセンサ104が、図2に示すような構成のCCD撮像デバイスであるとき、図2のフォトダイオードPDの4行4列の配列が、図1の光電変換部104aに対応し、図2の垂直転送CCDと水平転送CCDが図1の転送部104bに対応する。
【0064】
なお、イメージセンサ104が電荷蓄積できる状態であり、かつシャッタが開いている時間が露光時間となる。この露光時間は、第1〜第3の各画像を撮像する際に、制御部114により設定される。露光時間帯が被写体を「撮像している状態」である。
【0065】
次に、第1の実施形態に係る図1の画像入力装置の動作を図3に示すタイミングチャートと図4、図5に示すフローチャートを参照して説明する。
【0066】
図3(a)はシャッタ103の動作、図3(b)は、イメージセンサ104の中での光電変換部104aの電荷蓄積動作、図3(c)はイメージセンサ104の(転送部104bの)出力動作、図3(d)はストロボの発光動作を表している。いずれも横軸は時間軸であり、時間経過(図3の左から右)に伴う各動作タイミングを表している。
【0067】
図3(a)のシャッタ103動作は「1」のときはシャッタが開いていることを表し、「0」のときは閉じていることを表す。厳密にはメカニカルシャッタはその応答遅れと動作時間が存在するので、瞬時に全開放とはならず、「0」から「1」へはなだらかに立ち上がるが、図3(a)では簡略化のために「0」から「1」へと瞬時に立ち上がっているように表されている。また、図3(d)のストロボ112の発光動作は「1」のときは発光している状態を表し、「0」のときは発光していない状態を表す。
【0068】
図4〜図5は、図1の画像入力装置の処理動作を説明するためのフローチャートであり、この動作は、例えば、制御部114がもつROM(Read Only Memory)等の記憶手段に記憶されたプログラムに従って、図1の各構成部を制御することで実現される。
【0069】
なお、図3と、図4〜図5とにおける同じステップには、同じ符号を付している。
【0070】
まず使用者による撮影指示(例えば、シャッタボタンの押し下げ)を受けて、制御部114により動作がスタートされる。まず、シャッタを開いた後(図4のステップS1)、光電変換部104aの各フォトダイオードPDを一斉にリセットし撮像を開始する。(ステップS2)。撮像開始直後にストロボ112を発光し(ステップS3)、露光時間として制御部114により設定された時間t1の間、撮像した後(ステップS4)、この露光時間帯に光電変換部104aの各フォトダイオードに蓄積された電荷を転送部104bに移し(ステップS5)、それと同時に転送部104bは、出力動作を開始する(ステップS6)。また、シャッタ103も閉じられる(ステップS7)。
【0071】
ステップS6では、転送部104bは、光電変換部104aから送られた各画素に対応する電荷を、第1の画像の画像信号(第1の信号)として、信号処理回路105へ出力する。信号処理回路105では、入力した第1の信号に対し、カラー画像を生成するカラー画像処理やノイズの低減、コントラストの調整やガンマ変換などの処理を行い、その後、当該第1の信号は、第1の画像としてメモリ106に蓄積される。
【0072】
転送部104bにて、1枚の画像(第1の画像)の信号の出力が完了した後(ステップS8)、再びシャッタを開き(ステップS9)、光電変換部104aの各フォトダイオードPDを一斉にリセットし、2回目の撮像を開始する(ステップS10)。2回目の撮像において制御部114により設定される露光時間は1回目の撮像の際の露光時間と同じであるが(t1)、ストロボ112を発光させないところが異なる。
【0073】
設定された露光時間、すなわち、時間t1経過後(ステップS11)、光電変換部104aの各フォトダイオードに蓄積された電荷を転送部104bに移し(ステップS12)、それと同時に転送部104bは、出力動作を開始する(ステップS13)。また、シャッタ103も閉じられる(ステップS14)。
【0074】
ステップS12では、転送部104bは、ステップS6と同様に、光電変換部104aから送られた各画素に対応する電荷を、第2の画像の画像信号(第2の信号)として、信号処理回路105へ出力する。信号処理回路105では、入力した第2の信号に対し、カラー画像を生成するカラー画像処理やノイズの低減、コントラストの調整やガンマ変換などの処理を行い、その後、当該第2の信号は、第2の画像としてメモリ106に蓄積される。
【0075】
転送部104bにて、2枚目の画像(第2の画像)の信号の出力が完了した後(ステップS15)、再びシャッタを開き(図5のステップS16)、光電変換部104aの各フォトダイオードPDを一斉にリセットし、3回目の撮像を開始する(ステップS17)。3回目の撮像において制御部114により設定される露光時間は1回目、2回目とは異なる時間t2に設定される。
【0076】
設定された露光時間、すなわち、時間t2経過後(ステップS18)、光電変換部104aの各フォトダイオードに蓄積された電荷を転送部104bに移し(ステップS19)、それと同時に転送部104bは、出力動作を開始する(ステップS20)。また、シャッタ103も閉じられる(ステップS21)。
【0077】
ステップS20では、転送部104bは、ステップS6、ステップS12と同様に、光電変換部104aから送られた各画素に対応する電荷を、第3の画像の画像信号(第3の信号)として、信号処理回路105へ出力する。信号処理回路105では、入力した第3の信号に対し、カラー画像を生成するカラー画像処理やノイズの低減、コントラストの調整やガンマ変換などの処理を行い、その後、当該第3の信号は、第3の画像としてメモリ106に蓄積される。
【0078】
ここで、第1〜第3の画像について説明する。
【0079】
1枚目の第1の画像はストロボ112を発光しながら、極短時間(時間t1の間)露光した画像である。ストロボ112は、1/1,000〜1/10,000秒というような極短時間発光するため、露光時間t1は、このストロボ112発光時間程度の時間に設定する。ストロボ112の光は強力なので、1〜3m程度の距離にある被写体であれば時間t1が短くても十分撮影が可能である。時間t1が短いので、比較的暗い環境であれば、ストロボ光以外の光の影響は少ないが、明るい環境であれば背景光(太陽光や室内照明光など)によって背景などが写る。
【0080】
2枚目の第2の画像は第1の画像と同じ露光時間t1で、ストロボ112を発光せずに取得した画像である。ここで第1の画像と2第2の画像を写したときの外光条件はほぼ同じであるので、第1の画像から第2の画像を引き算すると、外光成分が無くなる。すなわち、第1の画像と第2の画像の差分画像は、真っ暗闇の状態でストロボ112の光のみを使用して撮像したのと同じ状態の画像である。この差分画像は、ストロボ112の光が被写体に反射した光だけを捉えた画像と言い換えることもできる。この差分画像を反射光画像と呼ぶ。
【0081】
反射光画像は、被写体(撮像対象)の奥行きに関する情報を含んでいると考えられる。
【0082】
物体からの反射光は、画像入力装置から物体までの距離が大きくなるにつれ大幅に減少する。物体の表面が一様に光を錯乱する場合、反射光画像1画素あたりの受光量は物体までの距離の2乗に反比例して小さくなる。
【0083】
反射光画像の各画素値は、その画素に対応する反射光の量を表す。反射光は、物体の性質(光を鏡面反射する、錯乱する、吸収する、など)、物体の向き、物体の距離などに影響されるが、物体全体が一様に光を錯乱する物体である場合、その反射光量は物体までの距離と密接な関係を持つ。例えば、人間の手などは、このような性質をもつため、画像入力装置の前方に手を差し出した場合の反射光画像は、手までの距離、手の傾き(部分的に距離が異なる)などを反映する、3次元的なイメージを表したものとなる。
【0084】
光を拡散する性質を持った物体を撮影する場合、物体の距離の2乗に反比例して反射光の強さは減衰するので、例えば、人物が1〜2mの位置にあり、その後ろ10m以上離れた場所に背景物が存在している場合、人物からは十分な反射光が戻ってくるが、背景からはほとんど反射光が戻ってこない。従って、反射光画像を用いると、人物と背景を切り分けることが可能となる。また、反射光の強さが距離の2乗に反比例することを用いれば、物体の立体的な形状を復元することもできるのである。
【0085】
ある物体の撮像されている反射光画像のある画素値Qは、当該画素に対応する当該物体の部分と画像入力装置との間の距離をd、当該物体表面の色や反射率、光沢、素材、面の傾きなどのうちのいれかに応じて、当該素値の反射光の強度を補正する役割をもつ係数をkとすると、
Q=k/d…(1)
と表すことができる。式(1)をdについて解くことで、物体表面の凸凹や複数の物体の位置関係に対応する奥行き情報としての距離dを求めることができる。
【0086】
各画素値が上記奥行き情報を表す画像を奥行き画像と呼ぶ。
【0087】
物体表面の色や反射率、傾き、光沢、素材などに応じた反射光の強度の違いから、反射光画像中では、実際には、近くにあるのに遠くにあるように写されていたり、その逆もあり得る。従って、上記反射光画像は、厳密には、上記奥行き画像ではないが、反射光画像に写されている物体の表面の色や反射率、傾き、光沢、素材などを基に適切なkの値を選べば、上記(1)式から、各画素を上記奥行き情報を表す画像に変換することができる。すなわち、反射光画像の各画素には、奥行き情報が含まれている、あるいは表されているといえるので、ここでは、反射光画像も奥行き画像の一種として取り扱うことにする。
【0088】
3枚目の第3の画像は、時間t1とは異なる時間t2という露光時間で撮影される。この時間t2という時間は従来のデジタルスチルカメラによる撮像のように、被写体を適切に撮影するように設定される露光時間である。
【0089】
これにより、奥行き情報を持つ反射光画像(差分画像)と、自然画像(3枚目の第3の画像)の両方が得られる。
【0090】
図5の説明に戻り、転送部104bにて、3枚目の画像(第3の画像)の信号の出力が完了すると(ステップS22)、メモリ106には、第1の画像107、第2の画像108、第3の画像109が格納されている。その後、演算部111が第1の画像107と第2の画像108を読込み(ステップS23)、両者の差分演算を行い、反射光画像(差分画像)を求める。この反射光画像をそのまま奥行き画像110としてもよいが、さらに、この反射光画像の各素値を上記奥行き情報に変換したものを奥行き画像110としてもよい(ステップS24)。求めた奥行き画像110をメモリ106に再び格納する(ステップS25)。
【0091】
演算部111で、反射光画像の各素値あるいは、類似する画素値をもつ複数の画素単位に上記式(1)を用いて、奥行き情報に変換して、表面の反射率や光沢状態、面の傾きなどの影響を考慮した、奥行き画像110を生成しても良い。なお、反射光画像中に物体面が傾いている場合、当該物体面の画像入力装置側に傾いている面ほど反射光の強度が強くなるので、反射光画像に写されている物体の画像全体の画素値の分布状況から傾き状態を判別することが出来る。
【0092】
また、例えば、反射光画像あるいは上記のようにして各素値を奥行き情報に変換した奥行き画像の隣り合う画素の画素値を比較して、画素値が一定値α以上の画素で囲まれた被写体部分を抽出するとともに、それ以外を背景部分とみなし、当該被写体部分のみの画像を奥行き画像101としてもよい。
【0093】
<第2の実施形態>
次に、第2の実施形態について説明する。第2の実施形態における画像入力装置の構成は、図1と同様である。第1の実施形態と異なる点は、制御部114の制御方法である。
【0094】
第2の実施形態に係る図1の画像入力装置の動作を図6に示すタイミングチャートと、図8、図9に示すフローチャートを参照して説明する。なお、ここでは、第1の実施形態と共通する部分の説明は省略し、異なる部分について説明する。また、図6は、図3と同様にして、(a)図にシャッタ103の動作、(b)図にイメージセンサ104の中での光電変換部104aの電荷蓄積動作、(c)図にイメージセンサ104の(転送部104bの)出力動作、(d)図にストロボの発光動作を示したものである。
【0095】
また、図8〜図9は、図1の画像入力装置の第2の実施形態に係る処理動作を説明するためのフローチャートであり、この動作は、例えば、制御部114がもつROM等の記憶手段に記憶されたプログラムに従って、図1の各構成部を制御することで実現される。
【0096】
また、図6と、図8〜図9とにおける同じステップには、同じ符号を付している。
【0097】
まず使用者による撮影指示(例えば、シャッタボタンの押し下げ)に従い動作がスタートする。シャッタを開いた後(図8のステップS31)、光電変換部104aの各フォトダイオードPDを一斉にリセットし撮像を開始する(ステップS32)。撮像開始直後にストロボ112を発光し(ステップS33)、露光時間として制御部114により設定された時間t1の間、撮像した後(ステップS34)、この露光時間帯に光電変換部104aの各フォトダイオードに蓄積された電荷を転送部104bに移し(ステップS35)、それと同時に転送部104bは、出力動作を開始する(ステップS36)。ステップS36では、転送部104bは、光電変換部104aから送られた各画素に対応する電荷を、第1の画像の画像信号(第1の信号)として、信号処理回路105へ出力する。
【0098】
ここまでは、第1の実施形態と同じである。第1の実施形態ではこの後シャッタ103を閉じたが、ここでは閉じない。ステップS35で電荷が転送部104bに転送された後は、光電変換部104aの各フォトダイオードはリセット状態と同じで、電荷が空の状態である。従って、この後、直ちに光電変換部104aは、ステップS36において電荷の蓄積動作を開始する。すなわち、第2の画像の撮像を開始する。そして、さらに時間t1の間、光電変換部104aで電荷の蓄積を行った後に(ステップS37)、シャッタ103を閉じる(ステップS38)。
【0099】
ステップS35で、光電変換部104aが各フォトダイオードに蓄積された電荷を転送部104bへ移した後、再び蓄積動作を開始し、ステップS38でシャッタ103を閉じるまでの時間t1の間で、光電変換部104bに蓄積された電荷が第2の画像であり、このときはストロボ112は発光されない。シャッタ103が閉じた後は、光電変換部104a自体は電荷の蓄積ができる状態ではあるが、シャッタ103が閉じられて光が入ってこないため、電荷が増えることはない。
【0100】
第1の画像に対応する第1の信号の出力が終わると(ステップS39)、次に、第2の画像に対応する、現在光電変換部104bの各フォトダイオードに貯まっていた電荷を転送部104bに転送し(ステップS40)、第2の画像に対応する第2の信号の出力を開始する(ステップS41)。
【0101】
第2の信号の出力が終了すると(ステップS42)、再度シャッタ103を開き(ステップS43)、光電変換部104aの各フォトダイオードをリセットし、3回目の撮像を開始する(ステップS44)。3回目の撮像において制御部114により設定される露光時間は時間t2に設定されている。時間t2経過後(ステップS45)、光電変換部104aの各フォトダイオードに蓄積された電荷を転送部104bに移し(ステップS46)、それと同時に転送部104bは、出力動作を開始する(ステップS47)。また、シャッタ103も閉じられる(ステップS48)。ステップS47では、転送部104bは、ステップS36、ステップS41と同様に、光電変換部104aから送られた各画素に対応する電荷を、第3の画像の画像信号(第3の信号)として、信号処理回路105へ出力する。
【0102】
転送部104bにて、3枚目の画像(第3の画像)の信号の出力が完了すると(ステップS49)、メモリ106には、第1の画像107、第2の画像108、第3の画像109が格納されている。その後、演算部111が第1の画像107と第2の画像108を読込み(ステップS50)、両者の差分演算を行い、反射光画像(差分画像)を求める。
【0103】
第1の実施形態と同様、演算部111は、反射光画像をそのまま奥行き画像110として、あるいは、この反射光画像の各素値を上記奥行き情報に変換したものを奥行き画像110として(ステップS51)、メモリ106に再び格納する(ステップS52)。
【0104】
上記第2の実施形態の利点は、第1の画像107と第2の画像108を撮像する時刻が近接していることである。本実施形態のように複数枚の画像から、奥行き画像と対応した自然画像を得ようとした場合、被写体としての対象物が静止しているのが理想である。しかし、実際には人物などを撮影してみると必ずしも静止していない。また自然な写真を撮ろうとすると、活動をしている人を写すことになる。また、対象物が静止していても撮影時に手ぶれを起こすと、対象物が動いたのと同じことになる。
【0105】
第1と第2の画像の差分で反射光画像を求める時に、対象物が少し動いたと仮定する。すると、差分を取ったときに正しい反射光画像が得られなくなる。これを図10、図11を参照して説明する。なお、図10,図11において、(a)図は、第1の画像と、当該第1の画像の中央の水平ライン上の各画素の輝度値を表すグラフ、(b)図は、第2の画像と、当該第2の画像の中央の水平ライン上の各画素の輝度値を表すグラフ、(c)図は、第1の画像と第2の画像の差分画像(反射光画像)と、当該差分画像の中央の水平ライン上の各画素の輝度値を表すグラフを示したものである。
【0106】
近くに円形の物体があり、その他は遠い背景とする。この状態で当該円形の文体を図1の画像入力装置で撮像をした場合を例にとり説明する。
【0107】
図10、図11のそれぞれの(b)図に示すように、第2の画像では、近くの円形の物体にはあまり外光が当たっておらず暗いが、背景には外光がよく当たっており、明るい。
【0108】
まず、図10を用いて説明する。図10(a)の第1の画像では、近くの物体にはストロボの光が当たるので、図10(b)の第2の画像よりは明るくなる。一方、背景は遠いので、ストロボ112の光は届かず明るさは変わらない。これは、(a)図、(b)図の、各画像の高さ中央の水平ラインの輝度を表すグラフからも明らかである。輝度値が高く明るいほど画像が白くなり、輝度値が低く暗いほど画像が黒くなる。
【0109】
ここで第1の画像から第2の画像を引き算して、差分画像を求める。背景はどちらも同じ明るさなので、減算によりゼロ(黒)となる。物体部分は第1の画像の方が明るいため、ストロボの反射光成分が減算結果として表れる。結果、図10(c)に示すような差分画像が得られる。
【0110】
次に、図11を見てみる。これは、(a)図の第1の画像と(b)図の第2の画像で円形物体の位置がずれてしまったものである。すると、第1の画像から第2の画像を減ずることにより得られる差分は、(c)図のグラフに示すように、マイナス部分と、背景の輝度から物体部分の輝度を引き算した結果が表れ、これは、その左側に示す差分画像では、マイナスは黒のままだとしても左下のように物体の右端が明るくなってしまう。この原因は物体がずれたことにより、本来対応していない部分同士の輝度を演算してしまったことにある。
【0111】
このようなことが起こらないようにするには、第1の画像と第2の画像の間で物体が(あるいは画像入力装置が)なるべく動かないことが必要である。物体がある程度動くことが避けられなければ、第1の画像と第2の画像を撮像する時刻を極力近づければよい。
【0112】
第2の実施形態では、第1の画像に対応する光電変換部104aに蓄積された電荷を転送部104bへ移して直ぐに第2の画像に対応する電荷の蓄積動作を開始するので、第1の画像を取得する時間帯と第2の画像を取得する時間帯が第1の実施形態にくらべ非常に接近している。従って、このように物体の動きや撮影者の手ぶれに影響されず、正しく反射光画像を取得できる点で、第1の実施形態より優れている。
【0113】
第2の実施形態のバリエーションを図7を参照して説明する。なお、図6と同一部分には同一符号を付し、異なる部分についてのみ説明する。すなわち、第2の画像に対応する第2の信号の出力を開始するところまでは同じである(ステップS31〜ステップS41)。
【0114】
図7では、第2の信号の出力を開始した後、すぐに再びシャッタ103を開け(ステップS61)、光電変換部104aの各フォトダイオードPDを一斉にリセットし、第3の画像の撮像を開始する(ステップS62)。制御部114により設定された時間t2の間、撮像した後(ステップS63)、既に、転送部104bで第2の信号の出力が終了していれば、直ちに光電変換部104aの各フォトダイオードに蓄積された電荷を転送部104bへ転送し、転送部104bは、第3の画像に対応する第3の信号出力を開始する(ステップS65)。
【0115】
ステップS63において、もし、時間t2を経た時点で、まだ転送部104bが第2の信号出力を終了していなければ、その終了を待って、光電変換部104aの各フォトダイオードに蓄積された電荷を転送部104bへ転送し、転送部104bは、第3の画像に対応する第3の信号出力を開始する。
【0116】
図7に示した動作の利点は、図6の動作に比べ、第1から第3までの3枚の画像を撮る時刻がより近接していることである。図6の動作では、第1と第2の画像の撮像間での物体の動きは無視できるほど小さくなるが、第1および第2の画像と、第3の画像との間にはまだ時間差が大きい。これは第1および第2の画像から作成した奥行き画像と第3の画像(自然画像)の間にずれが生じることを表す。すなわち、奥行き画像を手がかりに手前の物体だけ切り出そうとした場合に、切り出された画像がずれてしまう可能性がある。
【0117】
図7に示した動作は、少しでも第3の画像の撮像タイミングを第1および第2のそれに近づけることで、ずれを少なくする効果がある。
【0118】
<第3の実施形態>
次に、奥行き画像と自然画像の間の撮像タイミングもなるべく近づけることを目的とした、第3の実施形態を説明する。第1、第2の実施形態では、画像を3枚撮像した。第3の実施形態では、2枚の撮像(第1の画像107、第2の画像108)から、同じように奥行き画像110と自然画像(第3の画像109)を獲得する。
【0119】
図12は、第3の実施形態に係る画像入力装置の構成例を示したものである。なお、図1と同一部分には同一符号を付し、異なる部分についてのみ説明する。すなわち、図12では、イメージセンサ104で取得する画像は、第1の画像107と第2の画像108だけである。第3の画像(自然画像)109と奥行き画像110は、第1、第2の画像から演算部111によって生成される。
【0120】
次に、図12の画像入力装置の動作を図13、図14に示すタイミングチャートと、図15に示すフローチャートを参照して説明する。
【0121】
なお、ここでは、第1、第2の実施形態と共通する部分の説明は省略し、異なる部分について説明する。また、図13、図14は、図6や図3と同様にして、(a)図にシャッタ103の動作、(b)図にイメージセンサ104の中での光電変換部104aの電荷蓄積動作、(c)図にイメージセンサ104の(転送部104bの)出力動作、(d)図にストロボの発光動作を示したものである。
【0122】
また、図15は、図12の画像入力装置の第3の実施形態に係る処理動作を説明するためのフローチャートであり、この動作は、例えば、制御部114がもつROM等の記憶手段に記憶されたプログラムに従って、図12の各構成部を制御することで実現される。
【0123】
また、図13および図14と、図15における同じステップには、同じ符号を付している。
【0124】
まず使用者による撮影指示(例えば、シャッタボタンの押し下げ)に従い動作がスタートする。シャッタを開いた後(図15のステップS71)、光電変換部104aの各フォトダイオードPDを一斉にリセットし撮像を開始する(ステップS72)。撮像開始直後にストロボ112を発光し(ステップS73)、露光時間として制御部114により設定された時間t1の間、撮像した後(ステップS74)、この露光時間帯に光電変換部104aの各フォトダイオードに蓄積された電荷を転送部104bに移し(ステップS75)、それと同時に転送部104bは、出力動作を開始する(ステップS76)。シャッタ103は閉じず、続けて第2の撮像を開始する(ステップS76)。ここまでは、第2の実施形態の例と同じである。
【0125】
第2の実施形態では、第2の画像を撮像する際の露光時間は第1の画像を撮像するときの露光時間と同じ時間t1であったが、ここでは、時間t1とは異なる時間t2の露光時間で第2の画像の撮像を行う。
【0126】
すなわち、図13に示すように、制御部114により設定された露光時間t2経過した後(ステップS77)、転送部104bが既に第1の画像に対応する第1の信号の出力が終了していたら(ステップS79)、直ちに光電変換部104aの各フォトダイオードに蓄積された電荷を転送部104bに転送し(ステップS80)、転送部104bは、第2の画像に対応する第2の信号の出力を開始する(ステップS81)。そしてシャッタ103を閉じる(ステップS78)。
【0127】
一方、図14に示すように、制御部114により設定された露光時間t2経過した後(ステップS77)、転送部104bがまだ第1の画像に対応する第1の信号の出力が終わっていないときには(ステップS79)、いったんシャッタ103を閉じ、第2の画像の撮像を終了して(ステップS78)、転送部104bにおける第1の信号出力が終わるのを待つ。待っている間はシャッタが閉じているので、光電変換部104aでは、もう電荷は蓄積されない。転送部104bで第1の信号の出力が終わると(ステップS79)、光電変換部104の電荷を転送部104bに転送し(ステップS80)、転送部104bは、第2の画像に対応する第2の信号の出力を開始する(ステップS81)。
【0128】
転送部104bにて、2枚目の画像(第2の画像)の信号の出力が完了すると、メモリ106には、第1の画像107、第2の画像108が格納されている。その後、演算部111が第1の画像107と第2の画像108を読込み(ステップS82)、これらから奥行き画像110と第3の画像(自然画像)109を生成する。
【0129】
次に、演算部111で第1の画像107と第2の画像108から奥行き画像110と第3の画像109を生成処理動作について説明する。
【0130】
まず撮像されるのは、ストロボ103を発光させて、露光時間t1で撮像した第1の画像と、ストロボ103発光せずに露光時間t2で撮像した第2の画像である。反射光画像を得るためには、第1、第2の実施形態で説明したように、同じ露光時間で撮像し、一方の画像がストロボ発光により撮像した画像で、他方の画像がストロボ発光せずに撮影した2枚の画像が必要である。そして、この2枚の画像の差分を求めたものが反射光画像であった。しかし、第3の実施形態では、ストロボを発光させて露光時間t1で撮像された第1の画像107はあるものの、ストロボを発光させずに露光時間t1で撮像された画像がない。しかし、第2の画像108から、計算により、ストロボを発光させずに露光時間t1で撮像された画像を求めることができるのである。
【0131】
すなわち、第2の画像の露光時間は時間t2であるのだから、第2の画像の各画素の輝度値に、t1/t2を乗ずることによって、ストロボを発光せずに露光時間t1で撮像した画像とほぼ同じものを求めることができる。よって、反射光画像の各画素をH(x,y)、第1の画像107の各画素をG1(x,y)、第2の画像の各画素をG2(x,y)とすると、次式(2)から反射光画像の各画素値を求めることができる。
【0132】
H(x,y)=G1(x,y)−(t1/t2)G2(x,y) … (2)
また、第3の画像(自然画像)109は、ここでは第2の画像108そのものである。
【0133】
自然画像は、一般的には第2の画像そのものでよい。しかし、撮影環境が暗すぎる場合は、自然画像として、ストロボ103を補助光源として用いた画像が望ましい場合がある。その場合は、第1の画像107と第2の画像108を足し合わせた結果えられる画像を自然画像とすればよい。この足し合わせた画像は、基本的にストロボ103を発光して、露光時間(t1+t2)で撮像した画像である。従って、この場合には、第2の画像の露光時間t2´として、第1の画像の露光時間t1とこの露光時間t2´を加算したものが全体でt2となるように、第2の画像の露光時間t2´を設定するようにしてもよい。
【0134】
第3の画像(自然画像)109の各素値をN(x,y)、第1の画像の各素値をG1(x,y)、第2の画像の各画素値をG2(x,y)とすると、次式(3)あるいは(4)から第3の画像を算出することができる。
【0135】
撮影環境が明るい場合:
N(x,y)=G2(x,y) … (3)
撮影環境が暗い場合:
N(x,y)=G1(x,y)+G2(x,y) … (4)
なお、第1、第2の実施形態においても、撮影環境が暗すぎる場合には、第1の画像と第3の画像を足して、自然画像を作成してもよい。
【0136】
<第4の実施形態>
上記第1〜第3の実施形態では一般的なCCDイメージセンサを用いて、撮像タイミングを制御することで複数枚の画像を撮像するものであったが、前述したように、2回までも撮像であれば極近い時刻で行えるが、3回目以上は難しい。これは、転送部104bでの信号出力速度が遅いことに起因する。
【0137】
しかし、例えば、光電変換部104bの各画素に対応して,更に電荷蓄積部が1つ以上設けられていて(全部で複数個の電荷蓄積部が設けられていて)、各画素について複数枚の電荷像を蓄積することができれば、3回の撮像を極近い時刻に行うことも可能になる。
【0138】
また、イメージセンサ104の転送部104bは一般的にCCD(電荷結像素子)で構成されるが、この転送部104bが2枚以上の電荷像をそれぞれ別個に蓄えて、別個のタイミングで転送することができるような構成にしても3回の撮像を極近い時刻で行うことが可能となる。
【0139】
しかし、イメージセンサ104をそのような構成にするということは、そのような構成の専用の個体撮像素子を新規開発するということであり、コストの増大を招く。現在非常に広く普及しているデジタルスチルカメラの制御方法を少し変えるだけで非常に大きな効果が得られるようにするためには、やはり、前述の第1〜第3の実施形態にて説明した手法が望ましいといえる。
【0140】
<絞り、シャッタースピード、ストロボ調光などの制御>
ここで、絞り、シャッタースピード、ストロボ調光、などの制御をどのように行うのか、その一例を示す。ここでは第3の実施形態を例にあげて説明する。従来のデジタルスチルカメラでは、絞り、シャッタースピードなどを自動露出機能により設定されることが多い。もちろん、絞りかシャッタースピードのいずれかを固定し、他方を自動設定したり、ともにマニュアル設定することもできる。今、被写体を適切な露出で撮像するための絞りfとシャッタースピードt0が決められたとする。
【0141】
第1の画像107を撮像する際には、反射光画像を得るのが目的であるので、ストロボ103の発光時間より長い露出時間は必要ない。ストロボ103の最大発光時間よりほんの少し大きい値として、時間t1を選ぶ。これは原則として、固定値で良い。絞りはfをそのまま用いる。
【0142】
第1の画像107を撮像する際にはストロボ103を発光させるが、適切な発光量とする必要がある。ここでは、事前に仮発光し、被写体による反射の量をセンサで捕らえ、ストロボの発光量を調整する、TTL調光と呼ばれる方法で調光することができる。
【0143】
第2の画像は、それ自体で、自然画像としても用いるので、露光時間t2=t0となるようにする。絞りもfのままである。再度露出を微調整して、シャッタを閉じる場合は、t2はt0と異なるが、その際には時間t2がどれだけであったか計測しておく。その値がわからないと、反射光画像を求める演算ができないからである。
【0144】
これらから、メカニカルシャッタの開放時間は、開放後、光電変換部104bのリセットを行ってから、時間t1+t2だけ開いているように制御される。実際にはメカニカルシャッタは閉じるために時間が掛かるため、その分を考慮して適当な値になるようにt2を選ぶ。また、時間t2が非常に短く、かつフォーカルプレーンシャッタのように幕が走るタイプのシャッタを用いた場合、幕の閉じ始めと閉じ終わりの時間差から、第2の画像内で明るさが徐々に変わるシェーディングを起こす場合がある。このような場合は、シャッタの閉じる速さから、シェーディングを補正する演算を行う必要がある。
【0145】
また、レンズシャッタのように全画素に対し同じタイミングでシャッタ効果を与えるシャッタ方式もあるが、この場合でも、実際にシャッタが開閉する時間を考慮して、t2に相当する値を計算して、(2)式が正しく反射光画像を導くようにする。逆にシャッタ開閉の時間遅れを考慮して、図14におけるシャッタを閉じ始めるタイミングを決定する。
【0146】
反射光画像を求めるために時間t1と時間t2の値が必要であるが、実際にはt2を微調整した場合には正確に測定することが難しいこともある。しかし、時間t2がわかっていなくとも反射光画像を計算することもできる。被写体の中にフラッシュが届かないほど遠い背景がどこかに入っていると仮定すると、時間t1と時間t2の比を、第1の画像107と第2の画像108から求めることができるのである。
【0147】
第2の画像108の各画素の輝度値を第1の画像107の対応する画素の輝度値で割った値を第1の画像107の全画素について計算する。するとその値のほぼ最小値をaとすれば、それはt1/t2に等しい。したがって、反射光画像は、次式(5)で求められる。ここで、反射光画像の各素値をH(x,y)、第1の画像107の各素値をG1(x,y)、第2の画像の各素値をG2(x,y)とする。
【0148】
H(x,y)=G1(x,y)−a×G2(x,y) …(5)
実際には、ノイズの影響などがあるので、t1/12は厳密には最小値aにならないことが多い。最小値より少し大きい値を取るとか、ヒストグラムを併用するなどして、ノイズの影響を抑える必要がある。
【0149】
第1の画像107を撮像する際の露光時間t1は、極短時間でよく、これは、ストロボ103の発光時間にほぼ等しい時間である。光源としてストロボを用いる場合には、ストロボの発光時間が一般的には非常に短く1000分の1から数千分の1秒ぐらいであるため、同じ程度の露光時間で撮像することで、屋外のようなかなり明るい環境であっても、外光の影響を最小限にとどめることができる。逆に言うと、極短時間の撮像というのは、発光手段(例えば、ストロボ103)を発光せずに撮像したときに画像の輝度を十分低いレベルに抑えられる露光時間、という意味でもある。
【0150】
奥行き画像を求めるための環境が暗かったり、撮像対象物も画像入力装置も静止しているなど、必ずしも1000分の1から数千分の1秒の露光時間である必要がない場合もある。そのような場合は、時間t1よりも長い露光時間でも十分効果を出すことができる。
【0151】
また、上記第1〜第4の実施形態では、発光手段として主にストロボ103をもちいて説明したが、それ以外の発光手段を用いてもよい。例えばLEDフラッシュのようなものでもよい。また、光の種類も特に限定する物ではなく、ストロボは主に白色であるが、色の付いた光であっても近赤外のように不可視の光であっても良い。
【0152】
また、上記各実施形態では、撮像する画像は静止画像の場合を例にとり、1枚の静止画像を撮像する操作で、実際には3枚あるいは2枚の画像(第1〜第3の画像)を撮像して、奥行き情報を含む画像と自然画像を取得する手法を説明した。しかし、この場合に限らず、動画像にも各実施形態に係る画像入力方法および装置を適用することができる。この場合には、動画像の1フレームを撮像する際に、上記各実施形態で説明したように、3枚あるいは2枚の画像を取得する動作を行い、この動作を動画像の各フレームについて繰り返せばよい。
【0153】
以上説明したように、上記第1〜第3の実施形態によれば、従来のデジタルカメラの制御方法を工夫するだけで、奥行き画像もしくは奥行き情報を含む反射光画像と、これら画像に対応した自然画像を簡単に取得することが可能となる。
【0154】
また、一般のデジタルカメラのユーザがデジタル写真を楽しむのと同じ程度の手軽さで、奥行き画像を取得できる技術を提供することができる。具体的にはデジタルスチルカメラの1オプション機能として、実現可能なものである。これにより、デジタルカメラユーザの行動の一部として、奥行き情報あるいは奥行き情報を含む画像を取得することができる。
【0155】
上記実施形態に係る画像入力装置は、従来のデジタルスチルカメラの構成要素とほぼ同様であり、その制御方法を工夫することで実現可能である。従って、奥行き画像を取得する装置を世間一般に普及させるために多大な貢献をすることが期待できる。
【0156】
上記第1の実施形態によれば、従来のデジタルカメラに対し、最もシンプルな制御方法の工夫により、奥行き画像もしくは奥行き情報を含む反射光画像と、これら画像に対応した自然画像の取得を可能とすることができる。
【0157】
上記第2の実施形態によれば、比較的動いている被写体を撮影した場合や手ぶれを起こした場合でも、奥行き情報を含む反射光画像あるいは奥行き画像が、その動きに影響されず正しく求められるという効果がある。
【0158】
上記第3の実施形態によれば、被写体の動きや手ぶれによって、奥行き情報を含む反射光画像あるいは奥行き画像中の物体と、自然画像中の当該物体の位置ずれが起こるのを防ぐ効果がある。
【0159】
本発明の実施の形態に記載した、図4と図5、図8と図9、図15のフローチャート示したような本発明の手法は、コンピュータに実行させることのできるプログラムとして、磁気ディスク(フレキシブルディスク、ハードディスクなど)、光ディスク(CD−ROM、DVDなど)、半導体メモリなどの記録媒体に格納して頒布することもできる。
【0160】
なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
【0161】
【発明の効果】
以上説明したように、本発明によれば、容易にしかも低コストで画像中の物体の奥行き情報あるいは奥行き情報を含む画像を取得することができる。また、一般的なデジタルカメラなどの撮像操作と同じ操作を行うだけで、通常の画像(自然画像)と当該画像中の物体の奥行き情報あるいは奥行き情報を含む画像を取得することができる。
【図面の簡単な説明】
【図1】本発明の第1および第2の実施形態にかかる画像入力装置の構成例を示した図。
【図2】イメージセンサの具体的な構成例を示した図。
【図3】第1の実施形態に係る画像入力装置の主要部の動作タイミングを説明するための図。
【図4】第1の実施形態に係る画像入力装置の動作を説明するためのフローチャート。
【図5】第1の実施形態に係る画像入力装置の動作を説明するためのフローチャート。
【図6】本発明の第2の実施形態に係る画像入力装置の主要部の動作タイミングを説明するための図。
【図7】第2の実施形態に係る画像入力装置の主要部の他の動作タイミングを説明するための図。
【図8】第2の実施形態に係る画像入力装置の動作を説明するためのフローチャート。
【図9】第2の実施形態に係る画像入力装置の動作を説明するためのフローチャート。
【図10】反射光画像を求める差分演算を説明するための図。
【図11】反射光画像を求めるために用いた2枚の画像間にすれがある場合に得られる反射光画像について説明するための図。
【図12】本発明の第3の実施形態に係る画像入力装置の構成例を示した図。
【図13】第3の実施形態に係る画像入力装置の主要部の動作タイミングを説明するための図。
【図14】第3の実施形態に係る画像入力装置の主要部の動作タイミングを説明するための図。
【図15】第3の実施形態に係る画像入力装置の動作を説明するためのフローチャート。
【図16】従来のデジタルスチルカメラの構成例を説明するための図。
【図17】従来のデジタルスチルカメラの要部の動作タイミングを説明するための図。
【図18】従来のデジタルスチルカメラの動作を説明するための図。
【符号の説明】
101…レンズ、102…絞り、103…シャッタ、104…イメージセンサ、104a…光電変換部、104b…転送部、105…信号処理回路、106…メモリ、107…第1の画像、108…第2の画像、109…第3の画像、110…奥行き画像、111…演算部、112…ストロボ、114…制御部。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a digital still camera configured using a solid-state imaging device such as a MOS imaging device or a CCD imaging device.
[0002]
[Prior art]
In recent years, image input devices using solid-state imaging devices such as CCD image sensors have been widely used. Recently, it has become possible to easily transfer an image to a personal computer (hereinafter, referred to as a PC) or the like, and to print the image on a widely used color printer.
[0003]
On the other hand, imaging of a three-dimensional image has been attempted for a long time. In the old days, stereoscopic viewing could be performed by capturing parallax images with a two-eye silver halide camera and viewing them with a dedicated observation device. In recent years, it has been required to input an image with a depth value instead of two images with parallax in order to not only see a three-dimensional image but also variously process and reuse it. There are many. As a result, it is possible to reproduce a three-dimensional image of the imaged object viewed from another viewpoint or to combine the three-dimensional image with a three-dimensional CG (computer graphics).
[0004]
Here, when referring to the depth value, it is an exact distance value from a reference point or a reference plane, an attribute divided into several layers (for example, near, medium, far, etc.), or acquired. The distance values may have a certain degree of error due to the characteristics of the system, but here, they are broadly referred to as depth values.
[0005]
Also, there may be one depth value per pixel of the corresponding image, or it may not. Further, the distribution of the depth values of the measured object or the scene will be referred to as a depth image.
[0006]
A device for acquiring a depth image already exists. A typical example is a laser range finder. In this method, an object to be measured is mainly irradiated with slit light by a laser, the reflected light is imaged from different positions, and the distance of each part is obtained from the distortion of the shape of the slit light by using a trigonometric method ( For example, see Patent Document 1).
[0007]
There is also a method in which pattern light such as a striped pattern is irradiated instead of slit light, the reflected light is imaged, and the depth is obtained from a change in the pattern light (for example, see Patent Document 2).
[0008]
When the laser range finder or the space code method is used, there are many products for specific applications, and there is a problem that the apparatus becomes large-scale and the cost increases. In addition, since it is generally necessary to acquire and process a plurality of images, it takes time to capture images. Therefore, what can be acquired is limited to a stationary object.
[0009]
In some cases, the distance is measured by irradiating the object with irradiation light and measuring the time until the reflected light returns (for example, see Non-Patent Document 1). However, this type is also mainly used for dedicated applications such as broadcasting stations, and is very large and expensive.
[0010]
A stereo camera method is an approach for obtaining depth information from a difference between images of a twin-lens camera in the same manner as a human determines the depth of an object. The conventional stereo camera method had problems such as strict camera calibration.However, recently, an object was placed on the floor where reference points were placed, and multiple images including the reference points were recorded. There is also a method of obtaining both a plurality of images and the position where each image was captured by obtaining the three-dimensional shape by using the correlation between the images (for example, see Patent Document 3).
[0011]
In the stereo camera method, generally, it is necessary to strictly adjust the positions of a plurality of cameras, which leads to difficulty in operation and an increase in cost. In addition, the stereo camera method calculates a distance by finding a corresponding point (corresponding area) in which the same part is reflected among a plurality of images. There is a tendency that the accuracy of the search significantly deteriorates depending on the quality and the imaging conditions. In actual use, it is necessary to cover the background with a single color material and make the lighting uniform so that the images from multiple viewpoints do not differ too much, so that it is difficult to place corresponding point search errors. It is. In the type of technique using a reference chart or the like for specifying the camera position, there is no problem of calibrating the camera position because a plurality of cameras are not used, but otherwise, the same problem occurs. Further, in this case, since a plurality of images are captured by the same camera for a long time, it is difficult to capture an object such as a person that is difficult to be stationary. Also, it is difficult to image an object that is too large for the chart.
[0012]
There is also an approach of acquiring the depth of an image from a plurality of images obtained by irradiating a target object with a plurality of known illuminations.
[0013]
However, in general, in a technology of a type that irradiates light, when an image is captured in a bright place, depth acquisition cannot often be performed correctly due to the influence of external light. For this reason, there is also inconvenience that it is necessary to prepare a dedicated shooting place.
[0014]
As described above, the conventional technology for acquiring an image including depth information is mainly an expensive and large-scale device mainly for a specific application, and there is no easy imaging. That is, with the existing technology, it is impossible to acquire a depth image as if many digital camera users are now easily taking and using digital photographs.
[0015]
In recent years, three-dimensional image display apparatuses have also been remarkably evolved and cost-reduced, and are now mounted on displays of mobile phones. However, since there is no environment where a depth image can be easily obtained as described above, the content to be displayed is either downloaded from a specialized company and displayed, or the depth is estimated by image processing with a certain target assumed. You will use the tools you create. The depth image created by such a tool is only an estimation and differs from the actual situation. If the object is not the assumed object, the optimal estimation is often not performed.
[0016]
[Patent Document 1]
Patent No. 3317093 (Fig. 1)
[0017]
[Patent Document 2]
Patent No. 3269484 (Fig. 3)
[0018]
[Patent Document 3]
JP-A-11-96374 (FIG. 10)
[0019]
[Non-patent document 1]
3DV Systems' homepage, [online], [searched March 25, 2003], Internet <URL: http: // www. 3dvsystems. com / >>
[0020]
[Problems to be solved by the invention]
As described above, the conventional techniques for acquiring an image including depth information are mainly expensive and large-scale apparatuses mainly for specific applications, and easily and at low cost to acquire depth information of an object in an image. There was a problem that it was not possible.
[0021]
In view of the above problems, the present invention provides an image input method and an image input device using the same, which can easily and at low cost acquire depth information of an object in an image or an image including depth information. The purpose is to do.
[0022]
In addition, by simply performing the same operation as an imaging operation of a general digital camera or the like, it is possible to acquire a normal image (natural image) and an image including depth information or depth information of an object in the image. It is an object of the present invention to provide a method and an image input device using the same.
[0023]
[Means for Solving the Problems]
(1) The present invention provides an image input device having an image pickup device for picking up an image of an image pickup target with a set exposure time, and a light emitting unit for irradiating the image pickup target with light. Is input, the exposure time is set to a first time, the light emitting unit irradiates the imaging target with light, the imaging unit captures a first image of the imaging target, and A time is set to the first time, a second image of the imaging target is captured by the imaging unit without irradiating the imaging target with light by the light emitting unit, and the first image and the second image are captured. A third image including depth information of the imaging target, which is an image representing an intensity distribution of light reflected by the imaging target of light emitted to the imaging target by the light emitting unit, by calculating a difference between the two images. It is characterized by obtaining.
[0024]
Further, after the second image is captured, the exposure time is set to a second time different from the first time (for example, longer than the first time), and the imaging object is set by the imaging unit. Is captured.
[0025]
According to the present invention, it is possible to easily and at low cost acquire depth information of an object in an image or an image including depth information. A first image with an emission time of a first time and light emission by the light emitting means, a second image with an exposure time of the first time and no light emission by the light emission means, and Three images such as a fourth image having an exposure time of a second time are captured, and a third image including depth information can be obtained from the first image and the second image. Further, with a single imaging instruction, it is possible to obtain a fourth image (natural image) that is a normal image (an image captured with a normal appropriate exposure time) together with the third image including the depth information. it can.
[0026]
Note that the second image may be captured after capturing the first image, or the first image may be captured after capturing the second image. Whichever image is taken first has no effect on the above-described effects.
[0027]
(2) The present invention relates to an image input apparatus having an image pickup unit for picking up an image of an image pickup target with a set exposure time, and a light emitting unit for irradiating the image pickup target with light. When an instruction is input, the exposure time is set to a first time, the light emitting unit irradiates the imaging target with light, and the imaging unit captures a first image of the imaging target, An exposure time is set to a second time different from the first time (for example, longer than the first time), and the light-emitting unit does not irradiate the image-capturing object with light. A second image of the second image, and from each pixel value of the second image, an image component imaged during the first time of the second time is extracted. A third image, which is an extracted image component, is obtained, and the first image and the third image are obtained. Obtaining a difference from an image to obtain a fourth image including an intensity distribution of reflected light of the light irradiated on the imaging target by the light emitting unit and reflected by the imaging target and including depth information of the imaging target. It is characterized by the following.
[0028]
The third image is obtained by multiplying each pixel value of the second image by a ratio of the first time to the second time.
[0029]
The third image is obtained by dividing each pixel value of a plurality of pixels constituting the second image by a pixel value of the first image corresponding to each of the plurality of pixels. From among the values corresponding to each of the pixels, a value corresponding to the ratio of the first time to the second time is selected, and each pixel value of the second image is multiplied by the selected value. , The third image is obtained.
[0030]
According to the present invention, it is possible to easily and at low cost acquire depth information of an object in an image or an image including depth information. In addition, a first image with an exposure time of a first time and light emission by a light emitting unit and a second image with an exposure time of a second time and no light emission by a light emitting unit in one imaging instruction. , And a fourth image including depth information can be obtained from the first image and the second image. Further, with a single imaging instruction, it is possible to obtain a second image (natural image) that is a normal image (an image captured with a normal appropriate exposure time) together with the fourth image including the depth information. it can.
[0031]
Note that the second image may be captured after capturing the first image, or the first image may be captured after capturing the second image. Whichever image is taken first has no effect on the above-described effects.
[0032]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0033]
In the present embodiment, an object is to realize an image input device capable of acquiring a depth image at low cost. Therefore, it is characterized in that it can be realized with a configuration as close as possible to a conventional digital camera. Therefore, before describing this embodiment, the configuration and operation of a conventional digital camera will be described first.
[0034]
FIG. 16 shows a schematic configuration of a conventional digital camera. The subject forms an image on the image sensor 104 through the lens 101. An aperture 102 and a shutter 103 are provided between the lens 101 and the image sensor 104. To be precise, the aperture 102 and the shutter 103 may be inside a lens system composed of a plurality of lenses, but are simplified in FIG.
[0035]
The aperture 102 adjusts the amount of light that enters the image sensor 104, and the shutter 103 opens at the time of imaging to allow light to reach the image sensor 104. The image sensor is typically a CCD (Charge Coupled Device) image sensor and a CMOS image sensor. Here, the description will be made mainly using a CCD image sensor. The image sensor 104 two-dimensionally arranges a plurality of photodiodes (PD) corresponding to each pixel that converts light into electric charge, and accumulates electric charge according to the intensity of light received by each photodiode. It comprises a photoelectric conversion unit 104a for converting an optical image into a charge image, and a transfer unit 104b for transferring charges (charge images) accumulated in each photodiode to a signal processing circuit. The charge (charge image) accumulated in each photodiode of the photoelectric conversion unit 104a is temporarily transferred to the transfer unit 104b. The transfer unit 104b outputs the charge image to the signal processing circuit 105 as a one-dimensional electric signal (image signal).
[0036]
Since the image sensor 104 itself can control the charge accumulation time of the PD, it operates without a mechanical shutter unlike a film camera. However, since the image sensor 104 causes various problems such as noise when light strikes the sensor even when no image is captured, a digital still camera often uses a mechanical shutter together.
[0037]
The output (image signal) from the image sensor 104 is stored in the memory 106 via the signal processing circuit 105. The signal processing circuit 105 performs color image processing for generating a color image, noise reduction, contrast adjustment, gamma conversion, and the like from the signals of the R, G, and B pixels on the image sensor 104.
[0038]
In the case of a CCD image sensor, since the output is generally an analog voltage output, an amplifier or an A / D converter is often provided before the above signal processing. However, it is the structure containing these. In a chip set of a CCD image sensor, it is often realized by one LSI including this amplifier, A / D converter, color processing, and the like.
[0039]
The strobe 112 emits light to the subject. It is used as an auxiliary light source when shooting in a dark environment or when the subject is darker than the surroundings due to backlight. The control unit 113 controls each of the above components.
[0040]
The actual imaging operation timing will be described with reference to FIG. Here, the operation when flash photography is performed will be described. 17A shows the operation of the shutter 103, FIG. 17B shows the charge accumulation operation of the photoelectric conversion unit 104a in the image sensor 104, and FIG. 17C shows the operation of the image sensor 104 (of the transfer unit 104b). FIG. 17D shows an output operation, and FIG. 17D shows a flash emission operation. In each case, the horizontal axis is the time axis, and represents each operation timing with the passage of time (from left to right in FIG. 17).
[0041]
First, each PD (photoelectric conversion unit 104a) of the image sensor 104 is reset all at once by a user's photographing instruction (generally by pressing a shutter button, not shown) (step S201). Specifically, by discharging the charges stored in each PD until then, new charge accumulation starts from this point. After the reset of the photoelectric conversion unit 104a, the shutter opens (step S202). In the operation of the shutter 103 in FIG. 17A, “1” indicates that the shutter is open, and “0” indicates that the shutter is closed. Strictly speaking, since the mechanical shutter has a response delay and an operation time, the shutter is not fully opened instantaneously and rises smoothly from “0” to “1”. However, in FIG. In this case, it is shown that the signal rises instantaneously from “0” to “1”.
[0042]
After the shutter 103 opens, the flash 112 emits light (step S203). Note that the light emission operation of the strobe 112 in FIG. 17D indicates “1” when emitting light, and “0” indicates when not emitting light.
[0043]
After a certain time tx from the opening of the shutter 103, the shutter 103 closes (step S204), and the electric charge of each PD of the photoelectric conversion unit 104a is transferred to the transfer unit 104b of the image sensor 104 (step S205). The charges output to the transfer unit 104b are sequentially output from the transfer unit 104b to the signal processing circuit 105 (Step S206).
[0044]
The timing of resetting the photoelectric conversion unit 104a or transferring electric charges from the photoelectric conversion unit 104a to the transfer unit 104b and the timing of opening and closing the shutter 103 are not necessarily as illustrated. For example, the photoelectric conversion after the shutter 103 is opened may be performed. The unit 104a may be reset, or the charge may be transferred to the transfer unit 104b before the shutter 103 is closed.
[0045]
In the operation of the photoelectric conversion unit 104a, a period from reset (discharge of electric charge) to transfer of electric charge to the transfer unit 104b is a time period in which the photoelectrically converted electric charge is accumulated.
[0046]
Actually, no light enters if the shutter 103 is closed even when the CCD image sensor 104 can store electric charges. Therefore, the time during which the CCD image sensor 104 can store charges and the shutter is open is the so-called exposure time. In FIG. 17, the exposure time is tx. Hereinafter, this state (exposure time period) will be referred to as an “imaging state”. Further, when shooting without using a strobe, it is only necessary that the strobe is not emitted by the above operation. As to how to set the exposure time tx, a value determined by manual setting or automatic exposure control is used.
[0047]
Another example of the imaging operation of the conventional digital camera shown in FIG. 16 will be described with reference to a flowchart shown in FIG. The flowchart starts according to a photographing request from the user. The shutter 103 is opened (step S211), and the charge of each PD of the photoelectric conversion unit 104a is discharged to start charge accumulation (step S212). Immediately after the start, the flash 112 emits light (step S213). After that, it waits tx after the start of imaging (step S214), transfers the charge of each PD of the photoelectric conversion unit 104a to the transfer unit 104b (step S215), and closes the shutter 103 (step S217). The output of the image signal from the CCD image sensor 104 is started (step S218).
[0048]
Although not shown in the flowchart of FIG. 18, the image signal output from the image sensor 104 is input to a signal processing circuit 105, subjected to predetermined signal processing by the signal processing circuit 105, and Images are stored.
[0049]
Next, a first embodiment of the present invention will be described with reference to the drawings.
[0050]
Here, the depth information is, for example, a distance value from a certain reference point or a reference plane, an attribute for dividing into several layers (for example, near, medium, far, etc.), or imaging of an image. The distance value may have a certain error due to the characteristics of the system. That is, information on the three-dimensional shape of the imaging target in the image, the positional relationship between the plurality of imaging targets in the image (absolute or relative to a certain reference point), level, etc. Is information representing
[0051]
The reflected light image is an image representing the intensity distribution of light reflected on the imaging target by light emitted to the imaging target by a light emitting unit such as a strobe. Since the numerical values such as the distance value and the level as the depth information can be calculated based on each pixel value of the reflected light image, the reflected light image can be said to be an image including the depth information.
[0052]
Strictly speaking, the depth image is an image whose pixel value is the depth information and can be obtained from the reflected light image. However, here, the reflected light image is regarded as a kind of the depth image because its pixel value includes the depth information.
[0053]
<First embodiment>
FIG. 1 shows a schematic configuration example of the image input device according to the first embodiment. In FIG. 1, the same parts as those in FIG. 16 are denoted by the same reference numerals. This configuration is very similar to the configuration of the general digital still camera shown in FIG. The difference from the configuration of the digital camera shown in FIG. 16 is that FIG. 1 has an arithmetic unit 111 which is not included in the conventional digital camera shown in FIG. 16, and further includes a control unit 113 shown in FIG. 1, the control unit 114 is connected. Further, three images (first image 107 to third image 109) are captured by one shutter operation (depression of the shutter button) by the user, and these are stored in the memory 106. Then, as described later, a depth image is generated from the first image 107 and the second image 108, and is also stored in the memory 106.
[0054]
First, each component of the image input device of FIG. 1 will be described.
[0055]
The subject forms an image on the image sensor 104 through the lens 101. An aperture 102 and a shutter 103 are provided between the lens 101 and the image sensor 104. To be precise, the aperture 102 and the shutter 103 may be inside a lens system including a plurality of lenses, but are simplified in FIG. In some cases, an integrated lens is used as a stop and a shutter.
[0056]
The aperture 102 adjusts the amount of light that enters the image sensor 104, and the shutter 103 opens at the time of imaging to allow light to reach the image sensor 104. The image sensor is typically, for example, a CCD (charge-coupled device) image sensor, a CMOS image sensor, or the like. Here, the description will be made mainly using a CCD image sensor. The image sensor 104 two-dimensionally arranges a plurality of photodiodes (PD) corresponding to each pixel that converts light into electric charge, and accumulates electric charge according to the intensity of light received by each photodiode. It comprises a photoelectric conversion unit 104a for converting an optical image into a charge image, and a transfer unit 104b for transferring charges (charge images) accumulated in each photodiode to a signal processing circuit. The charge (charge image) accumulated in each photodiode of the photoelectric conversion unit 104a is temporarily transferred to the transfer unit 104b. The transfer unit 104b outputs the charge image to the signal processing circuit 105 as a one-dimensional electric signal (image signal).
[0057]
The output of the image sensor 104 is stored in the memory 106 via the signal processing circuit 105. The signal processing circuit 105 performs color image processing for generating a color image, noise reduction, contrast adjustment, gamma conversion, and the like from the signals of the R, G, and B pixels on the image sensor 104. In the case of a CCD image sensor, since the output is generally an analog voltage output, an amplifier or an A / D converter is often provided before the above signal processing. However, it is the structure containing these.
[0058]
The first image 107, the second image 108, the third image 109, and the depth image 110 in the memory 106 each represent image data. Here, three images from the image sensor 104 are first stored in the memory 106, and then a calculation unit 111 described later generates a depth image 110 from the first image 107 and the second image 108, and stores the depth image 110 in the memory 106. accumulate.
[0059]
The calculation unit 111 calculates and generates a depth image 110 in which each pixel represents depth information of a subject. The strobe 112 emits light to the subject. Usually, it is used as an auxiliary light source, but in the present embodiment, it also plays a different role. The control unit 114 controls the above components.
[0060]
Specifically, the image sensor 104 is, for example, a CCD imaging device having a configuration as shown in FIG. Here, for simplicity of description, a case of a total of 16 pixels of 4 × 4 pixels is shown. The sixteen photodiodes PD are arranged in four rows and four columns, vertical transfer CCDs are arranged between the photodiodes in each column, and one horizontal transfer CCD is adjacent to the vertical transfer CCD in the last row. Book is provided.
[0061]
When an optical image of a subject is formed on this surface by the lens 101, photoelectric conversion is performed in each photodiode PD, and charges are accumulated according to the intensity of light and time. Thus, a charge image is completed. In order to take out this charge image as a one-dimensional electric signal to the outside, the signal is sequentially transferred vertically and horizontally, and the signal is taken out from one signal output terminal. A transfer unit such as a vertical transfer CCD and a horizontal transfer CCD plays this role.
[0062]
First, charges accumulated in the photodiodes PD of 16 pixels are simultaneously transferred to a part of the vertical transfer CCD by a field shift pulse. Next, the four rows of vertical transfer CCDs start transferring charges in parallel in the vertical direction. The vertically transferred signal charges are successively sent to the horizontal transfer CCD. Each time a signal of four pixels for one row is input, the horizontal CCD quickly transfers the signal in the horizontal direction and outputs the signal through an output circuit provided at the left end. In this way, a signal for each line is obtained from the output terminal.
[0063]
When the image sensor 104 is a CCD image pickup device having a configuration as shown in FIG. 2, the arrangement of the photodiodes PD in FIG. 2 in four rows and four columns corresponds to the photoelectric conversion unit 104a in FIG. The transfer CCD and the horizontal transfer CCD correspond to the transfer unit 104b in FIG.
[0064]
Note that the exposure time is a time during which the image sensor 104 is in a state capable of accumulating charges and the shutter is open. The exposure time is set by the control unit 114 when capturing the first to third images. The exposure time zone is a “state where the subject is being imaged”.
[0065]
Next, the operation of the image input apparatus of FIG. 1 according to the first embodiment will be described with reference to the timing chart shown in FIG. 3 and the flowcharts shown in FIGS.
[0066]
3A illustrates the operation of the shutter 103, FIG. 3B illustrates the charge accumulation operation of the photoelectric conversion unit 104a in the image sensor 104, and FIG. 3C illustrates the operation of the image sensor 104 (of the transfer unit 104b). FIG. 3D shows an output operation, and FIG. In each case, the horizontal axis is a time axis, which represents each operation timing with the passage of time (from left to right in FIG. 3).
[0067]
In the operation of the shutter 103 in FIG. 3A, “1” indicates that the shutter is open, and “0” indicates that the shutter is closed. Strictly speaking, since the mechanical shutter has a response delay and an operation time, the shutter is not fully opened instantaneously and rises smoothly from "0" to "1". However, in FIG. In this case, it is shown that the signal rises instantaneously from “0” to “1”. 3D, the light emitting operation of the strobe 112 is "1" when it is emitting light, and when it is "0" it is when it is not emitting light.
[0068]
4 and 5 are flowcharts for explaining the processing operation of the image input device of FIG. 1. This operation is stored in, for example, storage means such as a ROM (Read Only Memory) of the control unit 114. It is realized by controlling each component of FIG. 1 according to a program.
[0069]
Note that the same steps in FIG. 3 and FIGS. 4 and 5 are denoted by the same reference numerals.
[0070]
First, an operation is started by the control unit 114 in response to a shooting instruction (for example, pressing down a shutter button) by a user. First, after the shutter is opened (Step S1 in FIG. 4), each photodiode PD of the photoelectric conversion unit 104a is reset all at once to start imaging. (Step S2). Immediately after the start of imaging, the strobe 112 emits light (step S3). After the imaging is performed for a time t1 set by the control unit 114 as the exposure time (step S4), each photodiode of the photoelectric conversion unit 104a is exposed during this exposure time. Is transferred to the transfer unit 104b (step S5), and at the same time, the transfer unit 104b starts an output operation (step S6). Further, the shutter 103 is also closed (step S7).
[0071]
In step S6, the transfer unit 104b outputs the charge corresponding to each pixel sent from the photoelectric conversion unit 104a to the signal processing circuit 105 as a first image signal (first signal). In the signal processing circuit 105, the input first signal is subjected to color image processing for generating a color image, noise reduction, contrast adjustment, gamma conversion, and the like. The image is stored in the memory 106 as one image.
[0072]
After the output of the signal of one image (first image) is completed in the transfer unit 104b (step S8), the shutter is opened again (step S9), and the photodiodes PD of the photoelectric conversion unit 104a are simultaneously opened. It resets and starts the second imaging (step S10). The exposure time set by the control unit 114 in the second imaging is the same as the exposure time in the first imaging (t1), except that the strobe 112 does not emit light.
[0073]
After the set exposure time, that is, after the elapse of the time t1 (step S11), the charge accumulated in each photodiode of the photoelectric conversion unit 104a is transferred to the transfer unit 104b (step S12), and at the same time, the transfer unit 104b performs an output operation. Is started (step S13). Further, the shutter 103 is also closed (step S14).
[0074]
In step S12, similarly to step S6, the transfer unit 104b converts the electric charge corresponding to each pixel sent from the photoelectric conversion unit 104a into an image signal (second signal) of a second image, and the signal processing circuit 105 Output to In the signal processing circuit 105, the input second signal is subjected to color image processing for generating a color image, noise reduction, contrast adjustment, gamma conversion, and the like. The second image is stored in the memory 106.
[0075]
After the output of the signal of the second image (second image) is completed in the transfer unit 104b (step S15), the shutter is opened again (step S16 in FIG. 5), and each photodiode of the photoelectric conversion unit 104a is opened. The PDs are reset all at once, and the third imaging is started (step S17). The exposure time set by the control unit 114 in the third imaging is set to a time t2 different from the first and second exposures.
[0076]
After the set exposure time, that is, after the elapse of time t2 (step S18), the charge accumulated in each photodiode of the photoelectric conversion unit 104a is transferred to the transfer unit 104b (step S19), and at the same time, the transfer unit 104b performs an output operation. Is started (step S20). Further, the shutter 103 is also closed (Step S21).
[0077]
In step S20, the transfer unit 104b converts the charge corresponding to each pixel transmitted from the photoelectric conversion unit 104a into an image signal (third signal) of a third image as in steps S6 and S12. Output to the processing circuit 105. In the signal processing circuit 105, the input third signal is subjected to color image processing for generating a color image, noise reduction, contrast adjustment, gamma conversion, and the like. 3 is stored in the memory 106.
[0078]
Here, the first to third images will be described.
[0079]
The first image of the first sheet is an image that is exposed for a very short time (during time t1) while emitting the flash 112. Since the strobe 112 emits light for an extremely short time, such as 1/1000 to 1 / 10,000 seconds, the exposure time t1 is set to about the same time as the strobe 112 emission time. Since the light of the strobe 112 is intense, if the subject is at a distance of about 1 to 3 m, it is possible to take a picture sufficiently even if the time t1 is short. Since the time t1 is short, in a relatively dark environment, the influence of light other than the strobe light is small, but in a bright environment, a background or the like is captured by background light (sunlight or indoor illumination light).
[0080]
The second image of the second image is an image obtained at the same exposure time t1 as the first image without emitting the flash 112. Here, since the external light conditions when the first image and the second image are captured are almost the same, the external light component disappears when the second image is subtracted from the first image. That is, the difference image between the first image and the second image is an image in the same state as when the image is captured using only the light of the strobe 112 in a completely dark state. This difference image can also be rephrased as an image that captures only the light reflected by the subject from the light of the strobe 112. This difference image is called a reflected light image.
[0081]
The reflected light image is considered to include information on the depth of the subject (imaging target).
[0082]
The reflected light from the object greatly decreases as the distance from the image input device to the object increases. When the surface of the object disperses light uniformly, the amount of light received per pixel of the reflected light image decreases in inverse proportion to the square of the distance to the object.
[0083]
Each pixel value of the reflected light image represents the amount of reflected light corresponding to that pixel. The reflected light is affected by the properties of the object (specular reflection, confusion, absorption, etc.), the orientation of the object, the distance of the object, etc., but the entire object is an object that disperses the light uniformly In this case, the amount of reflected light has a close relationship with the distance to the object. For example, since a human hand or the like has such a property, the reflected light image obtained when the hand is extended in front of the image input device may include a distance to the hand, a tilt of the hand (partially different distances), and the like. Is represented as a three-dimensional image.
[0084]
When shooting an object having the property of diffusing light, the intensity of reflected light attenuates in inverse proportion to the square of the distance of the object. For example, a person is at a position of 1 to 2 m, and 10 m or more behind it When a background object exists in a distant place, sufficient reflected light returns from a person, but reflected light hardly returns from the background. Therefore, using a reflected light image makes it possible to separate a person from a background. If the intensity of the reflected light is inversely proportional to the square of the distance, the three-dimensional shape of the object can be restored.
[0085]
A pixel value Q of a reflected light image of a certain object that is imaged is a distance d between a portion of the object corresponding to the pixel and the image input device, a color or reflectance of the surface of the object, gloss, material , And k is a coefficient having a role of correcting the intensity of the reflected light of the elementary value according to any of the inclination of the surface and the like.
Q = k / d 2 … (1)
It can be expressed as. By solving the equation (1) for d, it is possible to obtain the distance d as depth information corresponding to the unevenness of the object surface and the positional relationship between a plurality of objects.
[0086]
An image in which each pixel value represents the depth information is called a depth image.
[0087]
Due to differences in the intensity of reflected light depending on the color, reflectance, inclination, gloss, material, etc. of the surface of the object, in the reflected light image, it is actually captured as if it is near but far away, The reverse is also possible. Therefore, the reflected light image is not strictly the depth image, but an appropriate value of k based on the color, reflectance, inclination, gloss, material, etc. of the surface of the object shown in the reflected light image. If is selected, each pixel can be converted into an image representing the depth information from the above equation (1). That is, since it can be said that each pixel of the reflected light image contains or represents depth information, the reflected light image is treated here as a type of depth image.
[0088]
The third third image is captured with an exposure time of time t2 different from time t1. The time t2 is an exposure time set so as to appropriately photograph a subject, as in the case of imaging using a conventional digital still camera.
[0089]
As a result, both a reflected light image (difference image) having depth information and a natural image (third third image) are obtained.
[0090]
Returning to the description of FIG. 5, when the output of the signal of the third image (third image) is completed by the transfer unit 104b (step S22), the first image 107 and the second image are stored in the memory 106. An image 108 and a third image 109 are stored. After that, the calculation unit 111 reads the first image 107 and the second image 108 (step S23), and calculates a difference between the two to obtain a reflected light image (difference image). The reflected light image may be used as it is as the depth image 110, or an image obtained by converting each elementary value of the reflected light image into the depth information may be used as the depth image 110 (step S24). The obtained depth image 110 is stored again in the memory 106 (step S25).
[0091]
The arithmetic unit 111 converts the elementary value of the reflected light image or a plurality of pixels having similar pixel values into depth information using the above equation (1), and converts the surface reflectance, gloss state, surface The depth image 110 may be generated in consideration of the influence of the inclination of the image. When the object surface is inclined in the reflected light image, the intensity of the reflected light increases as the surface of the object surface is inclined toward the image input device side. The inclination state can be determined from the distribution of pixel values.
[0092]
In addition, for example, by comparing the pixel values of adjacent pixels of a reflected light image or a depth image obtained by converting each elementary value into depth information as described above, a subject surrounded by pixels whose pixel values are equal to or greater than a certain value α. A portion may be extracted, and the rest may be regarded as a background portion, and an image of only the subject portion may be used as the depth image 101.
[0093]
<Second embodiment>
Next, a second embodiment will be described. The configuration of the image input device according to the second embodiment is the same as that of FIG. The difference from the first embodiment is the control method of the control unit 114.
[0094]
The operation of the image input device of FIG. 1 according to the second embodiment will be described with reference to the timing chart shown in FIG. 6 and the flowcharts shown in FIGS. Here, the description of the parts common to the first embodiment will be omitted, and different parts will be described. 6A and FIG. 6B, FIG. 6A shows the operation of the shutter 103, FIG. 6B shows the charge accumulation operation of the photoelectric conversion unit 104a in the image sensor 104, and FIG. The output operation of the sensor 104 (of the transfer unit 104b) and the light emission operation of the strobe are shown in FIG.
[0095]
FIGS. 8 and 9 are flowcharts for explaining a processing operation according to the second embodiment of the image input apparatus of FIG. 1. This operation is performed, for example, by a storage unit such as a ROM of the control unit 114. Is realized by controlling each component of FIG. 1 in accordance with the program stored in.
[0096]
The same steps in FIG. 6 and FIGS. 8 to 9 are denoted by the same reference numerals.
[0097]
First, the operation starts in accordance with a photographing instruction (for example, pressing down a shutter button) by a user. After the shutter is opened (step S31 in FIG. 8), the photodiodes PD of the photoelectric conversion unit 104a are reset all at once to start imaging (step S32). Immediately after the start of imaging, the strobe 112 emits light (step S33). After the imaging is performed for the time t1 set by the control unit 114 as the exposure time (step S34), each photodiode of the photoelectric conversion unit 104a is exposed during this exposure time period. Is transferred to the transfer unit 104b (step S35), and at the same time, the transfer unit 104b starts the output operation (step S36). In step S36, the transfer unit 104b outputs the electric charge corresponding to each pixel transmitted from the photoelectric conversion unit 104a to the signal processing circuit 105 as an image signal (first signal) of a first image.
[0098]
Up to this point, the operation is the same as in the first embodiment. In the first embodiment, the shutter 103 is closed thereafter, but is not closed here. After the charge is transferred to the transfer unit 104b in step S35, each photodiode of the photoelectric conversion unit 104a is in the same state as the reset state, and the charge is empty. Therefore, immediately thereafter, the photoelectric conversion unit 104a starts the charge accumulation operation in step S36. That is, imaging of the second image is started. Then, for a further time t1, after the charge is accumulated in the photoelectric conversion unit 104a (step S37), the shutter 103 is closed (step S38).
[0099]
In step S35, after the photoelectric conversion unit 104a transfers the electric charge accumulated in each photodiode to the transfer unit 104b, the accumulation operation is started again, and the photoelectric conversion is performed for a time t1 until the shutter 103 is closed in step S38. The electric charge accumulated in the portion 104b is the second image, and in this case, the strobe 112 does not emit light. After the shutter 103 is closed, the photoelectric conversion unit 104a itself is in a state capable of accumulating electric charge. However, since the shutter 103 is closed and no light enters, the electric charge does not increase.
[0100]
When the output of the first signal corresponding to the first image is completed (step S39), the charge corresponding to the second image and currently stored in each photodiode of the photoelectric conversion unit 104b is transferred to the transfer unit 104b. (Step S40), and starts outputting a second signal corresponding to the second image (step S41).
[0101]
When the output of the second signal ends (step S42), the shutter 103 is opened again (step S43), the photodiodes of the photoelectric conversion unit 104a are reset, and the third imaging is started (step S44). The exposure time set by the control unit 114 in the third imaging is set to time t2. After a lapse of time t2 (step S45), the charge accumulated in each photodiode of the photoelectric conversion unit 104a is transferred to the transfer unit 104b (step S46), and at the same time, the transfer unit 104b starts an output operation (step S47). Further, the shutter 103 is also closed (step S48). In step S47, as in steps S36 and S41, the transfer unit 104b converts the electric charge corresponding to each pixel transmitted from the photoelectric conversion unit 104a into a signal (third signal) of a third image. Output to the processing circuit 105.
[0102]
When the output of the signal of the third image (third image) is completed by the transfer unit 104b (step S49), the first image 107, the second image 108, and the third image are stored in the memory 106. 109 are stored. After that, the calculation unit 111 reads the first image 107 and the second image 108 (step S50), and calculates a difference between the two to obtain a reflected light image (difference image).
[0103]
As in the first embodiment, the calculation unit 111 uses the reflected light image as it is as the depth image 110, or converts each elementary value of the reflected light image into the depth information as the depth image 110 (step S51). Is stored again in the memory 106 (step S52).
[0104]
An advantage of the second embodiment is that the times at which the first image 107 and the second image 108 are captured are close to each other. When trying to obtain a natural image corresponding to a depth image from a plurality of images as in the present embodiment, it is ideal that an object as a subject is stationary. However, actually, when photographing a person or the like, it is not always stationary. If you want to take natural photos, you're going to capture the people who are working. In addition, even if the object is stationary, if a camera shake occurs during shooting, it is the same as moving the object.
[0105]
It is assumed that the object has moved slightly when obtaining the reflected light image from the difference between the first and second images. Then, a correct reflected light image cannot be obtained when the difference is obtained. This will be described with reference to FIGS. 10 and 11, (a) is a graph showing a first image and a luminance value of each pixel on a horizontal line in the center of the first image, and (b) is a second image. And a graph showing the luminance value of each pixel on the horizontal line at the center of the second image. FIG. 3C shows a difference image (reflected light image) between the first image and the second image, It is a graph showing the luminance value of each pixel on the horizontal line at the center of the difference image.
[0106]
A circular object is nearby and the rest is a distant background. The case where the circular style is imaged by the image input device in FIG. 1 in this state will be described as an example.
[0107]
As shown in each of FIGS. 10 and 11B, in the second image, the nearby circular object is not so much exposed to external light and is dark, but the background is well exposed to external light. And bright.
[0108]
First, a description will be given with reference to FIG. In the first image of FIG. 10A, since the strobe light shines on a nearby object, it becomes brighter than the second image of FIG. 10B. On the other hand, since the background is far, the light of the strobe 112 does not reach and the brightness does not change. This is also evident from the graphs shown in FIGS. 7A and 7B showing the luminance of the horizontal line at the center of the height of each image. The higher the brightness value is, the brighter the image becomes, and the lower the brightness value is, the darker the image becomes.
[0109]
Here, a difference image is obtained by subtracting the second image from the first image. Since the background has the same brightness, the subtraction results in zero (black). Since the first image is brighter in the object portion, the reflected light component of the strobe appears as a subtraction result. As a result, a difference image as shown in FIG.
[0110]
Next, look at FIG. This is because the position of the circular object is shifted between the first image in FIG. 7A and the second image in FIG. Then, the difference obtained by subtracting the second image from the first image is a result obtained by subtracting the luminance of the object part from the luminance of the minus part and the luminance of the background, as shown in the graph of FIG. This is because, in the difference image shown on the left side, the right end of the object becomes bright as shown at the lower left even if the minus remains black. This is due to the fact that the displacement of the object has resulted in the calculation of the luminance of the parts that do not originally correspond.
[0111]
In order to prevent this from occurring, it is necessary that the object (or the image input device) does not move as much as possible between the first image and the second image. Unless it is unavoidable that the object moves to some extent, the times at which the first image and the second image are captured should be as close as possible.
[0112]
In the second embodiment, since the charge stored in the photoelectric conversion unit 104a corresponding to the first image is transferred to the transfer unit 104b, the operation of storing the charge corresponding to the second image is started immediately. The time period for acquiring the image and the time period for acquiring the second image are very close to those in the first embodiment. Therefore, the embodiment is superior to the first embodiment in that a reflected light image can be obtained correctly without being affected by the movement of the object or the camera shake of the photographer.
[0113]
A variation of the second embodiment will be described with reference to FIG. The same parts as those in FIG. 6 are denoted by the same reference numerals, and only different parts will be described. That is, the process is the same up to the point where the output of the second signal corresponding to the second image is started (steps S31 to S41).
[0114]
In FIG. 7, immediately after the output of the second signal is started, the shutter 103 is opened again immediately (step S61), the photodiodes PD of the photoelectric conversion unit 104a are reset all at once, and the imaging of the third image is started. (Step S62). After the image is captured for the time t2 set by the control unit 114 (step S63), if the output of the second signal has already been completed in the transfer unit 104b, the image is immediately stored in each photodiode of the photoelectric conversion unit 104a. The transferred charge is transferred to the transfer unit 104b, and the transfer unit 104b starts outputting a third signal corresponding to the third image (Step S65).
[0115]
In step S63, if the transfer unit 104b has not yet finished outputting the second signal at the time t2, the charge stored in each photodiode of the photoelectric conversion unit 104a is waited for the completion. The data is transferred to the transfer unit 104b, and the transfer unit 104b starts outputting a third signal corresponding to the third image.
[0116]
An advantage of the operation shown in FIG. 7 is that the times at which the first to third images are taken are closer to each other than the operation of FIG. In the operation of FIG. 6, the motion of the object between the imaging of the first and second images is so small that it can be ignored, but there is still a time difference between the first and second images and the third image. large. This indicates that a shift occurs between the depth image created from the first and second images and the third image (natural image). That is, when an attempt is made to cut out only the object in front using the depth image as a clue, the cut-out image may be shifted.
[0117]
The operation shown in FIG. 7 has the effect of reducing the shift by slightly bringing the imaging timing of the third image closer to that of the first and second images.
[0118]
<Third embodiment>
Next, a description will be given of a third embodiment, which aims at bringing the imaging timing between the depth image and the natural image as close as possible. In the first and second embodiments, three images are captured. In the third embodiment, a depth image 110 and a natural image (third image 109) are similarly obtained from two images (first image 107 and second image 108).
[0119]
FIG. 12 shows an example of the configuration of an image input device according to the third embodiment. The same parts as those in FIG. 1 are denoted by the same reference numerals, and only different parts will be described. That is, in FIG. 12, the images acquired by the image sensor 104 are only the first image 107 and the second image 108. The third image (natural image) 109 and the depth image 110 are generated by the calculation unit 111 from the first and second images.
[0120]
Next, the operation of the image input apparatus of FIG. 12 will be described with reference to timing charts shown in FIGS. 13 and 14 and a flowchart shown in FIG.
[0121]
Here, the description of the parts common to the first and second embodiments will be omitted, and different parts will be described. FIGS. 13 and 14 show the operation of the shutter 103 in FIG. 13A and the charge accumulation operation of the photoelectric conversion unit 104a in the image sensor 104 in FIG. (C) shows the output operation of the image sensor 104 (of the transfer unit 104b), and (d) shows the strobe light emission operation.
[0122]
FIG. 15 is a flowchart for explaining the processing operation of the image input device of FIG. 12 according to the third embodiment. This operation is stored in a storage unit such as a ROM of the control unit 114, for example. It is realized by controlling each component in FIG. 12 according to the program.
[0123]
13 and FIG. 14, and the same steps in FIG. 15 are denoted by the same reference numerals.
[0124]
First, the operation starts in accordance with a photographing instruction (for example, pressing down a shutter button) by a user. After the shutter is opened (step S71 in FIG. 15), the photodiodes PD of the photoelectric conversion unit 104a are reset all at once to start imaging (step S72). Immediately after the start of imaging, the strobe 112 emits light (step S73). After the imaging is performed for a time t1 set by the control unit 114 as the exposure time (step S74), each photodiode of the photoelectric conversion unit 104a is exposed during this exposure time. Is transferred to the transfer unit 104b (step S75), and at the same time, the transfer unit 104b starts the output operation (step S76). The shutter 103 is not closed, and the second imaging is started continuously (step S76). Up to this point, the operation is the same as in the example of the second embodiment.
[0125]
In the second embodiment, the exposure time when capturing the second image is the same time t1 as the exposure time when capturing the first image. However, here, the exposure time for the time t2 different from the time t1 is set. The second image is captured during the exposure time.
[0126]
In other words, as shown in FIG. 13, if the transfer unit 104b has already finished outputting the first signal corresponding to the first image after the exposure time t2 set by the control unit 114 has elapsed (step S77). (Step S79) Immediately, the charge accumulated in each photodiode of the photoelectric conversion unit 104a is transferred to the transfer unit 104b (Step S80), and the transfer unit 104b outputs the output of the second signal corresponding to the second image. The process starts (step S81). Then, the shutter 103 is closed (Step S78).
[0127]
On the other hand, as shown in FIG. 14, after the exposure time t2 set by the control unit 114 has elapsed (step S77), when the transfer unit 104b has not yet output the first signal corresponding to the first image, (Step S79) Once the shutter 103 is closed, the imaging of the second image is ended (Step S78), and the transfer unit 104b waits for the end of the first signal output. Since the shutter is closed while waiting, no charge is accumulated in the photoelectric conversion unit 104a. When the output of the first signal is completed by the transfer unit 104b (Step S79), the charge of the photoelectric conversion unit 104 is transferred to the transfer unit 104b (Step S80), and the transfer unit 104b transmits the second signal corresponding to the second image. (Step S81).
[0128]
When the output of the signal of the second image (second image) is completed by the transfer unit 104b, the first image 107 and the second image 108 are stored in the memory 106. After that, the calculation unit 111 reads the first image 107 and the second image 108 (Step S82), and generates a depth image 110 and a third image (natural image) 109 from these.
[0129]
Next, a description will be given of an operation of the arithmetic unit 111 for generating the depth image 110 and the third image 109 from the first image 107 and the second image 108.
[0130]
First, the first image is captured at the exposure time t1 with the flash unit 103 emitting light, and the second image is captured at the exposure time t2 without the flash unit 103 emitting light. In order to obtain a reflected light image, as described in the first and second embodiments, an image is captured at the same exposure time, one image is an image captured by flash emission, and the other image is not flashed. Are required. The difference between the two images was obtained as a reflected light image. However, in the third embodiment, although there is the first image 107 captured at the exposure time t1 by emitting the flash, there is no image captured at the exposure time t1 without emitting the flash. However, from the second image 108, an image captured at the exposure time t1 can be obtained by calculation without firing the strobe.
[0131]
That is, since the exposure time of the second image is the time t2, the brightness value of each pixel of the second image is multiplied by t1 / t2 to obtain an image captured at the exposure time t1 without emitting a strobe light. And almost the same. Therefore, if each pixel of the reflected light image is H (x, y), each pixel of the first image 107 is G1 (x, y), and each pixel of the second image is G2 (x, y), Each pixel value of the reflected light image can be obtained from Expression (2).
[0132]
H (x, y) = G1 (x, y)-(t1 / t2) G2 (x, y) (2)
The third image (natural image) 109 is the second image 108 itself in this case.
[0133]
The natural image may generally be the second image itself. However, if the shooting environment is too dark, an image using the strobe 103 as an auxiliary light source may be desirable as a natural image. In that case, the image obtained by adding the first image 107 and the second image 108 may be a natural image. The added image is basically an image obtained by emitting light from the strobe 103 and capturing the image for the exposure time (t1 + t2). Therefore, in this case, the exposure time t2 'of the second image is set so that the sum of the exposure time t1 of the first image and the exposure time t2' becomes t2 as the exposure time t2 'of the second image. The exposure time t2 'may be set.
[0134]
Each prime value of the third image (natural image) 109 is N (x, y), each prime value of the first image is G1 (x, y), and each pixel value of the second image is G2 (x, y). y), the third image can be calculated from the following equation (3) or (4).
[0135]
When the shooting environment is bright:
N (x, y) = G2 (x, y) (3)
If the shooting environment is dark:
N (x, y) = G1 (x, y) + G2 (x, y) (4)
In the first and second embodiments, if the shooting environment is too dark, a natural image may be created by adding the first image and the third image.
[0136]
<Fourth embodiment>
In the first to third embodiments, a general CCD image sensor is used to capture a plurality of images by controlling the imaging timing. However, as described above, the image is captured up to twice. If so, it can be done at a very close time, but it is difficult for the third time or more. This is because the signal output speed in the transfer unit 104b is low.
[0137]
However, for example, one or more charge storage units are further provided corresponding to each pixel of the photoelectric conversion unit 104b (a plurality of charge storage units are provided in total). If a charge image can be accumulated, three imagings can be performed at very close times.
[0138]
The transfer unit 104b of the image sensor 104 is generally formed of a CCD (Charge Imaging Element). The transfer unit 104b separately stores two or more charge images and transfers them at different timings. Even with such a configuration, three imagings can be performed at very close times.
[0139]
However, providing the image sensor 104 with such a configuration means that a dedicated solid-state imaging device having such a configuration is newly developed, which causes an increase in cost. In order to obtain a very large effect by slightly changing the control method of the digital still camera which is very widely used at present, the method described in the first to third embodiments is also used. Is desirable.
[0140]
<Control of aperture, shutter speed, flash control, etc.>
Here, an example of how to control the aperture, shutter speed, strobe light control, and the like will be described. Here, the third embodiment will be described as an example. In a conventional digital still camera, an aperture, a shutter speed, and the like are often set by an automatic exposure function. Of course, either the aperture or the shutter speed can be fixed and the other can be automatically set, or both can be set manually. Now, it is assumed that the aperture f and the shutter speed t0 for capturing an image of a subject with an appropriate exposure have been determined.
[0141]
When capturing the first image 107, the purpose is to obtain a reflected light image, so that an exposure time longer than the light emission time of the strobe 103 is not required. The time t1 is selected as a value slightly larger than the maximum emission time of the strobe light 103. In principle, this can be a fixed value. For the aperture, f is used as it is.
[0142]
When capturing the first image 107, the strobe 103 is caused to emit light, but it is necessary to set an appropriate amount of light emission. Here, it is possible to perform dimming by a method called TTL dimming, in which light is temporarily emitted in advance, the amount of reflection by the subject is captured by a sensor, and the amount of light emitted from the strobe is adjusted.
[0143]
Since the second image itself is also used as a natural image, the exposure time is set to t2 = t0. The aperture remains at f. When the exposure is finely adjusted again and the shutter is closed, t2 is different from t0, but at that time, the time t2 is measured. If the value is not known, the calculation for obtaining the reflected light image cannot be performed.
[0144]
From these, the opening time of the mechanical shutter is controlled so as to be opened for the time t1 + t2 after resetting the photoelectric conversion unit 104b after opening. Actually, it takes time to close the mechanical shutter. Therefore, t2 is selected so as to have an appropriate value in consideration of the time. In addition, when the time t2 is very short and a shutter in which the curtain runs like a focal plane shutter is used, the brightness gradually changes in the second image due to the time difference between the start and end of the curtain closing. Shading may occur. In such a case, it is necessary to perform an operation for correcting shading based on the closing speed of the shutter.
[0145]
In addition, there is a shutter system such as a lens shutter that gives a shutter effect to all pixels at the same timing. Even in this case, a value corresponding to t2 is calculated by taking into consideration the time when the shutter is actually opened and closed. Equation (2) should correctly guide the reflected light image. Conversely, the timing to start closing the shutter in FIG. 14 is determined in consideration of the time delay of opening and closing the shutter.
[0146]
The values of the time t1 and the time t2 are required to obtain the reflected light image, but in practice, when t2 is finely adjusted, it may be difficult to measure accurately. However, the reflected light image can be calculated even if the time t2 is not known. Assuming that the background is located somewhere far from the subject so that the flash does not reach, the ratio between time t1 and time t2 can be determined from the first image 107 and the second image 108.
[0147]
A value obtained by dividing the luminance value of each pixel of the second image 108 by the luminance value of the corresponding pixel of the first image 107 is calculated for all the pixels of the first image 107. Then, assuming that the value of the minimum value is a, it is equal to t1 / t2. Therefore, the reflected light image is obtained by the following equation (5). Here, each elementary value of the reflected light image is H (x, y), each elementary value of the first image 107 is G1 (x, y), and each elementary value of the second image is G2 (x, y). And
[0148]
H (x, y) = G1 (x, y) −a × G2 (x, y) (5)
Actually, due to the influence of noise and the like, t1 / 12 often does not exactly become the minimum value a. It is necessary to suppress the influence of noise by taking a value slightly larger than the minimum value or using a histogram together.
[0149]
The exposure time t1 for capturing the first image 107 may be an extremely short time, which is substantially equal to the light emission time of the strobe light 103. When a strobe is used as a light source, the light emission time of the strobe is generally very short, about one thousandth to one thousandth of a second. Even under such a bright environment, the influence of external light can be minimized. Conversely, imaging in a very short time also means an exposure time in which the brightness of an image can be suppressed to a sufficiently low level when an image is captured without emitting light from the light emitting unit (for example, the strobe light 103).
[0150]
In some cases, such as when the environment for obtaining the depth image is dark or when the imaging object and the image input device are stationary, the exposure time does not always need to be 1 / 1000th to 1 / 1,000th of a second. In such a case, a sufficient effect can be obtained even with an exposure time longer than the time t1.
[0151]
In the first to fourth embodiments, the flash unit 103 is mainly used as the light emitting unit. However, other light emitting units may be used. For example, a device such as an LED flash may be used. The type of light is not particularly limited, and the strobe is mainly white, but may be colored light or invisible light such as near infrared light.
[0152]
In each of the above embodiments, taking an example of a still image as an image to be taken is an operation of taking one still image, and actually three or two images (first to third images) are taken. Has been described above, and an image including depth information and a natural image are acquired. However, not limited to this case, the image input method and apparatus according to each embodiment can be applied to a moving image. In this case, when capturing one frame of a moving image, an operation of acquiring three or two images is performed as described in each of the above embodiments, and this operation is repeated for each frame of the moving image. Just fine.
[0153]
As described above, according to the first to third embodiments, the depth image or the reflected light image including the depth information and the natural light corresponding to these images can be obtained simply by devising the conventional digital camera control method. Images can be easily obtained.
[0154]
In addition, it is possible to provide a technology capable of acquiring a depth image with the same ease as a general digital camera user enjoying a digital photograph. Specifically, it can be realized as an optional function of the digital still camera. Thereby, depth information or an image including depth information can be acquired as a part of the action of the digital camera user.
[0155]
The image input device according to the above embodiment is almost the same as the components of a conventional digital still camera, and can be realized by devising a control method thereof. Therefore, it can be expected to make a great contribution to popularizing the apparatus for acquiring the depth image to the general public.
[0156]
According to the first embodiment, it is possible to acquire a depth image or a reflected light image including depth information and a natural image corresponding to these images by devising the simplest control method with respect to a conventional digital camera. can do.
[0157]
According to the second embodiment, even when a relatively moving subject is photographed or camera shake occurs, a reflected light image or a depth image including depth information can be obtained correctly without being affected by the movement. effective.
[0158]
According to the third embodiment, there is an effect of preventing displacement of an object in a reflected light image or depth image including depth information and an object in a natural image from occurring due to movement or camera shake of a subject.
[0159]
The method of the present invention described in the embodiment of the present invention as shown in the flowcharts of FIGS. 4 and 5, FIGS. 8 and 9 and FIG. Disks, hard disks, etc.), optical disks (CD-ROMs, DVDs, etc.), and storage media such as semiconductor memories can also be distributed.
[0160]
Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying constituent elements in an implementation stage without departing from the scope of the invention. Various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above embodiments. For example, some components may be deleted from all the components shown in the embodiment. Further, components of different embodiments may be appropriately combined.
[0161]
【The invention's effect】
As described above, according to the present invention, depth information of an object in an image or an image including depth information can be easily acquired at low cost. Further, a normal image (natural image) and an image including depth information or an object including the depth information of an object in the image can be acquired only by performing the same operation as an imaging operation of a general digital camera or the like.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration example of an image input device according to first and second embodiments of the present invention.
FIG. 2 is a diagram showing a specific configuration example of an image sensor.
FIG. 3 is a diagram for explaining operation timings of main parts of the image input device according to the first embodiment.
FIG. 4 is a flowchart for explaining the operation of the image input device according to the first embodiment.
FIG. 5 is a flowchart for explaining the operation of the image input apparatus according to the first embodiment.
FIG. 6 is a view for explaining the operation timing of the main part of the image input device according to the second embodiment of the present invention.
FIG. 7 is a diagram for explaining another operation timing of a main part of the image input apparatus according to the second embodiment.
FIG. 8 is a flowchart for explaining the operation of the image input device according to the second embodiment.
FIG. 9 is a flowchart for explaining the operation of the image input device according to the second embodiment.
FIG. 10 is a diagram for explaining a difference calculation for obtaining a reflected light image.
FIG. 11 is a view for explaining a reflected light image obtained when there is a gap between two images used for obtaining the reflected light image.
FIG. 12 is a diagram showing a configuration example of an image input device according to a third embodiment of the present invention.
FIG. 13 is a view for explaining the operation timing of the main part of the image input device according to the third embodiment.
FIG. 14 is a diagram for explaining the operation timing of the main part of the image input device according to the third embodiment.
FIG. 15 is a flowchart for explaining the operation of the image input device according to the third embodiment.
FIG. 16 is a diagram illustrating a configuration example of a conventional digital still camera.
FIG. 17 is a diagram for explaining the operation timing of the main part of the conventional digital still camera.
FIG. 18 is a view for explaining the operation of a conventional digital still camera.
[Explanation of symbols]
Reference numeral 101: lens, 102: aperture, 103: shutter, 104: image sensor, 104a: photoelectric conversion unit, 104b: transfer unit, 105: signal processing circuit, 106: memory, 107: first image, 108: second Image 109, third image, 110 depth image, 111 arithmetic unit, 112 strobe, 114 control unit.

Claims (22)

設定された露光時間で撮像対象の画像を撮像する撮像手段と、
前記撮像対象に光を照射するための発光手段と、
撮像指示が入力されると、前記露光時間を第1の時間に設定し、前記発光手段で前記撮像対象に光を照射して、前記撮像手段で前記撮像対象の第1の画像を撮像する第1の手段と、
前記第1の画像を撮像した後、前記露光時間を前記第1の時間に設定し、前記発光手段で前記撮像対象に光を照射せずに、前記撮像手段で前記撮像対象の第2の画像を撮像する第2の手段と、
前記第1の画像と前記第2の画像の差分を求めて、前記発光手段で前記撮像対象に照射した光の当該撮像対象による反射光の強度分布を表す第3の画像を得る第3の手段と、
を具備したことを特徴とする画像入力装置。
Imaging means for capturing an image of an imaging target with a set exposure time,
Light emitting means for irradiating the imaging target with light,
When an imaging instruction is input, the exposure time is set to a first time, the light emitting unit irradiates light to the imaging target, and the imaging unit captures a first image of the imaging target. 1 means;
After capturing the first image, the exposure time is set to the first time, and the light emitting unit does not irradiate the imaging target with light. Second means for imaging the
A third means for obtaining a difference between the first image and the second image to obtain a third image representing an intensity distribution of light reflected on the object by the light emitted from the light emitting unit and illuminating the object; When,
An image input device comprising:
前記第2の画像を撮像した後、前記露光時間を前記第1の時間とは異なる第2の時間に設定して、前記撮像手段で前記撮像対象の第4の画像を撮像する第4の手段をさらに具備したことを特徴とする請求項1記載の画像入力装置。A fourth unit configured to set the exposure time to a second time different from the first time after capturing the second image, and to capture the fourth image of the imaging target by the imaging unit; The image input device according to claim 1, further comprising: 前記第3の画像から前記撮像対象の奥行き情報を算出する算出手段をさらに具備したことを特徴とする請求項1記載の画像入力装置。The image input device according to claim 1, further comprising a calculating unit configured to calculate depth information of the imaging target from the third image. 設定された露光時間で撮像対象の画像を撮像する撮像手段と、
前記撮像対象に光を照射するための発光手段と、
撮像指示が入力されると、前記露光時間を第1の時間に設定し、前記発光手段で前記撮像対象に光を照射して、前記撮像手段で前記撮像対象の第1の画像を撮像する第1の手段と、
前記第1の画像を撮像した後、前記露光時間を前記第1の時間とは異なる第2の時間に設定し、前記発光手段で前記撮像対象に光を照射せずに、前記撮像手段で前記撮像対象の第2の画像を撮像する第2の手段と、
前記第2の画像の各画素値から、前記第2の時間のうち前記第1の時間の間に撮像された画像成分を抽出して、各画素値が前記抽出された画像成分である第3の画像を求める第3の手段と、
前記第1の画像と前記第3の画像との差分を求めて、前記発光手段で前記撮像対象に照射した光の当該撮像対象による反射光の強度分布を表す第4の画像を得る第4の手段と、
を具備したことを特徴とする画像入力装置。
Imaging means for capturing an image of an imaging target with a set exposure time,
Light emitting means for irradiating the imaging target with light,
When an imaging instruction is input, the exposure time is set to a first time, the light emitting unit irradiates light to the imaging target, and the imaging unit captures a first image of the imaging target. 1 means;
After capturing the first image, the exposure time is set to a second time different from the first time, and the light emitting unit does not irradiate the imaging target with light. Second means for capturing a second image of the imaging target;
An image component captured during the first time of the second time is extracted from each pixel value of the second image, and each pixel value is the extracted image component. A third means for obtaining an image of
Calculating a difference between the first image and the third image to obtain a fourth image representing an intensity distribution of reflected light of the light emitted to the imaging target by the light emitting unit and reflected by the imaging target; Means,
An image input device comprising:
前記第3の手段は、前記第2の画像の各画素値に、前記第2の時間に対する前記第1の時間の比率を乗じて、前記第3の画像を求めることを特徴とする請求項4記載の画像入力装置。5. The method according to claim 4, wherein the third unit obtains the third image by multiplying each pixel value of the second image by a ratio of the first time to the second time. The image input device according to the above. 前記第3の手段は、前記第2の画像を構成する複数の画素のそれぞれの画素値を当該複数の画素のそれぞれに対応する前記第1の画像の画素値で除した結果得られる当該複数の画素のそれぞれに対応する値のなかから、前記第2の時間に対する前記第1の時間の比率に対応する値を選択し、前記第2の画像の各画素値に前記選択された値を乗じて、前記第3の画像を求めることを特徴とする請求項4記載の画像入力装置。The third means is configured to divide the pixel values of a plurality of pixels constituting the second image by pixel values of the first image corresponding to each of the plurality of pixels. From among the values corresponding to each of the pixels, a value corresponding to the ratio of the first time to the second time is selected, and each pixel value of the second image is multiplied by the selected value. 5. The image input device according to claim 4, wherein the third image is obtained. 前記第4の画像から前記撮像対象の奥行き情報を算出する算出手段をさらに具備したことを特徴とする請求項4記載の画像入力装置。The image input device according to claim 4, further comprising a calculating unit configured to calculate depth information of the imaging target from the fourth image. 前記第1の画像と前記第2の画像とを加算して第5の画像を得る第5の手段をさらに具備したことを特徴とする請求項4記載の画像入力装置。5. The image input device according to claim 4, further comprising a fifth unit for adding the first image and the second image to obtain a fifth image. 前記撮像手段は、
前記画像を構成する複数の画素のそれぞれに対応する複数の光電変換素子と、
前記複数の光電変換素子で前記露光時間の間に蓄積された電荷を画像信号として出力する出力手段とを有し、
前記第1の手段で、前記第1の時間の間に前記複数の光電変換素子で蓄積した前記第1の画像に対応する電荷を前記出力手段へ移した後、当該出力手段での前記第1の画像に対応する第1の画像信号の出力を開始するとともに、前記第2の手段での前記第2の画像の撮像を開始することを特徴とする請求項1または4記載の画像入力装置。
The imaging means,
A plurality of photoelectric conversion elements corresponding to each of a plurality of pixels constituting the image,
Output means for outputting the charge accumulated during the exposure time in the plurality of photoelectric conversion elements as an image signal,
The first means transfers the electric charge corresponding to the first image accumulated in the plurality of photoelectric conversion elements during the first time to the output means, and then transfers the first electric charge to the output means. The image input device according to claim 1, wherein output of a first image signal corresponding to the image is started, and imaging of the second image by the second unit is started.
いずれかの露光の開始もしくは終了のタイミングが、メカニカルシャッタの動作によってなされるとき、メカニカルシャッタの動作にかかる時間遅れを考慮に入れて、制御または演算を行うことを特徴とする、請求項1または4記載の画像入力装置。2. The method according to claim 1, wherein when the timing of starting or ending one of the exposures is performed by the operation of the mechanical shutter, control or calculation is performed in consideration of a time delay required for the operation of the mechanical shutter. 4. The image input device according to 4. 設定された露光時間で撮像対象の画像を撮像する撮像手段と、前記撮像対象に光を照射するための発光手段とを有する画像入力装置における画像入力方法であって、
撮像指示が入力されると、
前記露光時間を第1の時間に設定し、前記発光手段で前記撮像対象に光を照射して、前記撮像手段で前記撮像対象の第1の画像を撮像する第1のステップと、
前記露光時間を前記第1の時間に設定し、前記発光手段で前記撮像対象に光を照射せずに、前記撮像手段で前記撮像対象の第2の画像を撮像する第2のステップと、
前記第1の画像と前記第2の画像の差分を求めて、前記発光手段で前記撮像対象に照射した光の当該撮像対象による反射光の強度分布を表す第3の画像を得る第3のステップと、
を有することを特徴とする画像入力方法。
An image input method in an image input device, comprising: an imaging unit that captures an image of an imaging target with a set exposure time; and a light emitting unit that irradiates light to the imaging target.
When an imaging instruction is input,
A first step of setting the exposure time to a first time, irradiating the imaging target with light by the light emitting unit, and capturing a first image of the imaging target by the imaging unit;
A second step of setting the exposure time to the first time, and irradiating the imaging target with light with the light emitting unit, and capturing a second image of the imaging target with the imaging unit;
A third step of calculating a difference between the first image and the second image to obtain a third image representing an intensity distribution of light reflected by the imaging target of light emitted to the imaging target by the light emitting unit; When,
An image input method comprising:
前記第1の画像と前記第2の画像を撮像した後、前記露光時間を前記第1の時間とは異なる第2の時間に設定して、前記撮像手段で前記撮像対象の第4の画像を撮像する第4のステップをさらに有することを特徴とする請求項11記載の画像入力方法。After capturing the first image and the second image, the exposure time is set to a second time different from the first time, and a fourth image of the imaging target is captured by the imaging unit. The image input method according to claim 11, further comprising a fourth step of imaging. 前記第3の画像から前記撮像対象の奥行き情報を算出する算出ステップをさらに有することを特徴とする請求項11記載の画像入力方法。The image input method according to claim 11, further comprising a calculating step of calculating depth information of the imaging target from the third image. 設定された露光時間で撮像対象の画像を撮像する撮像手段と、前記撮像対象に光を照射するための発光手段とを有する画像入力装置における画像入力方法であって、
撮像指示が入力されると、
前記露光時間を第1の時間に設定し、前記発光手段で前記撮像対象に光を照射して、前記撮像手段で前記撮像対象の第1の画像を撮像する第1のステップと、
前記露光時間を前記第1の時間とは異なる第2の時間に設定し、前記発光手段で前記撮像対象に光を照射せずに、前記撮像手段で前記撮像対象の第2の画像を撮像する第2のステップと、
前記第2の画像の各画素値から、前記第2の時間のうち前記第1の時間の間に撮像された画像成分を抽出して、各画素値が前記抽出された画像成分である第3の画像を求める第3のステップと、
前記第1の画像と前記第3の画像との差分を求めて、前記発光手段で前記撮像対象に照射した光の当該撮像対象による反射光の強度分布を表す第4の画像を得る第4のステップと、
を有することを特徴とする画像入力方法。
An image input method in an image input device, comprising: an imaging unit that captures an image of an imaging target with a set exposure time; and a light emitting unit that irradiates light to the imaging target.
When an imaging instruction is input,
A first step of setting the exposure time to a first time, irradiating the imaging target with light by the light emitting unit, and capturing a first image of the imaging target by the imaging unit;
The exposure time is set to a second time different from the first time, and the light-emitting unit does not irradiate the imaging target with light, and the imaging unit captures a second image of the imaging target. The second step;
An image component captured during the first time of the second time is extracted from each pixel value of the second image, and each pixel value is the extracted image component. A third step for obtaining an image of
Calculating a difference between the first image and the third image to obtain a fourth image representing an intensity distribution of reflected light of the light irradiated on the imaging target by the light emitting unit and reflected by the imaging target; Steps and
An image input method comprising:
前記第3のステップは、前記第2の画像の各画素値に、前記第2の時間に対する前記第1の時間の比率を乗じて、前記第3の画像を求めることを特徴とする請求項14記載の画像入力方法。15. The method according to claim 14, wherein the third step calculates the third image by multiplying each pixel value of the second image by a ratio of the first time to the second time. Image input method described. 前記第3のステップは、前記第2の画像を構成する複数の画素のそれぞれの画素値を当該複数の画素のそれぞれに対応する前記第1の画像の画素値で除した結果得られる当該複数の画素のそれぞれに対応する値のなかから、前記第2の時間に対する前記第1の時間の比率に対応する値を選択し、前記第2の画像の各画素値に前記選択された値を乗じて、前記第3の画像を求めることを特徴とする請求項14記載の画像入力方法。The third step includes the step of dividing each pixel value of a plurality of pixels constituting the second image by a pixel value of the first image corresponding to each of the plurality of pixels. From among the values corresponding to each of the pixels, a value corresponding to the ratio of the first time to the second time is selected, and each pixel value of the second image is multiplied by the selected value. 15. The image input method according to claim 14, wherein the third image is obtained. 前記第4の画像から前記撮像対象の奥行き情報を算出する算出ステップをさらに有することを特徴とする請求項14記載の画像入力方法。The image input method according to claim 14, further comprising a calculating step of calculating depth information of the imaging target from the fourth image. 前記第1の画像と前記第2の画像とを加算して第5の画像を得る第5のステップをさらに有することを特徴とする請求項14記載の画像入力方法。The image input method according to claim 14, further comprising a fifth step of obtaining a fifth image by adding the first image and the second image. 設定された露光時間で撮像対象の画像を撮像する撮像手段と、前記撮像対象に光を照射するための発光手段とを有し、前記撮像手段は、前記画像を構成する複数の画素のそれぞれに対応する複数の光電変換素子と、前記複数の光電変換素子で前記露光時間の間に蓄積された電荷を画像信号として出力する出力手段とを有する画像入力装置における画像入力方法であって、
撮像指示が入力されると、
前記露光時間を第1の時間に設定し、前記発光手段で前記撮像対象に光を照射して、前記撮像手段で前記撮像対象の第1の画像の撮像を開始する第1のステップと、
この第1のステップで前記第1の画像の撮像を開始してから前記第1の時間経過したとき、前記第1の時間の間に前記複数の光電変換素子で蓄積した前記第1の画像に対応する電荷を前記出力手段へ移して、当該出力手段での前記第1の画像に対応する第1の画像信号の出力を開始する第2のステップと、
前記露光時間を前記第1の時間に設定し、前記発光手段で前記撮像対象に光を照射せずに、前記撮像手段で前記撮像対象の第2の画像の撮像を開始する第3のステップと、
この第3のステップで前記第2の画像の撮像を開始してから前記第1の時間経過したとき、前記出力手段で前記第1の画像信号の出力が終了した後に、前記第1の時間の間に前記複数の光電変換素子で蓄積した前記第2の画像に対応する電荷を前記出力手段へ移して、当該出力手段で前記第2の画像に対応する第2の画像信号の出力を開始する第4のステップと、
前記出力手段で前記第2の画像の出力が終了したとき、前記第1の画像と前記第2の画像の差分を求めて、前記発光手段で前記撮像対象に照射した光の当該撮像対象による反射光の強度分布を表す第3の画像を得る第5のステップと、
を有することを特徴とする画像入力方法。
An imaging unit that captures an image of an imaging target at a set exposure time, and a light emitting unit that irradiates the imaging target with light, wherein the imaging unit includes a plurality of pixels that form the image. An image input method in an image input device having a plurality of corresponding photoelectric conversion elements and an output unit that outputs, as an image signal, an electric charge accumulated during the exposure time in the plurality of photoelectric conversion elements,
When an imaging instruction is input,
A first step of setting the exposure time to a first time, irradiating the imaging target with light by the light emitting unit, and starting imaging of a first image of the imaging target by the imaging unit;
When the first time has elapsed since the imaging of the first image was started in the first step, the first image accumulated by the plurality of photoelectric conversion elements during the first time is added to the first image. A second step of transferring a corresponding charge to the output means and starting to output a first image signal corresponding to the first image at the output means;
A third step of setting the exposure time to the first time, and starting imaging of a second image of the imaging target by the imaging unit without irradiating the imaging target with light by the light emitting unit; ,
In the third step, when the first time elapses after the imaging of the second image is started, after the output of the first image signal is completed by the output means, the first time In the meantime, the electric charge corresponding to the second image accumulated by the plurality of photoelectric conversion elements is transferred to the output unit, and the output unit starts outputting the second image signal corresponding to the second image. The fourth step;
When the output of the second image is completed by the output unit, a difference between the first image and the second image is obtained, and the light emitted from the light emitting unit to the object is reflected by the object. A fifth step of obtaining a third image representing the light intensity distribution;
An image input method comprising:
設定された露光時間で撮像対象の画像を撮像する撮像手段と、前記撮像対象に光を照射するための発光手段とを有し、前記撮像手段は、前記画像を構成する複数の画素のそれぞれに対応する複数の光電変換素子と、前記複数の光電変換素子で前記露光時間の間に蓄積された電荷を画像信号として出力する出力手段とを有する画像入力装置における画像入力方法であって、
撮像指示が入力されると、
前記露光時間を第1の時間に設定し、前記発光手段で前記撮像対象に光を照射して、前記撮像手段で前記撮像対象の第1の画像の撮像を開始する第1のステップと、
この第1のステップで前記第1の画像の撮像を開始してから前記第1の時間経過したとき、前記第1の時間の間に前記複数の光電変換素子で蓄積した前記第1の画像に対応する電荷を前記出力手段へ移して、当該出力手段での前記第1の画像に対応する第1の画像信号の出力を開始する第2のステップと、
前記露光時間を前記第1の時間とは異なる第2の時間に設定し、前記発光手段で前記撮像対象に光を照射せずに、前記撮像手段で前記撮像対象の第2の画像の撮像を開始する第3のステップと、
この第3のステップで前記第2の画像の撮像を開始してから前記第2の時間経過したとき、前記出力手段で前記第1の画像信号の出力が終了した後に、前記第2の時間の間に前記複数の光電変換素子で蓄積した前記第2の画像に対応する電荷を前記出力手段へ移して、当該出力手段で前記第2の画像に対応する第2の画像信号の出力を開始する第4のステップと、
前記出力手段で前記第2の画像の出力が終了したとき、前記第2の画像の各画素値から、前記第2の時間のうち前記第1の時間の間に撮像された画像成分を抽出して、各画素値が前記抽出された画像成分である第3の画像を求める第5のステップと、
前記第1の画像と前記第3の画像との差分を求めて、前記発光手段で前記撮像対象に照射した光の当該撮像対象による反射光の強度分布を表す第4の画像を得る第6のステップと、
を有することを特徴とする画像入力方法。
An imaging unit that captures an image of an imaging target at a set exposure time, and a light emitting unit that irradiates the imaging target with light, wherein the imaging unit includes a plurality of pixels that form the image. An image input method in an image input device having a plurality of corresponding photoelectric conversion elements and an output unit that outputs, as an image signal, an electric charge accumulated during the exposure time in the plurality of photoelectric conversion elements,
When an imaging instruction is input,
A first step of setting the exposure time to a first time, irradiating the imaging target with light by the light emitting unit, and starting imaging of a first image of the imaging target by the imaging unit;
When the first time has elapsed since the imaging of the first image was started in the first step, the first image accumulated by the plurality of photoelectric conversion elements during the first time is added to the first image. A second step of transferring a corresponding charge to the output means and starting to output a first image signal corresponding to the first image at the output means;
The exposure time is set to a second time different from the first time, and the imaging means captures a second image of the imaging target without irradiating the imaging target with light by the light emitting means. A third step to start;
In the third step, when the second time has elapsed from the start of the imaging of the second image, after the output of the first image signal has been completed by the output means, the second time has elapsed. In the meantime, the electric charge corresponding to the second image accumulated by the plurality of photoelectric conversion elements is transferred to the output unit, and the output unit starts outputting the second image signal corresponding to the second image. The fourth step;
When the output of the second image is completed by the output unit, an image component captured during the first time of the second time is extracted from each pixel value of the second image. A fifth step of obtaining a third image in which each pixel value is the extracted image component;
Calculating a difference between the first image and the third image to obtain a fourth image representing an intensity distribution of reflected light of the light irradiated on the imaging target by the light emitting unit by the imaging target; Steps and
An image input method comprising:
設定された露光時間で撮像対象の画像を撮像する撮像手段と、前記撮像対象に光を照射するための発光手段とを用いて画像を入力するためのプログラムであって、
撮像指示が入力されると、コンピュータに、
前記露光時間を第1の時間に設定し、前記発光手段で前記撮像対象に光を照射して、前記撮像手段で前記撮像対象の第1の画像を撮像する第1のステップと、
前記露光時間を前記第1の時間に設定し、前記発光手段で前記撮像対象に光を照射せずに、前記撮像手段で前記撮像対象の第2の画像を撮像する第2のステップと、
前記第1の画像と前記第2の画像の差分を求めて、前記発光手段で前記撮像対象に照射した光の当該撮像対象による反射光の強度分布を表す第3の画像を得る第3のステップと、
前記露光時間を前記第1の時間とは異なる第2の時間に設定して、前記撮像手段で前記撮像対象の第4の画像を撮像する第4のステップと、
を実行させるプログラム。
An imaging unit that captures an image of an imaging target with a set exposure time, and a program for inputting an image using a light emitting unit for irradiating the imaging target with light,
When the imaging instruction is input, the computer
A first step of setting the exposure time to a first time, irradiating the imaging target with light by the light emitting unit, and capturing a first image of the imaging target by the imaging unit;
A second step of setting the exposure time to the first time, and irradiating the imaging target with light with the light emitting unit, and capturing a second image of the imaging target with the imaging unit;
A third step of calculating a difference between the first image and the second image to obtain a third image representing an intensity distribution of light reflected by the imaging target of light emitted to the imaging target by the light emitting unit; When,
A fourth step of setting the exposure time to a second time different from the first time, and capturing a fourth image of the imaging target by the imaging unit;
A program that executes
設定された露光時間で撮像対象の画像を撮像する撮像手段と、前記撮像対象に光を照射するための発光手段とを用いて画像を入力するためのプログラムであって、
撮像指示が入力されると、コンピュータに、
前記露光時間を第1の時間に設定し、前記発光手段で前記撮像対象に光を照射して、前記撮像手段で前記撮像対象の第1の画像を撮像する第1のステップと、
前記露光時間を前記第1の時間とは異なる第2の時間に設定し、前記発光手段で前記撮像対象に光を照射せずに、前記撮像手段で前記撮像対象の第2の画像を撮像する第2のステップと、
前記第2の画像の各画素値から、前記第2の時間のうち前記第1の時間の間に撮像された画像成分を抽出して、各画素値が前記抽出された画像成分である第3の画像を求める第3のステップと、
前記第1の画像と前記第3の画像との差分を求めて、前記発光手段で前記撮像対象に照射した光の当該撮像対象による反射光の強度分布を表す第4の画像を得る第4のステップと、
を実行させるプログラム。
An imaging unit that captures an image of an imaging target with a set exposure time, and a program for inputting an image using a light emitting unit for irradiating the imaging target with light,
When the imaging instruction is input, the computer
A first step of setting the exposure time to a first time, irradiating the imaging target with light by the light emitting unit, and capturing a first image of the imaging target by the imaging unit;
The exposure time is set to a second time different from the first time, and the light-emitting unit does not irradiate the imaging target with light, and the imaging unit captures a second image of the imaging target. The second step;
An image component captured during the first time of the second time is extracted from each pixel value of the second image, and each pixel value is the extracted image component. A third step for obtaining an image of
Calculating a difference between the first image and the third image to obtain a fourth image representing an intensity distribution of reflected light of the light irradiated on the imaging target by the light emitting unit and reflected by the imaging target; Steps and
A program that executes
JP2003124147A 2003-04-28 2003-04-28 Image input device, image input method and program Pending JP2004328657A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003124147A JP2004328657A (en) 2003-04-28 2003-04-28 Image input device, image input method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003124147A JP2004328657A (en) 2003-04-28 2003-04-28 Image input device, image input method and program

Publications (1)

Publication Number Publication Date
JP2004328657A true JP2004328657A (en) 2004-11-18

Family

ID=33501831

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003124147A Pending JP2004328657A (en) 2003-04-28 2003-04-28 Image input device, image input method and program

Country Status (1)

Country Link
JP (1) JP2004328657A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006337254A (en) * 2005-06-03 2006-12-14 Tama Tlo Kk Imaging apparatus, method and program for measuring distance of photographed image, and recording medium
WO2009072070A1 (en) 2007-12-05 2009-06-11 Nxp B.V. Flash light compensation system for digital camera system
WO2009110082A1 (en) 2008-03-06 2009-09-11 富士通株式会社 Image photographic device, image photographic method, and image photographic program
EP2161537A2 (en) 2008-09-05 2010-03-10 Fujitsu Limited Optical position measuring apparatus based on projection of grid patterns
JP2011029790A (en) * 2009-07-22 2011-02-10 Honda Motor Co Ltd Imaging system
JP2011139115A (en) * 2009-12-25 2011-07-14 Saitama Univ High-speed camera equipment and image processing method for the same
JP2011239224A (en) * 2010-05-11 2011-11-24 Sea Phone Co Ltd Stereoscopic image creation device and stereoscopic image creation method
DE112010005646T5 (en) 2010-06-07 2013-03-14 Mitsubishi Electric Corporation Camera distance measuring device
JP2016129009A (en) * 2005-03-11 2016-07-14 ハンド ヘルド プロダクツ インコーポレーティッド Image reading device having global electronic shutter control
US10002272B2 (en) 2005-06-03 2018-06-19 Hand Held Products, Inc. Apparatus having hybrid monochrome and color image sensor array
US10171767B2 (en) 2005-03-11 2019-01-01 Hand Held Products, Inc. Image reader comprising CMOS based image sensor array
CN109872382A (en) * 2017-12-01 2019-06-11 欧姆龙株式会社 Image processing system and image processing method

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016129009A (en) * 2005-03-11 2016-07-14 ハンド ヘルド プロダクツ インコーポレーティッド Image reading device having global electronic shutter control
US11968464B2 (en) 2005-03-11 2024-04-23 Hand Held Products, Inc. Image reader comprising CMOS based image sensor array
US11863897B2 (en) 2005-03-11 2024-01-02 Hand Held Products, Inc. Image reader comprising CMOS based image sensor array
US11323650B2 (en) 2005-03-11 2022-05-03 Hand Held Products, Inc. Image reader comprising CMOS based image sensor array
US11323649B2 (en) 2005-03-11 2022-05-03 Hand Held Products, Inc. Image reader comprising CMOS based image sensor array
US11317050B2 (en) 2005-03-11 2022-04-26 Hand Held Products, Inc. Image reader comprising CMOS based image sensor array
US10958863B2 (en) 2005-03-11 2021-03-23 Hand Held Products, Inc. Image reader comprising CMOS based image sensor array
US10735684B2 (en) 2005-03-11 2020-08-04 Hand Held Products, Inc. Image reader comprising CMOS based image sensor array
US10721429B2 (en) 2005-03-11 2020-07-21 Hand Held Products, Inc. Image reader comprising CMOS based image sensor array
US10171767B2 (en) 2005-03-11 2019-01-01 Hand Held Products, Inc. Image reader comprising CMOS based image sensor array
US11238252B2 (en) 2005-06-03 2022-02-01 Hand Held Products, Inc. Apparatus having hybrid monochrome and color image sensor array
US11238251B2 (en) 2005-06-03 2022-02-01 Hand Held Products, Inc. Apparatus having hybrid monochrome and color image sensor array
US10002272B2 (en) 2005-06-03 2018-06-19 Hand Held Products, Inc. Apparatus having hybrid monochrome and color image sensor array
US10691907B2 (en) 2005-06-03 2020-06-23 Hand Held Products, Inc. Apparatus having hybrid monochrome and color image sensor array
US11625550B2 (en) 2005-06-03 2023-04-11 Hand Held Products, Inc. Apparatus having hybrid monochrome and color image sensor array
US10949634B2 (en) 2005-06-03 2021-03-16 Hand Held Products, Inc. Apparatus having hybrid monochrome and color image sensor array
US11604933B2 (en) 2005-06-03 2023-03-14 Hand Held Products, Inc. Apparatus having hybrid monochrome and color image sensor array
JP2006337254A (en) * 2005-06-03 2006-12-14 Tama Tlo Kk Imaging apparatus, method and program for measuring distance of photographed image, and recording medium
WO2009072070A1 (en) 2007-12-05 2009-06-11 Nxp B.V. Flash light compensation system for digital camera system
US8358370B2 (en) 2007-12-05 2013-01-22 Nxp B.V. Flash light compensation system for digital camera system
WO2009110082A1 (en) 2008-03-06 2009-09-11 富士通株式会社 Image photographic device, image photographic method, and image photographic program
US8218063B2 (en) 2008-03-06 2012-07-10 Fujitsu Limited Image capturing apparatus, image capturing method, and image capturing program
EP2161537A3 (en) * 2008-09-05 2011-03-16 Fujitsu Limited Optical position measuring apparatus based on projection of grid patterns
US8472701B2 (en) 2008-09-05 2013-06-25 Fujitsu Limited Position measuring apparatus
EP2161537A2 (en) 2008-09-05 2010-03-10 Fujitsu Limited Optical position measuring apparatus based on projection of grid patterns
JP2011029790A (en) * 2009-07-22 2011-02-10 Honda Motor Co Ltd Imaging system
JP2011139115A (en) * 2009-12-25 2011-07-14 Saitama Univ High-speed camera equipment and image processing method for the same
JP2011239224A (en) * 2010-05-11 2011-11-24 Sea Phone Co Ltd Stereoscopic image creation device and stereoscopic image creation method
DE112010005646T5 (en) 2010-06-07 2013-03-14 Mitsubishi Electric Corporation Camera distance measuring device
CN109872382A (en) * 2017-12-01 2019-06-11 欧姆龙株式会社 Image processing system and image processing method

Similar Documents

Publication Publication Date Title
CN103516988B (en) Enhanced image processing with lens motion
CN102754426B (en) Capture condition selection from brightness and motion
CN104038702B (en) Picture pick-up device and its control method
JP6046905B2 (en) Imaging apparatus, exposure control method, and program
JP5004544B2 (en) Imaging apparatus and exposure control method
JP2004212385A (en) Photographic device, photographing method and control method for the photographic device
CN104604215A (en) Image capture apparatus, image capture method and program
JP2004328657A (en) Image input device, image input method and program
JP6095266B2 (en) Image processing apparatus and control method thereof
JP2014137482A (en) Photographing device and photographing illumination device
JP6425571B2 (en) IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, AND PROGRAM
JP2017102637A (en) Processing apparatus, processing system, imaging device, processing method, program, and recording medium
JP5444651B2 (en) Camera device, photographing method thereof and photographing control program
JP6608194B2 (en) Image processing apparatus, control method therefor, and program
US9888189B2 (en) Image capturing apparatus and storage medium for storing image capturing control program
JP2015034850A (en) Photographing device and photographing method
JP7118776B2 (en) IMAGING DEVICE, IMAGE PROCESSING METHOD, IMAGE PROCESSING PROGRAM AND RECORDING MEDIUM
JP2010130314A (en) Imaging apparatus
JP7118737B2 (en) Imaging device and its control method
JP6645691B2 (en) Imaging device and imaging method
JP6910763B2 (en) Processing equipment, processing systems, imaging equipment, processing methods, programs, and recording media
JP2008199518A (en) Camera
JP7309425B2 (en) Processing device, processing system, imaging device, processing method, and program
JP5515541B2 (en) Imaging device
JP6968650B2 (en) Imaging device and its control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060411

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060905