JP2008005355A - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
JP2008005355A
JP2008005355A JP2006174584A JP2006174584A JP2008005355A JP 2008005355 A JP2008005355 A JP 2008005355A JP 2006174584 A JP2006174584 A JP 2006174584A JP 2006174584 A JP2006174584 A JP 2006174584A JP 2008005355 A JP2008005355 A JP 2008005355A
Authority
JP
Japan
Prior art keywords
area
misregistration
image processing
image
distance measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006174584A
Other languages
English (en)
Other versions
JP2008005355A5 (ja
JP4693709B2 (ja
Inventor
Junji Sugawara
淳史 菅原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2006174584A priority Critical patent/JP4693709B2/ja
Publication of JP2008005355A publication Critical patent/JP2008005355A/ja
Publication of JP2008005355A5 publication Critical patent/JP2008005355A5/ja
Application granted granted Critical
Publication of JP4693709B2 publication Critical patent/JP4693709B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

【課題】高精度な位置ずれを検出することができる画像処理装置及び画像処理方法を提供する。
【解決手段】複数の撮影画像に対してそれらの撮影時に合焦した焦点検出領域を特定し、前記撮影画像毎に、少なくとも、前記焦点検出領域から予め定められた範囲内にある第1の領域と、被写体までの距離が最も遠い第2の領域とに区分けする領域判定手段と、前記領域判定手段による区分けの結果に応じて前記複数の撮影画像間の位置ずれを検出する位置ずれ検出手段と、を有する。前記位置ずれ検出手段は、前記第1の領域における位置ずれを示す情報及び前記第2の領域における位置ずれを示す情報に対して互いに異なる重み付けを設定した上で前記位置ずれを検出する。
【選択図】図2

Description

本発明は、撮像した複数の画像からこれらの画像の位置ずれを検出する、デジタルカメラ、デジタルビデオカメラ、カメラつき携帯電話及びパーソナルコンピュータ等の画像処理装置及び画像処理方法に関する。
現在のカメラは露出決定やピント合わせ等の撮影にとって重要な作業は全て自動化され、カメラ操作に未熟な人でも撮影失敗を起こす可能性は非常に少なくなっている。また、最近では、カメラに加わる手ぶれを防ぐシステムも研究されており、撮影者の撮影ミスを誘発する要因は殆ど無くなってきている。手ぶれを防ぐ方法としては、加速度、角加速度、角速度、角変位等を検知するセンサを用いて手ぶれによる振動を検出し、その検出値に応じて手ぶれによる光軸変化を補正するように補正レンズを変位させる光学シフト式手ぶれ補正がある。また、手ぶれの生じないような短い露光時間で撮影を繰り返し、撮影された複数の画像の位置を合わせて合成することで、画像毎の構図の違いを補正しつつ、露出の不足を補完する画像合成式の手ぶれ補正も知られている。
画像合成方式の手ぶれ補正における位置合わせ方法は、例えば特許文献1に記載されている。この方法では、主要被写体が位置しそうな領域を避けた、フレームの周辺領域(背景)を使って動きベクトルを算出することとしている。これは、主要被写体として人物を想定した場合、目の瞬きや手の複雑な動きなどによって被写体ぶれに影響された位置合わせを行う可能性があるからである。
また、カラー画像の処理方法は、例えば特許文献2に記載されている。この方法では、色成分毎に位置合わせ演算を行い、特に人間の視覚特性上解像度に与える影響の大きい色成分(G成分)に関しては高精度に位置合わせ演算を行い、それ以外の色成分(R、B成分)に関しては、位置合わせ演算の処理を簡略化することとしている。
特開2004−219765号公報 特開2002−112007号公報
しかしながら、画像合成式の手ぶれ補正においては、微妙に構図の異なる複数枚の画像に対して位置を合わせて合成を行うため、位置合わせの精度が悪い場合に適切に合成処理が行われず、合成画像にブレが生じてしまう。特に画像信号中のボケ量の大きな領域に対して動きベクトル算出演算を行う場合、精度よく位置合わせを行うことが難しいため、適切に画像合成がなされないことがある。そのため、主要被写体と背景とでボケ量が大きく異なるような画像信号においては、背景領域の動きベクトル算出結果の影響によって高精度な動きベクトルを求めることができず、主要被写体がぶれてしまうという問題があった。
例えば上記特許文献1においては、所期の目的を達成することはできるものの、フレーム周辺領域を使って動きベクトルを算出するため、背景のボケ量が大きい画像信号に対しては、精度の悪い位置合わせ結果しか得られないという問題がある。また、上記特許文献2についても、画像信号の色成分のみを用いて位置合わせ演算の精度を変更するため、例えば背景に青空等の青色が多いようなシーンに対しては、やはり同様の問題が生じてしまう。
本発明は、上記問題を鑑みてのものであり、高精度な位置ずれを検出することができる画像処理装置及び画像処理方法を提供することを目的とする。
本願発明者は、前記課題を解決すべく鋭意検討を重ねた結果、以下に示す発明の諸態様に想到した。
本発明に係る画像処理装置は、複数の撮影画像に対してそれらの撮影時に合焦した焦点検出領域を特定し、前記撮影画像毎に、少なくとも、前記焦点検出領域から予め定められた範囲内にある第1の領域と、被写体までの距離が最も遠い第2の領域とに区分けする領域判定手段と、前記領域判定手段による区分けの結果に応じて前記複数の撮影画像間の位置ずれを検出する位置ずれ検出手段と、を有し、前記位置ずれ検出手段は、前記第1の領域における位置ずれを示す情報及び前記第2の領域における位置ずれを示す情報に対して互いに異なる重み付けを設定した上で前記位置ずれを検出することを特徴とする。例えば、特定のブロックの動きベクトルのみを算出して、全体の動きベクトルとする処理、つまり、特定のブロックの動きベクトルを大きくし、他のブロックの動きベクトルを0とする処理を行う。
本発明に係る画像処理方法は、複数の撮影画像に対してそれらの撮影時に合焦した焦点検出領域を特定し、前記撮影画像毎に、少なくとも、前記焦点検出領域から予め定められた範囲内にある第1の領域と、被写体までの距離が最も遠い第2の領域とに区分けする領域判定ステップと、前記領域判定ステップにおける区分けの結果に応じて前記複数の撮影画像間の位置ずれを検出する位置ずれ検出ステップと、を有し、前記位置ずれ検出ステップにおいて、前記第1の領域における位置ずれを示す情報及び前記第2の領域における位置ずれを示す情報に対して互いに異なる重み付けを設定した上で前記位置ずれを検出することを特徴とする。例えば、特定のブロックの動きベクトルのみを算出して、全体の動きベクトルとする処理、つまり、特定のブロックの動きベクトルを大きくし、他のブロックの動きベクトルを0とする処理を行う。
本発明によれば、測距結果を反映している領域判定の区分けの結果に応じて第1及び第2の領域に対して付与する重み付け量を調整しているため、適切な位置ずれ量を検出することができる。従って、この位置ずれ量を用いて画像合成式の手ぶれ補正を行えば、ピンボケや主要被写体のぶれ等の不具合を防止することができる。
以下、本発明の実施形態について添付の図面を参照して具体的に説明する。
(第1の実施形態)
先ず、本発明の第1の実施形態について、図1〜図5を参照しながら説明する。ここでは、位相差検出方式の自動焦点調節機能により、7点の焦点検出領域(以下、測距点と呼ぶ)を持ったデジタル一眼レフカメラを例にとって説明する。位相差検出方式の自動焦点調節機能は公知である。
先ず、本実施の形態における撮像装置の構成について説明する。図1は、本発明の第1の実施形態に係るカメラの概略構成を示す側方視断面図である。
本実施形態に係るカメラは、CCD又はCMOSセンサ等の撮像素子を用いた単板式のデジタルカラーカメラであり、撮像素子を連続的又は単発的に駆動して静止画像を表す画像信号を得る。ここで、撮像素子は、受光した光を画素毎に電気信号に変換して光量に応じた電荷を蓄積し、この蓄積された電荷を読み出すタイプのエリアセンサである。
図1に示すように、カメラ本体101には、焦点距離の異なる複数のレンズ装置102が着脱可能であり、レンズ装置102を取り換えることにより様々な画角の撮影画面を得ることが可能である。
レンズ装置102は不図示の駆動機構を有しており、この駆動機構は結像光学系104の一部の要素であるフォーカシングレンズを光軸L1の方向に移動させることにより焦点調節を行わせる。
また、レンズ装置102内には、光通過口の開口面積を変化させて撮影光束の光量を調節する絞りと、この絞りを駆動する駆動機構(いずれも不図示)とが配置されている。
カメラ本体101内には、光軸L1に沿って、メインミラー105、サブミラー106、フォーカルプレンシャッター107、光学ローパスフィルター108及び撮像素子108が配置されている。
メインミラー105は、例えばハーフミラーから構成されている。メインミラー105は、レンズ装置102からの光束の一部を透過し、サブミラー106を介して後述のAFユニット114に導くと共に、残りの光束を反射させることにより、後述のファインダー光学系103へと導く。なお、メインミラー105及びサブミラー106は可動型となっており、撮影光路上(光軸L1上)に斜設された状態と、撮影光路上から退避した状態とを相互に切り替えられる。撮影光路上に斜設された状態では前述のように撮影光束をファインダー光学系103とAFユニット114とに分割するが、撮影光路から退避した状態においては、撮影光束をそのまま後述の撮像素子109へと導くようになっている。
フォーカルプレンシャッター(以下、シャッターと称す)107は、複数枚の遮光羽根で構成される先幕及び後幕を有している。シャッター107は、非撮影時には光通過口となるアパーチャを先幕又は後幕で覆うことにより撮影光束を遮光し、撮影時には先幕及び後幕がスリットを形成しながら走行することで撮影光束を像面側に通過させる。
光学ローパスフィルター108は、後述する撮像素子109に被写体像の必要以上に高い空間周波数成分が伝達されないように、入射光束の高周波成分を制限する。
撮像素子109は、例えばパッケージに収納されており、例えば、増幅型固体撮像素子の1つであるCMOSプロセスコンパチブルのセンサ(CMOSセンサ)から構成されている。CMOSセンサは、任意の画素へのランダムアクセスが可能という特徴を具備しており、ディスプレイ表示用に間引いた読み出しが容易であって、高い表示レートでリアルタイム表示を行うことができる。また、撮像素子109で捉えられた被写体像は、所定の画像処理を経て、ディスプレイユニット115上に表示される。ディスプレイユニット115は、カメラ本体101の背面に取り付けられており、撮影者がディスプレイユニット115に表示された画像を直接観察できる。ディスプレイユニット115としては、例えば液晶パネルが設けられている。
AFユニット114は、7点の測距点を持つAFユニットであり、位相差検出方式により焦点調節状態を検出する。
ファインダー光学系103には、フォーカシングスクリーン110、ペンタプリズム111、AEユニット112及び接眼レンズ113が設けられている。
フォーカシングスクリーン110は、例えば被写体像の予定結像面に配置されている。ペンタプリズム111は、メインミラー105からの光束を複数回反射(正立像に変換)させて接眼レンズ113に導く。接眼レンズ113は、フォーカシングスクリーン110上に形成された被写体像を観察するためのレンズであり、例えば3枚程度のレンズで構成されている。AEユニット112は、自動測光を行うためのセンサである。
更に、2段階の押圧操作が可能な静止画撮影用のレリーズボタン116が設けられている。レリーズボタン116が半押し状態となると撮影準備動作(焦点調節動作および測光動作等)が開始され、全押し状態になると撮影動作が開始される。以下の説明では、レリーズボタン116の半押し状態をスイッチSW1がONした状態と表現し、レリーズボタン116の全押し状態をスイッチSW2がONした状態と表現する。
次に、本実施形態に係るカメラ(撮像装置)の機能的な構成について説明する。図2は、第1の実施形態に係るカメラの機能的な構成を示すブロック図である。
図2に示すように、撮影レンズ201(レンズ装置102)から入射した光線は、絞り202を通過し、ミラーボックス203に到達する。ミラーボックス203はメインミラー105及びサブミラー106から構成されている。ミラーボックス203を駆動することによって、入射光を透過光と反射光とに分割し夫々をAFユニット114及びAEユニット112へと導く状態と、入射光をそのまま撮像部209(撮像素子109)に導く状態とに切り替えることができる。撮像部209は、上述のように、例えばCMOSセンサ)から構成されている。
撮影レンズ201は、ピント調節のためにレンズ駆動部207によって駆動させ、絞り202は絞り駆動部205によって、ミラーボックスはミラー駆動部204によって、シャッター107はシャッター駆動部206によって、それぞれ駆動される。
撮影制御部208は、AEユニット112からの測光情報に基づいて、露光時の絞り値、シャッタースピードを決定し、シャッター駆動部(SH駆動部)206及び絞り駆動部205を制御する。また、撮影制御部208は、AFユニット114からの信号に基づいて、合焦させるために必要なレンズの駆動量を決定し、レンズ駆動部207を制御する。
露光時においては、ミラー駆動部204によって、メインミラー105及びサブミラー106を撮影光路上から退避させ、シャッター駆動部206によってシャッター107を駆動し、所定の露光時間だけ露光を行う。この結果、撮影レンズ201からの光束が撮像部209に結像する。
撮像部209から出力された映像信号は、A/D変換部210によりデジタル信号に変換されて信号処理部211に入力される。信号処理部211は、輝度信号及び/又は色信号の生成等の信号処理を行い、この結果、カラー映像信号が生成される。
表示部215及び記録部216は、夫々、撮影した画像を表示、記録保存し、信号処理部211により生成されたカラー映像信号を表示、記録保存する。
本実施形態には、モードスイッチ(図示せず)が設けられており、撮影者が任意に通常撮影モードと画像合成モードとを設定することができる。上述の各部は、いずれの動作モードが選択されている場合でも動作するが、以下のずれ検出部212、座標変換部213、画像記憶部214及び画像合成部217は画像合成モードが選択されている場合に動作する。なお、通常撮影モードは、主に防振を必要としないような明るさの被写体を撮影する場合に選択する動作モードであり、画像合成モードは、例えば撮影被写体が暗く、露光秒時が長くなるために手ぶれが生じる虞がある場合に選択する動作モードである。画像合成モードが選択されている場合、撮影制御部208は、AEセンサ112からの情報に基づいて撮影枚数を決定し、その枚数分の撮影の制御を行う。また、撮影制御部208は、撮影した枚数や、ぞれぞれの画像撮影時に選択された測距点の情報をずれ検出部212に受け渡す。
ずれ検出部212は、信号処理部211から受け取った複数の画像信号及び撮影制御部208から入力された情報に基づいて、2次元の相関演算を行い、各画像間の相対的な位置ずれ量(動きベクトル)を算出する。座標変換部213は、ずれ検出部212によって算出された動きベクトルに合わせて各画像の座標変換を行う。そして、画像記憶部214が座標変換後の各画像を記憶し、記憶された各画像が画像合成部217によって1枚の画像に合成される。この際、表示部215及び記録部216には、合成された画像が表示、保存される。
次に、上述のように構成された第1の実施形態に係るカメラの動作について説明する。図4−1乃至図4−3は、第1の実施形態に係るカメラの動作を示すフローチャートである。
先ず、図4−1に示すように、カメラの電源が投入されると、撮影制御部208は、ステップS401にて各種設定の初期化を行い、ステップS402へと進む。
ステップS402において、撮影制御部208は、カメラの撮影モードが複数枚の画像を撮影した後にそれらを合成する画像合成モードに設定されているか、通常の撮影モードに設定されているかを判断する。そして、画像合成モードに設定されている場合はステップS403に進み、通常撮影モードに設定されている場合はステップS419に進む。
ステップS403において、撮影制御部208は、ユーザによってレリーズボタン116が半押しされるまで待機する。そして、レリーズボタン116が半押しされるとステップS404に進む。
ステップS404では、自動的に焦点調節及び測光動作を行う。更に、このときの自動焦点調節動作に伴って、撮影制御部208が測距点を以下の5タイプに分類する。
タイプ1:合焦した測距点
タイプ2:タイプ1の測距点に近い測距結果を検出した測距点
タイプ3:全測距点の中で、被写体までの距離が一番遠い測距結果を検出した測距点
タイプ4:タイプ3の測距点に近い測距結果を検出した測距点
タイプ5:上記のどのタイプにも含まれない測距点
タイプ2の測距点の分類判定に際しては、例えば、予め閾値α、βをカメラ内部に保持しておき、判定式「α≦|defocus1-defocus|≦β」を満たす測距点をタイプ2として分類する。ここで、「defocus1」はタイプ1の測距点の測距結果であり、「defocus」は注目している測距点の測距結果である。
タイプ4の測距点の分類判定に際しても、タイプ2と同様に、例えば判定式「α≦|defocus3-defocus|≦β」を満たす測距点をタイプ4として分類する。ここで、「defocus3」はタイプ3の測距点の測距結果である。
このような分類基準によれば、タイプ1又は2に分類された測距点はピントの合っている測距点に相当し、タイプ3又は4に分類された測距点は背景部分の測距点に相当することとなる。
そして、撮影制御部208は、全測距点に関してタイプ別の分類を決定した後、その結果をバッファメモリに記憶し、ステップS405に進む。
ステップS405において、撮影制御部208は、ステップS404で得られたAEユニット112の測光結果に応じて、撮影予定枚数Nの決定を行う。撮影する枚数Nは、例えば、そのシーンで1枚撮影する場合に必要な本来の露光時間をTS、複数枚撮影時の一枚あたりの露光時間をTMとしたとき、「TS=TM×N」を満たすようにする。また、露光時間TMは、例えば、手ぶれしない露光時間の目安とされる1/f秒(fは焦点距離)に一致させる。但し、露光時間TM及び撮影枚数Nは、上述のものに限定されない。
次に、ステップS406において、撮影制御部208は、ユーザによってレリーズボタン116が全押しされたか判断し、全押しされている場合には、現在の撮影枚数のカウント値であるnをn=0とし、ステップS407に進み、N枚の連続撮影を開始する。なお、レリーズボタン116が全押しされていない場合には、ステップS403に戻る。
ステップS407において、撮影制御部208は、撮影時の焦点距離f及び絞り値Fをバッファメモリに記憶する。
そして、ステップS408において、撮影処理を行った上で、撮影枚数nのカウントアップをする。
その後、ステップS409において、撮影制御部208は、現在の撮影枚数がステップS405で決定した撮影予定枚数Nに達したかを判定し、Nに達している場合、即ち必要な回数の撮影を終えていた場合はステップS411に進む。一方、撮影予定枚数Nに達していない場合はステップS410にて自動焦点調節動作を行い、ステップS407に戻る。なお、ステップS410の自動焦点調節動作においては、ステップS404と同様に、測距点を前述のタイプ別に分類し、バッファメモリに記憶する。このように、本実施形態では、自動焦点調節動作を行うたびに測距点をタイプ別に分類して記録する。
ステップS411では、ずれ検出部212が、撮影した複数枚の画像間の位置ずれ量を算出する。ここで、具体的な算出手順の一例について説明する。
先ず、ずれ検出部212が、信号処理部211から受け取った複数の画像信号の各々に対し、図3に示すように、複数のブロックに分割する。図3には、画像信号の長辺方向を8分割、短辺方向を6分割し、合計48のブロックに分割する例を示しているが、ブロックの分割数は任意である。また、以下の説明では、図3に示すように、一番左上のブロックをA1と表し、その一つ右側のブロックをB1と表し、・・・、一番右下のブロックをH6と表す。つまり、各ブロックをA1〜H6の記号で表すこととする。
そして、ずれ検出部212は、複数の画像信号間において、同じ位置のブロック同士について、2次元の相関演算を行い、ブロック毎の位置ずれ量である動きベクトルを算出する。そして、算出された48個のブロックの動きベクトルのヒストグラムを求め、その最頻値をもって画像全体の動きベクトルとする。
このような位置ずれ量の算出方法によれば、後に、各ブロックの動きベクトル演算結果に重み付けを行うことによって特定のブロックの動きベクトル演算結果を優先して最終的な画像信号全体の動きベクトル算出結果に反映させることが容易になる。また、全てのブロックのものを用いずに、特定のブロックのみを用いて、画像全体の動きベクトル算出を行うことも容易になる。
本実施形態では、後述のように、ブロック毎に重み付けを与えて最終的な画像全体の動きベクトルを決定するため、ステップS411では、全ブロックの動きベクトルを算出するところまでを行う。そして、その結果をバッファメモリに記録した上で、ステップS412に進む。
ステップS412では、ずれ検出部212が、最終的な画面全体の動きベクトル算出時に動きベクトル算出結果を優先して考慮するブロックに与える重み付け量Wを、撮影時の被写界深度に応じて決定する。後述のように、本実施形態では、各ブロックを次の3種のグループに分類する。
グループA:最終的な画面全体の動きベクトル算出時に、大きく優先して考慮するブロック
グループB:最終的な画面全体の動きベクトル算出時に、優先して考慮するブロック
グループC:最終的な画面全体の動きベクトル算出時に、特に優先、考慮しないブロック
そして、本実施形態では、ピントの合っている領域、即ちタイプ1又は2の測距点近傍の領域にあるブロックの動きベクトル算出結果を優先し、画像全体の動きベクトルを求めることとする。このため、ステップS412では、前もって、各グループに被写界深度に応じた重み付け量を決定する。
このとき、撮影時の被写界深度を考えると、被写界深度が浅い場合は、背景のボケ量が大きくなり、背景領域のブロックを用いて動きベクトルを算出した場合の精度は低くなってしまう。そのため、グループCに属するブロックについては、小さな重み付け量を与え、逆にグループA及びBに属するピントの合っているブロックについては、大きな重み付け量を与える。この結果、精度の良く動きベクトルを算出することが可能となる。一方、被写界深度が深い場合は、被写界深度が浅い場合に比べて合焦した測距点近傍の領域とそれ以外の領域でのボケ量の差が小さくなるため、グループ別の重み付け量に大きな差を設ける必要はない。
このように、重み付け量Wを決定する際に被写界深度を考慮することにより、より精度の良い動きベクトルを算出することが可能となる。被写界深度は、撮影時のレンズの焦点距離fが大きく絞り値Fが小さいほど浅くなり、逆に焦点距離fが小さく絞り値が大きいほど深くなる。そこで、重み付け量Wの決定のために、図5に示すような焦点距離f及び絞り値Fから一意にWA、WB及びWCを特定するテーブルをカメラ内部に準備しておくことが好ましい。
図5に示す例では、テーブルの左上に近付く程、焦点距離fが大きく、かつ絞り値Fが小さくなるため、被写界深度が浅い状態を表することとなる。従って、重み付け量WA及びWBとして大きな値を与え、重み付け量WCとして小さな値を与えることとしている。一方、テーブルの右下に近付く程、焦点距離fが小さく、かつ絞り値Fが大きくなるため、被写界深度が深い状態を表することとなる。従って、重み付け量WA、WB及びWCとして、あまり差の無いような値を用意してある。このようにWA≧WB≧WCを満たすような範囲内で、図5に示すようなテーブルを持つことで重み付け量Wを容易に決定することができる。ステップS412を終えると、ステップS413に進む。
ステップS413では、図4−2に示すように、ずれ検出部212が、撮影した全ての画像における測距点のタイプ別分類情報から、全測距点の最終的なタイプを決定する。例えば、図3のような測距点配置が設定され、連続して4枚の画像を撮影した場合の各測距点のタイプ別分類が表1のようになっている場合の処理は、次のようになる。
Figure 2008005355
表1に示す結果が得られた場合、測距点1、3、5及び6については撮影したすべての画像において、測距点のタイプ別分類が同じであるため、これらの測距点については最終的なタイプ別分類も同じタイプとする。一方、測距点2、4及び7については、いずれか1枚の画像撮影時のみ分類されたタイプが異なっている。このような撮影中に1枚でもタイプ別分類の異なるものが含まれている測距点に対しては、総合的にはタイプ5(特に特徴のない測距点)に分類する。但し、タイプ3が1枚でも含まれている測距点に関しては、後の処理の関係上、必ずどこか1点の測距点がタイプ3に分類されるようにする。そこで、タイプ3に分類された回数(枚数)が最も多い測距点を強制的にタイプ3に分類する。このような規則に従って、測距点のタイプ別分類を行うと、最終的に、表2に示す結果が得られる。
Figure 2008005355
一方、図3のような測距点配置が設定され、連続して4枚の画像を撮影した場合の各測距点のタイプ別分類が表3のようになっている場合の処理は、次のようになる。
Figure 2008005355
表3に示す結果が得られた場合、測距点2、3、4、6及び7については撮影したすべての画像において、測距点のタイプ別分類が同じであるため、これらの測距点については最終的なタイプ別分類も同じタイプとする。一方、測距点1及び5については、いずれか1枚の画像撮影時のみ分類されたタイプが異なっている。このような撮影中に1枚でもタイプ別分類の異なるものが含まれている測距点に対しては、総合的にはタイプ5(特に特徴のない測距点)に分類する。このような規則に従って、測距点のタイプ別分類を行うと、最終的に、表4に示す結果が得られる。
Figure 2008005355
更に、ステップS413では、ずれ検出部212が、撮影した全画像についてタイプ1に分類された測距点を読み込み、それらが全て同じであるかを判定する。そして、タイプ1の測距点が一致している場合にはステップS414に進み、一致していないものがある場合にはステップS415に進む。即ち、最終的な分類にタイプ1が存在することは、合焦した測距点が撮影した全ての画像において同一であることを意味するため、主要被写体が移動していないと判断することができる。一方、最終的な分類にタイプ1が存在しないことは、主要被写体が移動してしまったと判断することができる。ステップS414及びS415では、これらの事情に応じた処理を実行する。
これは、タイプ1の測距点が一致していることは主要被写体が移動していないことを意味しているが、仮にタイプ1の測距点が1回でも異なっている場合には、主要被写体が連続撮影中に動いていると考えられるからである。即ち、タイプ1の測距点近傍のブロックでは撮影したタイミングによって画像が異なって、相関演算時にマッチングがとれずに正確な動きベクトルを算出することができない可能性が高いためである。このため、このような場合には、タイプ1の測距点近傍のブロックよりも、背景と考えられるタイプ3の測距点近傍のブロックの動きベクトルを優先して画像全体の動きベクトルを算出する。
そこで、全画像についてタイプ1の測距点が同じであった場合は、タイプ1の測距点近傍のブロックの動きベクトルを優先して画像全体の動きベクトルを算出するステップS414に進む。一方、同じではなかった場合は、タイプ3の測距点近傍のブロックの動きベクトルを優先して画像全体の動きベクトルを算出するステップS415に進む。
例えば表1及び表2に示す結果が得られている場合には、タイプ1に分類された測距点がいずれも測距点5であるため、ステップS414に進む。一方、表3及び表4に示す結果が得られている場合には、タイプ1に分類された測距点が、1枚目、3枚目及び4枚目では測距点5であるのに対し、2枚目では測距点1であるため、ステップS415に進む。
ステップS414及びS415において、ずれ検出部212は、画面内のブロックを前述のグループA、B、Cに分類する。但し、ステップS414とステップS415とでは、主要被写体の移動の有無に応じた処理を行うために、分類に際して参照する基準が相違している。
ステップS414では、主要被写体が移動していないことを前提とした処理を行う。このため、ずれ検出部212は、主要被写体近傍のブロックに大きな重み付けがされる分類を行う。そこで、グループAとしてタイプ1の測距点近傍のブロック、グループBとしてタイプ2の測距点近傍のブロック、グループCとしてこれら以外のブロックを設定する。例えば、表2に示す結果が得られている場合には、グループAに、測距点5に相当するブロックF3及びF4を設定する(図3参照)。また、グループBには、測距点1に相当するブロックD3、D4、E3及びE4を設定する。そして、グループCには、これら以外の全ブロックを設定する。
一方、ステップS415では、主要被写体が移動してしまったことを前提とした処理を行う。このため、ずれ検出部は、背景と考えられるブロックに大きな重み付けがされる分類を行う。そこで、グループAとしてタイプ3の測距点近傍のブロック、グループBとしてタイプ4の測距点近傍のブロック、グループCとしてこれら以外のブロックを設定する。例えば、表4に示す結果が得られている場合には、グループAに、測距点2に相当するブロックD2及びE2を設定する。また、グループBには、測距点4又は6に相当するブロックB3、B4、C3及びC4を設定する。そして、グループCには、これら以外の全ブロックを設定する。
そして、ステップS414又はS415において各ブロックのグループ分けが終了した後には、ステップS416に進む。
ステップS416において、ずれ検出部212は、図3中の各ブロックに対して、ステップS414又はS415における分類の結果に基づいて、ステップS412において求めた重み付け量を付与する。即ち、グループAに分類されたブロックには重み付け量WAを与え、グループBに分類されたブロックには重み付け量WBを与え、グループBに分類されたブロックには重み付け量WCを与える。そして、これらの重み付け量WA、WB又はWCを、ステップS411において求めた動きベクトルに付与した上で、動きベクトルのヒストグラムを作成する。
例えば、ステップS414の分類を行った場合には、グループAにはタイプ1の測距点近傍のブロックが属し、グループBにはタイプ2の測距点近傍のブロックが属し、グループCにはその他のブロックが属する。一方、ステップS415の分類を行った場合には、グループAにはタイプ3の測距点近傍のブロックが属し、グループBにはタイプ4の測距点近傍のブロックが属し、グループCにはその他のブロックが属する。そして、グループX(XはA、B、Cのいずれか)に含まれるブロックに重み付け量WX(ただしWA≧WB≧WC)を与えて、最終的な画面全体の動きベクトル算出に用いる。
重み付けの付与としては、例えば、重み付け量がWのブロックでは、1つの動きベクトル1つにつきWカウントする。そして、その出現頻度をヒストグラムにする。ヒストグラム作成後にはステップS417に進む。
ステップS417において、ずれ検出部212は、ステップS416にて作成したヒストグラムで最頻出となった動きベクトルを選び、当該動きベクトルをその画像全体の動きベクトルと決定する。
次いで、ステップS418において、座標変換部213が座標変換を行い、画像記憶部214が座標変換部213による変換後の画像を記憶し、画像合成部217が画像の合成を行う。但し、単に合成したのでは、構図のずれた画像が合成されることとなり、各画像が重ならない領域が発生してしまう。そこで、ステップS418においては、画像が重なり合わない領域はカットし、複数画像間で重なった領域のみの合成を行った上で拡散補完処理を行うことにより、元のフレームの大きさにする。そして、合成された画像は表示部215に表示され、また、記録部216に画像記録される。このようにして、一連の処理が終了する。
一方、ステップS402からステップS419に進んだ場合、ステップS419において、撮影制御部208は、ユーザによってレリーズボタン116が半押しされるまで待機する。そして、レリーズボタン116が半押しされるとステップS420に進む。
ステップS420では、自動的に焦点調節及び測光動作を行う。但し、ステップS404とは異なり、測距点の分類は行わない。
次いで、ステップS421において、撮影制御部208は、ユーザによってレリーズボタン116が全押しされたか判断し、全押しされている場合には、現在の撮影枚数のカウント値であるnをn=0とし、ステップS407に進み、N枚の連続撮影を開始する。なお、レリーズボタン116が全押しされていない場合には、ステップS419に戻る。
そして、ステップS422において、撮影処理を行った上で、撮影画像の表示部215への表示及び記録部216への保存を行う。このようにして、一連の処理が終了する。
このように、第1の実施形態では、合成画像モードが選択されている場合に、合焦している測距点を示すタイプ1に属するブロックの移動の有無に応じて、重み付け量を調整している。このため、主要被写体の移動の有無に応じた重み付けを行うことが可能となり、全体的な動きベクトルを高い精度で算出することができる。この結果、被写体のぶれが極めて少ない合成画像を得ることができる。
(第2の実施の形態)
次に、本発明の第2の実施形態について説明する。第1の実施形態においては、先に撮影画像を分割した全てのブロックについて動きベクトルを計算し、その後、測距点のタイプ別分類に応じて重み付けを行った上で画像全体の動きベクトルを算出している。これに対し、第2の実施形態では、先に測距点をタイプ別に分類し、その後動きベクトルを優先して算出したいブロックに対してのみ動きベクトルを算出して、画像全体の動きベクトルを算出する。以下、第1の実施形態と相違する部分について詳述する。図6−1乃至図6−3は、第2の実施形態に係るカメラの動作を示すフローチャートである。
第2の実施形態では、図6−1に示すように、画像合成モードに設定されている場合、ステップS401〜ステップS409の処理を第1の実施形態と同様に行う。但し、ステップS409において、現在の撮影枚数が撮影予定枚数Nに達している場合、即ち必要な回数の撮影を終えていた場合、全ブロックの動きベクトルを算出することなくステップS412に進み、ずれ検出部212が重み付け量Wを計算する。
次いで、図6−2に示すように、ステップS413において、ずれ検出部212が、撮影した全ての画像における測距点のタイプ別分類情報から、全測距点の最終的なタイプを決定し、タイプ1の測距点が撮影した全画像について同じであるかを判定する。更に、ステップS413では、ずれ検出部212が、撮影した全画像についてタイプ1に分類された測距点を読み込み、それらが全て同じであるかを判定する。そして、タイプ1の測距点が一致している場合にはステップS501に進み、一致していないものがある場合にはステップS502に進む。
ステップS501及びS502において、ずれ検出部212は、画面内のブロックを前述のグループA、Bに分類する。但し、ステップS501とステップS502とでは、主要被写体の移動の有無に応じた処理を行うために、分類に際して参照する基準が相違している。
ステップS501では、主要被写体が移動していないことを前提とした処理を行う。このため、ずれ検出部212は、主要被写体近傍のブロックに大きな重み付けがされる分類を行う。そこで、グループAとしてタイプ1の測距点近傍のブロック、グループBとしてタイプ2の測距点近傍のブロックを設定する。例えば、表2に示す結果が得られている場合には、グループAに、測距点5に相当するブロックF3及びF4を設定する(図3参照)。また、グループBには、測距点1に相当するブロックD3、D4、E3及びE4を設定する。
一方、ステップS502では、主要被写体が移動してしまったことを前提とした処理を行う。このため、ずれ検出部は、背景と考えられるブロックに大きな重み付けがされる分類を行う。そこで、グループAとしてタイプ3の測距点近傍のブロック、グループBとしてタイプ4の測距点近傍のブロックを設定する。例えば、表4に示す結果が得られている場合には、グループAに、測距点2に相当するブロックD2及びE2を設定する。また、グループBには、測距点4又は6に相当するブロックB3、B4、C3及びC4を設定する。
そして、ステップS501又はS502において各ブロックのグループ分けが終了した後には、ステップS503に進む。
ステップS503において、ずれ検出部212は、グループA又はグループBに分類されたブロックについてのみ、2次元の相関演算を行い、動きベクトルを算出する。
次いで、ステップS504において、ずれ検出部212は、重み付け量Wを考慮しつつ、動きベクトルのヒストグラムを作成する。
その後、第1の実施形態と同様の処理を行う。また、通常撮影モードに設定されている場合も、第1の実施形態と同様の処理を行う。
第2の実施形態においては、上述のように、最終的な画像全体の動きベクトル算出時に、優先して考慮するブロックに対してのみ動きベクトル算出処理を行うこととしている。このため、第1の実施形態と同様の効果の他に、動きベクトル算出にかかる処理時間をより一層短縮することができるという効果が得られる。
なお、第1及び第2の実施形態についての説明では、位相差AF方式を前提とした構成について説明しているが、本発明はこれに限ったものではなく、コントラスト検出方式の自動焦点検出を行うカメラについても適用することができる。コントラスト検出方式は、フレーム内の特定の領域(以下この領域のことをコントラスト評価領域と称する)について着目し、その部分のコントラスト評価値が最も高くなるようなレンズの位置をサーチする方式である。このような自動焦点検出の方式がコントラスト検出方式のカメラにおいては、コントラスト評価領域近傍のブロックの動きベクトル算出結果を優先するように重み付けを行えば、本発明を適用することができる。
また、第1及び第2の実施形態についての説明では、位相差AF方式を搭載したデジタル一眼レフカメラにおいて、オートフォーカス機能をONにして複数枚撮影を行った場合について説明している。しかし、オートフォーカス機能をOFFにして(マニュアルフォーカス状態)複数枚撮影を行った際にも、AFユニット114からの焦点検出情報を取得できるため、ピントのあった領域近傍の領域を判定することができ、本発明を適用することができる。
更に、第1及び第2の実施形態についての説明では、複数の静止画像について、これらの構図ずれである動きベクトルを算出する方法について説明しているが、本発明を動画像に適用することもできる。動画の手ぶれ補正については、特定の画像を基準とし、これと連続した他の画像との位置ずれを検出してこれを補正した画像を再生する技術が公知である。この技術は、例えば特開平11−187303号公報に記載されている。この技術に本発明を組み合わせることにより、動きベクトル算出の高精度化、処理時間の短縮が可能になるため、動画像の再生、記録時にも効果的である。なお、動画の手ぶれ補正に関しては、主要被写体が動くこと等による弊害を避けるため、主要被写体のない領域(背景)、即ち最も遠い測距結果を得られた測距点近傍のブロックの動きベクトルを優先することが望ましい。
また、撮像素子として、CMOSセンサの替わりに、CCDセンサを用いてもよい。
また、これらの説明では、カメラ又はビデオカメラ内で動きベクトルの算出を行うこととしているが、本発明はこれに限定されるものではない。例えば、自動焦点検出時の情報がEXIF領域等に書き込まれた画像であれば、カメラ又はネットワーク上から受け取った複数枚の画像に対してもPC等の画像処理装置において、本発明の処理を実行することにより、動きベクトルを算出することができる。
つまり、本発明の実施形態は、例えばコンピュータがプログラムを実行することによって実現することができる。また、プログラムをコンピュータに供給するための手段、例えばかかるプログラムを記録したCD−ROM等のコンピュータ読み取り可能な記録媒体又はかかるプログラムを伝送するインタネット等の伝送媒体も本発明の実施形態として適用することができる。また、上記のプログラムも本発明の実施形態として適用することができる。上記のプログラム、記録媒体、伝送媒体及びプログラムプロダクトは、本発明の範疇に含まれる。
本発明の第1の実施形態に係るカメラの概略構成を示す側方視断面図である。 第1の実施形態に係るカメラの機能的な構成を示すブロック図である。 ブロックの分割の例を示す図である。 第1の実施形態に係るカメラの動作を示すフローチャートである。 図4−1に引き続き、第1の実施形態に係るカメラの動作を示すフローチャートである。 図4−1に引き続き、第1の実施形態に係るカメラの動作を示すフローチャートである。 重み付け量の決定テーブルを示す図である。 本発明の第2の実施形態に係るカメラの動作を示すフローチャートである。 図6−1に引き続き、第2の実施形態に係るカメラの動作を示すフローチャートである。 図6−1に引き続き、第2の実施形態に係るカメラの動作を示すフローチャートである。
符号の説明
114:AFユニット
208:撮像制御部
212:ずれ検出部
213:座標変換手段
214:画像記憶手段
217:画像合成手段

Claims (12)

  1. 複数の撮影画像に対してそれらの撮影時に合焦した焦点検出領域を特定し、前記撮影画像毎に、少なくとも、前記焦点検出領域から予め定められた範囲内にある第1の領域と、被写体までの距離が最も遠い第2の領域とに区分けする領域判定手段と、
    前記領域判定手段による区分けの結果に応じて前記複数の撮影画像間の位置ずれを検出する位置ずれ検出手段と、
    を有し、
    前記位置ずれ検出手段は、前記第1の領域における位置ずれを示す情報及び前記第2の領域における位置ずれを示す情報に対して互いに異なる重み付けを設定した上で前記位置ずれを検出することを特徴とする画像処理装置。
  2. 前記複数の撮影画像間において前記焦点検出領域が一致している場合、前記位置ずれ検出手段は、前記第2の領域に対して設定する重み付け以上の重み付けを前記第1の領域に対して設定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記領域判定手段は、前記撮影画像毎に、前記第1及び第2の領域以外の領域内で、前記第1の領域における測距結果から予め定められた範囲内の測距結果を示す領域を第3の領域として区分けし、
    前記位置ずれ検出手段は、前記第3の領域における位置ずれを示す情報に対して、前記第1及び第2の領域に対して設定した重み付けを、夫々上限及び下限とする範囲内の重み付けを設定した上で前記位置ずれを検出することを特徴とする請求項2に記載の画像処理装置。
  4. 前記複数の撮影画像間に前記焦点検出領域が一致していないものが含まれている場合、前記位置ずれ検出手段は、前記第1の領域に対して設定する重み付け以上の重み付けを前記第2の領域に対して設定することを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記領域判定手段は、前記撮影画像毎に、前記第1及び第2の領域以外の領域内で、前記第2の領域における測距結果から予め定められた範囲内の測距結果を示す領域を第3の領域として区分けし、
    前記位置ずれ検出手段は、前記第3の領域における位置ずれを示す情報に対して、前記第1及び第2の領域に対して設定した重み付けを、夫々下限及び上限とする範囲内の重み付けを設定した上で前記位置ずれを検出することを特徴とする請求項4に記載の画像処理装置。
  6. 前記位置ずれ検出手段は、前記撮影画像の撮像時の被写界深度に応じて前記重み付けの比率を変更することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. 複数の撮影画像に対してそれらの撮影時に合焦した焦点検出領域を特定し、前記撮影画像毎に、少なくとも、前記焦点検出領域から予め定められた範囲内にある第1の領域と、被写体までの距離が最も遠い第2の領域とに区分けする領域判定ステップと、
    前記領域判定ステップにおける区分けの結果に応じて前記複数の撮影画像間の位置ずれを検出する位置ずれ検出ステップと、
    を有し、
    前記位置ずれ検出ステップにおいて、前記第1の領域における位置ずれを示す情報及び前記第2の領域における位置ずれを示す情報に対して互いに異なる重み付けを設定した上で前記位置ずれを検出することを特徴とする画像処理方法。
  8. 前記複数の撮影画像間において前記焦点検出領域が一致している場合、前記位置ずれ検出ステップにおいて、前記第2の領域に対して設定する重み付け以上の重み付けを前記第1の領域に対して設定することを特徴とする請求項7に記載の画像処理方法。
  9. 前記領域判定ステップにおいて、前記撮影画像毎に、前記第1及び第2の領域以外の領域内で、前記第1の領域における測距結果から予め定められた範囲内の測距結果を示す領域を第3の領域として区分けし、
    前記位置ずれ検出ステップにおいて、前記第3の領域における位置ずれを示す情報に対して、前記第1及び第2の領域に対して設定した重み付けを、夫々上限及び下限とする範囲内の重み付けを設定した上で前記位置ずれを検出することを特徴とする請求項8に記載の画像処理方法。
  10. 前記複数の撮影画像間に前記焦点検出領域が一致していないものが含まれている場合、前記位置ずれ検出ステップにおいて、前記第1の領域に対して設定する重み付け以上の重み付けを前記第2の領域に対して設定することを特徴とする請求項7乃至9のいずれか1項に記載の画像処理方法。
  11. 前記領域判定ステップにおいて、前記撮影画像毎に、前記第1及び第2の領域以外の領域内で、前記第2の領域における測距結果から予め定められた範囲内の測距結果を示す領域を第3の領域として区分けし、
    前記位置ずれ検出ステップにおいて、前記第3の領域における位置ずれを示す情報に対して、前記第1及び第2の領域に対して設定した重み付けを、夫々下限及び上限とする範囲内の重み付けを設定した上で前記位置ずれを検出することを特徴とする請求項10に記載の画像処理方法。
  12. 前記位置ずれ検出ステップにおいて、前記撮影画像の撮像時の被写界深度に応じて前記重み付けの比率を変更することを特徴とする請求項7乃至11のいずれか1項に記載の画像処理方法。
JP2006174584A 2006-06-23 2006-06-23 画像処理装置及び画像処理方法 Expired - Fee Related JP4693709B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006174584A JP4693709B2 (ja) 2006-06-23 2006-06-23 画像処理装置及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006174584A JP4693709B2 (ja) 2006-06-23 2006-06-23 画像処理装置及び画像処理方法

Publications (3)

Publication Number Publication Date
JP2008005355A true JP2008005355A (ja) 2008-01-10
JP2008005355A5 JP2008005355A5 (ja) 2009-08-06
JP4693709B2 JP4693709B2 (ja) 2011-06-01

Family

ID=39009351

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006174584A Expired - Fee Related JP4693709B2 (ja) 2006-06-23 2006-06-23 画像処理装置及び画像処理方法

Country Status (1)

Country Link
JP (1) JP4693709B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009187397A (ja) * 2008-02-07 2009-08-20 Olympus Corp 画像処理装置及び画像処理プログラム
JP2011239055A (ja) * 2010-05-07 2011-11-24 Olympus Imaging Corp 撮像装置および撮像方法
WO2012140869A1 (ja) * 2011-04-12 2012-10-18 パナソニック株式会社 動き推定装置、奥行き推定装置、及び動き推定方法
JP2013192270A (ja) * 2013-06-17 2013-09-26 Canon Inc 撮像装置、撮像装置の制御方法及びプログラム
JP2018169386A (ja) * 2018-02-14 2018-11-01 東京ガスエンジニアリングソリューションズ株式会社 ガス検知器

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004015376A (ja) * 2002-06-06 2004-01-15 Canon Inc 像振れ防止装置およびカメラ

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004015376A (ja) * 2002-06-06 2004-01-15 Canon Inc 像振れ防止装置およびカメラ

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009187397A (ja) * 2008-02-07 2009-08-20 Olympus Corp 画像処理装置及び画像処理プログラム
JP2011239055A (ja) * 2010-05-07 2011-11-24 Olympus Imaging Corp 撮像装置および撮像方法
WO2012140869A1 (ja) * 2011-04-12 2012-10-18 パナソニック株式会社 動き推定装置、奥行き推定装置、及び動き推定方法
US9092875B2 (en) 2011-04-12 2015-07-28 Panasonic Intellectual Property Management Co., Ltd. Motion estimation apparatus, depth estimation apparatus, and motion estimation method
JP5919563B2 (ja) * 2011-04-12 2016-05-18 パナソニックIpマネジメント株式会社 動き推定装置、奥行き推定装置、及び動き推定方法
JP2013192270A (ja) * 2013-06-17 2013-09-26 Canon Inc 撮像装置、撮像装置の制御方法及びプログラム
JP2018169386A (ja) * 2018-02-14 2018-11-01 東京ガスエンジニアリングソリューションズ株式会社 ガス検知器

Also Published As

Publication number Publication date
JP4693709B2 (ja) 2011-06-01

Similar Documents

Publication Publication Date Title
JP5653035B2 (ja) 撮像装置、焦点検出方法、および制御方法
JP5247076B2 (ja) 画像追尾装置、焦点調節装置および撮像装置
JP3823921B2 (ja) 撮像装置
JP6506560B2 (ja) フォーカス制御装置及びその方法、プログラム、記憶媒体
JP2008292894A (ja) 画像追尾装置、画像追尾方法および撮像装置
JP2012113171A (ja) 撮像装置およびその制御方法
JP2011097645A (ja) 画像合成装置、撮像装置、画像合成方法
US7805068B2 (en) Imaging apparatus
JP4693709B2 (ja) 画像処理装置及び画像処理方法
JP5348258B2 (ja) 撮像装置
JP6300670B2 (ja) 焦点調節装置、焦点調節方法およびプログラム、並びに撮像装置
JP2013254166A (ja) 撮像装置及びその制御方法
JP5403111B2 (ja) 画像追尾装置
JP5959871B2 (ja) 撮像装置、その制御方法、および制御プログラム
JP2010109923A (ja) 撮像装置
JPWO2013035427A1 (ja) 立体撮像装置および方法
JP2009159092A (ja) 撮像装置及びその制御方法
JP2015043026A (ja) 撮像装置及びその制御方法
JP2009058762A (ja) 撮像装置
JP6746398B2 (ja) 撮像装置、その制御方法、及びプログラム
JP5581838B2 (ja) 自動合焦制御装置、電子カメラ及び自動合焦制御方法
JP2016142924A (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
JP4985155B2 (ja) 焦点調節装置および撮像装置
JP2014142497A (ja) 撮像装置及びその制御方法
JP2013122495A (ja) 焦点検出装置およびカメラ

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090619

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090619

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110215

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110222

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140304

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4693709

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees