JP6656035B2 - 画像処理装置、撮像装置および画像処理装置の制御方法 - Google Patents

画像処理装置、撮像装置および画像処理装置の制御方法 Download PDF

Info

Publication number
JP6656035B2
JP6656035B2 JP2016058810A JP2016058810A JP6656035B2 JP 6656035 B2 JP6656035 B2 JP 6656035B2 JP 2016058810 A JP2016058810 A JP 2016058810A JP 2016058810 A JP2016058810 A JP 2016058810A JP 6656035 B2 JP6656035 B2 JP 6656035B2
Authority
JP
Japan
Prior art keywords
image
images
feature amount
preset condition
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016058810A
Other languages
English (en)
Other versions
JP2017175364A (ja
Inventor
宏典 海田
宏典 海田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016058810A priority Critical patent/JP6656035B2/ja
Priority to US15/435,163 priority patent/US10142541B2/en
Publication of JP2017175364A publication Critical patent/JP2017175364A/ja
Application granted granted Critical
Publication of JP6656035B2 publication Critical patent/JP6656035B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4038Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/168Segmentation; Edge detection involving transform domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Description

本発明は、連続して撮像した複数の画像を合成する技術に関する。
従来のカメラなどの撮像装置では、撮影可能な画角の広さは撮影レンズの特性により制限されている。広い範囲の画像を撮ろうとすると、解像度を犠牲にしなければならない。また、取得できる画像のアスペクト比も、ハードウェアにより制限されている。
以上の課題を解決するために、従来からパノラマ合成の技術が知られている。パノラマ合成では、互いに重複している領域のある複数の画像を合成して、大きな画像を生成する。この方法を用いると、レンズの特性を超えた広い範囲の画像を取得することができる。また、複数の画像を合成することにより、アスペクト比を変えることもできる。
上述したパノラマ合成で、違和感のない合成画像を取得するために、撮像装置における画像の位置合わせが不可欠である。特許文献1では、動きベクトルを用いて、位置合わせを行うという方法が提示されている。この方法では、合成に用いる異なる画像のコントラスト、輝度成分、あるいは色差成分などから得られる特徴量を用いて動きベクトルを検出する。
ここで、撮影する画像のサイズが大きくなるほど、合成する画像の位置合わせに用いるベクトル演算に要する負荷が大きくなる。そこで、特許文献2には、画像の全体から動きベクトルを検出するのではなく、画像の一部の領域のみから動きベクトルを求めることが開示されている。
特開2004−134993号公報 特開2009−27437号公報
しかしながら、動きベクトルを得るために設定した一部の領域が、特徴の少ない画像からなる領域である場合は、精度の高い動きベクトルの検出が困難となり、良好なパノラマ合成ができなくなるといった問題がある。
本発明の目的は、取得した複数の画像に被写体の特徴量が少ない画像が含まれている場合でも、良好な合成画像を生成する画像処理装置を提供することである。
本発明は、上記課題を解決するため、画像の部分領域における特徴量が予め設定した条件を満たすか否かを判定する判定手段と、前記判定手段の判定結果に基づいて、複数の画像の中から第1の画像と合成する第2の画像を選択する選択手段と、前記第2の画像が選択された後に、前記第1の画像と前記第2の画像の間の動きベクトルを検出する動きベクトル検出手段と、前記動きベクトルに基づき、前記第1の画像と前記第2の画像の位置合わせをして合成処理を行う合成手段とを有し、前記選択手段は、前記複数の画像の中から、前記特徴量が前記予め設定した条件を満たすと判定された部分領域を有する画像、および、前記第1の画像に設定された複数の部分領域のうち前記特徴量が前記予め設定した条件を満たすと判定された部分領域に対応する画像、の少なくともいずれかを前記第2の画像として選択することを特徴とする画像処理装置を提供するものである。
本発明によれば、複数の画像に被写体の特徴量が少ない画像が含まれている場合でも、良好な合成画像を生成できる。
第1の実施形態に係るデジタルカメラの機能構成を示すブロック図である。 第1の実施形態に係るデジタルカメラの動作を示すフローチャットである。 本発明に係るテンプレートマッチングの処理を説明するための図である。 第1の実施形態に係るコントラストを抽出するコントラスト抽出領域を説明するための図である。 本発明に係る位置合わせを説明するための図である。 本発明に係る合成画像の生成を説明するための図である。 第2の実施形態および第3の実施形態に係るデジタルカメラの機能構成を示すブロック図である。 第2の実施形態に係るデジタルカメラの動作を示すフローチャットである。 第3の実施形態に係るデジタルカメラの動作を示すフローチャットである。 第3の実施形態に係るコントラストを抽出するコントラスト抽出領域を説明するための図である。
以下、図面を参照しながら、本発明の好適な実施形態を説明する。なお、撮像装置の例として、デジタルカメラを挙げて説明するが、本発明は以下で説明される構成に限定されるものではない。
(第1の実施形態)
<撮像装置の構成>
図1は、本発明の実施形態に係るデジタルカメラ100の機能構成を示すブロック図である。制御部101は、例えばCPUやMPUなどのシグナルプロセッサである。制御部101は、デジタルカメラ100が備える各ブロックの動作プログラムをROM102より読み出し、RAM103に展開して実行することによりデジタルカメラ100が備える各ブロックの動作を制御する。ROM102は、書き換え可能な不揮発性メモリであり、デジタルカメラ100が備える各ブロックの動作プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶する。制御部101は、ROM102から動作プログラムなど、制御に必要なパラメータなどを読み出しながら制御を行う。RAM103は、書き換え可能な揮発性メモリであり、デジタルカメラ100が備える各ブロックの動作において出力されたデータの一時的な記憶領域として用いられる。
光学系104は、被写体像を撮像部105に結像する。撮像部105は、例えばCCDやCMOSセンサ等の撮像素子であり、光学系104により撮像素子に結像された光学像を光電変換し、得られた画像信号を画像処理部106に出力する。
画像処理部106は、撮像部105から出力された画像、あるいはRAM103に記憶されている画像データに対して、ホワイトバランス調整、色補間、フィルタリングなど、様々な画像処理を適用する。この画像処理部106は、特定の処理を行う回路を集めた集積回路(ASIC)で構成される。あるいは、制御部101がROM102から読み出したプログラムに従って処理することで、制御部101が画像処理部106の機能の一部または全部を兼用するようにしてもよい。制御部101が画像処理部106の全ての機能を兼用する場合には、画像処理部106をハードウェアとして有する必要はなくなる。
記録媒体107はメモリカードや内蔵メモリ等であり、画像処理部で処理された画像を記録する。また、制御部101による指示で、処理しようとする画像を画像処理部106に出力する。
表示部108は、液晶ディスプレイ(LCD)や有機ELディスプレイ等の表示デバイスより構成される。表示部108は、撮像部105で取り込まれた被写体像を、制御部101を経由して取得し、リアルタイム表示する、あるいは記録媒体107に記録された画像を表示するなど、様々な情報を表示する。
<デジタルカメラの動作>
以下では、ユーザによってパノラマ撮影モードが設定され、かつ、レリーズ操作が行われた後のデジタルカメラ100の動作について説明する。以下の説明では、デジタルカメラがパンニングされているときの例として説明するが、デジタルカメラがチルティングされているときも同様の技術を適用できる。
図2は、第1の実施形態における、デジタルカメラ100の動作を示すフローチャートである。ユーザによってレリーズ操作が行われると、デジタルカメラ100はステップS201以降の処理を開始する。
ステップS201は、ユーザからパノラマ撮影の終了指示があったかどうかを判断する。例えば、撮影中にユーザによって再度レリーズ操作がなされた場合や、デジタルカメラ100がこれまでと逆方向に所定量に渡ってパンニングされた場合に、終了指示があったと判定する。ここで、終了指示がない場合、ステップS202に進み、終了指示がある場合、S206に進む。1フレーム目の撮像が行われる前であれば、このステップS201は飛ばしても構わない。
ステップS202では、制御部101の指示のもとで、撮像部105が光学系104により結像された被写体像を画像に変換し、画像処理部106に出力する。
ステップS203では、画像処理部106が画像から被写体の特徴量抽出を行う。被写体の特徴量は、精度の高い動きベクトルが検出できるか否かの判定に用いられる。以下では、図3と図4とを用いて、コントラストの算出を例として、被写体の特徴量の抽出方法を詳細に説明する。なお、特徴量としてコントラストの算出を行う理由は、コントラストが高くなるエッジ部分を多く含むテクスチャを選択した方が画像間のベクトルを正確に求めることができるためである。
被写体の特徴量を抽出する領域と、後述するステップS206のベクトル検出処理でベクトルの抽出に用いられるベクトル検出領域は、予め定められた位置に設定される。図3に、時間的に連続して取得した2つの画像を示す。図3(a)は、ベクトル検出画像(2つの画像のうち時間的に後の画像)であり、ベクトル検出領域群を320で示している。ベクトル検出領域群320に含まれるそれぞれのベクトル検出領域に含まれる画像は、ベクトル検出を行うときのテンプレート画像321として用いられ、各テンプレート画像に対して1つのベクトルを求める。
図4は、コントラストを抽出するコントラスト抽出領域と、抽出したコントラストを説明するための図である。領域400は、撮像対象を示す。領域401〜403は、パンニングしながら撮影したそれぞれの画像に対応する領域である。ここで、領域401〜403のサイズが若干異なるが、これは見やすくするために線が重複しないように記載したためであって、領域401〜403のサイズが異なると限定すると解釈すべきでない。コントラスト抽出領域411〜413は、演算負荷の低減のため、通常、領域401〜403のそれぞれの画像全体を占めるのではなく、部分領域を占める。しかも、光学系により結像される画像の両側には歪みが生じやすいので、コントラスト抽出領域411〜413は、領域401〜403のそれぞれの中央付近に位置することが好ましい。
コントラスト抽出領域411〜413は、ベクトル検出領域群320に含まれるベクトル検出領域と同じ数の小領域を有しており、この小領域のそれぞれが、ベクトル検出領域のいずれか1つを包含する。画像処理部106は、コントラスト抽出領域411〜413の各小領域においてエッジを検出し、さらに検出したエッジに対して積分処理や平均値処理などを行い、その出力値をコントラストとして表す。図4(b)のコントラスト抽出領域411〜413におけるコントラストの算出結果を、図4(c)に示す。図4(c)のコントラスト抽出領域421〜423において、白い領域はコントラストが高く、黒い領域はコントラストが小さいことを表している。なお、図4はコントラスト抽出領域の1つの例を示すものであって、ベクトル検出領域群320に対応する位置となるならば、コントラスト抽出領域を画像全体に割り当ててもよいし、図4とは異なる画像の一部の領域に割り当ててもよい。例えば、コントラスト抽出領域の複数の小領域が、1つのベクトル検出領域321に重畳するのであれば、これら複数の小領域から得られたコントラストの合計値や平均値を、この1つのベクトル検出領域321に対応するコントラストとして扱えば良い。
ステップS204では、制御部101は、ステップS203において位置合わせ処理に必要な特徴量が取得できたかどうかを判定する。位置合わせ処理に必要な特徴量が取得できたという判定結果が得られた場合、ステップS205に進む。位置合わせ処理に必要な特徴量が取得できたという判定結果が得られない場合には、ステップS201の処理に戻り、改めて画像を取得する。この一連の動作が、ユーザがパンニング操作をしているとき行われていれば、このとき取得する画像は、パンニング方向に構図が変更された画像となる。
ここでは、被写体の特徴量がコントラストであるときを例として、位置合わせ処理に必要な特徴量が取得できたかどうかを判定する方法について説明する。まず、ステップS203で、コントラスト抽出領域411〜413の各小領域において抽出した被写体の特徴量としてのコントラストを、基準値と比較する。コントラストが基準値以上であれば、そのコントラストが得られた小領域に対応するベクトル検出領域においては、精度の良いベクトル検出結果を得ることができる。1つの画像におけるコントラスト抽出領域のすべての小領域についてこのような判定を行い、コントラストが基準値以上となった小領域の数が閾値以上であるかどうかを判定する。ステップS208で位置合わせ処理を行う際に必要なベクトルの数や幾何変形処理の方法によるが、一般的にはアフィン変換の場合3個以上、射影変換の場合4個以上のベクトルが必要となる。そのため、コントラストが基準値以上となった小領域の数に対する閾値を、アフィン変換の場合は3以上の値に設定し、射影変換の場合は4以上の値に設定する。
また、被写体の特徴量としてコントラストではなく、白とびまたは黒潰れ領域を検出しても良い。この場合では、輝度情報を取得し、所定の閾値と比較して白とびまたは黒潰れの判定を行う。白とびまたは黒潰れ以外のベクトル抽出領域が何個残っているかを判定する。
上記の判定では、「コントラスト判定」と「白とび、黒潰れ判定」との2例をあげているが、精度の良いベクトルが検出できるか否かが判定できる値であれば、これらに限られるものではない。
制御部101は、コントラスト値が基準値以上と判定された小領域の数が閾値以上である画像を取得できるまで、ステップS202乃至ステップS204の処理を繰り返す。これらのステップを実行することによって、後述するステップS206でのベクトル検出において、確実に動きベクトル検出ができるようになる画像を得ることができる。ステップ204での判定がなければ、必要な特徴量が得られないまま、ステップS206のベクトル検出に入る恐れがあり、ベクトル検出が失敗したり、不自然な合成画像が生成したりする可能性がある。
ステップS205で、制御部101は、合成指示がある場合は、この繰り返しの処理を終了させて、ステップS206に進む。この合成指示は、ユーザによるボタンの操作でもよく、ユーザが撮像装置に予め設定した条件(画像の枚数、総幅、サイズなど)が達成したことにより自動的に合成指示を発するとしてもよい。このステップは、終了指示がない場合であっても、画像合成に用いる十分な数の画像が取得できた場合に、画像の取得を止め、ベクトル検出に入らせるためのものである。
ステップS206では、画像処理部106は、コントラストが基準値以上と判定された小領域の数が閾値以上である複数の画像を選択する。そして、画像の間の動きベクトルの検出を行う。それぞれの画像に含まれるコントラスト値が基準値以上と判定された小領域に対応するベクトル検出領域を基準画像として、動きベクトルの検出を行う。動きベクトルの検出方法は公知の方法でよく、一例としてテンプレートマッチング方式が挙げられる。この方法では、画像の間のズレ量を所定の範囲のテンプレートを設定して比較し、比較値が最も小さくなる位置(画像間で最も相関が高い位置)のズレ量をベクトルとして検出する。
テンプレートマッチングについては、図3を用いて説明する。テンプレートマッチングを行う際には、移動量を検出するためにベクトル検出画像のベクトル検出領域群からテンプレート321aを決定する。本実施形態では、ベクトル検出領域群を画像の一部の領域のみに設定しているため、画像全体から動きベクトルを検出する場合に比べて、動くベクトルの検出に要する演算負荷を軽減することができる。このテンプレート321aは、図4のステップS203においてコントラストが基準値以上と判定された小領域に対応するベクトル検出領域に対してのみ設定されてもよい。基準画像300とベクトル検出画像301の画像の対応領域(同じ被写体が写っている範囲)を点線351から352までの間で示している。ベクトル検出画像から決定したテンプレート321aの領域と、基準画像上においてテンプレート321aに対応する基準画像の領域とをベクトル探索開始位置とする。基準画像上において、ベクトル検出画像におけるテンプレート321aの座標と同じ座標となる基準画像の領域を、領域331と仮定する。そして、領域331を中心として領域331よりも広く設定したベクトル探索範囲341において、テンプレート321aと比較演算を行い、もっとも相関が高い位置とベクトル探索開始位置とのズレを動きベクトルとして検出する。この操作を、設定されたテンプレート画像の全てに対して行い、テンプレート画像の数に対応する個数の動きベクトルを検出する。
ステップS207では、画像処理部106は、ステップS206で検出した動きベクトルを用いて、ステップS202で取得した複数の画像のうち、ステップS204で必要な特徴量が抽出できたと判定された画像を用いて、位置合わせ処理を行う。位置合わせ処理について図5を用いて詳細に説明を行う。
位置合わせ処理を行うために、画像間の変形量を補正するための位置合わせ係数を算出する。図5を用いて位置合わせ係数について説明する。図5の画像501と画像502とはステップS204で必要な特徴量が抽出できたと判定された画像で、位置合わせ対象画像は画像502である。画像間の位置合わせで行う補正処理は、実際には図4(b)のようにデジタルカメラのパンニング動作に対応する並進成分だけでない。並進成分に加え手振れが発生することで回転やあおりの成分が発生し、その結果、画像502のように画像が回転やあおりの影響を受けた画像が取得される場合がある。このような場合に並進成分や回転成分、あおり成分を幾何変形によって補正するための係数として、変換係数を算出する。この幾何変形を行う変換係数を位置合わせ係数と呼ぶ。例えば、幾何変形前の画像502を模式的に表したものが枠503であり、幾何変形後の画像502を模式的に表したものが枠504である。矢印511に相当する位置合わせ係数Aは一般的に式(1)で表され、画像の座標をI(x座標,y座標)とすると式(2)の演算を行うことで、枠503から枠504への幾何変形が行われる。
Figure 0006656035
Figure 0006656035
位置合わせ係数を算出するために、位置合わせの基準とする画像と、補正対象の画像との2つの画像を設定する。ステップS204で必要な特徴量が抽出できたと判定された画像のうち、基準画像の直後に相当するフレームの画像が、補正対象の画像となる。そして、図3を用いて説明したように、テンプレートマッチングによりベクトルを算出する。
続いて求めたベクトル群を用いて、幾何変換係数を求める。例えば、式(2)のように、位置合わせ対象画像の特徴点の座標Iに所定の変換係数Aを掛けることで求めた座標I´と、基準画像の特徴点の座標との差分εが最も小さくなる変換係数Aを求める。
この変換係数Aを求める手法としては、ニュートン法やガウスニュートン法等、公知の最適化手法を用いて求める。求められた変換係数Aを位置合わせ係数として採用する。
ステップS208は、ステップS207で位置合わせ処理を行った画像に対して、画像間の境界付近を合成して画像を繋げる画像合成処理を行う。画像合成処理について図6を用いて説明する。図6の画像601〜603は、位置合わせ処理を行った後の画像である。この3つの画像の境界部で順次合成を行う。
画像601と画像602とを合成する場合、画像601の水平の中心位置のライン621を境界として合成を行う。具体的にはライン621から左の領域に画像601を出力し、ライン621から右の領域に画像602を出力し、ライン621上は両方の画像の画素情報をミックスして繋ぎ目を自然に見せる処理を行う。あるいは、ライン上に画像601と画像602との画素情報を50%ずつ合成した値を出力し、ラインからの距離が離れるに従ってラインの左側では画像601を、ラインの右側では画像602の割合を大きくしながら合成を行う。合成後の画像は、合成画像611となる。
続いて、合成画像611と画像603との合成を行う。このときは1つ前の画像602の水平中心のライン622を境界とした合成を行う。合成後の画像は合成画像612となる。このように、順次位置合わせをした後に画像の合成を行う。画像602、画像603に対して画像合成を行うことで画像601に対して領域631の領域分だけ画角を拡大することができる。
第1の実施形態によれば、図4の領域401〜403のような、隣接する領域にコントラストなどの特徴量のある被写体が少ない場合でも、ベクトル検出や合成などの段階で失敗することなく良好なパノラマ画像を生成することができる。もし、取得した全ての画像を合成に用いるとすれば、画像402の領域412のような特徴量の少ない領域があっても、その特徴量の少ない領域からベクトル検出を行い、合成を行うことになる。その結果、ベクトル検出が失敗し、位置合わせがうまくできず、結果的に不自然な合成画像を生成してしまい、一連の作業が無駄になる恐れがある。上記述べた方法を用いて、無理に画像402を用いて合成に使うことなく、よりベクトル検出しやすい領域413を持つ画像403を使うことで、無駄な作業なく、自然な合成画像を生成することができる。
なお、第1の実施形態では時系列に撮像を行いながら合成画像を生成する例をあげて説明を行ったが、時系列に撮像した画像を全て記憶してから、後ほど合成画像を生成するようにしてもよい。この場合、必ずしも先に撮像した画像を基準画像とする必要はなく、最後に撮像した画像を最初の基準画像として設定しても良いし、任意のフレームの画像を最初の基準画像として設定してもよい。
また、時系列に撮像した全ての画像に対してステップS204の判定処理を行う必要はない。パンニング速度が小さい場合には、合成に用いる画像を数フレーム飛ばしたとしても画像間の重複領域を十分に確保することができる。そのため、ジャイロ等によってデジタルカメラ100のパンニング速度が小さいことが検出されている場合には、数フレームごとにステップS204の判定処理を行ってもよい。
また、図2のステップS206では、コントラストが基準値以上と判定された小領域の数が閾値以上である画像から動きベクトルの検出を行ったが、これに限られるものではない。ステップS206の動きベクトルの検出は全ての画像に対して行い、ステップS207の位置合わせ処理の際に、コントラストが基準値以上と判定された小領域の数が閾値以上である画像を選択するようにしてもよい。このような構成とすれば、特徴量の抽出と、動きベクトルの検出という2つの処理を並行して行うことができるというメリットがある。
(第2の実施形態)
第2の実施形態におけるデジタルカメラ100は、図7に示すように、第1の実施形態と異なりジャイロセンサによって構成された装置動き検出部を有する。装置動き検出部709はデジタルカメラ100の動きを検出するデバイスであり、デジタルカメラ100の単位時間当たりの角度変化、すなわち角速度に基づいてヨー方向とピッチ方向の動きを検出する。
以下では、図8のフローチャットを用いて、第1の実施形態との違いを中心に説明する。なお、以下の説明では、デジタルカメラがパンニングをされている例をあげて説明を行うが、デジタルカメラがチルティングをされている場合においても同様に適用できる。図8のステップS801、S802、S803乃至S808はそれぞれ、図2のステップS201、S202、S203乃至S208と同様の処理である。
ステップS802では、撮像部105が光学系104により結像された被写体像を画像に変換し、画像処理部106に出力する。
ステップS811では、装置動き検出部709がデジタルカメラの動き情報を取得する。デジタルカメラの動き情報とは、デジタルカメラがパンニングされたときの角速度の大きさと方向とである。
ステップS812では、制御部101が、パンニングで時間的に連続して取得した2つの画像を撮像する時間間隔にサンプリングされた、装置動き検出部809で取得した角速度情報を積分し、パンニング角度を算出する。
続いて制御部101が、パンニング角度が予め設定した画角範囲に収まっているかどうかを判断する。収まっていなければ、処理を終了する。収まっていれば、次のステップS803に進む。ここで、上記の予め設定した画角範囲を、撮像部105が取得する画像の画角に対応する範囲にすれば、ここの処理は、パンニング角度が撮像画像の画角内に収まっているかどうかを判断することになる。パンニング角度が撮像画像の画角内に収まっていれば、時間的に連続して撮像する2つの画像に重複領域が存在する。逆に、時間的に連続して撮像する2つの画像に重複領域が存在していなければ、パンニング角度が撮像画像の画角内に収まらず、ステップS803に進むことができず、処理が終了する。つまり、上記の予め設定した画角範囲を、撮像部105が取得する画像の画角の範囲にすることで、連続する画像間で重複領域が存在しないぐらい早い速度でパンニングされた場合に、フローをこのステップS912でストップさせることができる。この画角範囲はユーザによって変更することが可能である。ユーザがこの予め設定した画角範囲を狭く設定すれば、図9のステップS903に進むためには、時間的に連続して撮像する2つの画像間に、より広い重複領域が存在することが求められる。前述したように、重複領域で2枚の画像を用いて合成をするため、一般的に、重複領域が広い分、ノイズなどによる影響を低減することができる。こうしたユーザの設定によって、重複領域を広くし、より画質の良いパノラマ合成画像を取得することができる。
その後の処理は、第1の実施形態と同様なので、説明を省略する。
このように、第2の実施形態によれば、パンニング動作が速すぎる場合は処理を終了させることができ、ステップS801乃至S804が繰り返されてしまうことを防ぐことができるようになる。
(第3の実施形態)
第3の実施形態では、位置合わせの基準画像の被写体の特徴量の分布により、どの程度パンニングした画像であれば、被写体の特徴量が十分満たされるかを予測し、予測したパンニング角度に基づいて合成に用いる画像を選択する。撮像装置の内部構成は第2の実施形態と同様であるため、説明は省略する。
<デジタルカメラの動作>
以下では、第3の実施形態を用いるとき、パンニングの動作をしているときのデジタルカメラ100の動作について説明する。第1の実施形態または第2の実施形態と同様な部分については、説明を簡略にする。なお、以下の説明では、デジタルカメラがパンニングをされている例をあげて説明を行うが、デジタルカメラがチルティングをされている場合においても同様に適用できる。
図9は、第3の実施形態を用いるとき、デジタルカメラ100の動作を示すフローチャートである。
ステップS902では、撮像部105が光学系104により結像された被写体像を画像に変換し、画像処理部106に出力する。この撮像部105による画像の生成は連続的に行われ、パンニング動作中に撮像された画像の表示に用いられる。
ステップS921では、被写体の特徴量抽出を行う。このステップと第1の実施形態のステップS203との違いは、このステップでは、基準画像に対してコントラスト抽出領域を設定することと、このコントラスト抽出領域を複数回変更しながら特徴量の抽出処理を行うことである。以下、図10を用いて詳しく説明する。
図10(a)の画像1001は、ベクトル検出処理の基準画像である。画像1001に対して、初めてベクトル検出を行うとき、図10(b)の画像1001の中央付近の領域1011をコントラスト抽出領域と設定する。デジタルカメラの右方向へのパンニング動作につれ、コントラスト抽出領域1011、1012および1013として示すように、コントラスト抽出領域も右方向へ移動している。矢印1021または矢印1022は、コントラスト抽出領域が領域1011から領域1012または1013まで移動したときの像面移動量を示している。図10(c)のコントラスト抽出領域1031〜1033は、コントラスト抽出領域1011〜1013のそれぞれの小領域における被写体の特徴量としてのコントラストを表している。白い領域はコントラストが高く、黒い領域はコントラストが小さいことを意味している。
ステップS922では、ステップS921で抽出したそれぞれのコントラスト抽出領域の被写体の特徴量を基に、位置合わせ処理に必要な特徴量が抽出できる領域を選択し、その領域に対応する画像位置に至るためのパンニング角度を算出する。この算出したパンニング角度を、予測パンニング角度と言うものとする。なお、図10(c)の例においては、コントラスト抽出領域1031および1032はコントラストが高いと判定された小領域の数が閾値に達しておらず、コントラスト抽出領域1033は閾値に達しているため、コントラスト抽出領域1033が選択される。なお、複数の領域ともにコントラストが高いと判定された小領域の数が閾値に達した場合は、任意に選択してもよいが、像面移動量が最も小さいものを選ぶ方が好ましい。
次に、予測パンニング角度の算出方法について述べる。まず、コントラストが高いと判定された小領域の数が閾値以上であるコントラスト抽出領域を目標領域と決定する。たとえば、もし閾値を4と設定すると、コントラストが高いことを示す白いブロックの数が4以上である領域1033を目標領域と決定する。このときの像面移動量は1022となり、この像面移動量に対応するデジタルカメラ100のパンニング角度が予測パンニング角度となる。次に、デジタルカメラ100のパンニング角度が予測パンニング角度と所定内の誤差範囲に収まっているかを判定し、所定内の誤差範囲に収まっている場合にはステップS924の画像選択の処理を行う。
ここで、像面移動量をs、焦点距離をf、角速度をω、パンニング中で単位時間に取得する画像の数をr、画素ピッチをpとすると、パンニング角度θは、下記の式1で求めることができる。
Figure 0006656035
または、デジタルカメラに回転などの運動をさせる機械駆動をする手段を加え、予め回転速度を決め、この回転速度に基づいて(式3)を利用して、予測パンニング角度を算出してもよい。この場合は、カメラ動きを取得する必要はない。
ステップS901では、終了指示があるかどうかを判断する。終了指示があれば、ステップS906に進み、終了指示がなければ、ステップS911に進む。
ステップS911は、第2の実施形態のステップS811と同様に、デジタルカメラ100のパンニング中の動き情報を取得する。
ステップS923は、デジタルカメラ100のパンニング角度が、予測パンニング角度になっているかを判定する。厳密には、ステップS922で算出した予測パンニング角度に対して、デジタルカメラ100のパンニング角度が所定値内の誤差に収まっているかを判定する。収まっていない場合には、ステップS901に戻り、終了指示がなければ、ステップS911で再度動き情報を取得する。
ステップS924では、時系列で撮像部105によって生成された画像のうち、予測パンニング角度において生成された画像を選択し、画像処理部106に出力する。このステップS924で選択された画像が、ステップS906における動きベクトルの検出と、ステップS907における画像の位置合わせに用いられる。そして、ステップS924において、この選択した画像を基準画像として、被写体の特徴量抽出を行う。
以上説明したように、第3の実施形態においても、第1の実施形態と同様に、隣接する領域にコントラストなどの特徴量のある被写体が少ない場合でも、ベクトル検出や合成などの段階で失敗することなく良好なパノラマ画像を生成することができる。
(その他の実施形態)
以上の実施形態は、デジタルカメラでの実施をもとに説明したが、デジタルカメラに限定するものではない。たとえば、撮像素子が内蔵した携帯機器などで実施してもよく、画像を取得することができるネットワークカメラなどでもよい。
なお、本発明は、上述の実施形態の1つ以上の機能を実現するプログラムを、ネットワークまたは記憶媒体を介してシステムまたは装置に供給し、そのシステムまたは装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出し作動させる処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
以上で説明したような処理によれば、隣接する画像間の被写体の特徴量が少ない場合で、検出範囲を拡大しても被写体の特徴量が増えると期待できない場合でも、良好なパノラマ画像を生成できる。
100 デジタルカメラ
101 制御部
102 ROM
103 RAM
104 光学系
105 撮像部
106 画像処理部
107 記録媒体
108 表示部
709 装置動き検出部

Claims (14)

  1. 画像の部分領域における特徴量が予め設定した条件を満たすか否かを判定する判定手段と、
    前記判定手段の判定結果に基づいて、複数の画像の中から第1の画像と合成する第2の画像を選択する選択手段と、
    前記第2の画像が選択された後に、前記第1の画像と前記第2の画像の間の動きベクトルを検出する動きベクトル検出手段と、
    前記動きベクトルに基づき、前記第1の画像と前記第2の画像の位置合わせをして合成処理を行う合成手段とを有し、
    前記選択手段は、前記複数の画像の中から、前記特徴量が前記予め設定した条件を満たすと判定された部分領域を有する画像、および、前記第1の画像に設定された複数の部分領域のうち前記特徴量が前記予め設定した条件を満たすと判定された部分領域に対応する画像、の少なくともいずれかを前記第2の画像として選択することを特徴とする画像処理装置。
  2. 前記複数の画像は、時系列で連続して撮像された画像であることを特徴とする請求項1に記載の画像処理装置。
  3. 前記判定手段は、前記第1の画像の1つ前あるいは1つ後に撮像された画像から、前記時系列の順に、前記特徴量が前記予め設定した条件を満たすか否かを判定することを特徴とする請求項2に記載の画像処理装置。
  4. 前記選択手段は、前記特徴量が前記予め設定した条件を満たすと判定された部分領域を有し、かつ、前記第1の画像と重複する領域を有する画像を、前記第2の画像として選択することを特徴とする請求項2または3に記載の画像処理装置。
  5. 前記時系列で連続して撮像された画像を撮像する間の撮像手段の動き情報を取得する取得手段を有し、
    前記合成手段は、前記動き情報に基づいて得られた前記撮像手段の動きが所定の範囲を超えるまでに撮像された画像の中に、前記特徴量が前記予め設定した条件を満たすと判定された画像がない場合には、前記合成処理を行わないことを特徴とする請求項2に記載の画像処理装置。
  6. 前記判定手段は、前記第1の画像に対して位置を異ならせた複数の部分領域における特徴量が予め設定した条件を満たすか否かを判定し、
    前記選択手段は、前記第1の画像の複数の部分領域に、前記特徴量が前記予め設定した条件を満たすと判定された部分領域が複数ある場合には、前記第1の画像からの移動量が最も近くなる部分領域に対応する画像を、前記第2の画像として選択することを特徴とする請求項1に記載の画像処理装置。
  7. 前記選択手段は、選択した前記第2の画像を新たな第1の画像として、新たな第2の画像の選択を行うことを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  8. 前記部分領域は複数の小領域を含み、
    前記判定手段は、前記複数の小領域のそれぞれにおける前記特徴量が基準値を満たしているか否かを判定することを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
  9. 前記予め設定した条件は、前記特徴量が前記基準値を満たしていると判定された小領域の数が、閾値以上であることを特徴とする請求項8に記載の画像処理装置。
  10. 前記特徴量がコントラストおよび輝度の少なくともいずれかであることを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
  11. 前記動きベクトル検出手段は、テンプレートマッチングを用いて前記動きベクトルを検出することを特徴とする請求項1乃至10のいずれか1項に記載の画像処理装置。
  12. 画像を生成する撮像手段と、
    前記画像の部分領域における特徴量が予め設定した条件を満たすか否かを判定する判定手段と、
    前記判定手段の判定結果に基づいて、前記撮像手段が生成した複数の画像の中から第1の画像と合成する第2の画像を選択する選択手段と、
    前記第2の画像が選択された後に、前記第1の画像と前記第2の画像の間の動きベクトルを検出する動きベクトル検出手段と、
    前記動きベクトルに基づき、前記第1の画像と前記第2の画像の位置合わせをして合成処理を行う合成手段とを有し、
    前記選択手段は、前記複数の画像の中から、前記特徴量が前記予め設定した条件を満たすと判定された部分領域を有する画像、および、前記第1の画像に設定された複数の部分領域のうち前記特徴量が前記予め設定した条件を満たすと判定された部分領域に対応する画像、の少なくともいずれかを前記第2の画像として選択することを特徴とする撮像装置。
  13. 画像の部分領域における特徴量が予め設定した条件を満たすか否かを判定する判定ステップと、
    前記判定ステップにおける判定結果に基づいて、複数の画像の中から第1の画像と合成する第2の画像を選択する選択ステップと、
    前記第2の画像が選択された後に、前記第1の画像と前記第2の画像の間の動きベクトルを検出する動きベクトル検出ステップと、
    前記動きベクトルに基づき、前記第1の画像と前記第2の画像の位置合わせをして合成処理を行う合成ステップとを有し、
    前記選択ステップでは、前記複数の画像の中から、前記特徴量が前記予め設定した条件を満たすと判定された部分領域を有する画像、および、前記第1の画像に設定された複数の部分領域のうちの前記特徴量が前記予め設定した条件を満たすと判定された部分領域に対応する画像、の少なくともいずれかの画像を、前記第2の画像として選択することを特徴とする画像処理方法。
  14. 画像処理装置のコンピュータに動作させるプログラムであって、
    前記コンピュータに、
    画像の部分領域における特徴量が予め設定した条件を満たすか否かを判定する判定ステップと、
    前記判定ステップにおける判定結果に基づいて、複数の画像の中から第1の画像と合成する第2の画像を選択する選択ステップと、
    前記第2の画像が選択された後に、前記第1の画像と前記第2の画像の間の動きベクトルを検出する動きベクトル検出ステップと、
    前記動きベクトルに基づき、前記第1の画像と前記第2の画像の位置合わせをして合成処理を行う合成ステップとを実行させ、
    前記選択ステップでは、前記複数の画像の中から、前記特徴量が前記予め設定した条件を満たすと判定された部分領域を有する画像、および、前記第1の画像に設定された複数の部分領域のうちの前記特徴量が前記予め設定した条件を満たすと判定された部分領域に対応する画像、の少なくともいずれかの画像を、前記第2の画像として選択することを特徴とするプログラム。
JP2016058810A 2016-03-23 2016-03-23 画像処理装置、撮像装置および画像処理装置の制御方法 Active JP6656035B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016058810A JP6656035B2 (ja) 2016-03-23 2016-03-23 画像処理装置、撮像装置および画像処理装置の制御方法
US15/435,163 US10142541B2 (en) 2016-03-23 2017-02-16 Image processing apparatus, imaging apparatus, and control method of image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016058810A JP6656035B2 (ja) 2016-03-23 2016-03-23 画像処理装置、撮像装置および画像処理装置の制御方法

Publications (2)

Publication Number Publication Date
JP2017175364A JP2017175364A (ja) 2017-09-28
JP6656035B2 true JP6656035B2 (ja) 2020-03-04

Family

ID=59899091

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016058810A Active JP6656035B2 (ja) 2016-03-23 2016-03-23 画像処理装置、撮像装置および画像処理装置の制御方法

Country Status (2)

Country Link
US (1) US10142541B2 (ja)
JP (1) JP6656035B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105809136A (zh) * 2016-03-14 2016-07-27 中磊电子(苏州)有限公司 影像数据处理方法及影像数据处理系统
US10410362B2 (en) * 2016-11-14 2019-09-10 Htc Corporation Method, device, and non-transitory computer readable storage medium for image processing
JP6869841B2 (ja) * 2017-07-20 2021-05-12 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、およびプログラム
WO2019239479A1 (ja) 2018-06-12 2019-12-19 オリンパス株式会社 画像処理装置および画像処理方法
CN109685839B (zh) * 2018-12-20 2023-04-18 广州华多网络科技有限公司 图像对齐方法、移动终端以及计算机存储介质
CN110111364B (zh) * 2019-04-30 2022-12-27 腾讯科技(深圳)有限公司 运动检测方法、装置、电子设备及存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4218298B2 (ja) 2002-10-09 2009-02-04 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
WO2005093654A2 (en) * 2004-03-25 2005-10-06 Fatih Ozluturk Method and apparatus to correct digital image blur due to motion of subject or imaging device
JP4947060B2 (ja) * 2007-01-18 2012-06-06 富士通株式会社 画像合成装置、画像合成方法、プログラム
JP2009027437A (ja) 2007-07-19 2009-02-05 Fujifilm Corp 画像処理装置,画像処理方法及び撮像装置
JP5338174B2 (ja) * 2008-07-28 2013-11-13 富士通株式会社 パノラマ撮影装置及び方法、パノラマ撮影装置を搭載したカメラユニット
JP5609742B2 (ja) * 2011-03-31 2014-10-22 カシオ計算機株式会社 撮像装置、画像合成方法、及びプログラム

Also Published As

Publication number Publication date
JP2017175364A (ja) 2017-09-28
US10142541B2 (en) 2018-11-27
US20170280055A1 (en) 2017-09-28

Similar Documents

Publication Publication Date Title
JP6656035B2 (ja) 画像処理装置、撮像装置および画像処理装置の制御方法
JP3770271B2 (ja) 画像処理装置
JP6157242B2 (ja) 画像処理装置及び画像処理方法
JP4760973B2 (ja) 撮像装置及び画像処理方法
JP6594180B2 (ja) 撮像装置、撮像装置の制御方法及びプログラム
JP5803467B2 (ja) 画像処理装置および撮像装置、ならびに画像処理方法
JP6537231B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2000298300A (ja) 手ぶれ画像補正方法、記録媒体及び撮像装置
US8731327B2 (en) Image processing system and image processing method
JP6604908B2 (ja) 画像処理装置、その制御方法、および制御プログラム
JP6332212B2 (ja) 姿勢推定装置、姿勢推定方法及びプログラム
JP2008099025A (ja) 撮像装置、ぶれ補正方法及び撮像方法
JP6282133B2 (ja) 撮像装置、その制御方法、および制御プログラム
JP2019101997A (ja) 複数の撮像画像を合成することによりノイズを低減する画像処理装置及び画像処理方法
KR20100046544A (ko) 영상 왜곡 보정 방법 및 장치
JP7296750B2 (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
JP2017212698A (ja) 撮像装置、撮像装置の制御方法およびプログラム
JP6672082B2 (ja) 撮像装置、撮像方法およびプログラム
JP6433154B2 (ja) 画像処理装置および撮像装置
JP7458769B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体
JP7278737B2 (ja) 撮像装置及びその制御方法、並びにプログラム
JP2018174461A (ja) 画像処理装置、画像処理方法、及びプログラム
JP6525693B2 (ja) 画像処理装置及び画像処理方法
JP5539098B2 (ja) 画像処理装置及びその制御方法、及びプログラム
JP6415228B2 (ja) 画像合成装置および画像合成装置の制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200204

R151 Written notification of patent or utility model registration

Ref document number: 6656035

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151