JP2015041802A - 画像処理装置、画像処理方法、及びコンピュータプログラム - Google Patents

画像処理装置、画像処理方法、及びコンピュータプログラム Download PDF

Info

Publication number
JP2015041802A
JP2015041802A JP2013170606A JP2013170606A JP2015041802A JP 2015041802 A JP2015041802 A JP 2015041802A JP 2013170606 A JP2013170606 A JP 2013170606A JP 2013170606 A JP2013170606 A JP 2013170606A JP 2015041802 A JP2015041802 A JP 2015041802A
Authority
JP
Japan
Prior art keywords
alignment
alignment target
image
target images
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013170606A
Other languages
English (en)
Other versions
JP6274778B2 (ja
JP2015041802A5 (ja
Inventor
彰太 山口
Shota Yamaguchi
彰太 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013170606A priority Critical patent/JP6274778B2/ja
Publication of JP2015041802A publication Critical patent/JP2015041802A/ja
Publication of JP2015041802A5 publication Critical patent/JP2015041802A5/ja
Application granted granted Critical
Publication of JP6274778B2 publication Critical patent/JP6274778B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

【課題】 複数の画像の位置合わせを行って合成した画像の劣化を抑制する。【解決手段】 3つ以上の入力画像の1つを基準画像とし、残りを位置合わせ対象画像とする。全ての位置合わせ対象画像について、位置合わせ対象画像を分割した複数の検出ブロックにより定まる位置合わせ候補領域を確定する。そして、全ての位置合わせ対象画像の位置合わせ候補領域で共通する検出ブロックの組み合わせを位置合わせ領域とし、位置合わせ領域における動きベクトルから変換パラメータを導出することを全ての位置合わせ対象画像について行う。このようにして導出した変換パラメータを用いて位置合わせ対象画像のそれぞれと基準画像との位置合わせを行い、合成する。【選択図】 図1

Description

本発明は、画像処理装置、画像処理方法、及びコンピュータプログラムに関し、特に、複数の画像の位置合わせを行うために用いて好適なものである。
従来から、時間的に連続した複数の画像を、位置合わせをした上で合成する技術が多数提案されている。かかる技術の一例として、手振れの影響を受けない程度のシャッター速度で複数の画像を撮影し、それら複数の画像を、位置合わせを行った上で加算平均することで、電子的に手振れを補正する技術が提案されている。また、かかる技術の他の例として、露出の異なる複数の画像を撮影し、それら複数の画像を、位置合わせを行った後に、明るさに合わせて重みを変えながら合成することで、ダイナミックレンジの拡張された画像を得る技術が提案されている。
このような技術においては、画像の加重加算を行うために、画像の位置が合っていない領域では、合成された画像においてエッジ部が多重に見える等の弊害が生じる。従って、画像の位置合わせの精度の向上は必須の課題となっている。
そこで、特許文献1、2に記載の技術が提案されている。特許文献1では、画像間で複数の対応点を求めておき、当該複数の対応点の中から画面全体の動きを表す信頼性の高い対応点を抽出し、抽出した対応点から動きパラメータを算出し、算出した動きパラメータに基づき画像の位置合わせを行う技術が提案されている。
また、特許文献2では、複数の画像の中の特定のフレームから顔領域を予め検出しておき、当該顔領域で検出された動きベクトルの重み付けを大きくして、画面全体の移動パラメータを算出する技術が提案されている。
特開2006−229868号公報 特開2007−81682号公報
特許文献1に記載の技術では、位置合わせを行う2つの画像間で最適となる動きパラメータを算出する。しかしながら、実際の撮影シーンでは、主要な被写体と背景とのそれぞれの動きが異なる場合がある。この場合の例として、主要な被写体が人物等の移動体である場合や、主要な被写体と背景との間の距離差が原因となる場合等が挙げられる。そのような場合においては、特許文献1の技術では、次のような課題が生じる。
図17は、特許文献1における画像の合成方法を説明する図である。
図17では、3つ以上の画像が入力された場合に、位置合わせを行う各フレーム間で動きパラメータを算出する領域がばらつき、結果として合成画像1704の画質が劣化することを示す。図17に示す例では、1つ目の画像1701(基準画像)と2つ目の画像1702とでは、被写体Aで動きパラメータを算出して位置合わせを行う。一方、1つ目の画像1701と3つ目の画像1703とでは、背景Bで動きパラメータを算出して位置合わせを行う。このように異なる被写体A、Bで位置合わせを行うため、合成画像1704では、どちらの被写体A、Bにも位置が合わなくなる。
また、特許文献2では、特定のフレームで検出された顔領域に重みをつけて動きを求める。このため、前述した位置合わせ領域のばらつきという問題は低減する。しかしながら、特に、顔領域が大きな移動量を持つ移動体である場合には、顔以外の背景領域も顔の動きに合わせて位置合わせされる。このため、結果的に背景領域の位置が大きくずれ、合成画像が劣化するという課題が生じる。
本発明は、以上のような課題に鑑みてなされたものであり、複数の画像の位置合わせを行って合成した画像の劣化を抑制することを目的とする。
本発明の画像処理装置は、位置合わせが行われる少なくとも3つ以上の画像のうちの1つの画像である基準画像と、当該3つ以上の画像のうちの前記基準画像と異なる画像である位置合わせ対象画像のそれぞれとの位置合わせを行う画像処理装置であって、前記位置合わせ対象画像のそれぞれから、前記位置合わせを行う領域の候補である位置合わせ候補領域を抽出する候補領域抽出手段と、前記位置合わせ対象画像のそれぞれにおける前記位置合わせ候補領域の相関に基づいて、前記位置合わせ対象画像における前記位置合わせを行う領域である位置合わせ領域を導出する領域導出手段と、前記位置合わせ領域における前記基準画像と前記位置合わせ対象画像との位置のずれに基づいて、前記基準画像と、前記位置合わせ対象画像との位置合わせを行う位置合わせ手段と、を有することを特徴とする。
本発明によれば、複数の画像の位置合わせを行って合成した画像の劣化を抑制することができる。
撮像装置の構成の第1の例を示すブロック図である。 位置合わせ候補領域記憶部の処理を示すフローチャートである。 ステップS204における処理を示すフローチャートである。 検出ブロックを示す図である。 ステップS205における処理を示すフローチャートである。 座標変換された点と動きベクトルが示す点との距離を示す図である。 位置合わせ候補領域を示す図である。 位置合わせ候補領域の情報を示す図である。 位置ズレ補正部における処理を示すフローチャートである。 撮像装置の構成の第2の例を示すブロック図である。 位置合わせ候補領域群記憶部の処理を示すフローチャートである。 ステップS1105における処理を示すフローチャートである。 動きベクトルの選択の方法を説明する図である。 位置合わせ候補領域の情報を示す図である。 位置合わせ領域決定部における処理を示すフローチャートである。 位置合わせ領域を導出する方法を説明する図である。 従来の画像の合成方法を説明する図である。
次に、図面を参照しながら、本発明の実施形態について詳細に説明する。
(第1の実施形態)
まず、第1の実施形態について説明する。
図1は、本実施形態の画像処理装置を適用可能な撮像装置の構成の一例を示すブロック図である。
撮像部101は、撮像レンズ群と、CMOSセンサやCCDセンサ等の半導体撮像素子と、を有する。撮像部101において、同一の被写体に対して複数回の撮影が行われ、撮影された映像信号(アナログ信号)はA/D変換部102に出力される。
A/D変換部102は、入力された映像信号をデジタル画像データに変換し、信号処理部103に出力する。信号処理部103は、入力されたデジタル画像データに対し、階調変換やノイズ低減等の所定の処理を施し、画像処理部104に出力する。
画像処理部104は、入力された複数の画像データの位置合わせを行う位置合わせ部105と、前記位置合わせが施された画像データの合成処理を行う画像合成部110とを有する。尚、以下の説明では、画像処理部104に入力される画像データを必要に応じて「入力画像」と称し、画像処理部104で合成処理が行われて出力される画像データを必要に応じて「合成画像データ」と称する。
画像表示部111は、画像処理部104で生成された合成画像データを、例えば、撮像装置100本体が備える液晶モニタに表示する。さらに、画像記憶部112は、画像処理部104で生成された画像データを、記録媒体へ記録する。
次に、位置合わせ部105について、詳細な説明を行う。位置合わせ部105は、メモリ部106、位置合わせ候補領域記憶部107、位置合わせ領域決定部108、および位置ズレ補正部109を有する。
メモリ部106には、信号処理部103で所定の処理が施された複数の入力画像が記憶される。本実施形態では、入力画像の数は、3つ以上である。
<位置合わせ候補領域記憶部107>
図2は、位置合わせ候補領域記憶部107における処理の流れの一例を示すフローチャートである。
まず、ステップS201において、位置合わせ候補領域記憶部107は、メモリ部106に記憶された複数の入力画像を読み出す。
次に、ステップS202において、位置合わせ候補領域記憶部107は、ステップS201で読み出した複数の入力画像の中から、基準画像を1つ決定する。ここで基準画像とは、位置合わせを行う際の基準となる画像である。本実施形態では、複数の入力画像の中で最初に撮像された画像(1枚目の画像)を基準画像とする。
次に、ステップS203において、位置合わせ候補領域記憶部107は、ステップS201で読み出した複数の入力画像のうち、基準画像以外の入力画像の中から、位置合わせ対象画像を1つ選択する。本実施形態では、位置合わせ対象画像は、複数の入力画像の中で最初に撮像された画像の次の画像(2枚目の画像)から撮像順に順次選択されるものとする。
次に、ステップS204において、位置合わせ候補領域記憶部107は、ステップS203で選択された位置合わせ対象画像の各検出ブロックにおける動きベクトルを検出する動きベクトル検出処理を行う。ステップS204における処理の詳細について、図3および図4を用いて説明を行う。図3は、ステップS204における処理の流れの一例を示すフローチャートである。図4は、検出ブロックの一例を示す図である。
まず、ステップS301において、位置合わせ候補領域記憶部107は、図4に示すように、位置合わせ対象画像400を、水平方向にnH分割、垂直方向にnV分割した複数の検出ブロックに分割する。ここで、各検出ブロックをblk[0]〜blk[N-1](ただし、N=nH×nV)で識別するものとする。
次に、ステップS302において、位置合わせ候補領域記憶部107は、カウンターiの値に0(ゼロ)を設定する(i=0)。
次に、ステップS303において、位置合わせ候補領域記憶部107は、次の処理を行う。すなわち、位置合わせ候補領域記憶部107は、i番目の検出ブロックblk[i]について、ステップS202で決定した基準画像と、ステップS203で選択した位置合わせ対象画像との間の相対的な位置ズレ量を表す動きベクトルを検出する。動きベクトルの検出は、例えば、特開2012−114722号公報に記載されているように、差分絶対値和を評価値としたパターンマッチング処理を行うことにより実現できるので、その詳細な説明を省略する。
次に、ステップS304において、位置合わせ候補領域記憶部107は、最後の検出ブロックblk[N-1]における動きベクトルを検出したか否かを判定する。この判定の結果、最後の検出ブロックblk[N-1]における動きベクトルを検出していない場合には、ステップS305に進む。ステップS305に進むと、位置合わせ候補領域記憶部107は、カウンターiの値をインクリメントする。そして、ステップS303に戻り、ステップS301で分割された全ての検出ブロックblk[0]〜blk[N-1]における動きベクトルが検出されるまで、ステップS303〜S305の処理を繰り返し行う。
こうして、ステップS301で分割された全ての検出ブロックblk[0]〜blk[N-1]における動きベクトルが検出されると、図3のフローチャートによる処理を終了し、図2のステップS205に進む。
ステップS205に進むと、位置合わせ候補領域記憶部107は、位置合わせ候補領域となる検出ブロックを、全ての位置合わせ対象画像について導出する位置合わせ候補領域導出処理を行う。ステップS205における処理の詳細について、図5を用いて説明を行う。図5は、ステップS205における処理の流れの一例を示すフローチャートである。
まず、ステップS501において、位置合わせ候補領域記憶部107は、ステップS203で選択した位置合わせ対象画像の全ての検出ブロックにおける動きベクトルを、位置合わせ候補領域の初期状態として設定する。
次に、ステップS502において、位置合わせ候補領域記憶部107は、ステップS501で設定した位置合わせ候補領域に含まれる動きベクトルから、仮の変換パラメータを算出する。ここで、「仮の」と名付けている理由は、この仮の変換パラメータは、位置合わせのために画像を変形する変換パラメータとは異なることを明示するためである。仮の変換パラメータの例としては、射影変換係数やアフィン変換係数が挙げられる。
次に、ステップS503において、位置合わせ候補領域記憶部107は、カウンターiの値に0(ゼロ)を設定する(i=0)。
図6は、仮の変換パラメータにより座標変換された点と動きベクトルが示す点との距離の一例を示す図である。
ステップS504において、位置合わせ候補領域記憶部107は、ステップS502で算出した仮の変換パラメータを用いて、検出ブロックblk[i]の中央座標601を座標変換する。
次に、ステップS505において、位置合わせ候補領域記憶部107は、ステップS504で座標変換した点602(座標)と、検出ブロックblk[i]における動きベクトル603が示す点(座標)との間の距離err[i]を算出する。
次に、ステップS506において、位置合わせ候補領域記憶部107は、カウンターiの値がN−1であるか否かを判定する。すなわち、位置合わせ候補領域記憶部107は、ステップS203で選択した位置合わせ対象画像の全ての検出ブロックblk[0]〜blk[N-1]について距離err[i]を算出したか否かを判定する。
この判定の結果、カウンターiの値がN−1でない場合には、ステップS507に進む。ステップS507に進むと、位置合わせ候補領域記憶部107は、カウンターiの値をインクリメントする。そして、ステップS504に戻り、ステップS203で選択した位置合わせ対象画像の全ての検出ブロックblk[0]〜blk[N-1]について距離err[i]が算出されるまで、ステップS504〜S507の処理を繰り返し行う。
こうして、ステップS203で選択した位置合わせ対象画像の全ての検出ブロックblk[0]〜blk[N-1]について距離err[i]が算出されると、ステップS508に進む。
次に、ステップS508において、位置合わせ候補領域記憶部107は、ステップS505で算出した距離err[i]の最大値が、所定の閾値よりも大きいか否かを判定する。この判定の結果、距離err[i]の最大値が、所定の閾値よりも大きい場合には、ステップS509に進む。ステップS509に進むと、位置合わせ候補領域記憶部107は、前記最大値をとる検出ブロックを、位置合わせ候補領域から除外する。そして、ステップS502に戻る。ステップS502では、ステップS509で除外した位置合わせ候補領域を除く位置合わせ候補領域に含まれる動きベクトルから、仮の変換パラメータを算出する。そして、距離err[i]の最大値が、所定の閾値よりも大きくないと判定されるまで、前述したようにしてステップS502〜S508の処理を繰り返す。そして、ステップS508において、距離err[i]の最大値が、所定の閾値よりも大きくないと判定されると、ステップS510に進む。
ステップS510に進むと、位置合わせ候補領域記憶部107は、この時点で除外されていない位置合わせ候補領域を、ステップS203で選択した位置合わせ対象画像についての最終的な位置合わせ候補領域として確定する。そして、図5のフローチャートによる処理を終了し、図2のステップS206に進む。
図2のステップS206に進むと、位置合わせ候補領域記憶部107は、全ての位置合わせ対象画像について位置合わせ候補領域を求めたか否かを判定する。この判定の結果、全ての位置合わせ対象画像について位置合わせ候補領域を求めていない場合には、ステップS203に戻る。ステップS203に戻ると、位置合わせ候補領域記憶部107は、未選択の位置合わせ対象画像を1つ選択する。そして、全ての位置合わせ対象画像について位置合わせ候補領域を求めたと判定されるまで、前述したようにしてステップS203〜S206の処理を繰り返し行う。そして、ステップS206において、全ての位置合わせ対象画像について位置合わせ候補領域を求めたと判定されると、図2のフローチャートによる処理を終了する。
以上のように本実施形態の位置合わせ候補領域記憶部107は、位置合わせ候補領域を抽出する候補領域抽出処理と、位置合わせ領域を導出する領域導出処理を行う。また、候補領域抽出処理では、動きベクトル検出処理と、仮変換係数の演算処理と、距離導出処理とが行われる。
<位置合わせ領域決定部108>
図7は、位置合わせ領域決定部108における処理内容の一例を説明する図であり、3つの画像について、位置合わせ候補領域になる検出ブロックと位置合わせ候補領域にならない検出ブロックをそれぞれ示す図である。図8は、位置合わせ領域決定部108における処理内容の一例を説明する図であり、図7に示す3つの画像について、位置合わせ候補領域の情報を表形式で示す図である。
図7および図8では、位置合わせ対象画像701a〜701c(画像1〜画像3)が3つであり、ブロック分割数Nが12(N=12)の場合を例に挙げて示す。
図7および図8に示すように、位置合わせ領域決定部108は、全ての位置合わせ対象画像に対する位置合わせ候補領域を入力し、入力した位置合わせ候補領域に共通(重複)する検出ブロックを抽出する。そして、位置合わせ領域決定部108は、抽出した検出ブロックの集合を、位置合わせ領域として決定する。図7に示す例では、グレーで塗りつぶされている検出ブロックを位置合わせ候補領域にならない検出ブロックとし、その他の検出ブロックを位置合わせ候補領域になる検出ブロックとしている。また、図7の検出ブロック内に示す数字は、検出ブロックを識別するブロック番号である。図7および図8に示す例では、ブロック番号が「0」、「1」、「5」、「6」、「7」、「11」の6個の検出ブロックが、3つの位置合わせ対象画像に共通する位置合わせ候補領域に対応する検出ブロックである。したがって、これら6個のブロックの集合が位置合わせ領域として決定される。
<位置ズレ補正部109>
図9、位置ズレ補正部109における処理の流れの一例を示すフローチャートである。
まず、ステップS901において、位置ズレ補正部109は、位置合わせ対象画像を1つ選択する。ここでは、撮影順に1つずつ位置合わせ対象画像が選択されるものとする。
次に、ステップS902において、位置ズレ補正部109は、位置合わせ領域決定部108において決定された位置合わせ領域を入力し、当該位置合わせ領域で検出されている動きベクトルから、位置合わせを行うための変換パラメータを推定する。ここでは、変換パラメータは射影変換係数とし、変換パラメータの推定の手法は最小二乗法とする。
次に、ステップS903において、位置ズレ補正部109は、ステップS902で推定した変換パラメータを用いて、処理している位置合わせ対象画像の座標変換を行い、基準画像との位置合わせを実行する。
次に、ステップS904において、位置ズレ補正部109は、全ての位置合わせ対象画像の座標変換を行って基準画像との位置合わせを実行したか否かを判定する。この判定の結果、全ての位置合わせ対象画像の座標変換を行って基準画像との位置合わせを実行していない場合には、ステップS905に進む。ステップS905に進むと、位置ズレ補正部109は、処理対象の位置合わせ対象画像を未選択の位置合わせ対象画像に変更する。そして、ステップS902、S903の処理により、変更した位置合わせ対象画像の座標変換を行って基準画像との位置合わせを実行する。そして、ステップS904において、全ての位置合わせ対象画像の座標変換を行って基準画像との位置合わせを実行したと判定されるまで、ステップS902〜S905の処理を繰り返し行う。こうして、ステップS904において、全ての位置合わせ対象画像の座標変換を行って基準画像との位置合わせを実行したと判定されると、図9のフローチャートによる処理を終了する。
以上、位置合わせ候補領域記憶部107、位置合わせ領域決定部108、位置ズレ補正部109の処理により、前記複数の入力画像の位置合わせが実行される。以上が、位置合わせ部105の処理内容である。
以上説明したように、本実施形態では、3つ以上の入力画像の1つを基準画像とし、残りを位置合わせ対象画像とする。全ての位置合わせ対象画像について以下の処理を行って、位置合わせ対象画像を分割した複数の検出ブロックにより定まる位置合わせ候補領域を確定する。すなわち、各検出ブロックにおける仮の変換パラメータを用いて各検出ブロックの所定の位置を座標変換した点と、各検出ブロックの当該所定の位置から動きベクトルとに基づく位置だけ離れた点との距離err[i]との導出を行う。そして、この距離err[i]の最大値が閾値よりも大きくなる検出ブロックを含まない検出ブロックの組み合わせを探索し、探索した組み合わせを位置合わせ候補領域として確定する。次に、全ての位置合わせ対象画像の位置合わせ候補領域で共通する検出ブロック(の組み合わせ)を位置合わせ領域とし、位置合わせ領域における動きベクトルから変換パラメータを導出することを全ての位置合わせ対象画像について行う。このようにして導出した変換パラメータを用いて位置合わせ対象画像のそれぞれと基準画像との位置合わせを行い、合成する。
このように、位置合わせ対象画像のそれぞれに対して、位置合わせを行う候補となる領域を保持しておき、その中から、位置合わせ対象画像間で共通する部分のみを選択し、位置合わせのための変換パラメータを推定する領域とする。したがって、位置合わせ対象画像の全体を通して、最も位置の相関が大きい領域で位置合わせを行うことができる。よって、位置合わせを行う領域が画像間でばらつく悪影響を低減でき、また、局所的な移動体で位置合わせを行う悪影響も低減することができる。以上のように本実施形態では、複数の画像の位置合わせを行って合成した画像の劣化を抑制することができる。
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。
第1の実施形態では、夫々の位置合わせ対象画像に対して位置合わせ候補領域を1つずつ求め、位置合わせ対象画像の位置合わせ領域で共通する検出ブロックを用いて位置合わせを行った。これに対し、本実施形態では、夫々の位置合わせ対象画像に対して位置合わせ候補領域を複数求める。そして、求めた複数の位置合わせ候補領域から、各位置合わせ対象画像で位置の相関が最も大きくなる位置合わせ候補領域の組み合わせを位置合わせ領域とする。このように本実施形態と第1の実施形態とでは、位置合わせ領域を導出する際の処理の一部が主として異なる。したがって、本実施形態の説明において、第1の実施形態と同一の部分については、図1〜図9に付した符号と同一の符号を付す等して詳細な説明を省略する。
図10は、本実施形態の画像処理装置を適用可能な撮像装置の構成の一例を示すブロック図である。
図1に示した第1の実施形態の撮像装置100と比較すると、本実施形態の撮像装置1000は、画像処理部1001における位置合わせ部1002の構成の一部が異なる。具体的に説明すると、本実施形態の撮像装置1000は、位置合わせ候補領域記憶部107の代わりに、位置合わせ候補領域群記憶部1003を有する。また、本実施形態の撮像装置1000は、位置合わせ領域決定部108の代わりに、位置合わせ領域決定部1004を有する。本実施形態の撮像装置1000のこれら以外の構成は、第1の実施形態の撮像装置100と同じである。従って、ここでは、位置合わせ候補領域群記憶部1003および位置合わせ領域決定部1004の処理内容の一例について詳細に説明を行う。
<位置合わせ候補領域群記憶部1003>
図11は、位置合わせ候補領域群記憶部1003における処理の流れの一例を示すフローチャートである。図11のフローチャートは、第1の実施形態における図2のフローチャートと対応しており、図2との差異は、図2のステップS205の位置合わせ候補領域導出処理の代わりに、ステップS1105の位置合わせ候補領域群導出処理を行う点である。
従って、ここではステップS1105の処理内容の一例について、図12〜図14を用いて、詳細な説明を行う。
図12は、ステップS1105における処理の流れの一例を示すフローチャートである。
まず、ステップS1201において、位置合わせ候補領域群記憶部1003は、ステップS1104で検出された各検出ブロックにおける動きベクトルを所定の順番でソートする。本実施形態では、前記所定の順番でソートするとは、位置合わせ対象画像の中央から検出ブロックまでの距離が近い検出ブロックから順番にソートすることとする。
次に、ステップS1202において、位置合わせ候補領域群記憶部1003は、前記所定の順番でソートされた検出ブロックのうち、先頭の検出ブロックから所定の数の検出ブロックまでの中のA個の検出ブロックにおける(A個の)動きベクトルを選択する。ここで選択する動きベクトルの個数(A)は、後述の変換パラメータの算出が可能な数とする。
図13は、動きベクトルの選択の方法の一例を説明する図である。具体的に図13(a)は、動きベクトルのソートの基準となる位置合わせ対象画像の中央の位置(基準点1301)の一例を示す図である。また、図13(b)は、選択した動きベクトルの組み合わせの一例を示す図である。図13では、検出ブロックの数Nが12(N=12)であり、選択する動きベクトルの数Aが3(A=3)であり、前記所定の数が12である場合を例に挙げて示す。
図13(a)の各検出ブロック内に示す数字は、検出ブロックを識別するブロック番号を示す。また、図13(b)において、ブロック番号の順序の欄の下に示す数字は、ブロック番号を示し、左に示すブロック番号であるほどソートの順番が上位(早い)ことを示す。また、動きベクトルの組み合わせの欄の下に示す数字は、動きベクトルの組み合わせを識別する番号である。この番号として、1から昇順に整数が与えられる。前述したように、図13では、検出ブロックの数Nが12であり、選択する動きベクトルの数Aが3であるので、動きベクトルを選択する組み合わせは、全体で123通り存在する。
図13(b)では、丸(〇)が付されたブロック番号で識別される検出ブロックの動きベクトルが選択されることを示す。また、基準点1301からの距離が同じ複数の検出ブロックについては、ブロック番号が小さい検出ブロックであるほど上位の順番になるように(早い順番なるように)ソートされるものとする。
例えば、番号「1」の動きベクトルの組み合わせは、ブロック番号「1」、「5」、「6」の検出ブロックにおける動きベクトルの組み合わせからなる。また、ブロック番号「5」の検出ブロックにおける動きベクトルが最も早い順番になり、ブロック番号「5」の検出ブロックにおける動きベクトルが最も早い順番になる。
図12の説明に戻り、ステップS1203において、位置合わせ候補領域群記憶部1003は、ステップS1202で選択したA個の動きベクトルから、仮の変換パラメータを算出する。仮の変換パラメータの例としては、射影変換係数やアフィン変換係数が挙げられる。
次に、ステップS1204において、位置合わせ候補領域群記憶部1003は、カウンターiの値に0(ゼロ)を設定する(i=0)。
次に、ステップS1205において、位置合わせ候補領域群記憶部1003は、ステップS1203で算出した仮の変換パラメータを用いて、検出ブロックblk[i]の中央座標を座標変換する(図6を参照)。
次に、ステップS1206において、位置合わせ候補領域群記憶部1003は、ステップS1205で座標変換した点(座標)と、検出ブロックblk[i]における動きベクトルが示す点(座標)との間の距離err[i]を算出する(図6を参照)。
次に、ステップS1207において、位置合わせ候補領域群記憶部1003は、カウンターiの値がN−1であるか否かを判定する。すなわち、位置合わせ候補領域群記憶部1003は、ステップS1003で選択した位置合わせ対象画像の全ての検出ブロックblk[0]〜blk[N-1]について距離err[i]を算出したか否かを判定する。
この判定の結果、カウンターiの値がN−1でない場合には、ステップS1208に進む。ステップS1208に進むと、位置合わせ候補領域群記憶部1003は、カウンターiの値をインクリメントする。そして、ステップS1205に戻り、ステップS1003で選択した位置合わせ対象画像の全ての検出ブロックblk[0]〜blk[N-1]について距離err[i]が算出されるまで、ステップS1205〜S1208の処理を繰り返し行う。
こうして、ステップS1003で選択した位置合わせ対象画像の全ての検出ブロックblk[0]〜blk[N-1]について距離err[i]が算出されると、ステップS1209に進む。
ステップS1209に進むと、位置合わせ候補領域群記憶部1003は、距離err[i]の値が所定の閾値以下となる動きベクトルである候補ベクトルの数と、当該候補ベクトルに対応するブロック番号とを記憶する。
次に、ステップS1210において、位置合わせ候補領域群記憶部1003は、前記ステップS1202〜S1209の処理を、所定の組み合わせ数だけ行ったか否かを判定する。この判定の結果、ステップS1202〜S1209の処理を、所定の組み合わせ数だけ行っていない場合には、ステップS1202に戻る。ステップS1202では、位置合わせ候補領域群記憶部1003は、以下の処理を行う。すなわち、前記所定の順番でソートされた検出ブロックのうち、先頭の検出ブロックから所定の数の検出ブロックまでの中のA個の検出ブロックにおける(A個の)動きベクトルの組み合わせであって未選択の組み合わせを選択する。そして、ステップS1210において、ステップS1202〜S1209の処理を、所定の組み合わせ数だけ行ったと判定されるまで、ステップS1202〜S1210の処理を繰り返し行う。そして、ステップS1210において、ステップS1202〜S1209の処理を、所定の組み合わせ数だけ行ったと判定されると、図12のフローチャートを終了して図11のステップS1106に進む。
ステップS1210の結果として、前記組み合わせの夫々に対応した候補ベクトルの集合が出力される。以下の説明では、候補ベクトルの集合を必要に応じて位置合わせ候補領域と称する。
図14は、図13の場合において、前記所定の組み合わせ数を10組とした場合の位置合わせ候補領域の情報の一例を表形式で示す図である。
図14に示す例では、夫々の組み合わせに対応した、10個の位置合わせ候補領域が出力される。すなわち、動きベクトルの組み合わせの番号が「11」以降の位置合わせ候補領域を求めない。尚、図14の動きベクトルの組み合わせの番号と図13(b)の動きベクトルの組み合わせの番号は相互に対応する。例えば、図14の番号「1」の動きベクトルの組み合わせに対応する候補ベクトルは、図13(b)の番号「1」の動きベクトルの組み合わせに対応する。
以下の説明では、ステップS1105により出力される複数の位置合わせ候補領域を、必要に応じて位置合わせ候補領域群と称する。以上が、ステップS1105の処理内容である。
最後に、図11のステップS1106において、位置合わせ候補領域群記憶部1003は、全ての位置合わせ対象画像について位置合わせ候補領域群を求めたか否かを判定する。この判定の結果、全ての位置合わせ対象画像について位置合わせ候補領域群を求めていない場合には、ステップS1103に戻る。ステップS1103に戻ると、位置合わせ候補領域群記憶部1003は、未選択の位置合わせ対象画像を1つ選択する。そして、全ての位置合わせ対象画像につい位置合わせ候補領域群を求めたと判定されるまで、前述したようにしてステップS1103〜S1106の処理を繰り返し行う。そして、ステップS1106において、全ての位置合わせ対象画像について位置合わせ候補領域群を求めたと判定されると、図11のフローチャートによる処理を終了する。
以上が、位置合わせ候補領域群記憶部1003の処理内容の一例であり、位置合わせ候補領域群記憶部1003の処理の結果として、図14に例示したような位置合わせ候補領域群が、位置合わせ対象画像の数分だけ出力される。
以上のように本実施形態の位置合わせ候補領域群記憶部1003は、位置合わせ候補領域を抽出する候補領域抽出処理と、位置合わせ領域を導出する領域導出処理を行う。また、候補領域抽出処理では、動きベクトル検出処理と、動きベクトル選択処理と、仮変換係数の演算処理と、距離導出処理とが行われる。
<位置合わせ領域決定部1004>
図15は、位置合わせ領域決定部1004における処理の流れの一例を示すフローチャートである。また、図16は、位置合わせ候補領域群記憶部1003と位置合わせ領域決定部1004の処理内容(位置合わせ領域を導出する方法)の一例を説明する図である。以下、位置合わせ領域決定部1004の動作の一例を、図15および図16を参照しながら説明する。
まず、ステップS1501において、位置合わせ領域決定部1004は、各位置合わせ対象画像の位置合わせ候補領域群の中から、候補ベクトルの数が多い順に所定の数だけ位置合わせ候補領域を抽出する。図16では、4つの入力画像のうちの1つが基準画像1601であり、残りの3つが位置合わせ対象画像1602a〜1602cであり、候補ベクトルの数が上位5位までの位置合わせ候補領域を抽出する場合の例を示す。ただし、図16において、位置合わせ候補領域群を求める際の設定は、図13および図14と同一とする。
次に、ステップS1502において、位置合わせ領域決定部1004は、ステップS1501で抽出した位置合わせ候補領域の中から、全ての位置合わせ対象画像で共通(重複)する検出ブロックの数が最も多くなる位置合わせ候補領域の組み合わせを抽出する。共通する検出ブロックは、例えば、第1の実施形態で説明した方法(位置合わせ位置合わせ候補領域に共通する検出ブロックを抽出する方法)と同じ処理により抽出することができる(図8を参照)。
最後に、ステップS1503において、位置合わせ領域決定部1004は、ステップS1502で抽出された位置合わせ候補領域の組み合わせを、それぞれの位置合わせ対象画像に対する位置合わせ領域とする。
図16では、位置合わせ対象画像1602a、1602b、1602cに対して、候補ベクトルの数が、それぞれ、3番目、1番目、2番目に多い位置合わせ候補領域の組み合わせで、共通する検出ブロックの数が最大になる場合を示す。
以上が、位置合わせ領域決定部1004の処理内容である。位置合わせ領域決定部1004の処理の結果として、位置合わせ候補領域群記憶部1003で算出された複数の位置合わせ候補領域の中から、全ての位置合わせ対象画像間で共通の検出ブロック数が最も多くなる位置合わせ候補領域が選択される。そして、選択された位置合わせ候補領域が位置合わせ領域として出力される。すなわち、全ての位置合わせ対象画像間で位置の相関が最も大きくなるような位置合わせ候補領域が選択され、位置合わせ領域として出力される。
以上説明したように、本実施形態では、全ての位置合わせ対象画像について以下の処理を行って、各位置合わせ対象画像について位置合わせ候補領域を個別に導出する。すなわち、位置合わせ領域を分割した全ての検出ブロックから、所定数(複数)の検出ブロックの組み合わせを複数通り抽出する。そして、抽出した検出ブロックにおける動きベクトルから仮の変換パラメータを導出して距離err[i]を導出し、距離err[i]が閾値以下となる動きベクトルを候補ベクトルとして導出する。この候補ベクトルの導出を複数通りの検出ブロックの組み合わせのそれぞれについて行う。この候補ベクトルに対応する検出ブロックを位置合わせ候補領域とする。そして、全ての位置合わせ対象画像で共通する検出ブロックの数が最大となる位置合わせ候補領域を、全ての位置合わせ対象画像から抽出し、各位置合わせ対象画像における位置合わせ領域とする。
このように、位置合わせ対象画像のそれぞれに対して、位置合わせを行う候補となる複数の位置合わせ候補領域を保持しておき、その中から位置合わせ対象画像間で共通部分が大きくなるような位置合わせ候補領域の組み合わせを選択する。そして、選択した位置合わせ候補領域を位置合わせのための変換パラメータを推定する領域とする。したがって、第1の実施形態と同様に、位置合わせ対象画像の全体を通して、最も位置の相関が大きい領域で位置合わせを行うことができる。よって、位置合わせを行う領域が画像間でばらつく悪影響を低減でき、また、局所的な移動体で位置合わせを行う悪影響も低減することができる。以上のように、本実施形態においても、第1の実施形態と同様に、複数の画像の位置合わせを行って合成した画像の劣化を抑制することができる。
さらに、第1の実施形態では、各位置合わせ対象画像に対して、位置合わせ候補領域として候補ベクトルの集合を1パターンのみ求めた。これに対し、本実施形態では、複数パターンの位置合わせ候補領域を保持しておき、位置の相関が大きくなる位置合わせ候補領域を抽出する。従って、第1の実施形態と比較して、より相関の強い領域で位置合わせを行うことができる。
尚、前述した実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
(その他の実施例)
本発明は、以下の処理を実行することによっても実現される。即ち、まず、以上の実施形態の機能を実現するソフトウェア(コンピュータプログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)が当該コンピュータプログラムを読み出して実行する。
107 位置合わせ候補領域記憶部、108 位置合わせ領域決定部、109 位置ズレ補正部

Claims (17)

  1. 位置合わせが行われる少なくとも3つ以上の画像のうちの1つの画像である基準画像と、当該3つ以上の画像のうちの前記基準画像と異なる画像である位置合わせ対象画像のそれぞれとの位置合わせを行う画像処理装置であって、
    前記位置合わせ対象画像のそれぞれから、前記位置合わせを行う領域の候補である位置合わせ候補領域を抽出する候補領域抽出手段と、
    前記位置合わせ対象画像のそれぞれにおける前記位置合わせ候補領域の相関に基づいて、前記位置合わせ対象画像における前記位置合わせを行う領域である位置合わせ領域を導出する領域導出手段と、
    前記位置合わせ領域における前記基準画像と前記位置合わせ対象画像との位置のずれに基づいて、前記基準画像と、前記位置合わせ対象画像との位置合わせを行う位置合わせ手段と、を有することを特徴とする画像処理装置。
  2. 前記候補領域抽出手段は、前記位置合わせ対象画像のそれぞれから、前記位置合わせを行う領域の候補である位置合わせ候補領域を1つずつ抽出し、
    前記領域導出手段は、前記位置合わせ対象画像の全ての前記位置合わせ候補領域で共通する領域を、前記位置合わせ対象画像のそれぞれにおける前記位置合わせ領域として導出することを特徴とする請求項1に記載の画像処理装置。
  3. 前記候補領域抽出手段は、前記位置合わせ対象画像のそれぞれから、前記位置合わせを行う領域の候補である位置合わせ候補領域を少なくとも2つずつ抽出し、
    前記領域導出手段は、前記位置合わせ対象画像の全てから1つずつ選択される前記位置合わせ候補領域の組み合わせのうち、当該選択される前記位置合わせ候補領域の全てで共通する領域が最も大きくなる組み合わせを、前記位置合わせ対象画像のそれぞれにおける前記位置合わせ領域として導出することを特徴とする請求項1に記載の画像処理装置。
  4. 前記候補領域抽出手段は、
    前記位置合わせ対象画像を複数に分割した全てのブロックにおける前記基準画像との間の動きベクトルを検出することを、前記位置合わせ対象画像のそれぞれについて行う前記動きベクトル検出手段と、
    前記動きベクトル検出手段により検出された動きベクトルの全てまたは一部に基づいて、位置のずれを評価する仮の変換係数を導出することを、前記位置合わせ対象画像のそれぞれについて行う仮変換係数の演算手段と、
    前記演算手段により導出された仮の変換係数を用いて前記ブロックの所定の位置の座標変換を行った点と、当該所定の位置から当該ブロックにおける前記動きベクトルに基づく位置だけ離れた点との距離を、前記位置合わせ対象画像を複数に分割した全てのブロックについて導出することを、前記位置合わせ対象画像のそれぞれについて行う距離導出手段と、を有し、
    前記位置合わせ対象画像を複数に分割した全てのブロックのうち、前記距離導出手段により導出された距離が閾値よりも大きくなるブロックを除いたブロックの組み合わせを、当該ブロックが属する前記位置合わせ対象画像に対する前記位置合わせ候補領域として導出することを、前記位置合わせ対象画像のそれぞれについて行うことを特徴とする請求項1〜3の何れか1項に記載の画像処理装置。
  5. 前記候補領域抽出手段は、
    前記位置合わせ対象画像を複数に分割した全てのブロックにおける前記基準画像との間の動きベクトルを検出することを、前記位置合わせ対象画像のそれぞれについて行う動きベクトル検出手段と、
    前記動きベクトル検出手段により検出された動きベクトルの全てに基づいて、位置のずれを評価する仮の変換係数を導出することを、前記位置合わせ対象画像のそれぞれについて行う仮変換係数の演算手段と、
    前記演算手段により導出された仮の変換係数を用いて前記ブロックの所定の位置の座標変換を行った点と、当該所定の位置から当該ブロックにおける前記動きベクトルに基づく位置だけ離れた点との距離を、前記位置合わせ対象画像を複数に分割した全てのブロックについて導出することを、前記位置合わせ対象画像のそれぞれについて行う距離導出手段と、を有し、
    前記位置合わせ対象画像を複数に分割した全てのブロックの中から、前記距離導出手段により導出された距離が閾値よりも大きくなるブロックを含まないブロックの組み合わせを、当該位置合わせ対象画像に対する前記位置合わせ候補領域として導出することを、前記位置合わせ対象画像のそれぞれについて行う特徴とする請求項2に記載の画像処理装置。
  6. 前記候補領域抽出手段は、
    前記位置合わせ対象画像を複数に分割した全てのブロックにおける前記基準画像との間の動きベクトルを検出することを、前記位置合わせ対象画像のそれぞれについて行う動きベクトル検出手段と、
    前記位置合わせ対象画像を複数に分割したブロックの一部かつ複数のブロックに対して前記動きベクトル検出手段により検出された動きベクトルの組み合わせを、複数通り選択することを、前記位置合わせ対象画像のそれぞれについて行う動きベクトル選択手段と、
    前記動きベクトル選択手段により選択された動きベクトルの組み合わせに基づいて、位置のずれを評価する仮の変換係数を導出することを、前記動きベクトルの組み合わせのそれぞれ並びに前記位置合わせ対象画像のそれぞれについて行う仮変換係数の演算手段と、
    前記演算手段により導出された仮の変換係数を用いて前記ブロックの所定の位置の座標変換を行った点と、当該所定の位置から当該ブロックにおける前記動きベクトルに基づく位置だけ離れた点との距離を、前記位置合わせ対象画像を複数に分割した全てのブロックについて導出することを、前記仮の変換係数のそれぞれ並びに前記位置合わせ対象画像のそれぞれについて行う距離導出手段と、を有し、
    前記位置合わせ対象画像を複数に分割した全てのブロックの中から、前記距離導出手段により導出された距離が閾値よりも大きくなるブロックを除いたブロックの組み合わせを、当該ブロックが属する前記位置合わせ対象画像に対する前記位置合わせ候補領域として導出することを、前記距離導出手段により導出された距離のそれぞれ並びに前記位置合わせ対象画像のそれぞれについて行うことを特徴とする請求項3に記載の画像処理装置。
  7. 前記位置合わせ手段により位置合わせが行われた前記基準画像と、前記位置合わせ対象画像のそれぞれとを合成する画像合成手段を有することを特徴とする請求項1〜6の何れか1項に記載の画像処理装置。
  8. 前記基準画像は、最初に入力された画像であり、
    前記位置合わせ対象画像は、前記基準画像よりも後に入力された画像であることを特徴とする請求項1〜7の何れか1項に記載の画像処理装置。
  9. 位置合わせが行われる少なくとも3つ以上の画像のうちの1つの画像である基準画像と、当該3つ以上の画像のうちの前記基準画像と異なる画像である位置合わせ対象画像のそれぞれとの位置合わせを行う画像処理方法であって、
    前記位置合わせ対象画像のそれぞれから、前記位置合わせを行う領域の候補である位置合わせ候補領域を抽出する候補領域抽出工程と、
    前記位置合わせ対象画像のそれぞれにおける前記位置合わせ候補領域の相関に基づいて、前記位置合わせ対象画像における前記位置合わせを行う領域である位置合わせ領域を導出する領域導出工程と、
    前記位置合わせ領域における前記基準画像と前記位置合わせ対象画像との位置のずれに基づいて、前記基準画像と、前記位置合わせ対象画像との位置合わせを行う位置合わせ工程と、を有することを特徴とする画像処理方法。
  10. 前記候補領域抽出工程は、前記位置合わせ対象画像のそれぞれから、前記位置合わせを行う領域の候補である位置合わせ候補領域を1つずつ抽出し、
    前記領域導出工程は、前記位置合わせ対象画像の全ての前記位置合わせ候補領域で共通する領域を、前記位置合わせ対象画像のそれぞれにおける前記位置合わせ領域として導出することを特徴とする請求項9に記載の画像処理方法。
  11. 前記候補領域抽出工程は、前記位置合わせ対象画像のそれぞれから、前記位置合わせを行う領域の候補である位置合わせ候補領域を少なくとも2つずつ抽出し、
    前記領域導出工程は、前記位置合わせ対象画像の全てから1つずつ選択される前記位置合わせ候補領域の組み合わせのうち、当該選択される前記位置合わせ候補領域の全てで共通する領域が最も大きくなる組み合わせを、前記位置合わせ対象画像のそれぞれにおける前記位置合わせ領域として導出することを特徴とする請求項9に記載の画像処理方法。
  12. 前記候補領域抽出工程は、
    前記位置合わせ対象画像を複数に分割した全てのブロックにおける前記基準画像との間の動きベクトルを検出することを、前記位置合わせ対象画像のそれぞれについて行う前記動きベクトル検出工程と、
    前記動きベクトル検出工程により検出された動きベクトルの全てまたは一部に基づいて、位置のずれを評価する仮の変換係数を導出することを、前記位置合わせ対象画像のそれぞれについて行う仮変換係数の演算工程と、
    前記演算工程により導出された仮の変換係数を用いて前記ブロックの所定の位置の座標変換を行った点と、当該所定の位置から当該ブロックにおける前記動きベクトルに基づく位置だけ離れた点との距離を、前記位置合わせ対象画像を複数に分割した全てのブロックについて導出することを、前記位置合わせ対象画像のそれぞれについて行う距離導出工程と、を有し、
    前記位置合わせ対象画像を複数に分割した全てのブロックのうち、前記距離導出工程により導出された距離が閾値よりも大きくなるブロックを除いたブロックの組み合わせを、当該ブロックが属する前記位置合わせ対象画像に対する前記位置合わせ候補領域として導出することを、前記位置合わせ対象画像のそれぞれについて行うことを特徴とする請求項9〜11の何れか1項に記載の画像処理方法。
  13. 前記候補領域抽出工程は、
    前記位置合わせ対象画像を複数に分割した全てのブロックにおける前記基準画像との間の動きベクトルを検出することを、前記位置合わせ対象画像のそれぞれについて行う動きベクトル検出工程と、
    前記動きベクトル検出工程により検出された動きベクトルの全てに基づいて、位置のずれを評価する仮の変換係数を導出することを、前記位置合わせ対象画像のそれぞれについて行う仮変換係数の演算工程と、
    前記演算工程により導出された仮の変換係数を用いて前記ブロックの所定の位置の座標変換を行った点と、当該所定の位置から当該ブロックにおける前記動きベクトルに基づく位置だけ離れた点との距離を、前記位置合わせ対象画像を複数に分割した全てのブロックについて導出することを、前記位置合わせ対象画像のそれぞれについて行う距離導出工程と、を有し、
    前記位置合わせ対象画像を複数に分割した全てのブロックの中から、前記距離導出工程により導出された距離が閾値よりも大きくなるブロックを含まないブロックの組み合わせを、当該位置合わせ対象画像に対する前記位置合わせ候補領域として導出することを、前記位置合わせ対象画像のそれぞれについて行う特徴とする請求項10に記載の画像処理方法。
  14. 前記候補領域抽出工程は、
    前記位置合わせ対象画像を複数に分割した全てのブロックにおける前記基準画像との間の動きベクトルを検出することを、前記位置合わせ対象画像のそれぞれについて行う動きベクトル検出工程と、
    前記位置合わせ対象画像を複数に分割したブロックの一部かつ複数のブロックに対して前記動きベクトル検出工程により検出された動きベクトルの組み合わせを、複数通り選択することを、前記位置合わせ対象画像のそれぞれについて行う動きベクトル選択工程と、
    前記動きベクトル選択工程により選択された動きベクトルの組み合わせに基づいて、位置のずれを評価する仮の変換係数を導出することを、前記動きベクトルの組み合わせのそれぞれ並びに前記位置合わせ対象画像のそれぞれについて行う仮変換係数の演算工程と、
    前記演算工程により導出された仮の変換係数を用いて前記ブロックの所定の位置の座標変換を行った点と、当該所定の位置から当該ブロックにおける前記動きベクトルに基づく位置だけ離れた点との距離を、前記位置合わせ対象画像を複数に分割した全てのブロックについて導出することを、前記仮の変換係数のそれぞれ並びに前記位置合わせ対象画像のそれぞれについて行う距離導出工程と、を有し、
    前記位置合わせ対象画像を複数に分割した全てのブロックの中から、前記距離導出工程により導出された距離が閾値よりも大きくなるブロックを除いたブロックの組み合わせを、当該ブロックが属する前記位置合わせ対象画像に対する前記位置合わせ候補領域として導出することを、前記距離導出工程により導出された距離のそれぞれ並びに前記位置合わせ対象画像のそれぞれについて行うことを特徴とする請求項11に記載の画像処理方法。
  15. 前記位置合わせ工程により位置合わせが行われた前記基準画像と、前記位置合わせ対象画像のそれぞれとを合成する画像合成工程を有することを特徴とする請求項9〜14の何れか1項に記載の画像処理方法。
  16. 前記基準画像は、最初に入力された画像であり、
    前記位置合わせ対象画像は、前記基準画像よりも後に入力された画像であることを特徴とする請求項9〜15の何れか1項に記載の画像処理方法。
  17. 請求項9〜16の何れか1項に記載の画像処理方法の各工程をコンピュータに実行させることを特徴とするコンピュータプログラム。
JP2013170606A 2013-08-20 2013-08-20 画像処理方法、画像処理装置、及びコンピュータプログラム Expired - Fee Related JP6274778B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013170606A JP6274778B2 (ja) 2013-08-20 2013-08-20 画像処理方法、画像処理装置、及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013170606A JP6274778B2 (ja) 2013-08-20 2013-08-20 画像処理方法、画像処理装置、及びコンピュータプログラム

Publications (3)

Publication Number Publication Date
JP2015041802A true JP2015041802A (ja) 2015-03-02
JP2015041802A5 JP2015041802A5 (ja) 2016-09-29
JP6274778B2 JP6274778B2 (ja) 2018-02-07

Family

ID=52695755

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013170606A Expired - Fee Related JP6274778B2 (ja) 2013-08-20 2013-08-20 画像処理方法、画像処理装置、及びコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP6274778B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1186003A (ja) * 1997-09-10 1999-03-30 Nec Corp 位置合わせ装置及び位置合わせプログラムを記録したコンピュータが読み取り可能な記録媒体
JPH11185018A (ja) * 1997-12-24 1999-07-09 Olympus Optical Co Ltd 画像処理装置
JP2008118555A (ja) * 2006-11-07 2008-05-22 Canon Inc 画像処理装置、撮像装置、及び画像処理方法
JP2008541508A (ja) * 2005-04-28 2008-11-20 テキサス インスツルメンツ インコーポレイテッド 動き安定化
JP2009278578A (ja) * 2008-05-19 2009-11-26 Sony Corp 画像処理装置および画像処理方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1186003A (ja) * 1997-09-10 1999-03-30 Nec Corp 位置合わせ装置及び位置合わせプログラムを記録したコンピュータが読み取り可能な記録媒体
JPH11185018A (ja) * 1997-12-24 1999-07-09 Olympus Optical Co Ltd 画像処理装置
JP2008541508A (ja) * 2005-04-28 2008-11-20 テキサス インスツルメンツ インコーポレイテッド 動き安定化
JP2008118555A (ja) * 2006-11-07 2008-05-22 Canon Inc 画像処理装置、撮像装置、及び画像処理方法
JP2009278578A (ja) * 2008-05-19 2009-11-26 Sony Corp 画像処理装置および画像処理方法

Also Published As

Publication number Publication date
JP6274778B2 (ja) 2018-02-07

Similar Documents

Publication Publication Date Title
EP3540637A1 (en) Neural network model training method, device and storage medium for image processing
JP5213613B2 (ja) 画像処理装置及び画像処理方法及び撮像装置及びプログラム
US9990534B2 (en) Image processing device and image processing method
JP5284048B2 (ja) 画像処理装置、撮像装置及び画像処理方法
US20100097483A1 (en) Data processing apparatus and method, and recording medium
US20110096143A1 (en) Apparatus for generating a panoramic image, method for generating a panoramic image, and computer-readable medium
JP5569357B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
US10142613B2 (en) Image processing apparatus, image processing system, and image processing method
JP2013062741A (ja) 画像処理装置および撮像装置、ならびに画像処理方法
JP2005309746A (ja) 動物体追跡方法、動物体追跡プログラムおよびその記録媒体、ならびに、動物体追跡装置
JPWO2010095460A1 (ja) 画像処理システム、画像処理方法および画像処理プログラム
JP2015036841A (ja) 画像処理装置、距離計測装置、撮像装置、画像処理方法
JP5082856B2 (ja) 画像処理方法、画像処理プログラム、画像処理装置、及び撮像装置
JP6579727B1 (ja) 動体検出装置、動体検出方法、動体検出プログラム
JP7027776B2 (ja) 移動ベクトル算出方法、装置、プログラム、及びノイズ除去処理を含む移動ベクトル算出方法
JP2016164709A (ja) 画像処理装置、撮像装置および画像処理プログラム
JP2016213578A (ja) 画像処理装置、撮像装置、画像処理方法、プログラム
JP2009260671A (ja) 画像処理装置及び撮像装置
JP2021077091A (ja) 画像処理装置および画像処理方法
JP6274778B2 (ja) 画像処理方法、画像処理装置、及びコンピュータプログラム
JP2006215655A (ja) 動きベクトル検出方法、動きベクトル検出装置、動きベクトル検出プログラム及びプログラム記録媒体
JP6604783B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
KR102450466B1 (ko) 영상 내의 카메라 움직임 제거 시스템 및 방법
JP2006215657A (ja) 動きベクトル検出方法、動きベクトル検出装置、動きベクトル検出プログラム及びプログラム記録媒体
JP2015148965A (ja) 画像処理装置、撮像装置及び画像処理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160810

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170509

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170628

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180109

R151 Written notification of patent or utility model registration

Ref document number: 6274778

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees