JP6602141B2 - 画像処理装置および方法 - Google Patents

画像処理装置および方法 Download PDF

Info

Publication number
JP6602141B2
JP6602141B2 JP2015197965A JP2015197965A JP6602141B2 JP 6602141 B2 JP6602141 B2 JP 6602141B2 JP 2015197965 A JP2015197965 A JP 2015197965A JP 2015197965 A JP2015197965 A JP 2015197965A JP 6602141 B2 JP6602141 B2 JP 6602141B2
Authority
JP
Japan
Prior art keywords
image
area
divided
frame images
grid
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015197965A
Other languages
English (en)
Other versions
JP2017072913A5 (ja
JP2017072913A (ja
Inventor
稔 坂井田
友貴 植草
浩之 谷口
総一郎 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015197965A priority Critical patent/JP6602141B2/ja
Priority to US15/279,685 priority patent/US9942477B2/en
Publication of JP2017072913A publication Critical patent/JP2017072913A/ja
Publication of JP2017072913A5 publication Critical patent/JP2017072913A5/ja
Application granted granted Critical
Publication of JP6602141B2 publication Critical patent/JP6602141B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像処理装置および方法に関し、更に詳しくは、動きベクトルを検出する画像処理装置および方法に関する。
従来より、デジタルスチルカメラやデジタルビデオカメラ等の撮像装置を用いて撮影された映像に対して手ぶれ補正を施す方法として、フレーム画像間の動き量を検出し、検出した動き量に応じて、画像をシフトして位置合わせすることが行われている。フレーム画像間の動き量を検出する方法としては、ジャイロセンサのような外部機器の情報を用いる方法や、撮影された複数のフレーム画像から動き量を推定する方法等がある。
フレーム画像を用いて動き量を推定する方法は従来から種々提案されているが、その代表的なものとしてテンプレートマッチングによる動きベクトル検出がある。テンプレートマッチングでは、まず、映像中のある2枚のフレーム画像の一方を原画像、もう一方を参照画像とし、原画像上に配置した所定の大きさの矩形領域をテンプレートブロックとする。そして、参照画像においてテンプレートブロックをシフトしながら、各位置において、テンプレートブロック内の原画像の画素値と、テンプレートブロック内の参照画像の画素値との相関を求める。このとき、参照画像中で最も相関が高くなる位置がテンプレートブロックの移動先であり、原画像上でのテンプレートブロックの位置を基準とした時の移動先への向きと移動量が動きベクトルとなる。
動きベクトルの検出率を向上させるため、特徴点を抽出し、抽出した特徴点にテンプレートブロックを配置し、フレーム画像間でテンプレートマッチングを行う技術がある。しかしながら、画像全体で特徴点抽出を行うと、特徴点の分布は不均一になることが多く、不均一な特徴点に対して得られた動きベクトルを手ぶれ補正の用途で使用する場合、特徴の集中した領域が主となる手ぶれ補正となってしまう。手ぶれ補正は、手振れにより画像全体が同じ方向に同じ量だけ移動した移動量を補正することを目的とするが、特徴の集中した領域の被写体自体が動いている場合には、その動きも含めて補正してしまい、適切な手振れ補正を行うことができない。
そこで、特徴点を画像内で均一に分布させるため、画像をグリッド状に分割して、特徴の大きさを表す特徴値を画素ごとに計算し、各グリッド内で特徴値が最も大きい画素を特徴点として抽出する技術が特許文献1に開示されている。図13は、特許文献1に基づいて、各グリッド内で特徴点を求め、その特徴点にテンプレートブロックを配置して、テンプレートマッチングを行う場合を説明するための図である。
図13において、1301は画像、1302はグリッド、1303はグリッド内の特徴点、1304はテンプレート、1305はテンプレートに対するサーチ範囲を示す。ここでは、2つの特徴点を例として示しているため、図13において、一方の特徴点に関連する要素には参照番号に「−1」を、もう一方の特徴点に関連する要素には「−2」を付加している。例えば、グリッド1302−1においては、特徴点1303−1を重心としたテンプレート1304−1に基づいて、テンプレートマッチングが行われる。
ビデオカメラなどの動画の防振処理で使用される動きベクトル検出回路においては、リアルタイム性が要求される。そのため、例えば、グリッド1302−1における、テンプレートマッチング用画像生成、ならびに特徴点の算出処理が完了した直後に、グリッド1302−1のテンプレートマッチング処理を開始できるように回路を制御する。
特開2008−192060号公報
しかしながら、画像1301の下端にあるグリッド1302−2で示すように、特徴点1303−2がグリッド1302−2の下部にある場合、テンプレート1304−2と、サーチ範囲1305−2が、グリッド1302−2の下にはみ出す場合がある。その場合、テンプレートマッチングを行うには、下端グリッド1302−2より下の領域1306の画素値が更に必要となる。従って、グリッド1302−2のテンプレートマッチング用画像生成、ならびに特徴点1303−2の算出処理が完了した直後にテンプレートマッチング処理を開始することができない。少なくとも、グリッド1302−2外の領域1306に対するテンプレートマッチング用画像生成が完了するまで、マッチング処理の開始が遅れてしまう。
また、テンプレート画像やサーチ範囲がグリッド外にはみ出る場合を考慮して、予め、グリッド外領域の画素値を準備しておく必要があるため、メモリに書き込むデータ量が増えてしまう。
本発明は上記問題点を鑑みてなされたものであり、グリッド分割による動きベクトル検出処理の高速化、並びにデータ読み出し量の削減を図ることを目的とする。
上記目的を達成するために、2つのフレーム画像を、それぞれ複数の分割領域に分割する分割手段と、前記2つのフレーム画像のうちの一方のフレーム画像の各分割領域の代表点を決定する決定手段と、前記代表点に基づいて、前記2つのフレーム画像間の動きを検出するための画像領域を、前記2つのフレーム画像それぞれに対して設定する設定手段と、前記設定された画像領域における前記2つのフレーム画像の画像信号の相関値に基づいて、前記2つのフレーム画像間の動きを検出する検出手段と、を有し、前記決定手段は、前記各分割領域の前記一方のフレーム画像における位置に応じて、各分割領域の特徴点、または、予め決められた固定点を、前記各分割領域の代表点として決定する。
グリッド分割による動きベクトル検出処理の高速化、並びにデータ読み出し量の削減を図ることができる。
本発明の第1の実施形態における動きベクトル検出回路の構成を示すブロック図。 第1の実施形態における画像の分割例を示す図。 第1の実施形態における分割された画像の処理順序を示す図。 第1の実施形態における特徴点算出部の構成を示すブロック図。 第1の実施形態における下端以外のグリッドにおける、ベクトル検出用画像の読み出し位置を説明するための図。 第1の実施形態における下端以外のグリッドにおける、ベクトル検出処理タイミングを説明するための図。 第1の実施形態における下端グリッドにおける、ベクトル検出用画像の読み出し位置を説明するための図。 第1の実施形態における下端グリッドにおける、ベクトル検出処理タイミングを説明するための図。 第2の実施形態における画像の分割例を示す図。 第3の実施形態におけるメモリアドレス生成部の構成を示すブロック図。 第3の実施形態における動きベクトル検出処理の概念図。 第3の実施形態における動きベクトル検出処理のフローチャート。 従来のグリッド分割による、特徴点を利用したテンプレートマッチング処理を説明するための図。
以下、添付図面を参照して本発明を実施するための形態を詳細に説明する。
<第1の実施形態>
図1は、本発明の第1の実施形態における画像処理装置で用いられる動きベクトル検出回路の構成を示すブロック図である。グリッド分割部101は、画像を複数領域に分割する。ベクトル検出画像生成部102は、ベクトル検出用の画像を生成し、メモリ104に格納する。特徴点算出部103は、画像信号より特徴点を算出する。メモリアドレス生成部106は、特徴点の検出結果に応じて、メモリ104に格納されたベクトル検出用の画像からのテンプレート画像とサーチ画像(画像領域)の読み出し位置を変更する。マッチング処理部105は、メモリ104から読み出した、テンプレート画像とサーチ画像に対して、テンプレートマッチングを行う。
次に、上記構成を有する動きベクトル検出回路による、第1の実施形態における動きベクトル検出処理の流れを示す。
まず、ベクトル検出の対象となる連続する2つのフレーム画像の画像信号は、グリッド分割部101に順次入力される。本実施形態におけるベクトル検出処理は、画像を複数の領域(以下、「グリッド」と呼ぶ。)に分割し、各グリッド(分割領域)でベクトル値を算出する。
図2は、画像をグリッドに分割した一例を示す図であり、画像201を、水平方向に6分割、垂直方向に4分割した、計24のグリッド202に分割している。以降の処理では、まず、各グリッド202おいて特徴点203を求める。そして、求めた特徴点203に応じて、連続する2つのフレーム画像の一方のフレーム画像に対してテンプレート画像204を設定し、他方のフレーム画像に対してサーチ画像205を設定して、テンプレートマッチングを行うこととなる。なお、以下の説明においてグリッド202および各グリッド202に関連する要素を特定する場合には、左上のグリッド202から右下のグリッド202まで、左から右、上から下に向かって昇順となるように、「−1」から「−24」を参照番号に付加する。
図2に示すように分割されたグリッドにおいて、特徴点203−2はグリッド202−2の端近くで検出されており、その結果、テンプレート画像204−2と、サーチ画像205−2が、グリッド202−2をはみ出してしまっている。このように、画像の上下左右の端部にあるグリッド202でベクトル値を算出するためには、グリッド202の外の領域(以下、「グリッド外領域」と呼ぶ。)を準備する必要がある。
また、グリッド分割部101は、図3で示すように、後段のベクトル検出画像生成部102と、特徴点算出部103に対し、画像201の画像信号を、前述したグリッド外領域206を含めた分割領域単位で出力する。
まず、左上端のグリッド外領域206−1の画像信号を読み出したら、次に、その右隣のグリッド外領域206−2を読み出し、そのまま水平方向のグリッド外領域206−3を読み出す。上端のグリッド外領域206−1〜8の画像信号を全て読み出し終えると、グリッド202−1に対する左端のグリッド外領域206−9を読み出し、その後に、グリッド202−1を読み出す。グリッド202−1を読み出し終えると、グリッド202−2、グリッド202−3という順で、水平方向のグリッド202−1〜6を読み出していく。
なお、後段のベクトル検出画像生成部102は、グリッド外領域206を入力する必要があるが、特徴点算出部103は、グリッド202のみが処理対象となるため、グリッド外領域206の入力は不要である。例えば、グリッド外領域206がベクトル検出画像生成部102に入力されている間は、特徴点算出部103は、供給するクロックを停止するなどして、消費電力を抑える構成としても良い。
また、画像201の画像信号がラスタスキャンでグリッド分割部101に入力される場合は、グリッド分割部101において、既知の手法による、ラスタブロック変換処理を行う必要がある。
次に、各グリッドの画像信号は、ベクトル検出画像生成部102にて、ベクトル検出画像に変換され、メモリ104に書き込まれる。ベクトル検出画像生成部102は、例えば、バンドパスフィルタ回路であり、テンプレートマッチング処理に不要な、画像信号の高周波成分と低周波成分をカットすることを目的とする。
また、ベクトル検出画像が生成されるのと並行して、特徴点算出部103において、各グリッドの特徴点を算出する。図4は、特徴点算出部103の構成を示したブロック図であり、特徴点算出部103は、特徴フィルタ部401、特徴評価部402、特徴点決定部403からなる。
特徴フィルタ部401は、例えば、バンドパスフィルタ、水平微分フィルタ、垂直微分フィルタ、平滑化フィルタなど、複数のフィルタから構成される。例えば、バンドパスフィルタで不要な画像信号の高周波成分と低周波成分をカットし、水平方向の微分フィルタ処理を施した信号と、垂直方向の微分フィルタ処理を施した信号の其々に対して、平滑化フィルタ処理を施したものを出力する。
特徴評価部402は、特徴フィルタ部401によりフィルタ処理されたグリッドに対し、画素ごとに2つのエッジの交点や曲率が極大である曲線の点など、画素の周辺の微分値が多方向に大きい点を特徴評価式により特徴値として算出する。第1の実施形態では、例えば、Shi and Tomasiの手法により特徴値を算出する場合について説明をする。
まず、水平微分フィルタと垂直微分フィルタを施した結果から、自己相関行列Hを作成する。自己相関行列Hの式を式(1)に示す。
Figure 0006602141
式(1)は、Ixを水平微分フィルタを施した結果、Iyを垂直微分フィルタを施した結果を表しており、ガウシアンフィルタGを畳み込む。Shi and Tomasiの特徴評価式を式(2)に示す。
Shi and Tomasi = min(λ1, λ2) …(2)
式(2)は、式(1)の自己相関行列Hの固有値λ1, λ2のうち、小さい方の固有値を特徴値とすることを示す。
特徴点決定部403は、グリッド毎に、特徴評価部402によって画素ごとに算出された特徴値のうち、最も大きい値を持つ画素を特徴点と決定する。本実施形態においては、特徴点の座標は、グリッドの左上端を(0,0)とした、相対座標(PX,PY)で表現するが、画像信号における絶対座標で表現してもよい。
なお、算出された特徴点は、特徴点決定部403内で、グリッド毎にメモリやレジスタに記憶される。そして、マッチング処理部105にて、対応するグリッドのテンプレートマッチング処理が開始されるときに、メモリアドレス生成部106に特徴点情報がセットされる。
メモリ104には、現時点のベクトル検出画像と、1フレーム前のベクトル検出画像の、2フレーム分のベクトル検出画像を記憶する。本実施形態においては、現時点のベクトル検出画像をテンプレート画像とし、1フレーム前のベクトル検出画像をサーチ画像として、テンプレートマッチングを行う。
メモリアドレス生成部106は、メモリ104に記憶された2枚のベクトル検出画像より、所定のグリッドに対して、テンプレートマッチングに必要となるテンプレート画像とサーチ画像の読み出し位置の決定と、メモリアクセスを実施する。
ここで、テンプレート画像とサーチ画像の読み出し位置の決定について説明する。本実施形態においては、(ア)ベクトル検出対象グリッドが下端以外の場合と、(イ)ベクトル検出対象グリッドが下端の場合とで、各々制御が異なる。なお、ベクトル検出対象グリッドが下端か否かの情報は、グリッド分割部101より、メモリアドレス生成部106へ入力されるグリッド座標情報にて判定する。例えば、グリッド配置が図2に示す配置の場合、上端の垂直グリッド座標を0とすると、下端の垂直グリッド座標は3となる。
(ア)ベクトル検出対象グリッドが下端以外の場合
図5は、グリッド202−1におけるテンプレート画像204−1の読み出し開始位置と、サーチ画像205−1の読み出し開始位置を示したものである。なお、図5において、図2と同じ要素には同じ参照番号を付し、ベクトル検出グリッドの周辺の、テンプレートマッチング処理で用いられる領域を網掛けにより表している。また、(GSX,GSY)は画像内のグリッド開始座標、(PX,PY)はグリッド内における特徴点座標である。また、(GTX,GTY)はテンプレート画像204−1の画像内の読み出し開始座標、(GMX,GMY)はサーチ画像205−1の画像内の読み出し開始座標である。
まず、グリッド内の特徴点座標(PX,PY)は、グリッド開始座標を(GSX,GSY)とした場合に、画像内の絶対座標(GPX,GPY)としては以下の式(3)で表現できる。
(GPX, GPY) = (GSX + PX, GSY + PY) …(3)
テンプレート画像204−1は、特徴点203−1が中心となるように配置される。従って、テンプレート画像204−1の読み出し開始位置(GTX,GTY)は、テンプレート画像204−1の水平サイズをTX、垂直サイズをTYとした場合、以下の式(4)で表現できる。
(GTX, GTY) = (GPX - (TX/2), GPY - (TY/2)) …(4)
サーチ画像205−1は、その中心をテンプレート画像204−1の中心に揃えて配置する。従って、読み出し開始位置(GMX,GMY)は、水平サイズをSX、垂直サイズをSYとした場合、以下の式(5)で表現できる。
(GMX, GMY) = (GPX - (SX/2), GPY - (SY/2)) …(5)
メモリアドレス生成部106は、メモリ104に記憶された、現フレームのベクトル検出画像に対して、座標(GTX,GTY)から、水平サイズTX、垂直サイズTYの矩形領域(テンプレート画像)を読みだすよう、メモリアドレスを発行する。また、同様に、メモリ104に記憶された、1フレーム前のベクトル検出画像に対して、座標(GMX,GMY)から、水平サイズSX、垂直サイズSYの矩形領域(サーチ画像)を読み出すよう、メモリアドレスを発行する。
その際に、グリッド202−1をテンプレートマッチング処理する場合、特徴点203−1の位置(PX,PY)によっては、テンプレート画像204−1とサーチ画像205−1が、グリッド202−1をはみ出してしまう。その場合、グリッド外領域206−1〜3、9、11と、グリッド202−2、202−7、202−8との画像信号が必要となる。
図6は、ベクトル検出画像生成処理と、特徴点算出処理と、テンプレートマッチング処理の処理タイミングを説明した図であり、グリッド外領域206及びグリッド202がどのタイミングで処理されるかを示したものである。本実施形態において、グリッド202−1をテンプレートマッチング処理する場合は、グリッド202−1と、その周辺のグリッド外領域およびグリッド、即ち、グリッド202−8までの画像に対してベクトル検出画像生成処理が完了している必要がある。従って、グリッド202−8までのベクトル検出画像生成処理が完了したタイミングで、グリッド202−1の処理を開始する。同様に、グリッド202−9までのベクトル検出画像生成処理が完了したタイミングで、グリッド202−の処理を開始し、以下同様のタイミングでテンプレートマッチング処理を行う。
(イ)ベクトル検出対象グリッドが下端の場合
図7は、グリッド202−19におけるテンプレート画像204−19の読み出し開始位置と、サーチ画像205−19の読み出し開始位置を示したものである。なお、図7において、(DX,DY)はグリッド内におけるテンプレート画像204−19の中心座標である。それ以外の要素は、図5に示したものと同様であるため、ここでは説明を省略する。
下端グリッド202においては、グリッド内の特徴点203は使用せず、グリッド内の中心座標(DX,DY)にテンプレート画像204−19を配置するように制御する。この中心座標(DX,DY)を、特徴点座標(PX,PY)の代わりに用いる。従って、グリッド開始座標を(GSX,GSY)、グリッド202−19の水平サイズをGX、垂直サイズをGYとした場合に、中心座標(DX,DY)の画像内の絶対座標(GPX,GPY)としては以下の式(6)および(7)で表現することができる。
(DX, DY) = (GX/2, GY/2) …(6)
(GPX, GPY) = (GSX + DX, GSY + DY) …(7)
テンプレート画像204−19は、中心座標(DX,DY)が中心となるように配置される。従って、テンプレート画像204−19の読み出し開始位置(GTX,GTY)は、テンプレート画像204−19の水平サイズをTX、垂直サイズをTYとした場合、上述した式(4)で表現できる。
サーチ画像205−19は、その中心をテンプレート画像の中心に揃えて配置する。従って、読み出し開始位置(GMX,GMY)は、水平サイズをSX、垂直サイズをSYとした場合、上述した式(5)で表現できる。
メモリアドレス生成部106は、(ア)ベクトル検出対象グリッドが下端以外の場合と同様に、メモリ104に配置された、現フレームのベクトル検出画像に対して、座標(GTX,GTY)から、水平サイズTX、垂直サイズTYの矩形領域を読みだすよう、メモリアドレスを発行する。また、同様に、メモリ104に配置された、1フレーム前のベクトル検出画像に対して、座標(GMX,GMY)から、水平サイズSX、垂直サイズSYの矩形領域を読み出すよう、メモリアドレスを発行する。
図8は、ベクトル検出画像生成処理と、特徴点算出処理と、テンプレートマッチング処理の処理タイミングを説明した図であり、グリッド外領域206及びグリッド202がどのタイミングで処理されるかを示したものである。
グリッド202−19をテンプレートマッチング処理する場合、テンプレート画像204−19とサーチ画像205−19は、グリッド202−19をはみ出すことがないため、グリッド外領域206を必要としない。従って、本実施形態において、グリッド202−19をテンプレートマッチング処理する場合は、図7に示すように、グリッド202−19のベクトル検出画像生成処理が完了していれば、処理を開始することができる。そのため、下端グリッド202−19の処理は、一つ前の行のグリッド202−13〜18の処理が終わり次第、開始することができる。また、下端グリッド202−19〜24はグリッド外領域206が不要のため、下端グリッド202−19〜24よりも下の領域の画像信号に対して、ベクトル画像生成処理を施して、メモリ104に書き出す必要がない。
なお、第1の実施形態において、下端グリッド202−19〜24では、グリッド202の中心位置にテンプレート画像204を配置するものとして説明した。しかしながら、本発明はこれに限られるものではなく、テンプレート画像204ならびにサーチ画像205が、下端グリッド202をはみ出さない(分割領域内に収まる)固定点にテンプレート画像204の中心を配置するように制御してもよい。
マッチング処理部105は、上述したようにしてメモリ104より読み出されたテンプレート画像204とサーチ画像205とを用いて相関値を算出し、その相関値よりベクトル値を算出する。例えば、相関値の算出方法の一例として差分絶対値和(Sum of Absolute Difference、以下「SAD」と略す。)を使用する。
Figure 0006602141
式(8)において、f(i,j)はテンプレート画像204内の座標(i,j)における画素値を表しており、g(i,j)はサーチ画像205において相関値算出の対象となる領域内の各画素値を表す。相関値算出対象領域は、テンプレート画像204と同じ大きさである。そして、両ブロック内の各画素値f(i,j)及びg(i,j)について差の絶対値を計算し、その総和を求めることで、相関値S_SADを得ることができる。従って、相関値S_SADの値が小さいほど両ブロック間の輝度値の差分が小さい、つまりテンプレート画像204と相関値算出領域内のテクスチャが類似していることを表している。
なお、本実施形態では、相関値の一例としてSADを使用しているが、これに限るものではなく、差分二乗和(SSD)や正規化相互相関(NCC)等の他の相関値を用いても良い。
そして、相関値の最小値の位置(MVX,MVY)を、各グリッド202の動きベクトル値として出力し、得られた各グリッド202の動きベクトル値に基づいて、連続する2つのフレーム画像間の動き量を求める。この際に、例えば、各グリッド202の動きベクトル値の平均値を動き量として用いても良いし、中央値等の統計的に得られた値を用いても良く、本発明は動き量の求め方により制限されるものではない。
上記の通り第1の実施形態によれば、メモリ104に書き込むベクトル検出画像のデータ量を削減することができると共に、ベクトル検出処理の完了を早期に図ることができる。
なお、上述した第1の実施形態では、グリッドが下端グリッドであるかどうかに基づいて、特徴点を用いるか中心点を用いるかを決定した。しかしながら本発明はこれに限るものではなく、グリッドが上端グリッドであるかどうかに基づいて、特徴点を用いるか中心点を用いるかを決定してもよい。その場合、画像201よりも上のグリッド外領域206の画像信号ベクトル検出画像生成処理を行う必要が無くなり、同様の効果を得ることができる。
<第2の実施形態>
次に、本発明の第2の実施形態について説明する。第2の実施形態では、メモリアドレス生成部106の制御が第1の実施形態と異なる。その他の構成は第1の実施形態と同様であるので、以下、相違点について説明する。
図9は、第2の実施形態において画像をグリッドに分割した一例を示す図であり、画像901を、水平方向に6分割、垂直方向に4分割した、計24のグリッド902に分割している。以降の処理では、各グリッド902において代表点903(第1の実施形態における特徴点または中心点)を求め、求めた代表点903に応じて、テンプレート画像904の位置と、サーチ画像205を決定して、テンプレートマッチングを行うこととなる。ただし、第1の実施形態とは異なり、グリッド外領域908に対してベクトル検出画像生成処理を施し、メモリ104に書き込むことは実施しない。
第2の実施形態におけるメモリアドレス生成部106による、テンプレート画像204およびサーチ画像205の読み出し位置の決定について説明する。第2の実施形態においては、(ア)ベクトル検出対象グリッドが端以外の場合、(イ)ベクトル検出対象グリッドが端の場合で、各々制御が異なる。なお、ベクトル検出対象グリッドが端か否かの情報は、グリッド分割部101より、メモリアドレス生成部106へ入力される、グリッド座標情報にて判定する。
なお、(ア)ベクトル検出対象グリッドが端以外の場合、グリッド外領域206の画像信号の処理を行わないことを除いて、上述した第1の実施形態における、「(ア)ベクトル検出対象グリッドが下端以外の場合」と、同様の制御となるため、説明を割愛する。
(イ)ベクトル検出対象グリッドが端の場合
端グリッド90−1(および図9で網掛けをしたグリッド)においては、第1の実施形態における「(イ)ベクトル検出対象グリッドが下端」と同様に、グリッド内の特徴点(PX,PY)は使用しない。そして、グリッド内の中心点(DX,DY)にテンプレート画像904の中心を配置するように制御する。
従って、第2の実施形態において、端グリッドをテンプレートマッチング処理する場合は、グリッド外領域が不要となるため、端グリッドよりも外側の画像信号に対して、ベクトル検出画像生成処理を施して、メモリ104に書き出す必要がない。
なお、第2の実施形態において、端グリッドでは、グリッド902の中心位置にテンプレート画像904を配置するように制御している。しかしながら、本発明はこれに限られるものではなく、テンプレート画像904ならびにサーチ画像905が、グリッド902をはみ出さない(分割領域内に収まる)固定点にテンプレート画像904の中心を配置するよう制御してもよい。この場合、グリッドが上端にある場合には上方向、下端にある場合には下方向、左端に有る場合には左方向、右端にある場合には右方向にはみ出さないような固定点としても良い。
上記の通り本第2の実施形態によれば、第1の実施形態と同様の効果に加えて、メモリ104に書き込むベクトル検出画像のデータ量を更に削減することができる。
<第3の実施形態>
次に、本発明の第3の実施形態について説明する。第3の実施形態は、メモリアドレス生成部106の構成と制御が第1の実施形態と異なる。その他の構成は第1の実施形態と同様であるので、以下、相違点について説明する。
図10は、第3の実施形態におけるメモリアドレス生成部106の構成を示すブロック図である。図10において、特徴点使用可否判定部1001は、特徴点情報とグリッド座標情報より、特徴点座標を使用するか否かを判定する。セレクタ1002は、特徴点使用可否判定部1001からの判定結果に基づいて、メモリアドレス変換部1003に入力する座標(以下、「代表点」と呼ぶ。)を、特徴点座標(PX,PY)とするか、グリッドの中心座標(DX,DY)とするかを切り替える。メモリアドレス変換部1003は、セレクタ1002からの座標情報に基づいて、テンプレート画像の読み出しアドレスとサーチ画像の読み出しアドレスを生成する。なお、メモリアドレス変換部1003で行われる処理は、第1の実施形態における処理と同様であるため、説明を割愛する。
図11は第3の実施形態における代表点を用いたベクトル検出処理の概念を示したものであり、図12はベクトル検出処理のフローチャートである。以下、図11および図12を参照して、第3の実施形態におけるベクトル検出処理について説明する。なお、図11において、図2と同様の要素には同じ参照番号を付し、説明を省略する。
まず、S1201において、変数countを初期化する。変数countは、各グリッド202に対するサーチ画像が、特徴点203−2を代表点とした場合のように、グリッドを下方向にはみ出した回数を示すものである。
次に、S1202において、変数flagを初期化する。変数flagは、変数countがグリッド水平1ラインで、最大1回しかカウントしないように制御するためのフラグである。グリッド水平ライン内で1回でも、サーチ画像が、着目グリッド202を下方向にはみ出した場合、その時点で、下方向のグリッド202におけるベクトル検出画像生成処理が完了するまでベクトル検出処理が開始できない。そのため、変数countは水平グリッドラインで1回カウントできれば良い。
S1203において、特徴点算出部103で、着目グリッド202の特徴点を算出する。そして、次のS1204において、特徴点使用可否判定部1001は、特徴点算出部103で算出した着目グリッドの特徴点を使用したサーチ画像が、着目グリッド202を下方向にはみ出したかどうかを判定する。グリッドの左上端座標を(GSX,GSY)、右下端座標を(GEX,GEY)、特徴点座標を(GPX,GPY)、テンプレート画像204の垂直サイズをTY、サーチ画像205の垂直サイズをSYとする。そして、以下の判定式(9)の条件を満たした場合に、サーチ画像が、着目グリッド202を下方向にはみ出したこととなる。
GEY < GPY + SY/2 …(9)
S1205において、特徴点使用可否判定部1001は、変数flagが0の場合は、S1206に移行し、変数flagが1の場合は、既に着目グリッドラインでS1204で示した判定式を満たしていることとなるため、S1206をスキップしてS1207に進む。S1206では、特徴点使用可否判定部1001は、変数flagを1に設定し、変数countに1加算し、S1207に進む。
次にS1207において、特徴点使用可否判定部1001は、変数countが予め決められた閾値cmaxを超えているかどうかを判定する。閾値cmaxは、例えば、1フレーム分のベクトル検出処理の検出処理性能(特に、検出処理速度)によって決定するものである。
上述したように、特徴点を使用するベクトル検出処理においては、サーチ画像205が下方向にはみ出してしまった場合、着目グリッドの下のグリッド202に対して、ベクトル検出画像生成処理を施さないとテンプレートマッチング処理を開始できない。そのため、処理速度が低下してしまう。
そこで、S1208では、変数countが閾値cmaxを超えている場合、特徴点使用可否判定部1001は出力を1として、セレクタ1002が中心点情報を選択できるように制御する。これにより、所定数を超えた行の次の行以降のグリッド(図11ではグリッド202−13以降のグリッド)について、中心点を使用したテンプレートマッチング処理に切り替える。このように中心点を代表点とすることで、下方向のグリッドのベクトル検出画像生成処理を待たなくとも、テンプレートマッチング処理が開始できるようになるため、処理の高速化を図ることができる。なお、S1207の条件を満たさない場合は、S1208をスキップする。
S1209において、ベクトル検出処理を行う。具体的には、入力された座標情報に基づいてメモリアドレス生成部106が、テンプレート画像204の読み出しアドレスとサーチ画像205の読み出しアドレスを生成し、マッチング処理部105でテンプレートマッチング処理が施される。これにより、着目グリッドのベクトルデータが算出される。
S1210において、水平1グリッドライン分の処理が完了していない場合は、S1203に移行する。水平1グリッドライン分の処理が完了した場合は、S1211に移行する。
S1211において、全グリッドのベクトル検出処理が完了していない場合は、S1202に移行し、変数flagを一旦リセットする。全グリッドのベクトル検出処理が完了している場合は、ベクトル検出処理を終了する。
上記の通り第3の実施形態によれば、入力画像に対する、ベクトル検出処理の検出処理性能を考慮して、特徴点を使用したベクトル検出処理を実現することができる。
また、本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
101:グリッド分割部、102:ベクトル検出画像生成部、103:特徴点算出部、104:メモリ、105:マッチング処理部、106:メモリアドレス生成部

Claims (18)

  1. 2つのフレーム画像を、それぞれ複数の分割領域に分割する分割手段と、
    前記2つのフレーム画像のうちの一方のフレーム画像の各分割領域の代表点を決定する決定手段と、
    前記代表点に基づいて、前記2つのフレーム画像間の動きを検出するための画像領域を、前記2つのフレーム画像それぞれに対して設定する設定手段と、
    前記設定された画像領域における前記2つのフレーム画像の画像信号の相関値に基づいて、前記2つのフレーム画像間の動きを検出する検出手段と、を有し、
    前記決定手段は、前記各分割領域の前記一方のフレーム画像における位置に応じて、各分割領域の特徴点、または、予め決められた固定点を、前記各分割領域の代表点として決定することを特徴とする画像処理装置。
  2. 前記決定手段は、前記分割領域が前記フレーム画像の下端にある場合に、前記固定点を前記代表点として決定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記決定手段は、前記分割領域が前記フレーム画像の上端にある場合に、前記固定点を前記代表点として決定することを特徴とする請求項1に記載の画像処理装置。
  4. 前記決定手段は、前記分割領域が前記フレーム画像の端にある場合に、前記固定点を前記代表点として決定することを特徴とする請求項1に記載の画像処理装置。
  5. 前記固定点は、前記分割領域が前記フレーム画像の上端にある場合に、前記画像領域が前記分割領域を方向にはみ出さない位置であることを特徴とする請求項3または4に記載の画像処理装置。
  6. 前記固定点は、前記分割領域が前記フレーム画像の下端にある場合に、前記画像領域が前記分割領域を方向にはみ出さない位置であることを特徴とする請求項2または4に記載の画像処理装置。
  7. 前記固定点は、前記分割領域が前記フレーム画像の左端にある場合に、前記画像領域が前記分割領域を左方向にはみ出さない位置であることを特徴とする請求項に記載の画像処理装置。
  8. 前記固定点は、前記分割領域が前記フレーム画像の右端にある場合に、前記画像領域が前記分割領域を右方向にはみ出さない位置であることを特徴とする請求項に記載の画像処理装置。
  9. 前記固定点は、前記画像領域が各分割領域内に収まる位置であることを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  10. 前記固定点は、前記分割領域の中心点であることを特徴とする請求項9に記載の画像処理装置。
  11. 2つのフレーム画像を、それぞれ複数の分割領域に分割する分割手段と、
    前記2つのフレーム画像のうちの一方のフレーム画像の各分割領域の代表点を決定する決定手段と、
    前記代表点に基づいて、前記2つのフレーム画像間の動きを検出するための画像領域を、前記2つのフレーム画像それぞれに対して設定する設定手段と、
    前記設定された画像領域における前記2つのフレーム画像の画像信号の相関値に基づいて、前記2つのフレーム画像間の動きを検出する検出手段と、を有し、
    前記決定手段は、前記検出手段の検出処理性能に応じて、各分割領域の特徴点、または、予め決められた固定点を、前記各分割領域の代表点として決定することを特徴とする画像処理装置。
  12. 前記検出手段の検出処理性能とは、相関値の検出処理速度であることを特徴とする請求項11に記載の画像処理装置。
  13. 前記特徴点に基づいて設定された前記画像領域が前記分割領域を下方向にはみ出した分割領域の行の数をカウントするカウント手段を更に有し、
    前記決定手段は、前記カウントされた行の数が前記検出処理性能に基づいて予め決められた数を超えた場合に、次の行以降の前記分割領域について、前記固定点を前記代表点として決定することを特徴とする請求項11または12に記載の画像処理装置。
  14. 前記設定手段は、前記2つのフレーム画像の他方のフレーム画像の各分割領域に設定された前記画像領域である第1の画像領域を、前記一方のフレーム画像の各分割領域に設定された前記画像領域である第2の画像領域より広く設定し、
    前記検出手段は、前記第1の画像領域において、前記第2の画像領域と同じ大きさの画像領域をシフトしながら、当該画像領域の画像信号と、前記第2の画像領域の画像信号との相関値を求めることを特徴とする請求項1乃至13のいずれか1項に記載の画像処理装置。
  15. 分割手段が、2つのフレーム画像を、それぞれ複数の分割領域に分割する分割工程と、
    決定手段が、前記2つのフレーム画像のうちの一方のフレーム画像の各分割領域の代表点を決定する決定工程と、
    設定手段が、前記代表点に基づいて、前記2つのフレーム画像間の動きを検出するための画像領域を、前記2つのフレーム画像それぞれに対して設定する設定工程と、
    検出手段が、前記設定された画像領域における前記2つのフレーム画像の画像信号の相関値に基づいて、前記2つのフレーム画像間の動きを検出する検出工程と、を有し、
    前記決定工程では、前記各分割領域の前記一方のフレーム画像における位置に応じて、各分割領域の特徴点、または、予め決められた固定点を、前記各分割領域の代表点として決定することを特徴とする画像処理方法。
  16. 分割手段が、2つのフレーム画像を、それぞれ複数の分割領域に分割する分割工程と、
    決定手段が、前記2つのフレーム画像のうちの一方のフレーム画像の各分割領域の代表点を決定する決定工程と、
    設定手段が、前記代表点に基づいて、前記2つのフレーム画像間の動きを検出するための画像領域を、前記2つのフレーム画像それぞれに対して設定する設定工程と、
    検出手段が、前記設定された画像領域における前記2つのフレーム画像の画像信号の相関値に基づいて、前記2つのフレーム画像間の動きを検出する検出工程と、を有し、
    前記決定工程では、前記検出手段の検出処理性能に応じて、各分割領域の特徴点、または、予め決められた固定点を、前記各分割領域の代表点として決定することを特徴とする画像処理方法。
  17. コンピュータ、請求項1乃至14のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
  18. 請求項17に記載のプログラムを記憶したコンピュータが読み取り可能な記憶媒体。
JP2015197965A 2015-10-05 2015-10-05 画像処理装置および方法 Expired - Fee Related JP6602141B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015197965A JP6602141B2 (ja) 2015-10-05 2015-10-05 画像処理装置および方法
US15/279,685 US9942477B2 (en) 2015-10-05 2016-09-29 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015197965A JP6602141B2 (ja) 2015-10-05 2015-10-05 画像処理装置および方法

Publications (3)

Publication Number Publication Date
JP2017072913A JP2017072913A (ja) 2017-04-13
JP2017072913A5 JP2017072913A5 (ja) 2018-11-15
JP6602141B2 true JP6602141B2 (ja) 2019-11-06

Family

ID=58447712

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015197965A Expired - Fee Related JP6602141B2 (ja) 2015-10-05 2015-10-05 画像処理装置および方法

Country Status (2)

Country Link
US (1) US9942477B2 (ja)
JP (1) JP6602141B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6894725B2 (ja) * 2017-03-09 2021-06-30 キヤノン株式会社 画像処理装置及びその制御方法、プログラム、記憶媒体
JP6930243B2 (ja) * 2017-06-20 2021-09-01 株式会社デンソー 画像処理装置
CN110517319B (zh) * 2017-07-07 2022-03-15 腾讯科技(深圳)有限公司 一种相机姿态信息确定的方法及相关装置
CN110889432B (zh) * 2019-10-29 2022-07-29 北京迈格威科技有限公司 特征点匹配方法、装置、计算机设备和存储介质
CN113256571B (zh) * 2021-05-11 2022-05-27 浙江欧威科技有限公司 基于方向特征和局部唯一性的矢量图形特征点提取方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6192156B1 (en) * 1998-04-03 2001-02-20 Synapix, Inc. Feature tracking using a dense feature array
US6728394B1 (en) * 2000-02-14 2004-04-27 Siemens Medical Solutions Usa, Inc. Dynamic measurement of object parameters
JP4079690B2 (ja) * 2002-05-23 2008-04-23 株式会社東芝 物体追跡装置及び方法
US7194110B2 (en) * 2002-12-18 2007-03-20 Intel Corporation Method and apparatus for tracking features in a video sequence
US7095786B1 (en) * 2003-01-11 2006-08-22 Neo Magic Corp. Object tracking using adaptive block-size matching along object boundary and frame-skipping when object motion is low
JP4655957B2 (ja) * 2006-02-20 2011-03-23 ソニー株式会社 撮像画像の歪み補正方法、撮像画像の歪み補正装置、撮像方法および撮像装置
JP4961850B2 (ja) * 2006-06-15 2012-06-27 ソニー株式会社 動き検出方法、動き検出方法のプログラム、動き検出方法のプログラムを記録した記録媒体及び動き検出装置
KR101383540B1 (ko) * 2007-01-03 2014-04-09 삼성전자주식회사 복수의 움직임 벡터 프리딕터들을 사용하여 움직임 벡터를추정하는 방법, 장치, 인코더, 디코더 및 복호화 방법
JP4775277B2 (ja) 2007-02-07 2011-09-21 株式会社デンソー 画像処理装置及び画像処理方法
JP4534172B2 (ja) * 2008-04-03 2010-09-01 ソニー株式会社 画像処理装置、画像処理方法、及びプログラム
US9036031B2 (en) * 2010-12-23 2015-05-19 Samsung Electronics Co., Ltd. Digital image stabilization method with adaptive filtering
US8582821B1 (en) * 2011-05-23 2013-11-12 A9.Com, Inc. Tracking objects between images
US9794588B2 (en) * 2015-09-30 2017-10-17 Sony Corporation Image processing system with optical flow recovery mechanism and method of operation thereof

Also Published As

Publication number Publication date
JP2017072913A (ja) 2017-04-13
US20170099438A1 (en) 2017-04-06
US9942477B2 (en) 2018-04-10

Similar Documents

Publication Publication Date Title
JP6602141B2 (ja) 画像処理装置および方法
JP5794705B2 (ja) 撮像装置、その制御方法及びプログラム
JP7032871B2 (ja) 画像処理装置及び画像処理方法、プログラム、記憶媒体
KR102141290B1 (ko) 화상 처리 장치, 화상 처리 방법, 화상 처리 프로그램 및 기억 매체
JP5700968B2 (ja) 画像処理装置、画像処理方法、およびプログラム
US10818018B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP6261187B2 (ja) 画像処理装置、画像処理方法およびプログラム
KR20190017653A (ko) 화상 처리장치, 방법 및 컴퓨터 프로그램
JP5653104B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP7117872B2 (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP6576179B2 (ja) 画像処理装置、画像処理方法、及びプログラム
KR101202090B1 (ko) 화상 처리 장치 및 화상 처리 프로그램을 기억한 기억 매체
US9270883B2 (en) Image processing apparatus, image pickup apparatus, image pickup system, image processing method, and non-transitory computer-readable storage medium
JP2019020839A (ja) 画像処理装置、画像処理方法、及びプログラム
JP7077115B2 (ja) 画像処理装置、画像処理方法、及びプログラム
WO2017154423A1 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2018072941A (ja) 画像処理装置、画像処理方法、プログラム、記憶媒体
JP6316030B2 (ja) 撮像装置及びその制御方法
JP7013205B2 (ja) 像振れ補正装置およびその制御方法、撮像装置
JP7227785B2 (ja) 画像処理装置、画像処理方法およびコンピュータプログラム
JP2019192048A (ja) 撮像装置
JP6854629B2 (ja) 画像処理装置、画像処理方法
JP7059239B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体
JP2020181399A (ja) 画像処理装置及びその制御方法及びプログラム
JP2018072895A (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181004

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181004

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190826

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190909

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191008

R151 Written notification of patent or utility model registration

Ref document number: 6602141

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees