JP2019175112A - 画像処理装置、撮像装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、撮像装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP2019175112A
JP2019175112A JP2018062258A JP2018062258A JP2019175112A JP 2019175112 A JP2019175112 A JP 2019175112A JP 2018062258 A JP2018062258 A JP 2018062258A JP 2018062258 A JP2018062258 A JP 2018062258A JP 2019175112 A JP2019175112 A JP 2019175112A
Authority
JP
Japan
Prior art keywords
image
tracking
processing
specific
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018062258A
Other languages
English (en)
Other versions
JP7117872B2 (ja
Inventor
谷口 浩之
Hiroyuki Taniguchi
浩之 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018062258A priority Critical patent/JP7117872B2/ja
Priority to US16/366,107 priority patent/US11153479B2/en
Publication of JP2019175112A publication Critical patent/JP2019175112A/ja
Application granted granted Critical
Publication of JP7117872B2 publication Critical patent/JP7117872B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • G01S3/7864T.V. type tracking systems
    • G01S3/7865T.V. type tracking systems using correlation of the live video image with a stored image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • G06F9/30003Arrangements for executing specific machine instructions
    • G06F9/3004Arrangements for executing specific machine instructions to perform operations on memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Abstract

【課題】撮影範囲の中の複数の処理領域の各々の内部で特徴点を追跡する場合に、特徴点が他の処理領域の方向へ移動して追跡に失敗する(消失する)可能性を低減する技術を提供する。【解決手段】被写体の移動方向を判定する判定手段と、撮影範囲の中に、前記移動方向と異なる方向に並ぶ複数の処理領域を設定する設定手段と、所定の撮影画像の各処理領域において追跡対象点を選択する選択手段と、各処理領域の内部で、前記所定の撮影画像の後に撮影される1以上の撮影画像にわたって前記追跡対象点を追跡する追跡手段と、を備えることを特徴とする画像処理装置を提供する。【選択図】図10

Description

本発明は、画像処理装置、撮像装置、画像処理方法、及びプログラムに関する。
デジタルビデオカメラ等の撮像装置を用いて撮影された映像に対して手ぶれ補正を施すためには、フレーム画像間の動き量を検出して複数枚の画像に対して位置合わせを行う必要がある。フレーム画像間の動き量を検出する方法としては、ジャイロセンサのような外部機器の情報を用いたり、撮影されたフレーム画像から動き量を推定したりする方法等がある。
フレーム画像を用いた動き量推定の方法は従来から種々提案されているが、その代表的なものとしてテンプレートマッチングによる動きベクトル検出がある。テンプレートマッチングでは、まず映像中のある2枚のフレーム画像の一方を原画像、もう一方を参照画像とする。そして、原画像上に配置した所定の大きさの矩形領域をテンプレートブロックとし、参照画像の各位置においてテンプレートブロック内の画素値の分布との相関を求める。このとき、参照画像中で最も相関が高くなる位置がテンプレートブロックの移動先であり、原画像上でのテンプレートブロックの位置を基準とした時の移動先への向きと移動量が動きベクトルとなる。
動きベクトルの検出率を向上させるため、フレーム画像から特徴点を抽出し、抽出した特徴点にテンプレートブロックを配置してテンプレートマッチングを行う技術がある。ここで、画像全体で特徴点抽出を行うと、特徴点の分布は不均一になることが多い。不均一な特徴点に対して得られた動きベクトルを手ぶれ補正の用途で使用する場合、特徴の集中した領域が主となる手ぶれ補正となってしまう。そこで、特許文献1が開示するように、特徴点を均一に分布させるため、画像をグリッド状に分割して、特徴の大きさを表す特徴値を画素ごとに計算し、各グリッド内で特徴値が最も大きい画素を特徴点として抽出する技術が知られている。
また、特許文献2が開示するように、動きベクトルの検出率を向上させるために、特徴点を追跡する技術が知られている。特徴点追跡は、画像から抽出された特徴点の動きベクトルを、連続する複数のフレーム画像にわたって逐次検出することで実現できる。
図14は、特徴点追跡処理の概略を示す図である。撮像装置は、特徴点抽出を行うための特徴点抽出グリッド1404内で特徴点1401を抽出し、テンプレート領域1403を設定する。そして、撮像装置は、テンプレートマッチング領域1406内でテンプレートマッチングを実施してベクトル値1407を算出する。特徴点抽出グリッド1404の周囲には、特徴点抽出は実施されないがテンプレートマッチングで使用される周辺グリッド1405が配置される。
次のフレームの処理では、撮像装置は、算出されたベクトル値1407を特徴点1401に加算することにより得られる追跡先特徴点1402を中心にテンプレートマッチングを実施する。以後、撮像装置は、複数フレームにわたって、追跡先特徴点に対して、ベクトル値を加算して次の追跡先特徴点を検出する処理を繰り返す。
また、特許文献3及び特許文献4が開示するように、追跡対象の移動方向などに基づいて追跡の範囲を制限する技術も知られている。
特開2008−192060号公報 特開2007−334625号公報 特許第4504158号公報 特開2012−73997号公報
撮影範囲に含まれる複数の領域の各々に対して独立して特徴点追跡処理が行われる場合がある。このような場合の例として、特徴点追跡処理を行うハードウェアにより構成される複数の動きベクトル検出部を撮像装置が備える場合が挙げられる。
例えば、図15(a)に示すように、撮像装置は、1つの画像に2つの処理領域を設定し、各処理領域を異なる動きベクトル検出部で処理する。図15(a)において、第1の動きベクトル検出部は、左側の実線で囲まれた処理領域1501を処理し、第2の動きベクトル検出部は、右側の破線で囲まれた処理領域1502を処理する。重複領域1500は、処理領域1501と処理領域1502とが重なり合う領域である。第1の動きベクトル検出部で検出された特徴点1510〜1514は、実線で囲まれた処理領域1501の右端の特徴点抽出グリッドの中に位置している。ここで、図15(a)に示すように特徴点1510〜1514が右側へ移動した場合、移動先に対応するテンプレートマッチング領域は処理領域1501からはみ出すためテンプレートマッチングを行うことができず、特徴点が消失してしまう。
図15(b)を参照して、特徴点の消失について更に詳細に説明する。図15(b)において、被写体1504は矢印1503に示されるように右側に移動する。この場合、第1の動きベクトル検出部により被写体1504の周囲で検出された特徴点1520〜1527も右側に移動する。この場合、特徴点1520〜1527は、重複領域1500付近まで追跡された後、処理領域1501の追跡可能範囲から外れるため、最終的には消失してしまう。
このように、被写体の移動方向と同じ方向に複数の処理領域を並べた場合、特徴点が他の処理領域の方向へ移動して追跡に失敗する(消失する)可能性が上昇する。その結果、動きベクトル検出性能が低下してしまうといった課題が発生する。
本発明はこのような状況に鑑みてなされたものであり、撮影範囲の中の複数の処理領域の各々の内部で特徴点を追跡する場合に、特徴点が他の処理領域の方向へ移動して追跡に失敗する(消失する)可能性を低減する技術を提供することを目的とする。
上記課題を解決するために、本発明は、被写体の移動方向を判定する判定手段と、撮影範囲の中に、前記移動方向と異なる方向に並ぶ複数の処理領域を設定する設定手段と、所定の撮影画像の各処理領域において追跡対象点を選択する選択手段と、各処理領域の内部で、前記所定の撮影画像の後に撮影される1以上の撮影画像にわたって前記追跡対象点を追跡する追跡手段と、を備えることを特徴とする画像処理装置を提供する。
本発明によれば、撮影範囲の中の複数の処理領域の各々の内部で特徴点を追跡する場合に、特徴点が他の処理領域の方向へ移動して追跡に失敗する(消失する)可能性を低減することが可能となる。
なお、本発明のその他の特徴及び利点は、添付図面及び以下の発明を実施するための形態における記載によって更に明らかになるものである。
画像処理装置を含むデジタルカメラ100の構成を示すブロック図。 動きベクトル検出部121〜122の構成を示すブロック図。 動きベクトル検出部121〜122が処理するグリッド配置、特徴点、及びテンプレート領域などの関係を示す図。 特徴点追跡処理のフローチャート。 新規特徴点算出部202の詳細な構成を示すブロック図。 低コントラスト判定、画素値の最大値突出判定、及び繰り返しパターン判定を説明する図。 第1の実施形態に係る追跡先特徴点算出処理(図4のS409)の詳細を示すフローチャート。 デジタルカメラ100を横方向にして撮影を行う場合の処理領域の設定例を示す図。 デジタルカメラ100を縦方向にして撮影を行う場合の処理領域の設定例を示す図。 第1の実施形態に係る分割方向決定処理(図4のS400)の詳細を示すフローチャート。 第2の実施形態に係る処理領域の設定例を示す図。 第2の実施形態に係るテンプレートマッチング処理のタイミングチャート。 第2の実施形態に係る分割方向決定処理(図4のS400)の詳細を示すフローチャート。 特徴点追跡処理の概略を示す図。 撮影範囲の中の複数の処理領域の各々の内部で特徴点を追跡する処理を説明する図。 第3の実施形態に係る追跡先特徴点算出処理(図4のS409)の詳細を示すフローチャート。 新規特徴点の選択方法を説明する図。 デジタルカメラ100が4個の動きベクトル検出部を備え、4つの処理領域を設定する場合を説明する図。 デジタルカメラ100が被写体が入り込むグリッドに限定して補填優先グリッドを設定する場合を説明する図。 (a)デジタルカメラ100が動きベクトル検出を画面全体で行う場合を示す図、(b)デジタルカメラ100が被写体領域に限定して動きベクトル検出を行う場合を示す図。
以下、添付図面を参照して、本発明の実施形態を説明する。添付図面の全体を通じて、同一の参照符号が付与された要素は、同一又は同様の要素を表す。なお、本発明の技術的範囲は、特許請求の範囲によって確定されるのであって、以下の個別の実施形態によって限定されるわけではない。また、実施形態の中で説明されている特徴の組み合わせすべてが、本発明に必須とは限らない。また、別々の実施形態の中で説明されている特徴を適宜組み合せることも可能である。
[第1の実施形態]
図1は、画像処理装置を含むデジタルカメラ100の構成を示すブロック図である。図1において、結像光学部101はレンズ及び絞りなどを備えている。撮影の際、結像光学部101はフォーカス調節及び露出調節を行い、撮像素子102に光学像を結像する。撮像素子102は、光学像を電気信号(アナログ画像信号)に変換する光電変換機能を有し、CCDやCMOSセンサ等で構成される。A/D変換部103は撮像素子102からのアナログ画像信号をデジタル画像信号に変換する。
CPU112は、デジタルカメラ100全体の制御を司るマイクロコンピュータ等で構成され、各機能ブロックに対して動作指示を行い、各種の制御処理を実行する。バス114はシステムバスであり、バス115は画像データバスである。
DRAM107は、データを記憶するメモリであり、所定枚数の静止画像、所定時間の動画像、音声等のデータや、CPU112の動作用の定数、プログラム等を格納するのに十分な記憶容量を備える。メモリ制御部106は、CPU112或いはデータ転送部105からの指示に応じて、DRAM107へのデータ書き込み及びデータ読み出しを行う。
不揮発性メモリ制御部108は、CPU112からの指示に応じて、ROM109にデータの書き込み及び読み出しを行う。ROM109は、電気的に消去・記録可能なメモリであり、EEPROM等が用いられる。ROM109には、CPU112の動作用の定数、プログラム等が記憶される。
CPU112は、バス114を介して画像処理部104、データ転送部105、メモリ制御部106、不揮発性メモリ制御部108、表示制御部110、操作部113、撮像素子102を制御する。CPU112は、ROM109に記録されたプログラムを実行することにより、本実施形態の各処理を実現する。
表示部111は、液晶モニタ等から成り、表示制御部110により制御され、各種画像データ等を表示する。操作部113は、ユーザにより操作されるスイッチやボタン等を含み、電源のON/OFF、シャッターのON/OFF等の操作に使用される。
画像処理部104は、各種画像処理回路及びバッファメモリ等から構成されており、動きベクトル検出部121、動きベクトル検出部122、及び被写体検出部123を備える。動きベクトル検出部121と動きベクトル検出部122とは同一の機能を有し、各々独立して動きベクトル検出を行う。被写体検出部123は、被写体の顔部分や物体部分などの特徴量や動き量を検出し、主となる被写体を検出する。
データ転送部105は、データ転送を行う複数のDMAC(Direct Memory Access Controller)で構成されている。ジャイロセンサ116は、デジタルカメラ100の姿勢(横位置、縦位置など)や動き方向を検出し、CPU112へ通知する。
図3は、動きベクトル検出部121〜122が処理するグリッド配置、特徴点、及びテンプレート領域などの関係を示す図である。以下の説明は、動きベクトル検出部121〜122に共通である。
設定されたサイズの特徴点抽出グリッド302(図3中の白色グリッド)と周辺グリッド301(図3中の網点グリッド)が、水平、垂直方向に設定された個数分配置されている。特徴点303が、各特徴点抽出グリッド302に1つ抽出される。周辺グリッド301は、特徴点抽出グリッド302の周囲に配置され、特徴点抽出は実施されないが、テンプレートマッチングで使用される領域である。抽出された特徴点303を中心として、設定されたサイズの矩形状のサーチ領域305及びテンプレート領域304が設けられる。
次に、図2及び図4を参照して、特徴点追跡処理について説明する。図2は、動きベクトル検出部121〜122の構成を示すブロック図であり、図4は、特徴点追跡処理のフローチャートである。なお、図2においては、説明の便宜上、実際には動きベクトル検出部121〜122に含まれないブロックであっても、特徴点追跡処理のために利用されるブロック(例えば、DRAM107)については、動きベクトル検出部121〜122の内部に図示する。また、データの流れを分かりやすくするために、同じブロック(例えば、DRAM107)を複数の位置に図示する場合もある。画像処理部104に対する撮影画像の入力が開始すると、図4のフローチャートの処理が実行される。
S400で、CPU112は、ジャイロセンサ116及び被写体検出部123からの情報に基づいて処理領域の分割方向を決定し、決定した分割方向を分割方向設定部260に設定する。分割方向設定部260は、設定された分割方向に基づき、撮影範囲の中に対象とする処理領域を設定する。なお、S400の処理の詳細については、図10を参照して後述する。
S401で、データ転送部105が具備するRDDMAC221は、ベクトル検出対象となる現フレームの入力画像241を、バス115を介してDRAM107から読み出す。読み出すデータ量は、図3に示されるように設定された特徴点抽出グリッド302及び周辺グリッド301のサイズに従う。なお、入力画像241は、画像処理部104で各種画像処理が実施されている。RDDMAC221によりグリッド単位で読み出された入力画像241は、テンプレートマッチング画像生成部201及び新規特徴点算出部202に出力される。また、RDDMAC221は、読み出したグリッドの座標位置を示すグリッド座標情報252を後述する追跡先特徴点決定部205に出力する。
S402で、テンプレートマッチング画像生成部201は、ベクトル検出時のテンプレートマッチングに使用するテンプレートマッチング画像を生成し、データ転送部105が具備するWRDMAC231に出力する。テンプレートマッチング画像生成部201は、バンドパスフィルタ回路を含み、テンプレートマッチング処理に不要な画像信号の高周波成分と低周波成分をカットする。
S403で、データ転送部105が具備するWRDMAC231は、入力されたテンプレートマッチング画像(以下、テンプレートマッチング画像242と呼ぶ)を、バス115を介してDRAM107に書き出す。また、DRAM107には、前フレームで生成されたテンプレートマッチング画像(以下、テンプレートマッチング画像243と呼ぶ)が格納されている。
S404で、新規特徴点算出部202は、現フレームの新規特徴点(新規の追跡対象点)を算出する。なお、S404の処理は、S402及びS403の処理と並行して実行可能である。
ここで、図5を参照して、新規特徴点算出部202の詳細について説明する。新規特徴点算出部202は、特徴フィルタ部501、特徴評価部502、特徴点決定部503を含む。
特徴フィルタ部501は、バンドパスフィルタ、水平微分フィルタ、垂直微分フィルタ、平滑化フィルタなど、複数のフィルタから構成される。本実施形態においては、バンドパスフィルタが、入力画像(グリッド単位)の不要な高周波成分と低周波成分をカットする。その後、水平微分フィルタにより水平方向の微分フィルタ処理を施した信号と、垂直微分フィルタにより垂直方向の微分フィルタ処理を施した信号とが生成される。そして、各方向の微分フィルタ処理が施された信号に対して、平滑化フィルタにより平滑化フィルタ処理が施される。特徴フィルタ部501は、こうして得られた信号を、各方向の特徴画像として出力する。
特徴評価部502は、特徴フィルタ部501によりフィルタ処理された特徴画像(グリッド単位)に対し、画素ごとに、2つのエッジの交点や曲率が極大である曲線状の点など画素の周辺の微分値が多方向に大きい点を、特徴評価式により特徴値として算出する。以下、Shi and Tomasiの手法を例に、特徴値の算出について説明する。特徴評価部502は、水平微分フィルタと垂直微分フィルタを施した結果から、式1に示す自己相関行列Hを作成する。
Figure 2019175112
式1においてIxは水平微分フィルタを施した結果、Iyは垂直微分フィルタを施した結果を表しており、ガウシアンフィルタGを畳み込む演算が行われる。Shi and Tomasiの特徴評価式を式2に示す。

Shi and Tomasi=min(λ1,λ2)・・・(2)

式2は、式1の自己相関行列Hの固有値λ1,λ2のうちの小さい方を特徴値とすることを示す。
特徴点決定部503は、各グリッド(特徴点の選択対象領域)について、特徴評価部502によって画素ごとに算出された特徴値のうち最も大きい特徴値Pcを持つ画素を特徴点として決定(選択)する。本実施形態においては、特徴点の座標は、グリッドの左上端を(0,0)とした相対座標(PX,PY)で表現するが、画像信号における絶対座標で表現してもよい。
なお、算出された新規特徴点の座標(PX,PY)及び特徴値Pcは、新規特徴点算出部202が具備するメモリに格納される。メモリは、前フレーム及び現フレームの特徴点の座標(PX,PY)及び特徴値Pcを格納するための容量を有している。テンプレートマッチング処理部203にて、対応するグリッドのテンプレートマッチング処理が開始される際に、新規特徴点251が特徴値Pcと共に追跡先特徴点決定部205へ出力される。
S405で、RDDMAC222は、前フレームで算出された追跡先特徴点257を中心として、設定されたサイズの矩形領域を、現フレームのテンプレートマッチング画像242及び前フレームのテンプレートマッチング画像243から読み出す。追跡先特徴点257は、追跡先特徴点決定部205から入力される。但し、最初にテンプレートマッチング処理を行う際には、前フレームで追跡先特徴点が算出されていないため、追跡先特徴点257の代わりに前フレームの新規特徴点251が使用される。
なお、現フレームのテンプレートマッチング画像242から読み出される矩形領域はサーチ領域305に対応し、前フレームのテンプレートマッチング画像243から読み出される矩形領域はテンプレート領域304に対応する。サーチ領域305に対応する矩形領域の画像及びテンプレート領域304に対応する画像は、それぞれ、サーチ領域画像253及びテンプレート領域画像254として、テンプレートマッチング処理部203へ出力される。
S406で、テンプレートマッチング処理部203は、サーチ領域画像253及びテンプレート領域画像254を用いて相関値を算出し、その相関値に基づいてベクトル値を算出する。本実施形態では、相関値の算出方法として、式3に示す差分絶対値和(Sum of Absolute Difference、SAD)を使用することができる。

S_SAD=ΣΣ|f(i,j)−g(i,j)| ・・・ (3)

式3において、f(i,j)はテンプレート領域画像254内の座標(i,j)における画素値を表し、g(i,j)はサーチ領域画像253において相関値算出の対象となる領域内の対応する画素値を表す。相関値算出対象領域は、テンプレート領域画像254と同じ大きさである。そしてSADでは、両ブロック内の各画素値f(i,j)及びg(i,j)について差の絶対値を計算し、その総和を求めることで相関値S_SADを得ることができる。従って、相関値S_SADの値が小さいほど両ブロック間の輝度値の差分が小さい、つまりテンプレート領域画像254と相関値算出領域内とでテクスチャが類似していることを表している。
なお、本実施形態では、相関値の一例としてSADを使用しているが、これに限るものではなく、差分二乗和(SSD)や正規化相互相関(NCC)等の他の相関値を用いてもよい。テンプレートマッチング処理部203は、相関値の最小値の位置に基づいて、前フレームの追跡先特徴点のベクトル値を算出する。テンプレートマッチング処理部203は、ベクトル情報255(算出されたベクトル値及び相関値)を精度判定部204に出力する。
S407で、精度判定部204は、S406において算出された相関値に基づいて相関値の最大値、最小値、平均値、極小値を算出し、低コントラスト判定、画素値の最大値突出判定、及び繰り返しパターン判定を行う。
図6に、画素値と各判定の関係をグラフで示す。但し、本実施形態では相関値が小さいほど類似度が高いため、図6において、画素値の最大値は相関値では最小値を表し、画素値の最小値は相関値では最大値を表し、画素値の極大値は相関値では極小値を表す。
低コントラスト判定では、相関値算出領域内の相関値の最大値と最小値の差分が予め設定されている閾値よりも小さい場合に、相関値算出領域は低コントラストであると判定される。画素値の最大値突出判定では、相関値算出領域内の相関値の最小値がどれだけ際立っているかが判定される。画素値の最大値と平均値の差分と、画素値の最大値と最小値の差分の除算結果が、予め設定されている閾値よりも小さい場合、相関値算出領域は低ピークであると判定される。除算結果が閾値よりも大きい場合、相関値算出領域は高ピークであると判定される。繰り返しパターン判定では、相関値算出領域内の画素値の最小値と極小値の差分が予め設定されている閾値よりも小さい場合に、相関値算出領域は繰り返しパターンであると判定される。
図6(a)は、各判定の結果が良好な場合を示す。図6(b)は、低コントラスト判定により相関値算出領域が低コントラストであると判定される場合を示す。図6(a)に比べて、図6(b)では画素値の最大値と最小値の差が少ない。図6(c)は、画素値の最大値突出判定により相関値算出領域が低ピークであると判定される場合を示す。図6(a)に比べて、図6(c)では画素値の最大値と平均値の差分と、画素値の最大値と最小値の差分の除算結果が小さい。図6(d)は、繰り返しパターン判定により相関値算出領域が繰り返しパターンであると判定される場合を示す。図6(a)に比べて、図6(d)では画素値の最大値と極大値の差分が小さい。
S408で、精度判定部204は、低コントラスト判定、最大値突出判定、及び繰り返しパターン判定の判定結果を含むベクトル情報256をSRAM206に出力する。ベクトル情報256は、ベクトルデータ244としてSRAM206に格納される。
S409で、追跡先特徴点決定部205は、前フレームの追跡先特徴点257及びベクトルデータ244に基づいて、次フレームのテンプレートマッチング処理に用いるための、現フレームの追跡先特徴点を算出する。ここで算出された追跡先特徴点は、次にS405においてテンプレートマッチング処理が実行される際に、前フレームの追跡先特徴点257として使用される。なお、S409の処理の詳細については、図7を参照して後述する。
以上の処理により、現フレームのテンプレートマッチング処理(即ち、現フレームにおいて前フレームの特徴点を追跡する処理)が完了する。その後、画像処理部104に次フレームの撮影画像が入力されると、次フレームの画像を現フレームの画像として、S401〜S409の処理が再び実行される。従って、本実施形態では、基準となる所定の撮影画像(例えば、最初の撮影画像)の後に撮影される1以上の撮影画像にわたって特徴点を追跡する処理が行われる。また、図4の特徴点追跡処理は、動きベクトル検出部121〜122により処理領域ごとに独立して行われる。従って、本実施形態では、各処理領域の内部で、特徴点を追跡する処理が行われる。
次に、図7を参照して、S409の処理の詳細について説明する。S701で、追跡先特徴点決定部205は、SRAM206からベクトルデータ244を取得する。そして、追跡先特徴点決定部205は、前フレームの追跡先特徴点257の座標に対してベクトルデータ244が示すベクトル値を加算することにより、現フレームの追跡先特徴点の座標を算出する。なお、S701及び続くS702〜S705の処理は、追跡先特徴点ごとに実行される。
S702で、追跡先特徴点決定部205は、ベクトルデータ244に含まれる判定結果(S407の判定結果)に基づき、S701で算出された追跡先特徴点が有効であるか否か(次フレームのテンプレートマッチング処理に使用可能であるか否か)を判定する。低コントラスト判定により相関値算出領域が低コントラストであると判定された場合、追跡先特徴点は有効でないと判定される。また、最大値突出判定で相関値算出領域が低ピークであると判定された場合、及び、繰り返しパターン判定で相関値算出領域が繰り返しパターンであると判定された場合にも、追跡先特徴点は有効でないと判定される。それ以外の場合には、追跡先特徴点は有効であると判定される。追跡先特徴点が有効である場合、処理はS703に進み、追跡先特徴点が有効でない場合、処理はS704に進む。
S703で、追跡先特徴点決定部205は、S701で算出された追跡先特徴点が処理領域の内部に含まれるか否かを判定する。S701で算出された追跡先特徴点が処理領域の内部に含まれる場合、処理はS705に進み、そうでない場合、処理はS704に進む。なお、テンプレートマッチング処理(図4のS406)において相関値算出領域が常に処理領域の内部に設定される場合は、追跡先特徴点も常に処理領域の内部に含まれることになる。
S704で、追跡先特徴点決定部205は、S701で算出された追跡先特徴点を、図4のS404で算出された現フレームの新規特徴点で置き換える。即ち、S702又はS703で「NO」と判定された場合、追跡先特徴点決定部205は、特徴点の追跡に失敗したと判断し、前フレームの追跡先特徴点を代替する新たな特徴点を現フレームにおいて選択する。この時、追跡先特徴点決定部205は、S404で算出された複数の新規特徴点のうち、追跡に失敗した特徴点が最初に算出された特徴点抽出グリッドにおいて算出された新規特徴点を、追跡に失敗した特徴点を代替する新たな特徴点として選択する。例えば、最初の撮影画像の特定の特徴点抽出グリッドにおいて算出された特定の特徴点について、後続の特定の撮影画像において追跡に失敗した場合を考える。この場合、この特定の撮影画像を現フレームとして用いるS404の処理によりこの特定の特徴点抽出グリッドにおいて算出された新規特徴点が、追跡に失敗したこの特定の特徴点を代替する。
S705で、追跡先特徴点決定部205は、全ての追跡先特徴点が処理されたか否かを判定する。全ての追跡先特徴点が処理された場合、本フローチャートの処理は完了する。未処理の追跡先特徴点が残っている場合、次の未処理の追跡先特徴点について、同様にS701以降の処理が行われる。
次に、図8乃至図10を参照して、S400の処理の詳細について説明する。図8は、デジタルカメラ100を横方向にして撮影を行う場合の処理領域の設定例を示す図である。図9は、デジタルカメラ100を縦方向にして撮影を行う場合の処理領域の設定例を示す図である。図10は、S400の処理の詳細を示すフローチャートである。
図8(a)に示すように、デジタルカメラ100を横位置に構えたときに処理領域を上下に分割する分割方式を分割方式Aと呼び、図8(b)に示すように、デジタルカメラ100を横位置に構えたときに処理領域を左右に分割する分割方式を分割方式Bと呼ぶ。図9(a)に示すように、デジタルカメラ100を縦位置に構えたときに処理領域を上下に分割する分割方式は、図8(b)と同様に分割方式Bと呼ぶ。図9(b)に示すように、デジタルカメラ100を縦位置に構えたときに処理領域を左右に分割する分割方式は、図8(a)と同様に分割方式Aと呼ぶ。
S1002で、CPU112は、ジャイロセンサ116からの情報に基づいてデジタルカメラ100の向きが横位置であるか否かを判定する。横位置の場合、処理はS1003に進み、そうでない場合、処理はS1004に進む。なお、デジタルカメラ100が斜めを向いている場合などには、CPU112は、デジタルカメラ100の向きが横方向に近いか縦方向に近いかを判定して、横方向に近い場合にデジタルカメラ100の向きが横位置であると判定する。
S1003で、CPU112は、被写体検出部123からの情報に基づいて被写体の移動方向が横向きであるか否かを判定する。横向きの場合、処理はS1005に進み、そうでない場合、処理はS1006に進む。なお、被写体の移動方向が斜め方向の場合には、CPU112は、横向きの移動成分が多いか、縦向きの移動成分が大きいかを判定して、横向きの移動成分が大きい場合に被写体の移動方向が横向きであると判定する。
S1004で、CPU112は、被写体検出部123からの情報に基づいて被写体の移動方向が横向きであるか否かを判定する。この判定処理は、S1003の判定処理とほぼ同じであるが、被写体の移動方向の縦横は重力方向を基準に定められる。
S1005で、CPU112は、動きベクトル検出部121〜122の分割方向設定部260を制御することにより、分割方式Aにより処理領域を設定する。例えば、図8(a)は、処理がS1003からS1005へ遷移する場合の例を示す。図8(a)のように画面805に対して被写体804が矢印803に示される横向きに移動していた場合は、処理領域801及び処理領域802が縦方向に並ぶように設定される。また、図9(b)は、処理がS1004からS1005へ遷移する場合の例を示す。図9(b)のように、画面915に対して被写体914が矢印913に示される縦向きに移動していた場合は、処理領域911及び処理領域912が横方向に並ぶように設定される。
S1006で、CPU112は、動きベクトル検出部121〜122の分割方向設定部260を制御することにより、分割方式Bにより処理領域を設定する。例えば、図8(b)は、処理がS1003からS1006へ遷移する場合の例を示す。図8(b)のように画面815に対して被写体814が矢印813に示される縦向きに移動していた場合は、処理領域811及び処理領域812が横方向に並ぶように設定される。また、図9(a)は、処理がS1004からS1006へ遷移する場合の例を示す。図9(a)のように、画面905に対して被写体904が矢印903に示される横向きに移動していた場合は、処理領域901及び処理領域902が縦方向に並ぶように設定される。
S1005又はS1006の処理が行われた後、動きベクトル検出部121〜122がそれぞれ独立して、設定された2つの処理領域のうちの1つについて図4のS401以降の処理を実行する。なお、図8及び図9においては、2つの処理領域が隣接し、その間に重複領域は存在しないように示されている。しかしながら、2つの処理領域は、被写体の移動方向と異なる方向に並んでいる限り、隣接せずに離れていてもよいし、図15の重複領域1500のような重複領域を含んでいてもよい。また、設定される処理領域の数は、2つに限定されない。デジタルカメラ100がより多くの処理領域を独立して処理可能な場合は、デジタルカメラ100は、処理能力に応じてより多くの処理領域を設定してもよい。
以上説明したように、第1の実施形態によれば、デジタルカメラ100は、被写体の移動方向を判定し、撮影範囲の中に、被写体の移動方向と異なる方向に並ぶ複数の処理領域を設定する。これにより、特徴点が他の処理領域の方向へ移動して追跡に失敗する(消失する)可能性を低減することが可能となる。
なお、上の説明では、デジタルカメラ100は、デジタルカメラ100の位置情報(横位置か縦位置か)と被写体の動き情報(横方向か縦方向か)に基づいて分割方式を決定するものとした。しかしながら、デジタルカメラ100は、デジタルカメラ100の移動方向情報、複数個の特徴点の移動方向を平均した情報、複数の動きベクトルを平均したベクトル情報なども参照して分割方式を決定してもよい。
デジタルカメラ100の移動方向情報が横方向の場合には、特徴点の移動方向も横方向となる可能性が高まる。そのため、デジタルカメラ100は、デジタルカメラ100が横位置の場合には分割方式A、デジタルカメラ100が縦位置の場合には分割方式Bを選択する。また、デジタルカメラ100の移動方向情報が縦方向の場合には、特徴点の移動方向も縦方向となる可能性が高まる。そのため、デジタルカメラ100は、デジタルカメラ100が横位置の場合には分割方式B、デジタルカメラ100が縦位置の場合には分割方式Aを選択する。デジタルカメラ100の移動方向が斜めの場合は、デジタルカメラ100は、横方向の移動成分が縦方向の移動成分より大きい場合は、横方向と判定する。
複数個の特徴点の移動方向を平均した情報が横方向の場合には、デジタルカメラ100は、デジタルカメラ100が横位置の場合には分割方式A、デジタルカメラ100が縦位置の場合には分割方式Bを選択する。複数個の特徴点の移動方向を平均した情報が縦方向の場合には、デジタルカメラ100は、デジタルカメラ100が横位置の場合には分割方式B、デジタルカメラ100が縦位置の場合には分割方式Aを選択する。複数個の特徴点の移動方向を平均した情報が斜め方向の場合は、デジタルカメラ100は、横方向の移動成分が縦方向の移動成分より大きい場合は、横方向と判定する。
複数の動きベクトルを平均したベクトル情報が横方向の場合には、特徴点の移動方向も横方向となる可能性が高まる。そのため、デジタルカメラ100は、デジタルカメラ100が横位置の場合には分割方式A、デジタルカメラ100が縦位置の場合には分割方式Bを選択する。複数の動きベクトルを平均したベクトル情報が縦方向の場合には、特徴点の移動方向も縦方向となる可能性が高まる。どのため、デジタルカメラ100は、デジタルカメラ100が横位置の場合には分割方式B、デジタルカメラ100が縦位置の場合には分割方式Aを選択する。複数の動きベクトルを平均したベクトル情報が斜め方向の場合は、デジタルカメラ100は、横方向の移動成分が縦方向の移動成分より大きい場合は、横方向と判定する。
[第2の実施形態]
第2の実施形態では、処理領域の分割方向を決定する処理(図4のS400)の他の例について説明する。本実施形態において、デジタルカメラ100の基本的な構成は、第1の実施形態と同様である(図1及び図2参照)。以下、主に第1の実施形態と異なる点について説明する。
図11は、第2の実施形態に係る処理領域の設定例を示す図である。図11(a)は、第1の実施形態の分割方式Aに相当し、画面1100の上半分が動きベクトル検出部121により処理され、下半分が動きベクトル検出部122により処理される。動きベクトル検出部121では、特徴点1101〜1112を中心として、12個のテンプレートマッチング処理が実施される。動きベクトル検出部122では、特徴点1121〜1132を中心として、12個のテンプレートマッチング処理が実施される。
図11(b)は、第1の実施形態の分割方式Bに相当し、画面1100の左半分が動きベクトル検出部121により処理され、右半分が動きベクトル検出部122により処理される。動きベクトル検出部121では、特徴点1151〜1162を中心として、12個のテンプレートマッチング処理が実施される。動きベクトル検出部122では、特徴点1171〜1182を中心として、12個のテンプレートマッチング処理が実施される。
図12は、第2の実施形態に係るテンプレートマッチング処理のタイミングチャートである。図12(a)は、図11(a)に示す分割方式Aに対応し、図12(b)は、図11(b)に示す分割方式Bに対応する。
図12(a)において、映像の1フレーム(1V)期間に、DRAM107に入力画像241が画像の上端部から入力される。入力画像241の入力が開始すると、画像の上半分を処理する動きベクトル検出部121において、RDDMAC221が入力画像241を読み出し、テンプレートマッチング画像生成部201がテンプレートマッチング画像242を生成する。テンプレートマッチング画像242は、WRDMAC231によりDRAM107に書き込まれる。続いて、RDDMAC222が、特徴点1101〜1112を中心とした画像領域を読み出し、テンプレートマッチング処理が実線で囲まれる期間1〜12の間に実施される。
次に、DRAM107に対して入力画像241の下半分の入力が開始すると、画像の下半分を処理する動きベクトル検出部122において、動きベクトル検出部121と同様の処理が行われる。動きベクトル検出部122において、RDDMAC222が特徴点1121〜1132を中心とした画像領域を読み出し、テンプレートマッチング処理が破線で囲まれる期間13〜24の間に実施される。
なお、テンプレートマッチング処理の所要時間は、サーチ領域が大きい程、マッチング回数が多くなるため長くなる。そのため、図12(a)のように1V期間内にテンプレートマッチング処理が完了しなくなる場合がある。特に、下半分の処理を行う動きベクトル検出部122は、入力画像241の下半分が入力されるまで処理開始が待たされるため、1V期間内にテンプレートマッチング処理が完了しない場合が増える。
一方、図12(b)に示すように、分割方式Bの場合は、動きベクトル検出部121及び動きベクトル検出部122は共に、DRAM107に入力画像241が入力され始めてからすぐにテンプレートマッチング処理を開始できる。動きベクトル検出部121において、RDDMAC222が特徴点1151〜1162を中心とした画像領域を読み出し、テンプレートマッチング処理が実線で囲まれる期間1〜12の間に実施される。動きベクトル検出部122において、RDDMAC222が特徴点1171〜1182を中心とした画像領域を読み出し、テンプレートマッチング処理が破線で囲まれる期間13〜24の間に実施される。このように、分割方式Bの場合は、2個の動きベクトル検出部が1V期間の始めのタイミングから処理を開始することができる。そのため、分割方式Aでは1V期間内に処理が完了しなかったサーチ領域サイズの場合でも、1V期間内に処理を完了させることが可能となる場合がある。
図13は、第2の実施形態に係る分割方向決定処理(図4のS400)の詳細を示すフローチャートである。
S1301で、CPU112は、被写体検出部123からの情報に基づいて被写体の移動量を認識し、被写体の移動量に基づいてテンプレートマッチング処理のサーチ領域サイズを判定する。被写体の移動量が大きいほど動きベクトル値が大きくなるため、必要なサーチ範囲を確保するためにサーチ領域サイズも大きくなる。
S1302で、CPU112は、分割方式Aの場合(複数の処理領域が撮像素子102の上下方向に並ぶ場合)のテンプレートマッチング処理の所要時間を算出する。図12(a)において、テンプレートマッチング処理の期間1〜24はサーチ領域サイズに応じて変化する。また、図12(a)では、期間1〜12は連続するように示されているが、各回のテンプレートマッチング処理が必要なテンプレート画像の生成前に完了する場合、各回のテンプレートマッチング処理の間にテンプレートマッチング処理が行われない期間が生じる。これは、期間13〜24についても同様である。
S1303で、CPU112は、S1302において算出した所要時間に基づき、1V期間内(動画撮影の1フレーム期間内)にテンプレートマッチング処理を完了できるか否かを判定する。1V期間内にテンプレートマッチング処理を完了できる場合、処理はS1005に進み、そうでない場合、処理はS1006に進む。
以上説明したように、第2の実施形態によれば、デジタルカメラ100は、分割方式Aにおいて1V期間内にテンプレートマッチング処理を完了できるか否かを判定する。分割方式Aにおいて1V期間内にテンプレートマッチング処理を完了できない場合、デジタルカメラ100は、被写体の移動方向に関わらず、複数の処理領域が撮像素子102の左右方向に並ぶ分割方式Bを選択する。これにより、1V期間内にテンプレートマッチング処理を完了できない可能性を低減することが可能となる。
なお、サーチ領域サイズが大きい場合、分割方式Bにおいても1V期間内にテンプレートマッチング処理を完了できない可能性がある。この場合、デジタルカメラ100は、例えば図12(b)の期間12及び期間24におけるテンプレートマッチング処理を省略することなどにより、1V期間内にテンプレートマッチング処理を完了させる。
[第3の実施形態]
第3の実施形態では、追跡先特徴点算出処理(図4のS409)における特徴点補填処理(図7のS704)の変形例について説明する。本実施形態において、デジタルカメラ100の基本的な構成は、第1の実施形態と同様である(図1及び図2参照)。以下、主に第1の実施形態と異なる点について説明する。
図16は、第3の実施形態に係る追跡先特徴点算出処理(図4のS409)の詳細を示すフローチャートである。図16では、第1の実施形態の場合(図7)と比べて、S704がS1601に置き換わっている。
S1601で、追跡先特徴点決定部205は、S701で算出された追跡先特徴点を、図4のS404で算出された現フレームの新規特徴点で置き換える。即ち、S702又はS703で「NO」と判定された場合、追跡先特徴点決定部205は、特徴点の追跡に失敗したと判断し、前フレームの追跡先特徴点を代替する新たな特徴点を現フレームにおいて選択する。この時、追跡先特徴点決定部205は、S404で算出された複数の新規特徴点のうち、他の処理領域の隣にある又は少なくとも一部が重複する特徴点抽出グリッド(補填優先グリッド)において算出された新規特徴点を優先的に用いる。また、補填優先グリッドが複数存在する場合、追跡先特徴点決定部205は、複数の補填優先グリッドにおいて算出された新規特徴点のうち、特徴値Pcが最大の新規特徴点を、前フレームの追跡先特徴点を代替する新たな特徴点を現フレームにおいて選択する。これにより、追跡に失敗した特徴点との関連性が高い可能性の高い新規特徴点を選択することが可能となり、動きベクトルの検出精度を向上させることが可能となる。
図17(a)は、分割方式Aにおける新規特徴点の選択方法を説明する図である。画像領域1700に対し、動きベクトル検出部121は処理領域1701を処理し、動きベクトル検出部122は処理領域1702を処理する。動きベクトル検出部121は、処理領域1701に含まれる特徴点抽出グリッドのうち、処理領域1702と部分的に重複する下端グリッド群1703を、補填優先グリッドとして設定する。動きベクトル検出部122は、処理領域1702に含まれる特徴点抽出グリッドのうち、処理領域1701と部分的に重複する上端グリッド群1704を、補填優先グリッドとして設定する。その結果、各補填優先グリッドで算出される新規特徴点1705−1〜1705−4及び1706−1〜1706−4が、S1601において補填のために優先的に選択される。
図17(b)は、分割方式Bにおける新規特徴点の選択方法を説明する図である。画像領域1700に対し、動きベクトル検出部121は処理領域1707を処理し、動きベクトル検出部122は処理領域1708を処理する。動きベクトル検出部121は、処理領域1707に含まれる特徴点抽出グリッドのうち、処理領域1708と部分的に重複する右端グリッド群1709を、補填優先グリッドとして設定する。動きベクトル検出部122は、処理領域1708に含まれる特徴点抽出グリッドのうち、処理領域1707と部分的に重複する左端グリッド群1710を、補填優先グリッドとして設定する。その結果、各補填優先グリッドで算出される新規特徴点1709−1〜1709−4及び1710−1〜1710−4が、S1601において補填のために優先的に選択される。
なお、第3の実施形態においては、設定される複数の処理領域は、必ずしも被写体の移動方向と異なる方向に並ぶ必要はない。
また、上の説明では、デジタルカメラ100が2個の動きベクトル検出部を備えるものとした。しかしながら、本実施形態は、デジタルカメラ100が3個以上の動きベクトル検出部を備える場合に対しても適用可能である。図18は、デジタルカメラ100が4個の動きベクトル検出部を備え、4つの処理領域を設定する場合を説明する図である。図18に示すように、4つの処理領域が設定される場合も、他の処理領域と部分的に重複する特徴点抽出グリッドを補填優先グリッドとして設定することで、同様の効果を得ることが可能となる。図18の例では、第1の動きベクトル検出部の処理領域1801において、補填優先グリッドは右端グリッド群1801−1と下端グリッド群1801−2である。第2の動きベクトル検出部の処理領域1802において、補填優先グリッドは左端グリッド群1802−1と下端グリッド群1802−2である。第3の動きベクトル検出部の処理領域1803において、補填優先グリッドは上端グリッド群1803−1と右端グリッド群1803−2である。第4の動きベクトル検出部の処理領域1804において、補填優先グリッドは上端グリッド群1804−1と左端グリッド群1804−2である。
また、デジタルカメラ100は、被写体検出部123を用いて被写体領域(大きさ)を算出し、他の処理領域の隣にある又は少なくとも一部が重複する特徴点抽出グリッドのうち、被写体が入り込むグリッドに限定して補填優先グリッドを設定してもよい。図19は、デジタルカメラ100が被写体が入り込むグリッドに限定して補填優先グリッドを設定する場合を説明する図である。図19において、動きベクトル検出部121の処理領域1901から動きベクトル検出部122の処理領域1902に向かって被写体1904が矢印1903の方向に移動している。デジタルカメラ100は、被写体検出部123を用いて被写体1904の被写体領域を算出する。そして、デジタルカメラ100は、他の処理領域の隣にある又は少なくとも一部が重複する特徴点抽出グリッド群1900のうち、被写体が入り込む特徴点抽出グリッド1910及び特徴点抽出グリッド1911を補填優先グリッドとして設定する。これにより、被写体1904で検出される優良な特徴点が処理領域の境界で消失することなく追跡できる確率が高まり、動きベクトル検出性能を向上させることが可能となる。
また、上の説明では、デジタルカメラ100は動きベクトル検出を画面全体で行うものとした。しかしながら、デジタルカメラ100は、被写体検出部123で検出された被写体領域に限定して、動きベクトル検出を行ってもよい。図20(a)は、デジタルカメラ100が動きベクトル検出を画面全体で行う場合を示し、図20(b)は、デジタルカメラ100が被写体領域に限定して動きベクトル検出を行う場合を示す。図20(b)では、被写体領域に特徴点抽出グリッドが設定されており、被写体が存在しない領域は周辺グリッドになっている。デジタルカメラ100は、図20(b)の配置の場合のみ、上で説明した補填優先グリッドを設定する。図20(b)の例では、補填優先グリッド2000が、動きベクトル検出部121の処理領域と動きベクトル検出部122の処理領域とが部分的に重複している領域に配置されている。このように、被写体領域に限定して動きベクトル検出及び補填優先グリッドの配置を行うことで、被写体で検出される優良な特徴点が処理領域の境界で消失することなく追跡できる確率が高まり、動きベクトル検出性能を向上させることが可能となる。一方、図20(a)では、被写体領域に限定せず、広域な範囲で特徴点の補填を行うことで、画面全体の動きベクトル値を取得できる。このように、ユースケースに応じて、補填優先グリッドの配置を使い分けることが可能である。
[その他の実施形態]
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100…デジタルカメラ、102…撮像素子、104…画像処理部、107…DRAM、109…ROM、111…表示部、112…CPU、121…動きベクトル検出部、122…動きベクトル検出部、123…被写体検出部

Claims (12)

  1. 被写体の移動方向を判定する判定手段と、
    撮影範囲の中に、前記移動方向と異なる方向に並ぶ複数の処理領域を設定する設定手段と、
    所定の撮影画像の各処理領域において追跡対象点を選択する選択手段と、
    各処理領域の内部で、前記所定の撮影画像の後に撮影される1以上の撮影画像にわたって前記追跡対象点を追跡する追跡手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記設定手段は、各処理領域の中に複数の選択対象領域を設定し、
    前記選択手段は、前記所定の撮影画像の各処理領域の各選択対象領域において前記追跡対象点を選択する
    ことを特徴とする請求項1に記載の画像処理装置。
  3. 前記1以上の撮影画像のうちの特定の撮影画像において、前記追跡手段が前記所定の撮影画像の特定の選択対象領域において選択された特定の追跡対象点の追跡に失敗した場合、前記選択手段は、前記特定の撮影画像の前記特定の選択対象領域において前記特定の追跡対象点を代替する新たな追跡対象点を選択する
    ことを特徴とする請求項2に記載の画像処理装置。
  4. 前記1以上の撮影画像のうちの特定の撮影画像において、前記追跡手段が前記所定の撮影画像の特定の処理領域において選択された特定の追跡対象点の追跡に失敗した場合、前記選択手段は、前記特定の撮影画像の前記特定の処理領域の複数の選択対象領域のうちの特定の選択対象領域において前記特定の追跡対象点を代替する新たな追跡対象点を選択し、
    前記特定の選択対象領域は、他の処理領域の隣にある又は少なくとも一部が重複する1以上の選択対象領域のうちのいずれかである
    ことを特徴とする請求項2に記載の画像処理装置。
  5. 前記被写体が前記特定の撮影画像の前記特定の処理領域の中に入る方向に移動している場合、前記特定の選択対象領域は、他の処理領域の隣にある又は少なくとも一部が重複する前記1以上の選択対象領域のうちの、前記被写体が入ってくる位置にある選択対象領域である
    ことを特徴とする請求項4に記載の画像処理装置。
  6. 前記設定手段は、各処理領域の中で前記被写体が存在する位置に前記複数の選択対象領域を設定する
    ことを特徴とする請求項2乃至5のいずれか1項に記載の画像処理装置。
  7. 前記所定の撮影画像及び前記1以上の撮影画像は、撮像素子を用いる動画撮影により生成され、
    前記設定手段は、
    前記複数の処理領域が前記撮像素子の上下方向に並ぶ場合に1つの撮影画像における前記追跡手段による前記追跡対象点の追跡が前記動画撮影の1フレーム期間内に完了するか否かを判定し、
    前記追跡対象点の追跡が前記1フレーム期間内に完了しない場合、前記移動方向に関わらず、前記撮像素子の左右方向に並ぶように前記複数の処理領域を設定する
    ことを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  8. 撮影範囲の中に複数の処理領域を設定し、各処理領域の中に複数の選択対象領域を設定する設定手段と、
    所定の撮影画像の各処理領域の各選択対象領域において追跡対象点を選択する選択手段と、
    各処理領域の内部で、前記所定の撮影画像の後に撮影される1以上の撮影画像にわたって前記追跡対象点を追跡する追跡手段と、
    を備え、
    前記1以上の撮影画像のうちの特定の撮影画像において、前記追跡手段が前記所定の撮影画像の特定の処理領域において選択された特定の追跡対象点の追跡に失敗した場合、前記選択手段は、前記特定の撮影画像の前記特定の処理領域の複数の選択対象領域のうちの特定の選択対象領域において前記特定の追跡対象点を代替する新たな追跡対象点を選択し、
    前記特定の選択対象領域は、他の処理領域の隣にある又は少なくとも一部が重複する1以上の選択対象領域のうちのいずれかである
    ことを特徴とする画像処理装置。
  9. 請求項1乃至8のいずれか1項に記載の画像処理装置と、
    前記所定の撮影画像及び前記1以上の撮影画像を生成する撮像手段と、
    を備えることを特徴とする撮像装置。
  10. 画像処理装置が実行する画像処理方法であって、
    被写体の移動方向を判定する判定工程と、
    撮影範囲の中に、前記移動方向と異なる方向に並ぶ複数の処理領域を設定する設定工程と、
    所定の撮影画像の各処理領域において追跡対象点を選択する選択工程と、
    各処理領域の内部で、前記所定の撮影画像の後に撮影される1以上の撮影画像にわたって前記追跡対象点を追跡する追跡工程と、
    を備えることを特徴とする画像処理方法。
  11. 画像処理装置が実行する画像処理方法であって、
    撮影範囲の中に複数の処理領域を設定し、各処理領域の中に複数の選択対象領域を設定する設定工程と、
    所定の撮影画像の各処理領域の各選択対象領域において追跡対象点を選択する選択工程と、
    各処理領域の内部で、前記所定の撮影画像の後に撮影される1以上の撮影画像にわたって前記追跡対象点を追跡する追跡工程と、
    を備え、
    前記1以上の撮影画像のうちの特定の撮影画像において、前記追跡工程が前記所定の撮影画像の特定の処理領域において選択された特定の追跡対象点の追跡に失敗した場合、前記選択工程は、前記特定の撮影画像の前記特定の処理領域の複数の選択対象領域のうちの特定の選択対象領域において前記特定の追跡対象点を代替する新たな追跡対象点を選択し、
    前記特定の選択対象領域は、他の処理領域の隣にある又は少なくとも一部が重複する1以上の選択対象領域のうちのいずれかである
    ことを特徴とする画像処理方法。
  12. コンピュータを、請求項1乃至8のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2018062258A 2018-03-28 2018-03-28 画像処理装置、撮像装置、画像処理方法、及びプログラム Active JP7117872B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018062258A JP7117872B2 (ja) 2018-03-28 2018-03-28 画像処理装置、撮像装置、画像処理方法、及びプログラム
US16/366,107 US11153479B2 (en) 2018-03-28 2019-03-27 Image processing apparatus, capable of detecting an amount of motion between images by tracking a point across one or more images, image capturing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018062258A JP7117872B2 (ja) 2018-03-28 2018-03-28 画像処理装置、撮像装置、画像処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2019175112A true JP2019175112A (ja) 2019-10-10
JP7117872B2 JP7117872B2 (ja) 2022-08-15

Family

ID=68055753

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018062258A Active JP7117872B2 (ja) 2018-03-28 2018-03-28 画像処理装置、撮像装置、画像処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US11153479B2 (ja)
JP (1) JP7117872B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10855918B2 (en) * 2018-05-09 2020-12-01 Canon Kabushiki Kaisha Image processing device, image processing method, image pickup apparatus, and program storage medium that calculates a matching degree between an estimated target of interest and tracked feature points, then selects a feature point to which tracking is continued according to the matching degree
DE112018007596T5 (de) * 2018-08-29 2021-03-04 Intel Corporation Vorrichtung und verfahren für merkmalspunktverfolgung unter verwendung von inter-frame-voraussage
US11640701B2 (en) * 2020-07-31 2023-05-02 Analog Devices International Unlimited Company People detection and tracking with multiple features augmented with orientation and size based classifiers

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005135339A (ja) * 2003-10-31 2005-05-26 Konica Minolta Holdings Inc 通行人検出方法および装置ならびに通行人計数装置
JP2007078358A (ja) * 2005-09-09 2007-03-29 Sumitomo Electric Ind Ltd 移動体計測装置、信号制御システム、移動体計測方法及びコンピュータプログラム
JP2008098976A (ja) * 2006-10-12 2008-04-24 Stanley Electric Co Ltd 固体撮像素子
JP2009086748A (ja) * 2007-09-27 2009-04-23 Saxa Inc 監視装置及びプログラム
JP2011233963A (ja) * 2010-04-23 2011-11-17 Ricoh Co Ltd 撮像装置および追尾被写体検出方法
JP2012094985A (ja) * 2010-10-25 2012-05-17 Nikon Corp 画像処理装置、及び方法、プログラム並びに記憶媒体
JP2013020527A (ja) * 2011-07-13 2013-01-31 Sony Corp 画像処理装置および方法、並びにプログラム
US20150312493A1 (en) * 2014-04-28 2015-10-29 Lynx System Developers, Inc. Methods For Processing Event Timing Images
JP2017041141A (ja) * 2015-08-20 2017-02-23 株式会社リコー 画像処理装置、画像処理方法及びプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4504158B2 (ja) 2004-10-29 2010-07-14 オリンパス株式会社 カメラ、追尾装置及び追尾方法並びに追尾プログラム
JP2007334625A (ja) 2006-06-15 2007-12-27 Sony Corp 画像処理方法、画像処理方法のプログラム、画像処理方法のプログラムを記録した記録媒体及び画像処理装置
JP4775277B2 (ja) 2007-02-07 2011-09-21 株式会社デンソー 画像処理装置及び画像処理方法
JP2012073997A (ja) 2010-09-01 2012-04-12 Ricoh Co Ltd 物体追尾装置、物体追尾方法およびそのプログラム
JP5720275B2 (ja) * 2011-02-03 2015-05-20 株式会社リコー 撮像装置および撮像方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005135339A (ja) * 2003-10-31 2005-05-26 Konica Minolta Holdings Inc 通行人検出方法および装置ならびに通行人計数装置
JP2007078358A (ja) * 2005-09-09 2007-03-29 Sumitomo Electric Ind Ltd 移動体計測装置、信号制御システム、移動体計測方法及びコンピュータプログラム
JP2008098976A (ja) * 2006-10-12 2008-04-24 Stanley Electric Co Ltd 固体撮像素子
JP2009086748A (ja) * 2007-09-27 2009-04-23 Saxa Inc 監視装置及びプログラム
JP2011233963A (ja) * 2010-04-23 2011-11-17 Ricoh Co Ltd 撮像装置および追尾被写体検出方法
JP2012094985A (ja) * 2010-10-25 2012-05-17 Nikon Corp 画像処理装置、及び方法、プログラム並びに記憶媒体
JP2013020527A (ja) * 2011-07-13 2013-01-31 Sony Corp 画像処理装置および方法、並びにプログラム
US20150312493A1 (en) * 2014-04-28 2015-10-29 Lynx System Developers, Inc. Methods For Processing Event Timing Images
JP2017041141A (ja) * 2015-08-20 2017-02-23 株式会社リコー 画像処理装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
JP7117872B2 (ja) 2022-08-15
US11153479B2 (en) 2021-10-19
US20190306417A1 (en) 2019-10-03

Similar Documents

Publication Publication Date Title
US8224069B2 (en) Image processing apparatus, image matching method, and computer-readable recording medium
US9607240B2 (en) Image processing apparatus, image capturing apparatus, image processing method, image capturing method, and non-transitory computer-readable medium for focus bracketing
US11153479B2 (en) Image processing apparatus, capable of detecting an amount of motion between images by tracking a point across one or more images, image capturing apparatus, image processing method, and storage medium
JP2010114752A (ja) 撮像装置及び撮像方法及びプログラム
JP2020053774A (ja) 撮像装置および画像記録方法
JP6320053B2 (ja) 画像処理装置、画像処理方法、及びコンピュータプログラム
JP6564284B2 (ja) 画像処理装置および画像処理方法
US10880457B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
US11196925B2 (en) Image processing apparatus that detects motion vectors, method of controlling the same, and storage medium
JP6576179B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2012034069A (ja) 画像処理装置、および画像処理プログラム
JP7077115B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2009009206A (ja) 画像中の輪郭抽出方法及びその画像処理装置
JP7013205B2 (ja) 像振れ補正装置およびその制御方法、撮像装置
JP2009027437A (ja) 画像処理装置,画像処理方法及び撮像装置
JP2019192048A (ja) 撮像装置
JP2018072941A (ja) 画像処理装置、画像処理方法、プログラム、記憶媒体
JP6556033B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2021107976A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2018072895A (ja) 画像処理装置、画像処理方法及びプログラム
JP7346021B2 (ja) 画像処理装置、画像処理方法、撮像装置、プログラムおよび記録媒体
JP7324066B2 (ja) 画像処理装置およびその制御方法、ならびに撮像装置
JP7341712B2 (ja) 画像処理装置、画像処理方法、撮像装置、およびプログラム
JP5853369B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2021108035A (ja) 画像処理装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220704

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220802

R151 Written notification of patent or utility model registration

Ref document number: 7117872

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151