JP2010079655A - 画像処理装置及び画像処理方法及び撮像装置及びプログラム - Google Patents

画像処理装置及び画像処理方法及び撮像装置及びプログラム Download PDF

Info

Publication number
JP2010079655A
JP2010079655A JP2008248070A JP2008248070A JP2010079655A JP 2010079655 A JP2010079655 A JP 2010079655A JP 2008248070 A JP2008248070 A JP 2008248070A JP 2008248070 A JP2008248070 A JP 2008248070A JP 2010079655 A JP2010079655 A JP 2010079655A
Authority
JP
Japan
Prior art keywords
group
vector detection
area
groups
motion vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008248070A
Other languages
English (en)
Other versions
JP2010079655A5 (ja
JP5213613B2 (ja
Inventor
Kenichi Miyasako
賢一 宮迫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008248070A priority Critical patent/JP5213613B2/ja
Priority to EP09170469A priority patent/EP2169945B1/en
Priority to EP10187781.9A priority patent/EP2293540B1/en
Priority to US12/563,770 priority patent/US8509481B2/en
Priority to CN2009101760716A priority patent/CN101686330B/zh
Publication of JP2010079655A publication Critical patent/JP2010079655A/ja
Publication of JP2010079655A5 publication Critical patent/JP2010079655A5/ja
Application granted granted Critical
Publication of JP5213613B2 publication Critical patent/JP5213613B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Adjustment Of Camera Lenses (AREA)

Abstract

【課題】 撮像装置のぶれにより生じる動きベクトルと、移動物の移動による動きベクトルとの識別を、精度良く行えるようにする。
【解決手段】 本発明に係わる画像処理装置は、時間的に連続するフレームを処理する画像処理装置であって、それぞれのフレームに対して複数のベクトル検出領域で動きベクトルを検出するベクトル検出手段と、フレームごとに前記ベクトル検出手段にて検出した前記動きベクトルに基づいて前記動きベクトル検出領域をグループ化したグループ領域を設定する設定手段と、異なるフレーム間で前記グループ領域同士を比較することで、当該フレーム間で対応するグループ領域を判定する判定手段とを有することを特徴とする。
【選択図】 図7

Description

本発明は、ビデオカメラなどによって撮影された動画像のぶれを補正する装置等に適用する、画像処理装置及び方法の技術に関するものである。
ビデオカメラなどの動画像を撮影する撮像装置においては、特にレンズを望遠側にズームしたときに、手ぶれにより画像がぶれることが問題となる。このような手ぶれによる画像のぶれを防止するために、従来より撮影した画像信号から画像の動きベクトルを検出し、この動きベクトルに基づいて画像のぶれを補正する技術が提案されている。この補正技術を搭載した撮像装置が特許文献1(特開平6−133298号公報)に記載されている。
また、画像の動きベクトルを検出する方法としては、従来より、相関演算に基づく相関法やブロックマッチング法等が知られている。
ブロックマッチング法では、入力された画像信号を複数の適当な大きさ(例えば8画素×8ライン)のブロック領域(以下、ベクトル検出領域とする)に分割する。そして、このベクトル検出領域単位で前のフィールド(またはフレーム)の一定範囲の画素との差を計算し、この差の絶対値の和が最小となる前のフィールド(またはフレーム)のベクトル検出領域を探索する。そして、画面間の相対的なずれが、そのベクトル検出領域の動きベクトルを表している。
また、マッチング演算については、尾上守夫等により、情報処理Vol.17,No.7,p.634〜640 July 1976 で詳しく論じられている。
次に、ブロックマッチング法を用いた従来の動きベクトル検出法の一例を、図面を用いて説明する。図15は従来の動きベクトル検出法によりぶれを防止する装置の概略ブロック図である。
まず動きベクトルの検出対象となる画像信号(フィールドまたはフレーム)が画像メモリ101及び空間周波数成分を抽出するフィルタ102に加えられる。画像メモリ101は画像信号を一時記憶する。フィルタ102は画像信号から動きベクトル検出に有用な空間周波数成分を抽出する。即ち、画像信号の低空間周波数成分及び高空間周波数成分を除去する。
フィルタ102を通過した画像信号は2値化回路103に加えられる。2値化回路103は画像信号を、ゼロレベルを基準として2値化する。具体的には出力信号の符号ビットを出力する。
2値化された画像信号は相関演算回路104及び1フィールド期間遅延手段としてのメモリ105に加えられる。相関演算回路104には更にメモリ105から前フィールドの画像信号が加えられている。
相関演算回路104はブロックマッチング法に従い、上記のように適当な大きさのベクトル検出領域に画像領域を分割し、ベクトル検出領域単位に時間的に連続する画像データ間の相関演算を行い、その結果の相関値を動きベクトル検出回路106に加える。動きベクトル検出回路106は算出された相関値からベクトル検出領域単位の動きベクトルを検出する。具体的には相関値が最小となる前フィールドのベクトル検出領域を探索し、その相対的なずれを動きベクトルとしている。
このベクトル検出領域単位の動きベクトルは動きベクトル決定回路107に加えられる。動きベクトル決定回路107はベクトル検出領域単位の動きベクトルから全体の動きベクトルを決定する。具体的には、ベクトル検出領域単位の動きベクトルの中央値または平均値を画像全体の動きベクトルとしている。
動きベクトル決定回路107は全体の動きベクトルをメモリ読み出し制御回路108に加える。メモリ読み出し制御回路108は上記の全体の動きベクトルに応じて画像の動きが相殺されるように画像メモリ101の読み出し位置を制御し、画像メモリ101からぶれが補正された画像信号が出力される。
しかしながら、上記の方法では、画像中に移動被写体がある場合、例えば検出された動きベクトルの平均値を全体の動きベクトルにすると、画像中の移動被写体の動きが混入してしまう。その結果、移動被写体が画面内の元の位置にとどまるように画像メモリの読み出し位置が変化し、それにより本来動きがないはずである画面内の領域の位置が変化するため、画面が移動被写体に引っ張られたような動きをしてしまう。
本違和感回避のためには、移動物の領域への追従を防止し、背景の動きベクトルのみに追従するよう制御する必要がある。そこで特許文献2(特開2007−235769号公報)のように、画面内に移動物が存在する場合に、領域の多数を占めるベクトルグループを検出し、それによって背景と移動物を見分けることによって対してぶれ補正を行うという方法が提案されている。
特開平6−133298号公報 特開2007−235769号公報
しかしながら特許文献2の方法は、1フレームごとにグループ中のベクトル領域の離散度合いの情報を用いる移動物領域判定であるため、移動物領域判定が時系列で関連付けられていない。それゆえ、背景と移動物の離散度合いの大きさが同程度であるときや移動物が徐々に大きくなる場合などは、手ブレ補正する領域を誤判定したり、ぶれ補正の対象となるグループが切り替わったりしてしまうという課題があった。
そこで本発明は、上述した課題に鑑みて、フレームごとでの移動物領域判定において、時系列で関連付けを行うことによって、撮影中に誤判定しないよう撮像装置のぶれと移動物の移動による動きベクトルとの識別を精度良く行うことを目的とする。特に移動物の大きさが大きい場合や、移動物が徐々に大きくなる場合にも、誤判定しないよう、撮像装置のぶれにより生じる動きベクトルと移動物の移動による動きベクトルとの識別を精度良く行うことを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係わる画像処理装置は、時間的に連続するフィールドを処理する画像処理装置であって、それぞれのフィールドに対して、複数のベクトル検出領域で動きベクトルを検出するベクトル検出手段と、フィールドごとに、前記ベクトル検出手段にて検出した前記動きベクトルに基づいて前記ベクトル検出領域をグループ化したグループ領域を設定する設定手段と、異なるフィールド間で前記グループ領域同士を比較することで、当該フィールド間で対応するグループ領域を判定する判定手段とを有することを特徴とする。
さらに、本発明の別の実施形態に係わる画像処理装置は、フィールドに複数のベクトル検出領域を設定し、フィールド間の相関から、設定されたそれぞれのベクトル検出領域において動きベクトルを検出する検出手段と、前記それぞれのベクトル検出領域にて検出される動きベクトルに基づいて、前記それぞれのベクトル検出領域をグループに分類する領域分類手段と、前記領域分類手段により分類された結果、前記それぞれのベクトル検出領域が複数のグループに分類された場合に、当該複数のグループから基準となる1つのグループを決定する決定手段とを備え、前記決定手段は、前記複数のグループの重心と、前フィールドにおいて決定された1つのグループの重心との距離の差分から、前記前フィールドにおいて決定された1つのグループに対応するグループを決定することを特徴とする。
さらに、本発明の別の実施形態に係わる画像処理装置は、フィールドに複数のベクトル検出領域を設定し、フィールド間の相関から、設定されたそれぞれのベクトル検出領域において動きベクトルを検出する検出手段と、前記それぞれのベクトル検出領域にて検出される動きベクトルに基づいて、前記それぞれのベクトル検出領域をグループに分類する領域分類手段と、前記領域分類手段により分類された結果、前記それぞれのベクトル検出領域が複数のグループに分類された場合に、当該複数のグループから基準となる1つのグループを決定する決定手段とを備え、前記決定手段は、前記複数のグループのベクトル検出領域のばらつき度合いを示す値と、前フィールドにおいて決定された1つのグループのベクトル検出領域のばらつき度合いを示す値との差分から、前記前フィールドにおいて決定された1つのグループに対応するグループを決定することを特徴とする。
また、本発明に係わる撮像装置は、上記の画像処理装置を備えることを特徴とする。
本発明によれば、フレームごとでの移動物領域判定において時系列で関連付けを行うことによって、撮影中に誤判定しないよう、撮像装置のぶれにより生じる動きベクトルと移動物の移動による動きベクトルとの識別を精度良く行うことが可能になる。特に移動物の大きさが大きい場合や、移動物が徐々に大きくなる場合にも、誤判定しないよう、撮像装置のぶれにより生じる動きベクトルと移動物の移動による動きベクトルとの識別を精度良く行うことが可能になる。
(実施例1)
図1は、本発明の一実施形態に係わる画像処理装置を組み込んだ撮像装置としてのビデオ又はカメラの構成を示すブロック図である。図1は、一実施形態のビデオカメラの電気的構成を示すブロック図である。
図1において、11はレンズおよび絞りからなる撮像光学系、12はCCDやCMOSセンサ等からなる固体撮像素子である。21は、撮像光学系11の内部の不図示のズームレンズ、フォーカスレンズ、絞り等を駆動するための駆動回路である。23は、撮像素子12を駆動するための駆動回路である。13は撮影した画像データに必要な信号処理を行う信号処理回路である。14は信号処理回路13で信号処理された画像データから、動きベクトルを検出する動きベクトル検出装置である。15は動きベクトル検出部14により検出された動きベクトルから、記録または表示する画像データの範囲を決める制御を行うメモリ読み出し制御回路である。16は信号処理された画像データを記憶する画像メモリである。
18はメモリカード、ハードディスク等からなる記録媒体、17は信号処理された画像データを記録媒体18に記録するための記録回路、20は信号処理された画像データを表示する表示装置、19は表示装置20に画像を表示する表示回路である。22はビデオカメラ全体を制御するシステム制御部である。
以下、上記のように構成されるビデオカメラにおける撮影動作について説明する。
まず、駆動回路21は、システム制御部22からの制御信号に基づいて、撮像光学系11内のズームレンズ、フォーカスレンズ、絞りを駆動して、被写体像を撮像素子12上に結像させる。
撮像素子12は、システム制御部22により制御される駆動回路21が発生する駆動パルスにより駆動され、被写体像を光電変換して電気信号に変換し、アナログ画像信号を出力する。撮像素子12から出力されたアナログ画像信号は、信号処理回路13の内部の不図示のA/D変換器でデジタル画像信号に変換される。
次に、システム制御部22により制御される信号処理回路13では、デジタル画像信号に対して、不図示の色変換、ホワイトバランス補正、ガンマ補正等の画像処理、解像度変換処理、画像圧縮処理等が行われる。画像メモリ16は、信号処理中のデジタル画像信号を一時的に記憶したり、信号処理されたデジタル画像信号である画像データを記憶したりするために用いられる。
本発明の画像処理装置である動きベクトル検出部14は、信号処理回路13で信号処理された画像データから動きベクトルを検出する(詳細は後述する)。メモリ読み出し制御回路15は、動きベクトル検出部14により検出された動きベクトル情報に基づいて、画像ぶれが補正されるように、記録または表示する画像データの範囲を決定する制御を行う。
信号処理回路13で信号処理された画像データや画像メモリ16に記憶されている画像データは、記録回路17において記録媒体18への記録に適したデータ(例えば階層構造を持つファイルシステムデータ)に変換されて記録媒体18に記録される。また、信号処理回路13で解像度変換処理が実施された後、表示回路19において表示装置20に適した信号(例えばNTSC方式のアナログ信号等)に変換されて表示装置20に表示されたりする。
図2は、動きベクトル検出部14の概略構成を示すブロック図である。図18と同一符号は同一構成要素を示しており、重複する説明は省略する。
図2においては、ベクトル検出領域単位の動きベクトルを検出する動きベクトル検出回路106の後段に、動きベクトル分類回路30と動きベクトル制御回路31が備えられている点が、図18と相違している。動きベクトル分類回路30の動作について以下に説明する。
図3(A)は、撮影した現フィールドの画面上に、動きベクトル検出のためのベクトル検出領域を示した一例を示す図である。図3(B)は、直前のフィールドとの差により得られた動きベクトルを示す図である。また、図3(C)は、全ベクトル検出領域の動きベクトルのX方向(画面横方向)、Y方向(画面縦方向)のそれぞれの大きさの頻度を示すヒストグラム(度数分布)である。
動きベクトル分類回路30では、まずこのヒストグラムデータの作成を行う。より具体的には、度数分布の横軸を動きベクトルの大きさとし、所定の大きさ(範囲)ごとに区切って階級を設定する。そして、検出された各ベクトル検出領域の動きベクトルを、その大きさにより何れの階級に属するかを判断して、それぞれの度数としてプロットする。図3(B)の例によれば、各ベクトル検出領域の動きベクトルとして、トータル40個の動きベクトルが検出されるが、この40の度数を属する階級に振り分けてプロットすることで各階級の度数(頻度)を得ることができる。なお、それぞれ範囲を持つ階級の階級値としては、その階級の上限値と下限値の中間値を用いればよい。
図4(A)〜(C)は撮影した現フィールドにおける動きベクトルの検出の例を示す図である。図4(A)に示すように時刻t1時に画面内に移動している被写体が存在しているとする。この被写体が移動している場合、前フィールドと現フィールドの差異を取った移動被写体の領域における動きベクトルは、図4(B)に示すようにその他の領域とは異なる。このときX方向の大きさの頻度を表すヒストグラムは、図4(C)に示すように、グループ1とグループ2の2つのピークが存在する形となり、グループ化できる。グループ2は移動被写体の領域の動きベクトルであり、グループ1はその他の領域の動きベクトルであることが、図4(A)との関係で理解できる。ただし、この段階では、分離され得る2つのグループが検出できただけである。どちらのグループが手ぶれのみの動きベクトルを表すグループであるか、手ぶれに被写体の動きが重畳されたグループであるかは、図4(C)のヒストグラムからは分からない。この判断については後述する。
図5は、撮影した現フィールドの画面上でのベクトル検出領域におけるX方向の大きさの頻度を表したヒストグラムの一例である。まず、検出された動きベクトルをグループに分類する方法について説明する。図5の度数分布上のプロットに対し、プロット503、505のような極値(ピーク)を探索する。ただし、この極値は予め定められた度数pを超えるものである事とする。そして、極値が複数見つかった場合、それらの階級間の距離が予め定められたcを超えるものであるかを判断する。超えているものであれば、それらは互いに別グループと判定し、超えていなければ同一グループであると判定する。このようにして定められたグループは、その中で最も大きな度数を持つ階級をそのグループの代表階級とし、その階級値をそのグループの代表する代表階級値とする。なお、階級間距離cは、動きベクトル検出誤差よりも大きな値に設定される。
図5の場合、極値はプロット503とプロット505であり、これらは度数pを超えるものである。そして、これらの階級間の距離はdであり、これはcより大きいので、別グループであると判定できる。一方度数pを超えるものの、極値であるプロット503に隣接するプロット502は、階級間の距離がcを超えるものではないので、極値503のグループと同一グループであると判断できる。そして、これらに隣接し、度数pを超えないプロット501も、極値503のグループと同一グループであると判断できる。同様に、極値505に隣接するプロット504は、極値505と同一グループであると判断できる。このようにして、各ベクトル検出領域ごとに検出された動きベクトルは、1つ以上のグループに分類され、グループには代表する代表階級値、すなわちそのグループとしての代表動きベクトルを求めることができる。なお、このグループ領域ごとに分ける領域分類の処理は、動きベクトル分類回路30で行われる。
次に、図6と図7に示すフローチャートを参照して動きベクトル制御回路31の動作について説明する。図7のステップS10において動きベクトル制御回路31は、動きベクトル分類回路30が現フィールドにおいて複数個の動きベクトルのグループを検出したか否かを判定する。検出された動きベクトルのグループが1つである場合は、ステップS11に進む。また、検出された動きベクトルのグループが複数個存在する場合は、ステップS12に進む。
ステップS11においてはベクトル決定を行う。ステップS10で検出された動きベクトルのグループが1つであると判定されたので、当該グループの代表動きベクトルを画面全体(画像データ全体)の動きベクトルとして決定する。
ステップS12において、ステップS10で検出された動きベクトルのグループが複数あると判定されたので、それぞれのグループに属するベクトル検出領域の画面内における重心座標とベクトル検出領域のばらつき度合いを示す値を算出する。
ここで、ステップS12の処理について図6を用いて説明する。なお、本説明においては、動きベクトルのグループが複数設定されている、図4(A)〜(C)の状態を例に用いる。
まず図6(A)に示すように、各ベクトル検出領域の画面内における座標を定義する。
いま、図4(C)におけるグループ1に属するベクトル検出領域の重心座標をG01(GX01,GY01)、図4(C)におけるグループ1に属するベクトル検出領域のばらつき度合いを示す値をZ01と定義する。一方、図4(C)におけるグループ2に属するベクトル検出領域の重心座標をG02(GX02,GY02)、図4(C)におけるグループ2に属するベクトル検出領域のばらつき度合いを示す値をZ02と定義する。
ここで、グループ2に属する各ベクトル検出領域の座標は図6(A)に示す座標において、以下の6個となる。
(X1,Y1),(X1,Y2),(X1,Y3),(X2,Y1),(X2,Y2),(X2,Y3)
このとき、G02=(GX02,GY02)、及びZ02を求める計算式を(式1)、(式2)、(式3)に示す。グループ1の重心座標G01=(GX01,GY01)、及びベクトル検出領域のばらつき度合いを示す値Z01についても、同様の方法で求めることができる。
GX02=(X1+X1+X1+X2+X2+X2)/6 (式1)
GY02=(Y1+Y2+Y3+Y1+Y2+Y3)/6 (式2)
Z02=[{(X1−GX02)+(Y1−GY02)}+{(X1−GX02)+(Y2−GY02)}+
{(X1−GX02)+(Y3−GY02)}+{(X2−GX02)+(Y1−GY02)}+
{(X2−GX02)+(Y2−GY02)}+{(X2−GX02)+(Y3−GY02)}]/6 (式3)
図6(B)に、図4(C)におけるグループ1及びグループ2の画面内における重心座標の位置を示す。また、図6(C)に図4(C)のグループ1及びグループ2の代表動きベクトルの大きさとベクトル検出領域のばらつき度合いを示す値の大きさの関係を表すグラフを示す。 図7に示すフローチャートに戻り、次にステップS13において、動きベクトル制御回路31は前フィールドで複数個の動きベクトルのグループが検出されたかどうかの判定を行う。前フィールドで複数個の動きベクトルのグループが検出されていない場合は、ステップS14に進み、前フィールドで複数個の動きベクトルのグループが検出されている場合は、ステップS15に進む。
ステップS14において、動きベクトル制御回路31は1つのグループを基準のグループとして決定する。ステップS14に進んだ場合、ステップS13にて前フィールドで複数個の動きベクトルのグループが検出されていない。よって、画面上に全フィールドでは存在しなかった移動物が入ってきたか、静止していた移動物が動きだした可能性が高い。
本実施例においては、現フィールドでの上記複数個の動きベクトルのグループのうち、ステップS12で求めたベクトル検出領域のばらつき度合いを示す値が大きい方のグループを、移動被写体が存在しないグループつまり背景のグループと判断する。そして、当該グループの代表動きベクトルを画面全体(画像データ全体)の動きベクトルとして決定する。
本実施例においてベクトル検出領域のばらつき度合いを示す値が大きい方のグループを決定する理由は、ほとんどの撮影シーンにおいて、被写体が存在する領域よりも、背景の領域の方が広いためである。また被写体を中心に撮影することが多いため、被写体の大きさがある程度大きい場合においても、ベクトル検出領域のばらつき度合いを示す値は背景の領域の方が大きくなることも理由の一つである。
現フィールドが図6(B)に示す状態であるとき、グループ1のベクトル検出領域のばらつき度合いを示す値をZ01、グループ2のベクトル検出領域のばらつき度合いを示す値をZ02とする。また、動きベクトルの大きさとベクトル検出領域のばらつき度合いを示す値の大きさの関係を図6(C)に示す。いま、図6(C)の状態においては、Z01>Z02であるので、ベクトル検出領域のばらつき度合いを示す値が大きい方のグループであるグループ1の代表動きベクトルが、画面全体(画像データ全体)の動きベクトルとして決定される。
ステップS15においては、動きベクトル制御回路31は移動被写体識別処理を行う。ステップS15に進んだ場合、ステップS13で前フィールドで複数個の動きベクトルのグループが検出されているので、画面上の移動物が移動しているということである。ステップS15の移動被写体識別処理の1つ目の方法について、図8に示す画面の状態図と図9に示すフローチャートを用いて説明する。
ステップS20においては、前フィールドで画面全体の動きベクトルとして決定されたグループ領域と、現フィールドで検出された複数の動きベクトルのグループ領域同士を比較し、対応するグループであるかの判定を行う。具体的には、前フィールドで画面全体の動きベクトルとして決定されたグループの重心座標と、現フィールドで検出された複数の動きベクトルの各グループの重心座標との距離の差分の演算を行う。
ステップS21においては、ステップS20で演算した重心座標同士の距離の差分が最も小さいグループの代表動きベクトルを画面全体の動きベクトルとして決定し、前フィールドで決定されたグループとステップS21にて決定されたグループが同じグループであるとする。以下、ステップS20及びステップS21の処理について詳細に説明を行う。
本実施例においては、前フィールド(時刻t2−Δt)の画面が図8(A)に示す状態であり、Δt秒後の現フィールド(時刻t2)の画面が図8(D)に示す状態であったとする。また、前フィールドの動きベクトルの各グループの重心座標は図8(B)に示す状態であり、現フィールドの動きベクトルの各グループの重心座標は図8(E)に示す状態であるとする。また、前フィールドの動きベクトルの各グループの代表動きベクトルの大きさとばらつき度合いを示す値の関係は図8(C)に示す状態であるとする。また、現フィールドの動きベクトルの各グループの代表動きベクトルの大きさばらつき度合いを示す値の関係は図8(F)に示す状態であるとする。
またステップS14の処理において、ばらつき度合いを示す値が大きい方のグループである、図8(B)のグループ11が前フィールドで画面全体の動きベクトルとして決定されているものとする。
ステップS20における前フィールドで代表動きベクトルとして決定されたグループの重心座標と、現フィールドで検出された複数の動きベクトルの各グループの重心座標との距離の差分の演算は、以下のように行う。前フィールドで検出されたグループ11の重心座標G11=(GX11,GY11)と、現フィールドで検出されたグループ21の重心座標G21=(GX21,GY21)との距離の差分をΔG[21]とする。また、グループ11の重心座標G11=(GX11,GY11)と、現フィールドで検出されたグループ22の重心座標G22=(GX22,GY22)との距離の差分をΔG[22]とする。ΔG[21]とΔG[22]を求める計算式を(式4)、(式5)に示す。
ΔG[21]=|G11−G21|={(GX11−GX21)+(GY11−GY21)1/2 (式4)
ΔG[22]=|G11−G22|={(GX11−GX22)+(GY11−GY22)1/2 (式5)
NTSC方式においてはフィールド間の期間が1/60秒という短い時間であり、動きベクトルの各グループの重心座標が前フィールドと現フィールドで大きく変わる可能性は低い。よって、現フィールドにおける複数のグループのうち、前フィールドで決定された移動被写体が存在しないグループの重心座標と、重心座標の距離が近い方のグループが、現フィールドにおいて移動被写体が存在しない可能性が高い。よって、前フィールドで画面全体の動きベクトルとして決定されたグループの重心座標と、現フィールドで検出された複数の動きベクトルのグループの重心座標との距離の差分を演算したときに、差分が最も小さいグループを画面全体の動きベクトルとして決定する。こうすることで、移動被写体の存在しないベクトル検出領域のグループをより確実に決定することが可能となる。
ここで、ステップS21において、図8(B)と図8(E)に示すようにΔG[21]<ΔG[22]である。よってグループ21が現フィールドにおいて決定されるグループとなり、グループ21とグループ11が前フィールドで決定された移動被写体が存在しないグループと判断される。
なお、ステップS20及びS21の処理において、以下の他の方法でも同様の効果が得られる。前フィールドで画面全体の動きベクトルとして決定されなかったグループの重心座標と、現フィールドで検出された複数の動きベクトルの各グループの重心座標との差分が最も小さいグループを画面全体の動きベクトルの決定対象から除外する。そして残ったグループの代表動きベクトルを画面全体の動きベクトルとして決定するようにしても、同様の効果が得られる。
本実施例における動きベクトル検出装置を組み込んだ撮像装置としてのビデオ又はカメラを使用して、移動被写体が存在しないと判断された方のグループに手ぶれ補正処理を行うことで、移動被写体に画面が引っ張られる現象を防止することが可能となる。
(実施例2)
ステップS15の移動被写体識別処理の2つ目の方法について、図8に示す画面の状態図と図10に示すフローチャートを用いて説明する。
ステップS30において、前フィールドで画面全体の動きベクトルとして決定されたばらつき度合いを示す値と、現フィールドで検出された複数の動きベクトルのばらつき度合いを示す値同士を比較し、対応するグループであるかの判定を行う。具体的には、前フィールドで画面全体の動きベクトルとして決定されたグループのベクトル検出領域のばらつき度合いを示す値と、現フィールドで検出された複数の動きベクトルの各グループのベクトル検出領域のばらつき度合いを示す値同士を比較する。ばらつき度合いを示す値同士の比較は、本実施例では、ばらつきを示す値同士の差分の演算を行う。そしてステップS31において、上記差分が最も小さいグループの代表動きベクトルを画面全体の動きベクトルとして決定する。
以下、ステップS30及びステップS31の処理について詳細に説明を行うが、本実施例において、図8の状態は実施例1と同様とする。また、ステップS14の処理においてばらつき度合いを示す値が大きい方のグループである、図8(B)のグループ1が前フィールドで画面全体の動きベクトルとして決定されているものとする。
ステップS30では、グループ11のベクトル検出領域のばらつき度合いを示す値Z11と、現フィールドで検出されたグループ21のベクトル検出領域のばらつき度合いを示す値Z21との差分をΔZ[21]とする。また、グループ11のベクトル検出領域のばらつき度合いを示す値Z11と、現フィールドで検出されたグループ22のベクトル検出領域のばらつき度合いを示す値Z22との差分をΔZ[22]とする。ΔZ[21]とΔZ[22]を求める計算式を(式6)、(式7)に示す。
ΔZ[1]=|Z21−Z11| (式6)
ΔZ[2]=|Z22−Z11| (式7)
NTSC方式においてはフィールド間の期間が1/60秒という短い時間であり、現フィールドと1つ前のフィールドでは、ばらつき度合いを示す値が前フィールドと現フィールドで大きく変わる可能性は低い。よって、現フィールドにおける複数のグループのうち、前フィールドで決定された移動被写体が存在しないグループと、ばらつき度合いを示す値が近い方のグループが、現フィールドにおいて移動被写体が存在しない可能性が高い。また、前フィールドで画面全体の動きベクトルとして決定されたグループのばらつき度合いを示す値と、現フィールドで検出された複数の動きベクトルのグループのばらつき度合いを示す値との差分を演算する。そのときに、差分の最も小さいグループを画面全体の動きベクトルとすれば、移動被写体の存在しないベクトル検出領域をより確実に決定することが可能となる。
ここで、ステップS31において、図8(B)と図8(E)に示すようにΔZ[21]<ΔZ[22]である。よってグループ21が現フィールドにおいて決定されるグループとなり、グループ21とグループ11が前フィールドで決定された移動被写体が存在しないグループと判断される。
なお、ステップS30及びS31の処理においては、前フィールドで画面全体の動きベクトルとして決定されなかったグループのばらつき度合いを示す値と、現フィールドで検出された各グループのばらつき度合いを示す値との差分が最も小さいグループを求めてもよい。そして、差分が最も小さかったグループを画面全体の動きベクトルの決定対象から除外し、残ったグループの代表動きベクトルを画面全体の動きベクトルとして決定しても同様の効果が得られる。
これによって、本実施例における動きベクトル検出装置を組み込んだ撮像装置を使用して、移動被写体が存在しないと判断された方のグループに手ぶれ補正処理を行うことで、移動被写体に画面が引っ張られる現象を防止することが可能となる。
(実施例3)
ステップS15の移動被写体識別処理の3つ目の方法について、図11に示す画面の状態図と図12に示すフローチャートを用いて説明する。
実施例1においては、検出された複数の動きベクトルのグループ化を行った後に、各グループの重心座標を算出することで、前後のフィールドにおけるグループの判別を行ってきた。しかし、図11(D)の場合のように、画面の中央部に被写体が存在する場合は、複数のグループの重心座標が同じになる(もしくは非常に近接する)ことが考えられる。そこで本実施例では、複数のグループの重心座標が同じになる(もしくは非常に近接する)場合を考える。
本実施例においては、前フィールド(時刻t3−Δt)の画面が図11(A)に示す状態であり、Δt秒後の現フィールド(時刻t3)の画面が図11(D)に示す状態であったとする。また、前フィールドの動きベクトルの各グループの重心座標は図11(B)に示す状態であり、現フィールドの動きベクトルの各グループの重心座標はK(E)に示す状態であるとする。また、前フィールドの動きベクトルの各グループの、代表動きベクトルの大きさとばらつき度合いを示す値の関係は図11(C)に示す状態であるとする。また、現フィールドの動きベクトルの各グループの、代表動きベクトルの大きさとばらつき度合いを示す値の関係は図11(F)に示す状態であるとする。
また、ステップS14の処理において、ばらつき度合いを示す値が大きい方のグループである、図11(B)のグループ31が前フィールドで画面全体の動きベクトルとして決定されているものとする。
ステップS40において、前フィールドで画面全体の動きベクトルとして決定されたグループ領域と、現フィールドで検出された複数の動きベクトルのグループ領域同士を比較し、対応するグループであるかの判定を行う。具体的には、前フィールドで画面全体の動きベクトルとして決定されたグループの重心座標と、現フィールドで検出された複数の動きベクトルの各グループの重心座標を比較する。また、重心同士の比較は、本実施例では重心座標の距離の差分の演算を行う。これは、ステップS20の処理と同様であるため、説明は省略する。
次に、図11(D)においては移動被写体が画面の中央にいるので、グループ41とグループ42の重心座標G41とG42は一致するか、若しくは近くなる。そのため、前フィールドで画面全体の動きベクトルとして決定されたグループ31の重心座標G31と、グループ41とグループ42の重心座標G41とG42との差分も一致するか、若しくは近い値になる。よって、移動被写体の識別に重心座標の差分のみを用いた場合、重心座標の差分が同じ場合は移動被写体が存在しないグループを識別することが出来ず、また重心座標の差分が近い場合は移動被写体が存在しないグループを誤って識別する危険性がある。
次にステップS41の処理について説明する。ステップS40で求めた前フィールドにて画面全体の動きベクトルとして決定されたグループの重心座標と、現フィールドで検出された各グループの重心座標との距離の差分同士が所定値(G_DIFF)以上離れているかどうかの判定を行う。
前述の所定値G_DIFFを、例えば図6(A)における画面上の隣接する動きベクトル検出領域の中心座標同士を結ぶ距離の半分、即ちG_DIFF=(Xi+1−X)/2と定義する。本実施例においては、前フィールドで画面全体の動きベクトルとして決定された図11(B)のグループ31の重心座標G31と、図11(E)のグループ41及びグループ42の重心座標G41とG42との距離の差分同士の差がG_DIFF以下であると判定された場合、ステップS42の処理へ移る。すなわち、||G41−G31|−|G42−G31||≦G_DIFFであると判定された場合、ステップS42の処理へ移る。
ステップS42においては、前フィールドで画面全体の動きベクトルとして決定されたグループのベクトル検出領域のばらつき度合いを示す値と、現フィールドで検出された複数の動きベクトルの各グループのベクトル検出領域のばらつき度合いを示す値同士を比較する。ばらつき度合いを示す値同士の比較は、ばらつきを示す値同士の差分の演算を行う。そしてステップS43において、上記差分が最も小さいグループの代表動きベクトルを画面全体の動きベクトルとして決定する。ステップS42とステップS43の本実施例での処理を以下に記す。
ステップS42において、グループ31のベクトル検出領域のばらつき度合いを示す値Z31と、現フィールドで検出されたグループ41のベクトル検出領域のばらつき度合いを示す値Z41との差分をΔZ[41]とする。またグループ31のベクトル検出領域のばらつき度合いを示す値Z31と、現フィールドで検出されたグループ42のベクトル検出領域のばらつき度合いを示す値Z42との差分をΔZ[42]とする。そして、ΔZ[41]とΔZ[42]を求める。ΔZ[41]とΔZ[42]を求める計算式を(式8)、(式9)に示す。
ΔZ[41]=|Z41−Z31| (式8)
ΔZ[42]=|Z42−Z31| (式9)
図11(C)、図11(F)よりΔZ[41]<ΔZ[42]となるため、ステップS43の処理において、グループ41を、グループ31と同じ移動被写体が存在しないグループと判断することが出来る。ステップS43の処理によって、ステップS41の演算結果において、図11(E)に示すように、グループ41とグループ42の重心座標G41とG42が一致する場合であっても、ベクトル検出領域のばらつき度合いを示す値の差分を用いることによって、移動被写体が存在しないグループを判定することが可能となる。
ステップS41において、前フィールドで画面全体の動きベクトルとして決定されたグループの重心座標と、現フィールドで検出された動きベクトルの各グループの重心座標との距離の差分が、所定値G_DIFFより離れている場合は、ステップS44の処理へ移る。
ステップS44の処理はステップS21と同様であり、前フィールドで画面全体の動きベクトルとして決定されたグループの重心座標と、現フィールドで検出された複数の動きベクトルの各グループの重心座標の距離の差分が、最も小さいグループの代表動きベクトルを現フィールドの画面全体の動きベクトルとして決定する。
なお、ステップS40からS43の処理においては、以下の方法を用いても同様の効果を得ることができる。すなわち、前フィールドで画面全体の動きベクトルとして決定されなかったグループの重心座標と、現フィールドで検出された複数の動きベクトルの各グループの重心座標との距離の差分を判断する。この重心座標の距離の差分同士が所定値以上離れた値でなければ、前フィールドで画面全体の動きベクトルとして決定されなかったグループのばらつき度合いを示す値と、現フィールドで検出された複数の動きベクトルの各グループのばらつき度合いを示す値との差分が最も小さいグループを画面全体の動きベクトルの決定対象から除外する。そして、残ったグループの代表動きベクトルを画面全体の動きベクトルとして決定するようにしてもよい。
これによって、本実施例における動きベクトル検出装置を組み込んだ撮像装置を使用して、移動被写体が存在しないグループと判断された方のグループに手ぶれ補正処理を行うことで、移動被写体に画面が引っ張られる現象を防止することが可能となる。
(実施例4)
ステップS15の移動被写体識別処理の4つ目の方法について、図13に示す画面の状態図と図14に示すフローチャートを用いて説明する。
実施例2においては、検出された複数の動きベクトルのグループ化を行った後に、各グループのベクトル検出領域の座標のばらつきを示す値を算出することで、前後のフィールドにおけるグループの判別を行ってきた。しかし、図13(D)の場合のように、画面の半分に被写体が存在する場合は、複数の動きベクトルのグループのベクトル検出領域のばらつき度合いを示す値が同じ、もしくは非常に近接することが考えられる。そこで本実施例では、複数の動きベクトルのグループのベクトル検出領域のばらつき度合いを示す値が同じ、もしくは非常に近接する場合を考える。
本実施例においては、前フィールド(時刻t4−Δt)の画面が図13(A)に示す状態であり、Δt秒後の現フィールド(時刻t4)の画面が図13(D)に示す状態であったとする。また、前フィールドの動きベクトルの各グループの重心座標は図13(B)に示す状態であり、現フィールドの動きベクトルの各グループの重心座標は図13(E)に示す状態であるとする。また、前フィールドの動きベクトルの各グループの、代表動きベクトルの大きさとベクトル検出領域のばらつき度合いを示す値の関係は図13(C)に示す状態であるとする。また、現フィールドの動きベクトルの各グループの、代表動きベクトルの大きさとばらつき度合いを示す値の関係は図13(F)に示す状態であるとする。また、ステップS14の処理において、ばらつき度合いを示す値が大きい方のグループである、図13(B)のグループ51が前フィールドで代表動きベクトルとして決定されているものとする。
ステップS50において、前フィールドで画面全体の動きベクトルとして決定されたグループ領域のばらつき度合いを示す値と現フィールドで検出された複数の動きベクトルのグループ領域のばらつき度合いを示す値同士を比較し、対応するグループであるかの判定を行う。具体的には、前フィールドで画面全体の動きベクトルとして決定されたグループのばらつき度合いを示す値と、現フィールドで検出された複数の動きベクトルの各グループのばらつき度合いを示す値同士を比較する。また、ばらつき度合いを示す値同士の比較は、本実施例では、ばらつきを示す値同士の差分の演算を行う。これは、ステップS30の処理と同様であるため、説明は省略する。
次に、現フィールドである図13(D)においては移動被写体が画面の左半分を占めているので、グループ61とグループ62のベクトル検出領域のばらつき度合いを示す値Z61とZ62は一致するか近い値になる。そのため、前フィールドで画面全体の動きベクトルとして決定されたグループ51のベクトル検出領域のばらつき度合いを示す値Z51と、グループ61とグループ62のベクトル検出領域のばらつき度合いを示す値Z61とZ62との差分も一致するか近い値になる。よって、移動被写体の識別にベクトル検出領域のばらつき度合いの差分のみを用いた場合、ベクトル検出領域のばらつき度合いを示す値の差分が同じ場合は移動被写体が存在しないグループを識別することが出来ず、またベクトル検出領域のばらつき度合いを示す値の差分が近い場合は移動被写体が存在しないグループを誤って識別する危険性がある。
そこで、ステップS51にて、ステップS50で求めた前フィールドで画面全体の動きベクトルとして決定されたグループのベクトル検出領域のばらつき度合いを示す値と現フィールドで検出された複数の動きベクトルの各グループのベクトル検出領域のばらつき度合いを示す値との差分同士が、所定値(Z_DIFF)以上離れているかどうかの判定を行う。
前述の所定値Z_DIFFを、例えば図6(A)における画面の座標上の隣接する動きベクトル検出領域の中心同士を結ぶ距離の2乗、即ちZ_DIFF=(Xi+1−Xと定義する。本実施例においては、前フィールドで代表動きベクトルとして決定された図11(C)グループの51のばらつき度合いを示す値Z51と、図11(F)のグループ61及びグループ62のばらつき度合いを示す値Z61とZ62との差分同士の差がZ_DIFF以下であると判定された場合ステップS52の処理へ移る。すなわち、||Z61−Z51|−|Z62−Z51||≦Z_DIFFであると判定された場合、ステップS52の処理へ移る。
ステップS52において、前フィールドで画面全体の動きベクトルとして決定されたグループの重心座標と、現フィールドで検出された複数の動きベクトルの各グループの重心座標同士を比較する。また、重心座標同士の比較は、本実施例では重心座標の距離の差分の演算を行う。そしてステップS53において、上記差分が最も小さいグループの代表動きベクトルを画面全体の動きベクトルとして決定する。ステップS52とステップS53の本実施例での処理を以下に記す。
ステップS52において、前フィールドで画面全体の動きベクトルとして決定されたグループ51の重心座標G51と、現フィールドで検出されたグループ61の重心座標G61との差分をΔG[61]とする。また、グループ51の重心座標G51と、現フィールドで検出されたグループ62の重心座標G62との差分をΔG[62]とする。そしてΔG[61]とΔG[62]を求める。ΔG[61]とΔG[62]を求める計算式を(式10)、(式11)に示す。
ΔG[61]=|G61−G51| (式10)
ΔG[62]=|G62−G51| (式11)
図13(B)、図11(E)よりΔG[61]<ΔG[62]となるため、ステップS53の処理において、グループ61を、グループ51と同じ移動被写体が存在しないグループと判断することが出来る。ステップS53の処理によって、ステップS51の演算結果において、図13(F)に示すように、グループ61とグループ62のベクトル検出領域のばらつき度合いを示す値Z61とZ62が一致する場合であっても、重心座標の距離の差分を用いることによって、移動被写体が存在しないグループを判定することが可能となる。
ステップS51において、前フィールドで画面全体の動きベクトルとして決定されたグループのベクトル検出領域のばらつき度合いを示す値と、現フィールドで検出された動きベクトルの各グループのベクトル検出領域のばらつき度合いを示す値との差分が、所定値Z_DIFFより離れている場合は、ステップS54の処理へ移る。
ステップS54の処理はステップS31と同様であり、前フィールドで画面全体の動きベクトルとして決定されたグループのベクトル検出領域のばらつき度合いを示す値と、現フィールドで検出された複数の動きベクトルの各グループのベクトル検出領域のばらつき度合いを示す値の差分が、最も小さいグループの代表動きベクトルを現フィールドの画面全体の動きベクトルとして決定する。
なお、ステップS50からS53の処理においては、以下の方法を用いても同様の効果を得ることができる。すなわち、前フィールドで画面全体の動きベクトルとして決定されなかったグループのばらつき度合いを示す値と、現フィールドで検出された複数の動きベクトルの各グループのばらつき度合いを示す値との差分を判断する。このばらつき度合いを示す値の差分同士が所定値以上離れた値でなければ、前フィールドで画面全体の動きベクトルとして決定されなかったグループの重心座標と、現フィールドで検出された複数の動きベクトルの各グループの重心座標との距離の差分が最も小さいグループを画面全体の動きベクトルの決定対象から除外する。そして、残ったグループの代表動きベクトルを画面全体の動きベクトルとして決定するようにしてもよい。
これによって、本実施例における動きベクトル検出装置を組み込んだ撮像装置を使用して、移動被写体が存在しないグループと判断された方のグループに手ぶれ補正処理を行うことで、移動被写体に画面が引っ張られる現象を防止することが可能となる。
(実施例5)
ステップS14の別の実施例として、画面の半分以上を占めるほど大きな移動被写体が存在する場合の実施例を挙げる。
ステップS14の処理において、複数グループのうちから1グループを画面全体の動きベクトル(基準グループ)として決定したが、実施例1から4においては、ベクトル検出領域のばらつき度合いを示す値を用いてグループを決定した。しかし、図13のバスの例のように、画面上に大きい移動被写体が存在する場合においては、必ずしもベクトル検出領域のばらつき度合いを示す値が最も大きいグループを背景領域として代表動きベクトルを決定する方が良いとは限らない。
何故なら、画面上に大きい移動被写体が存在する場合は、移動被写体が存在するグループのベクトル検出領域のばらつき度合いを示す値が、移動被写体が存在しないグループのベクトル検出領域のばらつき度合いを示す値よりも、大きくなることがあるからである。そこで本実施例においては、ステップS14の処理で、ベクトル検出領域の数が最も多いグループを画面全体の動きベクトルとして決定されたグループとする。これによって、大きな移動被写体が存在する場合も精度良く、グループの切り分けを行うことが可能になる。
なお、ステップS14の基準グループの設定において、移動被写体領域と背景領域の分類に、顔検出機能や色情報、測距による被写体判別などの情報を用いることにより、移動被写体領域と背景領域の判断をより正確に行うことができる。
(その他の実施例)
なお、本発明は、以下の構成でも達成され得る。
実施例1〜5では、ベクトル検出領域の座標の重心あるいはベクトル検出領域の座標のばらつきの度合いを示す値を用いることで、前後のフィールド間での動きベクトルのグループ領域同士を比較した。しかし、本発明を実施するための手段としては、前後のフィールド間での色の相関度合いによって前後のフィールド間での動きベクトルのグループ領域同士を比較しても良い。また、前後のフィールドにおいて、グループ領域に属するベクトル検出領域の数を比較しても良い。
前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、コンピュータあるいは装置に供給し、そのコンピュータあるいは装置の制御部が記憶媒体に格納されたプログラムコードを読み出し実行することによっても達成され得る。なお、そのコンピュータあるいは装置の制御部とは、例えばシステム制御部やCPU、MPUなどが該当する。
この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、DVD−ROM、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。
また、上記実施例1〜5においては、移動被写体が1種類の場合で説明を行ったが、これに限定されるものではない。移動被写体が2種類以上画面内に存在する場合も、同様の考え方を用いることができる。
本画像処理装置を防振機構に組み込むことによって、ビデオ又はカメラによる撮影時に撮影画面内に移動被写体が存在する場合は、移動被写体と背景を動きベクトルを用いることによって切り分けられるため、手ぶれ補正を効率よく行うことが可能である。また、背景に対して手ぶれ補正を働かせることによって防振機能を、被写体に対して手ブレ補正を働かせれば被写体ブレの防止だけでなく追尾機能を働かせることできる。ビデオ又はカメラは家庭用や業務用に限定されず、監視カメラや医療用カメラのような特殊な用途のビデオ又はカメラにも応用可能である。
本発明の一実施形態に係わる動きベクトル検出装置を組み込んだ撮像装置としてのビデオ又はカメラの構成を示すブロック図である。 動きベクトル検出装置の概略構成を示すブロック図である。 (A)は撮影した現フィールドの画面上に、動きベクトル検出のためのベクトル検出領域を示した一例を示す図、(B)は直前のフィールドとの差により得られた動きベクトルを示す図、(C)は全ベクトル検出領域の動きベクトルのX方向、Y方向のそれぞれの大きさの頻度を示すヒストグラムである。 (A)は画面内に移動物が入ってきた状態を示す図、(B)は図4(A)の場合の動きベクトルの分布を示す図、(C)は図4(A)の場合の動きベクトルのヒストグラムを示す図である。 図4(A)の場合の動きベクトルのヒストグラムの詳細な図である。 (A)は本実施態様にて定義されたベクトル検出領域の座標を表す図、(B)は図4(A)の場合のグループ1及びグループ2のベクトル検出領域の中心座標を示す図、(C)は図4(A)の場合のグループ1及びグループ2の中心座標の位置とばらつきを示す値及び、動きベクトルの大きさとばらつきを示す値の大きさを示す図である。 移動被写体判別のためのフローチャートである。 (A)は前フィールドの移動物の状態を示す図、(B)は図8(A)の場合のグループ1及びグループ2のベクトル検出領域の中心座標を示す図、(C)は図8(A)の場合のグループ1及びグループ2の動きベクトルの大きさとばらつきを示す値の大きさを示す図、(D)は現フィールドの移動物の状態を示す図、(E)は図8(D)の場合のグループ1及びグループ2のベクトル検出領域の中心座標を示す図、(F)は図8(D)の場合のグループ1及びグループ2動きベクトルの大きさとばらつきを示す値の大きさを示す図である。 図7のステップS15の移動被写体識別処理の1つ目の方法のフローチャートである。 図7のステップS15の移動被写体識別処理の2つ目の方法のフローチャートである。 (A)は画面中央で移動物が動いている場合の状態を示す図、(B)は図11(A)の場合のグループ1及びグループ2のベクトル検出領域の中心座標を示す図、(C)は図11(A)の場合のグループ1及びグループ2の中心座標の位置とばらつきを示す値及び、動きベクトルの大きさとばらつきを示す値の大きさを示す図、(D)は現フィールドの移動物の状態を示す図、(E)は図11(D)の場合のグループ1及びグループ2のベクトル検出領域の中心座標を示す図、(F)は図11(D)の場合のグループ1及びグループ2の動きベクトルの大きさとばらつきを示す値の大きさを示す図である。 ステップS15の移動被写体識別処理の3つ目の方法のフローチャートである。 (A)は画面内で大きい移動物が動いている場合の状態を示す図、(B)は図13(A)の場合のグループ1及びグループ2のベクトル検出領域の中心座標を示す図、(C)は図13(A)の場合のグループ1及びグループ2の中心座標の位置とばらつきを示す値及び、動きベクトルの大きさとばらつきを示す値の大きさを示す図、(D)は現フィールドの移動物の状態を示す図、(E)は図13(D)の場合のグループ1及びグループ2のベクトル検出領域の中心座標を示す図、(F)は図13(D)の場合のグループ1及びグループ2の動きベクトルの大きさとばらつきを示す値の大きさを示す図である。 ステップS15の移動被写体識別処理の4つ目の方法のフローチャートである。 従来の画像処理方法によりぶれを防止する装置の概略ブロック図である。
符号の説明
11 光学系

Claims (20)

  1. 時間的に連続するフィールドを処理する画像処理装置であって、
    それぞれのフィールドに対して、複数のベクトル検出領域で動きベクトルを検出するベクトル検出手段と、
    フィールドごとに、前記ベクトル検出手段にて検出した前記動きベクトルに基づいて前記ベクトル検出領域をグループ化したグループ領域を設定する設定手段と、
    異なるフィールド間で前記グループ領域同士を比較することで、当該フィールド間で対応するグループ領域を判定する判定手段とを有することを特徴とする画像処理装置。
  2. 前記判定手段は、異なるフィールド間で前記グループ領域の座標の重心を比較することで、当該フィールド間で対応するグループ領域を判定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記判定手段は、異なるフィールド間で前記グループ領域の重心同士の距離が予め定められた値よりも小さい場合は、前記異なるフィールド間で前記グループ領域の座標のばらつきの値同士を比較することで、当該フィールド間で対応するグループ領域を判定することを特徴とする請求項2に記載の画像処理装置。
  4. 前記判定手段は、異なるフィールド間で前記グループ領域の座標のばらつきの値同士を比較することで、当該フィールド間で対応するグループ領域を判定することを特徴とする請求項1に記載の画像処理装置。
  5. 前記判定手段は、異なるフィールド間で前記グループ領域の座標のばらつきの値同士の差が予め定められた値よりも小さい場合は、前記異なるフィールド間で前記グループ領域の重心同士を比較することで、当該フィールド間で対応するグループ領域を判定することを特徴とする請求項4に記載の画像処理装置。
  6. 前記設定手段は、前記ベクトル検出領域ごとの動きベクトルを、その大きさを階級とする度数分布上に振り分け、度数の大きさと階級間の距離に基づいて前記ベクトル検出領域ごとの動きベクトルを1つ以上のグループに分類し、分類された動きベクトルが対応する領域をグループ領域として設定することを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. フィールドに複数のベクトル検出領域を設定し、フィールド間の相関から、設定されたそれぞれのベクトル検出領域において動きベクトルを検出する検出手段と、
    前記それぞれのベクトル検出領域にて検出される動きベクトルに基づいて、前記それぞれのベクトル検出領域をグループに分類する領域分類手段と、
    前記領域分類手段により分類された結果、前記それぞれのベクトル検出領域が複数のグループに分類された場合に、当該複数のグループから基準となる1つのグループを決定する決定手段とを備え、
    前記決定手段は、前記複数のグループの重心と、前フィールドにおいて決定された1つのグループの重心との距離の差分から、前記前フィールドにおいて決定された1つのグループに対応するグループを決定することを特徴とする画像処理装置。
  8. 前記決定手段は、前記複数のグループの重心と、基準となる画像データにおいて決定された1つのグループの重心との距離の差分が所定値より小さい場合には、
    現在のフィールドにおける前記複数のグループそれぞれのベクトル検出領域のばらつき度合いを示す値と、前記前フィールドにおいて決定された1つのグループに属するベクトル検出領域のばらつき度合いを示す値との差分から、前記前フィールドにおいて決定された1つのグループに対応するグループを決定することを特徴とする、請求項7に記載の画像処理装置。
  9. フィールドに複数のベクトル検出領域を設定し、フィールド間の相関から、設定されたそれぞれのベクトル検出領域において動きベクトルを検出する検出手段と、
    前記それぞれのベクトル検出領域にて検出される動きベクトルに基づいて、前記それぞれのベクトル検出領域をグループに分類する領域分類手段と、
    前記領域分類手段により分類された結果、前記それぞれのベクトル検出領域が複数のグループに分類された場合に、当該複数のグループから基準となる1つのグループを決定する決定手段とを備え、
    前記決定手段は、前記複数のグループのベクトル検出領域のばらつき度合いを示す値と、前フィールドにおいて決定された1つのグループのベクトル検出領域のばらつき度合いを示す値との差分から、前記前フィールドにおいて決定された1つのグループに対応するグループを決定することを特徴とする画像処理装置。
  10. 前記決定手段は、前記複数のグループのベクトル検出領域のばらつき度合いを示す値と、基準となる画像データにおいて決定された1つのグループのベクトル検出領域のばらつき度合いを示す値との差分が所定値より小さい場合には、
    現在のフィールドにおける前記複数のグループそれぞれのベクトル検出領域の重心と、前記前フィールドにおいて決定された1つのグループに属するベクトル検出領域の重心から、前記前フィールドにおいて決定された1つのグループに対応するグループを決定することを特徴とする、請求項9に記載の画像処理装置。
  11. 前記領域分類手段は、前記それぞれのベクトル検出領域ごとの動きベクトルを、その大きさを階級とする度数分布上に振り分け、度数の大きさと階級間の距離に基づいて前記それぞれのベクトル検出領域ごとの動きベクトルを1つ以上のグループに分類することを特徴とする請求項7乃至10のいずれか1項に記載の画像処理装置。
  12. 前記決定手段は、前記領域分類手段により分類された結果、前記それぞれのベクトル検出領域ごとの動きベクトルが複数のグループに分類された場合に、該複数のグループのうちベクトル検出領域のばらつき度合いを示す値が最も大きいグループを決定することを特徴とする請求項7乃至11のいずれか1項に記載の画像処理装置。
  13. 前記決定手段は、前記領域分類手段により分類された結果、前記それぞれのベクトル検出領域ごとの動きベクトルが複数のグループに分類された場合に、該複数のグループのうちベクトル検出領域の数が最も多いグループを決定することを決定とする請求項7乃至11のいずれか1項に記載の画像処理装置。
  14. 請求項1ないし13いずれか1項に記載の画像処理装置を備えることを特徴とする撮像装置。
  15. 前記撮像装置は、更に前記画像処理装置の出力に基づいて振れを補正する振れ補正手段を備えることを特徴とする請求項14に記載の撮像装置。
  16. 時間的に連続するフィールドを処理する画像処理方法であって、
    それぞれのフィールドに対して、複数のベクトル検出領域で動きベクトルを検出するベクトル検出工程と、
    フィールドごとに、前記ベクトル検出手段にて検出した前記動きベクトルに基づいて前記ベクトル検出領域をグループ化したグループ領域を設定する設定工程と、
    異なるフィールド間で前記グループ領域同士を比較することで、当該フィールド間で対応するグループ領域を判定する判定工程とを有することを特徴とする画像処理方法。
  17. フィールドに複数のベクトル検出領域を設定し、フィールド間の相関から、設定されたそれぞれのベクトル検出領域において動きベクトルを検出する検出工程と、
    前記それぞれのベクトル検出領域にて検出される動きベクトルに基づいて、前記それぞれのベクトル検出領域をグループに分類する領域分類工程と、
    前記領域分類工程により分類された結果、前記それぞれのベクトル検出領域が複数のグループに分類された場合に、当該複数のグループから基準となる1つのグループを決定する決定工程とを備え、
    前記決定工程は、前記複数のグループの重心と、前フィールドにおいて決定された1つのグループの重心との距離の差分から、前記前フィールドにおいて決定された1つのグループに対応するグループを決定することを特徴とする画像処理方法。
  18. フィールドに複数のベクトル検出領域を設定し、フィールド間の相関から、設定されたそれぞれのベクトル検出領域において動きベクトルを検出する検出工程と、
    前記それぞれのベクトル検出領域にて検出される動きベクトルに基づいて、前記それぞれのベクトル検出領域をグループに分類する領域分類工程と、
    前記領域分類工程により分類された結果、前記それぞれのベクトル検出領域が複数のグループに分類された場合に、当該複数のグループから基準となる1つのグループを決定する決定工程とを備え、
    前記決定工程は、前記複数のグループのベクトル検出領域のばらつき度合いを示す値と、前フィールドにおいて決定された1つのグループのベクトル検出領域のばらつき度合いを示す値との差分から、前記前フィールドにおいて決定された1つのグループに対応するグループを決定することを特徴とする画像処理方法。
  19. 請求項16乃至18の何れか1項に記載の画像処理方法をコンピュータに実行させるためのプログラム。
  20. 請求項19のプログラムを記憶したコンピュータが読み取り可能な記憶媒体。
JP2008248070A 2008-09-26 2008-09-26 画像処理装置及び画像処理方法及び撮像装置及びプログラム Expired - Fee Related JP5213613B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2008248070A JP5213613B2 (ja) 2008-09-26 2008-09-26 画像処理装置及び画像処理方法及び撮像装置及びプログラム
EP09170469A EP2169945B1 (en) 2008-09-26 2009-09-16 Image processing apparatus and method for detection and correction of camera shake
EP10187781.9A EP2293540B1 (en) 2008-09-26 2009-09-16 Image processing apparatus and method for detection and correction of camera shake
US12/563,770 US8509481B2 (en) 2008-09-26 2009-09-21 Image processing apparatus, image processing method, imaging apparatus
CN2009101760716A CN101686330B (zh) 2008-09-26 2009-09-25 图像处理设备、图像处理方法和摄像设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008248070A JP5213613B2 (ja) 2008-09-26 2008-09-26 画像処理装置及び画像処理方法及び撮像装置及びプログラム

Publications (3)

Publication Number Publication Date
JP2010079655A true JP2010079655A (ja) 2010-04-08
JP2010079655A5 JP2010079655A5 (ja) 2011-11-10
JP5213613B2 JP5213613B2 (ja) 2013-06-19

Family

ID=41426265

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008248070A Expired - Fee Related JP5213613B2 (ja) 2008-09-26 2008-09-26 画像処理装置及び画像処理方法及び撮像装置及びプログラム

Country Status (4)

Country Link
US (1) US8509481B2 (ja)
EP (2) EP2169945B1 (ja)
JP (1) JP5213613B2 (ja)
CN (1) CN101686330B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012008176A1 (ja) * 2010-07-12 2012-01-19 株式会社日立国際電気 監視システムおよび監視方法
JP2012128745A (ja) * 2010-12-16 2012-07-05 Canon Inc 動きベクトル検出装置、動きベクトル検出方法及び補正装置及びプログラム
JP2021028807A (ja) * 2019-08-09 2021-02-25 フジテック株式会社 画像処理装置および画像処理方法

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110068635A (ko) * 2009-12-16 2011-06-22 삼성전자주식회사 디지털 영상 처리 장치, 그 제어 방법 및 컴퓨터 판독가능 저장매체
US8896715B2 (en) * 2010-02-11 2014-11-25 Microsoft Corporation Generic platform video image stabilization
US8797414B2 (en) * 2010-12-23 2014-08-05 Samsung Electronics Co., Ltd. Digital image stabilization device
US8891626B1 (en) * 2011-04-05 2014-11-18 Google Inc. Center of motion for encoding motion fields
JP2012257080A (ja) * 2011-06-09 2012-12-27 Sony Corp 画像処理装置および画像処理方法、並びにプログラム
WO2013006386A1 (en) 2011-07-01 2013-01-10 General Instrument Corporation Motion vector prediction design simplification
JP5412692B2 (ja) * 2011-10-04 2014-02-12 株式会社モルフォ 画像処理装置、画像処理方法、画像処理プログラム及び記録媒体
CN104041041B (zh) 2011-11-04 2017-09-01 谷歌技术控股有限责任公司 用于非均匀运动向量栅格的运动向量缩放
US8908767B1 (en) 2012-02-09 2014-12-09 Google Inc. Temporal motion vector prediction
US9172970B1 (en) 2012-05-29 2015-10-27 Google Inc. Inter frame candidate selection for a video encoder
US11317101B2 (en) 2012-06-12 2022-04-26 Google Inc. Inter frame candidate selection for a video encoder
US9485515B2 (en) 2013-08-23 2016-11-01 Google Inc. Video coding using reference motion vectors
US9503746B2 (en) 2012-10-08 2016-11-22 Google Inc. Determine reference motion vectors
US9712818B2 (en) * 2013-01-11 2017-07-18 Sony Corporation Method for stabilizing a first sequence of digital image frames and image stabilization unit
US9313493B1 (en) 2013-06-27 2016-04-12 Google Inc. Advanced motion estimation
WO2016145406A1 (en) 2015-03-11 2016-09-15 Massachusetts Institute Of Technology Methods and apparatus for modeling deformations of an object
JP6577852B2 (ja) * 2015-12-03 2019-09-18 キヤノン株式会社 動きベクトル検出装置およびその制御方法
EP3184251A1 (de) * 2015-12-22 2017-06-28 HILTI Aktiengesellschaft Brennkraftbetriebenes setzgerät und verfahren zum betreiben eines derartigen setzgeräts
JP6661493B2 (ja) * 2016-08-30 2020-03-11 キヤノン株式会社 像ブレ制御装置、撮像装置および制御方法
US10380745B2 (en) * 2016-09-01 2019-08-13 Massachusetts Institute Of Technology Methods and devices for measuring object motion using camera images
US11874415B2 (en) * 2020-12-22 2024-01-16 International Business Machines Corporation Earthquake detection and response via distributed visual input

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1132325A (ja) * 1997-05-14 1999-02-02 Hitachi Denshi Ltd 物体追跡方法および物体追跡監視装置
JP2007235769A (ja) * 2006-03-03 2007-09-13 Victor Co Of Japan Ltd 動きベクトル検出方法及び装置
JP2007336235A (ja) * 2006-06-15 2007-12-27 Sony Corp 動き検出方法、動き検出方法のプログラム、動き検出方法のプログラムを記録した記録媒体及び動き検出装置

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06133298A (ja) 1992-10-14 1994-05-13 Canon Inc 動きベクトル検出装置
JP2951230B2 (ja) * 1994-09-22 1999-09-20 三洋電機株式会社 2次元映像から3次元映像を生成する方法
KR100235343B1 (ko) * 1994-12-29 1999-12-15 전주범 영역분할 기법을 이용한 동영상신호 부호화기의 움직임 벡터 측정장치
KR0171154B1 (ko) * 1995-04-29 1999-03-20 배순훈 특징점 기반 움직임 추정을 이용하여 비디오 신호를 부호화하는 방법 및 장치
US6766037B1 (en) * 1998-10-02 2004-07-20 Canon Kabushiki Kaisha Segmenting moving objects and determining their motion
US6597738B1 (en) * 1999-02-01 2003-07-22 Hyundai Curitel, Inc. Motion descriptor generating apparatus by using accumulated motion histogram and a method therefor
US6809758B1 (en) * 1999-12-29 2004-10-26 Eastman Kodak Company Automated stabilization method for digital image sequences
KR100683849B1 (ko) * 2000-06-28 2007-02-15 삼성전자주식회사 디지털 영상 안정화기능을 갖는 디코더 및 디지털영상안정화방법
US8134613B2 (en) * 2001-04-10 2012-03-13 Sony Corporation Image processing apparatus and method, and image pickup apparatus
CN1332556C (zh) * 2002-12-26 2007-08-15 三菱电机株式会社 修正抖动的图像处理装置和图像处理方法
US7095786B1 (en) * 2003-01-11 2006-08-22 Neo Magic Corp. Object tracking using adaptive block-size matching along object boundary and frame-skipping when object motion is low
US7111529B2 (en) * 2003-07-25 2006-09-26 Pradelski William W Ratchetable open-ended wrench
JP3838243B2 (ja) * 2003-09-04 2006-10-25 ソニー株式会社 画像処理方法、および画像処理装置、並びにコンピュータ・プログラム
US7457438B2 (en) * 2003-12-23 2008-11-25 Genesis Microchip Inc. Robust camera pan vector estimation using iterative center of mass
WO2005066897A1 (ja) * 2004-01-06 2005-07-21 Sony Corporation 画像処理装置および方法、記録媒体、並びにプログラム
US7433497B2 (en) * 2004-01-23 2008-10-07 Hewlett-Packard Development Company, L.P. Stabilizing a sequence of image frames
US8036494B2 (en) * 2004-04-15 2011-10-11 Hewlett-Packard Development Company, L.P. Enhancing image resolution
US7649549B2 (en) * 2004-09-27 2010-01-19 Texas Instruments Incorporated Motion stabilization in video frames using motion vectors and reliability blocks
JP4379918B2 (ja) * 2004-11-29 2009-12-09 富士フイルム株式会社 撮影装置及び撮影方法
JP2007142883A (ja) * 2005-11-18 2007-06-07 Canon Inc 画像処理装置及び画像処理方法
JP4304528B2 (ja) * 2005-12-01 2009-07-29 ソニー株式会社 画像処理装置および画像処理方法
US8116576B2 (en) * 2006-03-03 2012-02-14 Panasonic Corporation Image processing method and image processing device for reconstructing a high-resolution picture from a captured low-resolution picture
JP2007272731A (ja) * 2006-03-31 2007-10-18 Sony Corp 画像処理装置および方法、並びにプログラム
JP4686663B2 (ja) * 2006-07-10 2011-05-25 国立大学法人京都大学 歩行者トラッキング方法及び歩行者トラッキング装置
US7783118B2 (en) * 2006-07-13 2010-08-24 Seiko Epson Corporation Method and apparatus for determining motion in images
JP4274233B2 (ja) * 2006-11-30 2009-06-03 ソニー株式会社 撮影装置、画像処理装置、および、これらにおける画像処理方法ならびに当該方法をコンピュータに実行させるプログラム
US7956899B2 (en) * 2007-08-29 2011-06-07 Sanyo Electric Co., Ltd. Imaging device and image processing apparatus
US8063942B2 (en) * 2007-10-19 2011-11-22 Qualcomm Incorporated Motion assisted image sensor configuration
JP5048542B2 (ja) * 2008-02-07 2012-10-17 オリンパス株式会社 画像処理装置及び画像処理プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1132325A (ja) * 1997-05-14 1999-02-02 Hitachi Denshi Ltd 物体追跡方法および物体追跡監視装置
JP2007235769A (ja) * 2006-03-03 2007-09-13 Victor Co Of Japan Ltd 動きベクトル検出方法及び装置
JP2007336235A (ja) * 2006-06-15 2007-12-27 Sony Corp 動き検出方法、動き検出方法のプログラム、動き検出方法のプログラムを記録した記録媒体及び動き検出装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012008176A1 (ja) * 2010-07-12 2012-01-19 株式会社日立国際電気 監視システムおよび監視方法
JP2012022370A (ja) * 2010-07-12 2012-02-02 Hitachi Kokusai Electric Inc 監視システムおよび監視方法
US9420236B2 (en) 2010-07-12 2016-08-16 Hitachi Kokusai Electric Inc. Monitoring system and monitoring method
JP2012128745A (ja) * 2010-12-16 2012-07-05 Canon Inc 動きベクトル検出装置、動きベクトル検出方法及び補正装置及びプログラム
JP2021028807A (ja) * 2019-08-09 2021-02-25 フジテック株式会社 画像処理装置および画像処理方法

Also Published As

Publication number Publication date
US20100079624A1 (en) 2010-04-01
CN101686330A (zh) 2010-03-31
EP2169945B1 (en) 2012-08-08
EP2169945A2 (en) 2010-03-31
EP2293540A1 (en) 2011-03-09
JP5213613B2 (ja) 2013-06-19
US8509481B2 (en) 2013-08-13
EP2169945A3 (en) 2010-04-07
EP2293540B1 (en) 2013-11-06
CN101686330B (zh) 2012-02-22

Similar Documents

Publication Publication Date Title
JP5213613B2 (ja) 画像処理装置及び画像処理方法及び撮像装置及びプログラム
JP4876065B2 (ja) 動きベクトル検出装置及び動きベクトル検出方法及び撮像装置及びプログラム
EP2330812B1 (en) Apparatus for generating a panoramic image, method for generating a panoramic image, and computer-readable medium
JP2010118862A (ja) 画像処理装置、撮像装置及び画像処理方法
US9865064B2 (en) Image processing apparatus, image processing method, and storage medium
JP2002305683A (ja) 撮像装置および撮像プログラムを記録した記録媒体
KR19990031401A (ko) 비트 플레인 정합을 이용한 입력영상의 움직임 보정을 통한 영상안정화 장치 및 그에 따른 영상 안정화방법
JP7223079B2 (ja) 画像処理装置およびその制御方法、ならびに撮像装置
EP2219366A1 (en) Image capturing device, image capturing method, and image capturing program
US9224212B2 (en) Image processing apparatus and image processing method
JP2010114752A (ja) 撮像装置及び撮像方法及びプログラム
WO2007129591A1 (ja) 遮蔽物映像識別装置及び方法
JP5300413B2 (ja) 動きベクトル検出装置及び動きベクトル検出方法及び撮像装置及びプログラム
JP2009260671A (ja) 画像処理装置及び撮像装置
JP5539565B2 (ja) 撮像装置及び被写体追跡方法
JP5029573B2 (ja) 撮像装置及び撮像方法
JP2009266169A (ja) 情報処理装置及び方法、並びにプログラム
JP2009027437A (ja) 画像処理装置,画像処理方法及び撮像装置
JP5759162B2 (ja) 動きベクトル検出装置、動きベクトル検出方法及び補正装置及びプログラム
JP2014153517A (ja) 画像処理装置および画像処理方法、プログラム並びに記憶媒体
US20220198683A1 (en) Object tracking apparatus and control method thereof using weight map based on motion vectors
JP6274778B2 (ja) 画像処理方法、画像処理装置、及びコンピュータプログラム
JP2008118340A (ja) 動きベクトル検出装置及びビデオ信号処理装置
WO2019239479A1 (ja) 画像処理装置および画像処理方法
CN115442533A (zh) 信息处理设备和方法、摄像设备及其控制方法和存储介质

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100201

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110926

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110926

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130226

R151 Written notification of patent or utility model registration

Ref document number: 5213613

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160308

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees