JP2012133759A - 侵入物体の検知を行うことができる物体追尾装置、物体追尾方法及び記憶媒体 - Google Patents

侵入物体の検知を行うことができる物体追尾装置、物体追尾方法及び記憶媒体 Download PDF

Info

Publication number
JP2012133759A
JP2012133759A JP2011249614A JP2011249614A JP2012133759A JP 2012133759 A JP2012133759 A JP 2012133759A JP 2011249614 A JP2011249614 A JP 2011249614A JP 2011249614 A JP2011249614 A JP 2011249614A JP 2012133759 A JP2012133759 A JP 2012133759A
Authority
JP
Japan
Prior art keywords
tracking
sub
current frame
region
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011249614A
Other languages
English (en)
Inventor
Takayuki Hara
貴幸 原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011249614A priority Critical patent/JP2012133759A/ja
Priority to US13/306,304 priority patent/US20120134541A1/en
Publication of JP2012133759A publication Critical patent/JP2012133759A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • G06V40/173Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks

Abstract

【課題】追尾対象体が追尾されている画像データの画像フレームに侵入物体が侵入したことを検出することのできる物体追尾装置を提供する。
【解決手段】追尾対象である被写体を追尾対象体として追尾する物体追尾装置は、動画像データにおける現フレームよりも前の前フレームにおいて追尾対象体の位置を示す前フレーム対象領域又は前記現フレームにおいて追尾対象体の位置を示す現フレーム対象領域に、複数のサブ領域を設定し、当該サブ領域毎にその特徴量を求める特徴量算出部104と、特徴量が第1の閾値を超えるサブ領域が存在し、かつその数が基準値に達していなければ、現フレームにおける追尾対象体が位置する領域に、追尾対象体と異なる侵入物体が侵入したと判定する侵入物判定部105とを有し、侵入物判定部105は追尾対象体の像領域に侵入物体が侵入したか否かを判定する。
【選択図】図1

Description

本発明は、動画像データにおいて、被写体などの移動物体を追尾する物体追尾装置、物体追尾方法及び物体追尾プログラムを記憶した記憶媒体に関し、特に、追尾対象である移動体(追尾対象体)を追尾する際に、追尾を誤る要因となる侵入物体を検出することにより、追尾精度を向上させることができる物体追尾装置、物体追尾方法及び物体追尾プログラムを記憶した記憶媒体に関する。
一般に、物体追尾装置は、動画像データから、追尾対象である被写体などの移動物体(追尾対象体)を検出して追尾するために用いられる。物体追尾装置において用いられる追尾手法の一例として、まず、動画像データの第1のフレームにおいて追尾対象体の特徴量を算出する。そして、第1のフレームに続く次フレーム以降の画像データにおいて、当該特徴量に最も近似する近似領域を探索し、この近似領域の位置を、当該フレームの画像データにおける追尾対象体の位置としている。
例えば、特許文献1には、追尾対象体の色を特徴量として用いて、追尾対象体の追尾を行う構成が開示されている。
また、特許文献2には、追尾対象体の特徴量に近似する近似領域を複数検出して、これら近似領域の全てについてその信頼度を算出し、その信頼度が高い近似領域の位置を追尾対象体の位置とする構成が開示されている。
特開平5−205052号公報 特開2006−318345号公報
しかしながら、上述した従来の追尾手法では、次のような課題がある。
図12は従来の追尾手法の課題について説明するための図である。
図12において、いま、動画像データの第(n−2)のフレーム(nは3以上の整数)の画像データ上の人物1201の胸像を追尾対象体とする。第(n−2)のフレームの画像データにおいては、人物1201の胸像に追尾枠1200が表示される。
第(n−2)のフレームの画像データでは、追尾対象体である人物1201の近隣に、人物1201の類似人物1202が存在する。そして、第(n−2)のフレームに続く第(n−1)のフレームの画像データでは、侵入人物1203が登場する。
第(n−1)のフレームに続く第nのフレームの画像データでは、侵入人物1203が人物1201の前に位置して、侵入人物1203が追尾対象体である人物1201を覆い隠している。このような状態において、代表色又は特徴量で追尾対象体である人物1201の追尾を行おうとすると、第nのフレームの画像データでは人物1201が侵入人物1203によって覆い隠されているため、追尾枠1200は類似人物1202に移動してしまうことがある。それ以降は、類似人物1202に対する追尾が継続されてしまい、追尾対象体である人物1201の追尾を行うことができなくなってしまう。
このように、追尾対象体が侵入物体によって覆い隠されたことを検出できなかったために、代表色又は特徴量が類似する物体が追尾対象体の近隣に存在すると、追尾対象体とは異なる物体を追尾対象と誤認することがある。
本発明の目的は、追尾対象体が追尾されている画像データの画像フレームに侵入物体が侵入したことを検出することのできる物体追尾装置、物体追尾方法及び物体追尾プログラムを記憶した記憶媒体を提供することにある。
上記目的を達成するために、本願の請求項1記載の物体追尾装置は、複数のフレームを有する動画像データを受け、当該動画像データにおいて追尾対象である被写体を追尾対象体として追尾する物体追尾装置であって、前記動画像データにおける現フレームよりも前の前フレームにおいて前記追尾対象体の位置を示す前フレーム対象領域、または、前記現フレームにおいて前記追尾対象体の位置を示す現フレーム対象領域に、複数のサブ領域を設定し、当該サブ領域毎にその特徴量を求める特徴量算出手段と、前記特徴量が第1の閾値を超える前記サブ領域が存在し、かつ、その数が基準値に達していなければ、前記現フレームにおける前記追尾対象体が位置する領域に、前記追尾対象体と異なる侵入物体が侵入したと判定する侵入物判定手段とを有することを特徴とする。
上記目的を達成するために、本願の請求項8記載の物体追尾方法は、複数のフレームを有する動画像データを受け、当該動画像データにおいて追尾対象である被写体を追尾対象体として追尾する物体追尾方法であって、前記動画像データにおける現フレームよりも前の前フレームにおいて前記追尾対象体の位置を示す前フレーム対象領域、または、前記現フレームにおいて前記追尾対象体の位置を示す現フレーム対象領域に、複数のサブ領域を設定し、当該サブ領域毎にその特徴量を求め、前記特徴量が第1の閾値を超える前記サブ領域が存在し、かつ、その数が基準値に達していなければ、前記現フレームにおける前記追尾対象体が位置する領域に、前記追尾対象体と異なる侵入物体が侵入したと判定することを特徴とする。
上記目的を達成するために、本願の請求項9記載の記憶媒体は、複数のフレームを有する動画像データを受け、当該動画像データにおいて追尾対象である被写体を追尾対象体として追尾する物体追尾方法をコンピュータに実行させるコンピュータ実行可能なプログラムを記憶したコンピュータで読み取り可能な記憶媒体であって、前記物体追尾方法は、前記動画像データにおける現フレームよりも前の前フレームにおいて前記追尾対象体の位置を示す前フレーム対象領域、または、前記現フレームにおいて前記追尾対象体の位置を示す現フレーム対象領域に、複数のサブ領域を設定し、当該サブ領域毎にその特徴量を求め、前記特徴量が第1の閾値を超える前記サブ領域が存在し、かつ、その数が基準値に達していなければ、前記現フレームにおける前記追尾対象体が位置する領域に、前記追尾対象体と異なる侵入物体が侵入したと判定することを特徴とする。
本発明によれば、サブ領域についてその特徴量を求めて、これら特徴量に応じて、侵入物体が現フレーム領域に侵入したか否かを判定するようにしたので、画像データの画像フレームへの侵入物体の検知を行うことができる。
本発明の第1の実施の形態に係る物体追尾装置のブロック図である。 図2(A)は、前フレーム対象領域データを示す図であり、図2(B)は、現フレームの画像データに設定するマッチング領域を示す図である。 図3(A)は、前フレーム対象領域データにおけるサブ領域の一例を示す図であり、図3(B)は、現フレーム対象領域データにおけるサブ領域の一例を示す図である。 図1に示す特徴量算出部で算出される特徴量である動きベクトルを説明するための図である。 図5(A)は前フレームのサブ領域を示す図であり、図5(B)はこの前フレームのサブ領域に対応する現フレームのサブ領域及び探索領域を示す図であり、図5(C)はマッチング領域を示す図である。 本発明の第1の実施の形態による物体追尾装置の変形例を示すブロック図である。 本発明の第2の実施の形態による物体追尾装置のブロック図である。 図7に示す特徴量算出部における評価値(特徴量)の算出を説明するための図である。 図9(A)はサブ領域を示す図であり、図9(B)は現フレームの画像データに設定するマッチング領域を示す図である。 図7に示す信頼度算出部における信頼度の決定について説明するための図である。 本発明の第2の実施の形態による物体追尾装置の変形例を示すブロック図である。 従来の追尾手法の問題点について説明するための図である。
以下、本発明の実施の形態を図面を参照しながら詳述する。
図1は、本発明の第1の実施の形態による物体追尾装置のブロック図である。
図1の物体追尾装置には、例えば、複数のフレームを有する動画像データがフレーム毎に入力される。物体追尾装置に入力される最新のフレームの画像データを現フレームの画像データと呼び、現フレームより1つ前のフレームの画像データを前フレームの画像データと呼ぶ。
物体追尾装置は第1のメモリ部101と、動画像データが入力される入力端子102とを備えている。第1のメモリ部101には、前フレームの画像データにおける追尾対象体(被写体)の画像データが前フレーム対象領域データとして記憶されている。
さらに、物体追尾装置は追尾部103、特徴量算出部104、侵入物判定部105、およびCPU106を有している。追尾部103は、現フレームの画像データを入力端子102から受けるとともに、第1のメモリ部101から前フレーム対象領域データを読み込む。そして、追尾部103は前フレーム対象領域データを用いて、現フレームの画像データから、追尾対象体と推定される画像データの領域を、現フレーム対象領域データとして特定する。
追尾部103は、前フレーム対象領域データと現フレームの画像データとのマッチングを取ることで、現フレーム対象領域データを特定する。例えば、前フレーム対象領域データと現フレームの画像データとの間で、画素毎に差分値を計算し、その差分値の総和を用いて判定を行うことにより、現フレーム対象領域データを特定する。
図2において、図2(A)は前フレーム対象領域データを示す図であり、図2(B)は現フレームの画像データに設定するマッチング領域を示す図である。
図2(A)において、前フレーム対象領域データ200の水平方向の画素数をW、垂直方向の画素数をHとし、前フレーム対象領域データ200内の各画素値をFs(x,y)で表す。具体的には、前フレーム対象領域データ200内の左上隅の画素値をFs(0,0)で表し、右下隅の画素値をFs(W−1,H−1)で表す。
図2(B)において、現フレームの画像データ201上に、前フレーム対象領域データ200と同じく水平方向の画素数をW、垂直方向の画素数をHとしたマッチング領域202を設定する。図2(B)の領域203の位置は、前フレームの画像データにおける前フレーム対象領域データ200の位置を示す。この領域203の位置に対する、マッチング領域202の位置のシフト量を(SX,SY)で表す。
現フレームの画像データ201内の各画素値をF(x,y)とし、領域203の左上隅の画素値をF(0,0)で表し、右下隅の画素値をF(W−1,H−1)で表す。この領域203から(SX,SY)だけシフトしたマッチング領域202の左上隅の画素値はF(SX,SY)で表され、右下隅の画素値はF(W−1+SX,H−1+SY)で表される。ここで、追尾部103は、式(1)を用いて、前フレーム対象領域データ200とマッチング領域202の画像データを重ねた際の、対応する各画素値の差の絶対値の総和である動きベクトル評価値SAD(SX,SY)を求める。
Figure 2012133759
追尾部103は、マッチング領域202を移動させて、この動きベクトル評価値SAD(SX,SY)が最小となるマッチング領域202の位置を求め、その位置におけるマッチング領域202の画像データを現フレーム対象領域データとする。ただし、追尾部103は、動きベクトル評価値SAD(SX,SY)の最小値が予め規定された追尾判定値よりも大きい場合には、追尾対象体の検出に失敗したと判断する。
この現フレーム対象領域データは、追尾部103から特徴量算出部104に与えられる。特徴量算出部104は第1のメモリ部101から前フレーム対象領域データを読み込む。そして、特徴量算出部104は、前フレーム対象領域データが示す像領域に対して、複数のサブ領域を設定する。また、特徴量算出部104は、現フレーム対象領域データが示す像領域に対して、複数のサブ領域を設定する。そして、特徴量算出部104は前フレーム及び現フレームのサブ領域の各々についてその特徴量を算出する。
これらの特徴量は、特徴量算出部104から侵入物判定部105に与えられる。侵入物判定部105はこれらの特徴量に基づいて、後述するようにして、侵入物体が追尾対象体の像領域に重なっているか否かを判定して、判定結果をCPU106に与える。
図3において、図3(A)は前フレーム対象領域データにおけるサブ領域の一例を示す図であり、図3(B)は現フレーム対象領域データにおけるサブ領域の一例を示す図である。
図3(A)に示すように、特徴量算出部104は、前フレーム対象領域データ314の上半分、右半分、下半分、および左半分に該当する、4つの略長方形状のサブ領域310〜313を設定する。図示のように、これらサブ領域310〜313は互いに重複する部分がある。
同様にして、図3(B)に示すように、特徴量算出部104は、現フレーム対象領域データ324の上半分、右半分、下半分、および左半分に該当する、4つの略長方形状のサブ領域320〜323を設定する。図示のように、これらサブ領域320〜323は互いに重複する部分がある。前フレーム対象領域データ314内でのサブ領域310〜313の位置と、現フレーム対象領域データ324内でのサブ領域320〜323の位置は、それぞれ一致する。図3(B)に示す例では、現フレーム対象領域データ324の一部に侵入物体325が存在する。なお、サブ領域の数及びその形状は任意に設定することができる。
前述したように、特徴量算出部104は、これら前フレームのサブ領域310〜313及び現フレームのサブ領域320〜323の各々についてその特徴量を求める。
図4は、特徴量算出部104で算出される特徴量である、動きベクトルを説明するための図である。
図4において、前フレームのサブ領域310の動きベクトルが、上半分動きベクトル400で示されている。また、前フレームのサブ領域311の動きベクトルが、右半分動きベクトル401で示されている。さらに、前フレームのサブ領域312の動きベクトルが、下半分動きベクトル402で示されている。そして、前フレームのサブ領域313の動きベクトルが、左半分動きベクトル403で示されている。
動きベクトルの算出手法には、種々の手法が知られているが、例えば、ここでは、次の手法が用いられる。
図5において、図5(A)は前フレームのサブ領域を示す図であり、図5(B)はこの前フレームのサブ領域に対応する現フレームのサブ領域及び探索領域を示す図である。また、図5(C)はマッチング領域を示す図である。
図5(A)において、前フレームのサブ領域における水平方向の画素数をWsub、垂直方向の画素数をHsubとし、その画素値をFn−1(x,y)と定義する。ここでは、上半分のサブ領域310を例にあげて説明する。
特徴量算出部104は、図5(B)に示すように、現フレームの画像データ上で、現フレームの上半分のサブ領域320を中心として、サブ領域320よりも広い探索領域511を設定する。特徴量算出部104は、図5(C)に示すように、この探索領域511内に、サブ領域320と同じく、水平方向の画素数をWsub、垂直方向の画素数をHsubとしたマッチング領域512を設定する。サブ領域320の位置に対する、マッチング領域512の位置のシフト量を(SX,SY)で表す。
前フレームの画像データ内の各画素値をFn−1(x,y)と定義し、現フレームの画像データ内の各画素値をFn(x,y)と定義する。前フレーム対象領域データのサブ領域310の左上隅の画素値をFn−1(0,0)で表し、右下隅の画素値をFn−1(Wsub−1,Hsub−1)で表す。また、現フレーム対象領域データのサブ領域320の左上隅の画素値をFn(0,0)で表し、右下隅の画素値をFn(Wsub−1,Hsub−1)で表す。すると、このサブ領域320から(SX,SY)だけシフトしたマッチング領域512の左上隅の画素値はFn(SX,SY)で表され、右下隅の画素値はFn(Wsub−1+SX,Hsub−1+SY)で表される。ここで、特徴量算出部104は、式(2)を用いて、前フレームのサブ領域310とマッチング領域512の画像データを重ねた際の、対応する各画素値の差の絶対値の総和である動きベクトル評価値SAD(SX,SY)を求める。
Figure 2012133759
そして、特徴量算出部104は、式(2)で算出される動きベクトル評価値SAD(SX,SY)が最小となるときの動きベクトルV(SX,SY)を、前フレームのサブ領域310の動きベクトル400とする。なお、動きベクトルV(SX,SY)は、シフト量(SX,SY)と当該シフトの方向の組み合わせにより規定される。同様にして、特徴量算出部104は、図3(A)に示す前フレームのサブ領域311〜313の各々について動きベクトルを求める。なお、ここでは、前フレームのサブ領域の位置を基準として現フレームの画像データ上にマッチング領域を設定し、前フレームのサブ領域の動きベクトルを求める構成とした。しかしながら、これに限られるものではなく、現フレームのサブ領域を基準として前フレームの画像データ上にマッチング領域を設定し、現フレームのサブ領域の動きベクトルを求める構成としても構わない。
現フレームのサブ領域に侵入物体が存在しない場合には、前フレームのサブ領域内の被写体とそれに対応する現フレームのサブ領域内の被写体の相関が高く、かつ、それぞれのサブ領域間での被写体の位置のズレも小さい。そのため、動きベクトル評価値SAD(SX,SY)が最小であるときの、動きベクトルV(SX,SY)の大きさ、即ちシフト量(SX,SY)は小さくなる。
しかしながら、いずれかの現フレームのサブ領域に侵入物体が現れた場合には、その現フレームのサブ領域に対応する前フレームのサブ領域と相関の高いサブ領域が探索領域511内に存在しないことになる。従って、動きベクトル評価値SAD(SX,SY)が最小となるマッチング領域の位置が、実際の追尾対象体の位置とは無関係の位置に現れやすくなり、動きベクトルV(SX,SY)の大きさ、即ちシフト量(SX,SY)が比較的大きな値となる可能性が高い。
特徴量算出部104は、前述のように、特徴量である動きベクトルを各々のサブ領域について求めて、侵入物判定部105に与える。侵入物判定部105には、所定の第1の閾値が設定されており、動きベクトルの大きさが第1の閾値を超えるいずれか1つのサブ領域があれば、侵入物判定部105は追尾対象体の像領域に侵入物体が入っていると判定する。
また、動きベクトルの大きさが第1の閾値を超えるサブ領域が2つあり、当該サブ領域が隣り合っている場合も、侵入物判定部105は追尾対象体の像領域に侵入物体が入っていると判定する。第1の閾値を超えるサブ領域が隣り合った状態とは、例えば、図4において、動きベクトル400及び401の大きさがそれぞれ第1の閾値を超えた状態をいう。また、動きベクトル401及び402の大きさ、動きベクトル402及び403の大きさ、そして、動きベクトル403及び400の大きさがそれぞれ第1の閾値を超えた状態も、第1の閾値を超えるサブ領域が隣り合った状態である。なお、上記の条件以外では、侵入物判定部105は追尾対象体の像領域に侵入物体が入っていないと判定する。
ここでは、サブ領域が4つの場合を例にあげて説明を行ったが、サブ領域の数が5以上の場合であっても同様に判定することができる。すなわち、サブ領域が5以上の場合であっても、サブ領域のいずれかの動きベクトルの大きさが第1の閾値を超えるならば、追尾対象体の像領域に侵入物体が入っていると判定する。なお、動きベクトルの大きさが第1の閾値を超えるサブ領域が複数存在するならば、それらのサブ領域が全て隣接していることを、侵入物体が入っていると判定する条件に加えることが望ましい。追尾対象体の像領域に、複数方向から別々の侵入物体が同時に入ってくるとは考えにくく、隣接していないサブ領域の動きベクトルの大きさが同時に第1の閾値を超えるときは、別の要因が生じたと考えられるためである。
また、過半数のサブ領域における動きベクトルの大きさが第1の閾値を超える場合には、追尾対象体の像領域に侵入物体が入っているのではなく、追尾部103による追尾が失敗したと判定する。この場合、追尾対象体の領域に侵入物体が侵入したのではなく、追尾部103が誤った被写体を追尾対象体として検出した可能性が高いと考えられるためである。なお、ここでは、過半数を判断の基準値として設定したが、被写体の大きさや、サブ領域の数、あるいは、被写体が動いているか否かによって、実験的に、適切な基準値を求めることが望ましい。
なお、動きベクトルの大きさと閾値を比較する代わりに、動きベクトル評価値SAD(SX,SY)の最小値が、予め規定された値以上である場合に、侵入物体が入っていると判定するように構成しても構わない。現フレームのサブ領域に侵入物が現れた場合には、前フレームのサブ領域と現フレームのサブ領域の相関が低くなるため、動きベクトル評価値SAD(SX,SY)の最小値が、比較的大きな値となる可能性が高いためである。
このようにして、侵入物判定部105は追尾対象体の像領域に侵入物体が入っているか否かを判定して、その判定結果をCPU106に通知する。CPU106は、侵入物判定部105によって追尾対象体の像領域に侵入物体が入っていないと判定された場合には、追尾部103で得られた現フレーム対象領域データを用いて、第1のメモリ部101に記憶された前フレーム対象領域データを更新する。そして、CPU106は、新たに読み込んだフレームの画像データを現フレームの画像データとして、上述の処理を繰り返す。反対に、CPU106は、侵入物判定部105によって追尾対象体の像領域に侵入物体が入っていると判定された場合には、第1のメモリ部101に記憶された前フレーム対象領域データをそのまま保持する。そして、CPU106は、新たに読み込んだフレームの画像データを現フレームの画像データとして、上述の処理を繰り返す。また、CPU106は、追尾部103が追尾対象体の検出に失敗したと判断した場合には、第1のメモリ部101に記憶された前フレーム対象領域データを消去し、ユーザーの指示によって新たな追尾対象体が指定されるまで追尾の処理を停止する。
なお、上述した追尾対象体の追尾と侵入物体の侵入判定までの処理が行われる動作モードを、追尾動作モードと呼ぶことにする。
図6は、本発明の第1の実施の形態による物体追尾装置の変形例のブロック図である。この物体追尾装置は、追尾対象体の像領域に侵入物体が入っていると判定された場合には、追尾動作モードから探索モードに切り替えるという特徴を有している。探索モードは、侵入物体が追尾対象体の像領域からいなくなったことを確認し、追尾動作モードに復帰するためのモードである。
図6において、図1に示す構成要素と同一の構成要素については、同一の参照番号を付す。
図6を参照すると、物体追尾装置は、さらに第2のメモリ部607、復帰部608及び被写体情報更新部609を有している。なお、図6に示すCPUは図1に示すCPU106とその機能が異なるので、符号606が付されている。
第2のメモリ部607には、追尾動作モードに復帰するための画像データが記憶されている。被写体情報更新部609は、特徴量算出部104から出力される特徴量に応じてその画像データを更新する。例えば、被写体情報更新部609は、前述の設定したサブ領域の動きベクトルの大きさが全て所定の第2の閾値以下であると、追尾部103で得られた現フレーム対象領域データを、新たな復帰用の画像データとして第2のメモリ部607に記憶する。なお、第2の閾値は第1の閾値よりも低い値とする。これは、第2の閾値を厳しくすることで、後述する探索モードで用いる被写体情報の精度を維持するためである。
CPU606は、侵入物判定部105による判定結果によって、侵入物体が追尾対象体の領域に進入したと認識すると、追尾動作モードから探索モードに切り替える。そして、探索モードとなると、CPU606は復帰部608を作動させる。
復帰部608は、追尾部103と同様の処理により、探索動作モードに切り替え後に新たに得られた現フレームの画像データから、第2のメモリ部607に記憶されている画像データと最も近似する画像データの領域を特定する。ただし、追尾部103が、第1のメモリ部101から前フレーム対象領域データを読み込むのに対して、復帰部608は、第2のメモリ部607に記憶されている復帰用の画像データを読み込む点が異なる。
復帰部608は、この復帰用の画像データの、元のフレームの画像データ上の位置を基準としてマッチング領域を設定し、第2のメモリ部607に記憶された復帰用の画像データ内の各画素値をFs(x,y)、現フレームの画像データ内の各画素値をF(x,y)とする。そして、復帰部608は、上述した式(1)を用いて、第2のメモリ部607に記憶された復帰用の画像データと現フレームの画像データに設定したマッチング領域の画像データを重ねた際の、対応する各画素値の差の絶対値の総和である動きベクトル評価値SAD(SX,SY)を求める。
復帰部608は、この動きベクトル評価値SAD(SX,SY)の最小値が第3の閾値以下であるならば、そのときのマッチング領域に追尾対象体が存在すると判断し、そうでなければ、追尾対象体を検出できなかったと判断する。CPU606は、復帰部608によって追尾対象体が特定されたと判断された場合には、復帰部608にて設定したマッチング領域の画像データを用いて、第1のメモリ部101に記憶された前フレーム対象領域データを更新して、追尾動作モードへ戻る。反対に、CPU606は、復帰部608によって追尾対象体が特定されたと判断されなかった場合には、探索モードを継続する。
ところで、追尾対象体は、その位置だけでなく、その向きが変化する場合もある。追尾対象体が人物であるならば、ポーズが変化する場合も、表情が変化する場合もある。そのため、追尾部103は、追尾対象体の特定に失敗したと判断するための動きベクトル評価値SAD(SX,SY)の基準となる値を、比較的大きく設定することで、追尾対象体に上述のような変化が生じた場合であっても、追尾対象体を検出できるようにしている。
これに対し、復帰部608は、第3の閾値を、追尾部103が追尾対象体の特定に失敗したと判断するための基準となる追尾判定値よりも、小さな値に設定している。追尾対象体の領域に侵入物体が侵入している際に、復帰部608が追尾部103と同様の値を基準として、追尾対象体の特定の成否を判断してしまうと、追尾対象体に類似した別の被写体を、追尾対象体として誤って検出してしまう可能性があるためである。復帰部608は、追尾対象体の特定の成否の判断基準となる値を、追尾部103よりも厳しく設定することで、追尾対象体以外の被写体を誤って追尾する可能性を低く抑えることができる。
なお、追尾部103、特徴量算出部104及び復帰部608は別々の回路として説明を行ったが、これらは同種の演算を行う回路であるため、これらを1つの回路にて実現することも可能である。
このように、第1の実施の形態及びその変形例では、前フレーム対象領域データに対して複数のサブ領域を設定して、各サブ領域についてその特徴量を求めて、これら特徴量に応じて、侵入物体が現フレーム領域に侵入したか否かを判定するようにしたので、侵入物体の検知を行うことができる。
続いて、本発明の第2の実施の形態による物体追尾装置について説明する。
図7は、本発明の第2の実施の形態による物体追尾装置のブロック図である。図7の物体追尾装置は、図1に示す物体追尾装置と同一の第1のメモリ部101及び入力端子102を有する。
図示の物体追尾装置は、特徴量算出部703を有しており、この特徴量算出部703は、第1のメモリ部101に記憶された前フレーム対象領域データ上に複数のサブ領域を設定する。そして、特徴量算出部703はサブ領域毎に現フレームの画像データ上でサブ領域と最も近似している領域を探索して、この探索に用いた評価値を特徴量として出力する。
信頼度算出部704はサブ領域毎に得られた特徴量についてその信頼度を算出する。追尾枠決定部705は信頼度の高い特徴量に応じて追尾枠の位置を決定する。また、侵入物判定部706は信頼度の低い特徴量に応じて侵入物体の侵入判定を行う。
図8は、図7に示す特徴量算出部703における評価値(特徴量)の算出を説明するための図である。
特徴量算出部703は、特徴量を示す評価値を、後述するように、画像データ間の画素値の差の絶対値の総和によって求める。いま、前フレーム対象領域データに複数のサブ領域を設定した際、その1つのサブ領域としてサブ領域804があるものとする。図示の追尾枠801が前フレームの画像データにおける追尾枠の位置である。特徴量算出部703は、前フレームのサブ領域804を中心位置として、このサブ領域804よりも広い範囲の領域803を設定する。特徴量算出部703は、現フレームの画像データにおいて、この領域803と同じ位置、かつ、同じサイズの探索領域を設定する。そして、現フレームの画像データにおける探索領域において、前フレームのサブ領域804と最も近似する領域の位置を求める。サブ領域804と最も近似する位置を求める際には、差の絶対値の総和を求める。
図9において、図9(A)はサブ領域を示す図であり、図9(B)は現フレームの画像データに設定するマッチング領域を示す図である。
図9(A)において、前フレームのサブ領域804における水平方向の画素数をW、垂直方向の画素数をHとし、そのサブ領域804内の各画素値をFn−1(x,y)と定義する。
また、図9(B)において、特徴量算出部703は、現フレームに設定された探索領域901内の任意の位置に、水平方向にW画素、垂直方向にH画素のマッチング領域を設定する。このマッチング領域内の各画素値をF(x,y)と定義する。特徴量算出部703は、画素毎に、前フレームのサブ領域804とマッチング領域との画素値の差を求めて、その絶対値を上述の式(1)によって積算して評価値SAD(SX,SY)を得る。(SX,SY)は、サブ領域804に対するマッチング領域のシフト量を示す。すなわち、サブ領域804の画素値をFn−1(x,y)とすると、このマッチング領域の画素値はFn(x+SX,y+SY)で表される。
特徴量算出部703は、式(1)で示す動きベクトル評価値SAD(SX,SY)が最小となるマッチング領域の位置を求め、そのときのマッチング領域のシフト量(SX,SY)と当該シフトの方向の組み合わせで動きベクトルV(SX,SY)が定義される。そして、特徴量算出部703は、当該動きベクトル及び最小の評価値の組み合わせを特徴量として出力する。
特徴量算出部703は、サブ領域の数と同数の特徴量を出力する。例えば、前述の図2(A)及び図2(B)に示すように、サブ領域が4つである場合には、特徴量算出部703は4組の特徴量を出力することになる。以下の説明においては、サブ領域が4つである場合について説明する。
信頼度算出部704は複数の特徴量における評価値に基づいて信頼度を決定する。
図10は、図7に示す信頼度算出部704における信頼度の決定の仕方について説明するための図である。
図10に示すように、信頼度算出部704は、下記の式(3)に基づいて、評価値毎に、予め規定された第1の閾値と評価値との差分を求めて、この差分を信頼度とする。
信頼度=(第1の閾値)−(評価値) (3)
但し、ゼロ未満である場合にはゼロとする。
続いて、追尾枠決定部705は、特徴量算出部703から出力される特徴量と信頼度算出部704から出力された信頼度とに応じて現フレームにおける追尾枠の位置を求める。
例えば、追尾枠決定部705は、それぞれのサブ領域から得られた複数の動きベクトルの各々に対応する信頼度のその合計に対する比率から重み係数を求め、この重み係数を用いて複数の動きベクトルを加重平均して、追尾枠の動きベクトルを求める。そして、追尾枠決定部705は、前フレームにおける前フレーム対象領域データの位置から、上記の追尾枠の動きベクトル分だけ移動(シフト)させた位置を、現フレームにおける追尾枠の位置と決定する。
侵入物判定部706は、信頼度算出部704から出力される信頼度に応じて侵入物体の有無を検出する。
例えば、4つのサブ領域において、信頼度が予め規定された第2の閾値未満であるサブ領域が1つである場合には、侵入物判定部706は、追尾対象体を追尾する追尾枠に侵入物体が侵入したと判定する。
さらに、4つのサブ領域において、信頼度が第2の閾値未満であるサブ領域が2つで、かつ、これら2つのサブ領域が互いに隣り合う場合にも、侵入物判定部706は追尾対象体を追尾する追尾枠に侵入物体が侵入したと判定する。ここで、互いに隣り合う2つのサブ領域とは、例えば、図4において、動きベクトル400及び401の領域、動きベクトル401及び402の領域、動きベクトル402及び403の領域、そして、動きベクトル403及び400の領域である。なお、第1の実施の形態と同様に、サブ領域の数が5以上の場合であっても同様に判定することができる。また、動きベクトルの大きさが第1の閾値を超えているサブ領域の数が基準値(例えば、過半数)に達した場合には、追尾対象体とは異なる被写体に追尾枠が設定されており、追尾が失敗したと判定する。
そして、図7に示すように、追尾枠決定部705で決定された追尾枠を表す追尾枠情報及び侵入物判定部706による判定結果はCPU707に与えられる。CPU707は、侵入物判定部706による判定結果に応じて、図1のCPU106と同様に、追尾の処理の制御を行う。
上述の追尾対象体の追尾と侵入物体の侵入判定までの処理を行う動作モードを、前述のように、追尾動作モードと呼ぶことにする。
図11は、本発明の第2の実施の形態による物体追尾装置の変形例のブロック図である。図11において、図7に示す物体追尾装置と同一の構成要素については同一の参照番号を付す。また、図11において、図6に示す物体追尾装置と同一の構成要素については、同一の参照番号を付す。
図11を参照すると、CPU1010は侵入物判定部706によって侵入物体が侵入したと判定されると、探索モードに切り替える。この探索モードにおける処理は、図5に関連して説明したので、ここでは説明を省略する。
被写体情報更新部1009は、信頼度算出部704によって求められた信頼度に応じて第2のメモリ部607の更新を行う。例えば、被写体情報更新部1009は上述の信頼度が全てのサブ領域において、予め規定された第3の閾値以上であると、第2のメモリ部607に、追尾枠決定部705で得られた位置にある現フレームの追尾枠内の画像データを記憶して、第2のメモリ部607を更新する。なお、第3の閾値は第2の閾値よりも高い値とする。これは、第3の閾値により設定される条件を厳しくすることで、探索モードで用いる復帰用の画像データの精度を維持するためである。
なお、上述の第1及び第2の実施の形態では、侵入物体の侵入判定において用いる特徴量として、各サブ領域の動きベクトルと動きベクトル及び最小の評価値の組み合わせとをそれぞれ用いたが、動きベクトル及び動きベクトル及び最小の評価値の組み合わせ以外の特徴量を用いるようにしてもよい。
例えば、サブ領域毎の動きベクトルをメモリなどに保持し、前フレームにおいて侵入判定を行った際の動きベクトルと現フレームにおいて侵入判定を行う際の動きベクトルとの向きの角度差が、所定の閾値以上であるか否かを調べるようにしてもよい。
また、サブ領域毎に前フレームと現フレームの輝度値の差分の絶対和を求めて、画素数で正規化した当該絶対和の正規化値が所定の閾値以上であるか否かを調べるようにしてもよい。
このようにして、第2の実施の形態においても、各サブ領域について求めた特徴量に応じて、侵入物体が現フレーム領域に侵入したか否かを判定するようにしたので、侵入物体の検知を容易に行うことができ、従って、確実に追尾対象体の追尾を行うことができる。
例えば、上記の実施の形態の機能を物体追尾方法として、この物体追尾方法を、コンピュータに実行させるようにすればよい。また、上述の実施の形態の機能を有する物体追尾プログラムを、コンピュータに実行させるようにしてもよい。この際、物体追尾方法及び物体追尾プログラムは、少なくとも追尾ステップ、特徴量算出ステップ及び侵入物判定ステップを備えるか又は特徴量算出ステップ、信頼度算出ステップ、枠決定ステップ及び侵入物判定ステップを備えることになる。なお、物体追尾プログラムは、例えば、コンピュータに読み取り可能な不揮発性の記録媒体に記録される。
101 メモリ部
102 像入力端子
103 追尾部
104 特徴長量算出部
105 侵入物判定部
106 CPU
608 復帰部
609 被写体情報更新部

Claims (9)

  1. 複数のフレームを有する動画像データを受け、当該動画像データにおいて追尾対象である被写体を追尾対象体として追尾する物体追尾装置であって、
    前記動画像データにおける現フレームよりも前の前フレームにおいて前記追尾対象体の位置を示す前フレーム対象領域、または、前記現フレームにおいて前記追尾対象体の位置を示す現フレーム対象領域に、複数のサブ領域を設定し、当該サブ領域毎にその特徴量を求める特徴量算出手段と、
    前記特徴量が第1の閾値を超える前記サブ領域が存在し、かつ、その数が基準値に達していなければ、前記現フレームにおける前記追尾対象体が位置する領域に、前記追尾対象体と異なる侵入物体が侵入したと判定する侵入物判定手段と
    を有することを特徴とする物体追尾装置。
  2. 前記現フレームにおける前記追尾対象体の位置を特定する追尾手段を更に有し、
    前記侵入物判定手段は、前記特徴量が第1の閾値を超える前記サブ領域が存在し、かつ、その数が基準値に達していれば、前記追尾手段が、現フレームにおける前記追尾対象体の位置の特定に失敗したと判定することを特徴とする請求項1記載の物体追尾装置。
  3. 前記追尾手段にて特定された現フレームにおける前記追尾対象体の画像データを記憶するメモリと、
    前記侵入物判定手段によって前記侵入物体の侵入があったと判定されると、探索モードを実行する制御手段と、
    前記探索モードが実行されると、前記メモリに記憶された画像データを用いて、前記探索モードが実行された後に得られた現フレームから、前記追尾対象体の位置を特定する探索手段と、を更に有し、
    前記探索手段は、前記追尾手段よりも、厳しい条件を用いて前記追尾対象体の位置を特定することを特徴とする請求項2記載の物体追尾装置。
  4. 前記追尾手段にてその位置が特定された現フレームにおける前記追尾対象体に対応する前記特徴量に応じて、前記メモリに記憶された画像データを更新する更新手段を更に有することを特徴とする請求項3記載の物体追尾装置。
  5. 前記侵入物判定手段は、前記サブ領域毎の動きベクトルをそれぞれ求めて、該動きベクトルを前記特徴量とし、
    前記更新手段は、前記追尾手段にてその位置が特定された現フレームにおける前記追尾対象体に対応する前記サブ領域毎の前記特徴量の大きさの全てが第2の閾値以下であると、前記追尾手段にてその位置が特定された現フレームにおける前記追尾対象体の画像データを用いて、前記メモリに記憶された画像データを更新することを特徴とする請求項4記載の物体追尾装置。
  6. 前記侵入物判定手段は、前記サブ領域毎の動きベクトルをそれぞれ求めて、該動きベクトルを当該サブ領域の前記特徴量とすることを特徴とする請求項1記載の物体追尾装置。
  7. 前記侵入物判定手段によって、前記追尾手段が、現フレームにおける前記追尾対象体の位置の特定に失敗したと判定された場合に、前記追尾手段は前記動画像データにおける前記追尾対象体の位置の特定を停止することを特徴とする請求項2記載の物体追尾装置。
  8. 複数のフレームを有する動画像データを受け、当該動画像データにおいて追尾対象である被写体を追尾対象体として追尾する物体追尾方法であって、
    前記動画像データにおける現フレームよりも前の前フレームにおいて前記追尾対象体の位置を示す前フレーム対象領域、または、前記現フレームにおいて前記追尾対象体の位置を示す現フレーム対象領域に、複数のサブ領域を設定し、当該サブ領域毎にその特徴量を求め、
    前記特徴量が第1の閾値を超える前記サブ領域が存在し、かつ、その数が基準値に達していなければ、前記現フレームにおける前記追尾対象体が位置する領域に、前記追尾対象体と異なる侵入物体が侵入したと判定することを特徴とする物体追尾方法。
  9. 複数のフレームを有する動画像データを受け、当該動画像データにおいて追尾対象である被写体を追尾対象体として追尾する物体追尾方法をコンピュータに実行させるコンピュータ実行可能なプログラムを記憶したコンピュータで読み取り可能な記憶媒体であって、
    前記物体追尾方法は、
    前記動画像データにおける現フレームよりも前の前フレームにおいて前記追尾対象体の位置を示す前フレーム対象領域、または、前記現フレームにおいて前記追尾対象体の位置を示す現フレーム対象領域に、複数のサブ領域を設定し、当該サブ領域毎にその特徴量を求め、
    前記特徴量が第1の閾値を超える前記サブ領域が存在し、かつ、その数が基準値に達していなければ、前記現フレームにおける前記追尾対象体が位置する領域に、前記追尾対象体と異なる侵入物体が侵入したと判定することを特徴とする記憶媒体。
JP2011249614A 2010-11-29 2011-11-15 侵入物体の検知を行うことができる物体追尾装置、物体追尾方法及び記憶媒体 Pending JP2012133759A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011249614A JP2012133759A (ja) 2010-11-29 2011-11-15 侵入物体の検知を行うことができる物体追尾装置、物体追尾方法及び記憶媒体
US13/306,304 US20120134541A1 (en) 2010-11-29 2011-11-29 Object tracking device capable of detecting intruding object, method of tracking object, and storage medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010264958 2010-11-29
JP2010264958 2010-11-29
JP2011249614A JP2012133759A (ja) 2010-11-29 2011-11-15 侵入物体の検知を行うことができる物体追尾装置、物体追尾方法及び記憶媒体

Publications (1)

Publication Number Publication Date
JP2012133759A true JP2012133759A (ja) 2012-07-12

Family

ID=46126682

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011249614A Pending JP2012133759A (ja) 2010-11-29 2011-11-15 侵入物体の検知を行うことができる物体追尾装置、物体追尾方法及び記憶媒体

Country Status (2)

Country Link
US (1) US20120134541A1 (ja)
JP (1) JP2012133759A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014048702A (ja) * 2012-08-29 2014-03-17 Honda Elesys Co Ltd 画像認識装置、画像認識方法、及び画像認識プログラム
JP2014067320A (ja) * 2012-09-27 2014-04-17 Hitachi Automotive Systems Ltd ステレオカメラ装置
JP2014093711A (ja) * 2012-11-06 2014-05-19 Canon Inc 追尾装置、追尾方法及びプログラム
JP2015226326A (ja) * 2014-05-26 2015-12-14 富士通株式会社 映像解析方法及び映像解析装置
WO2016027410A1 (ja) * 2014-08-21 2016-02-25 パナソニックIpマネジメント株式会社 検知装置および検知システム
JP2016053938A (ja) * 2014-08-21 2016-04-14 パナソニックIpマネジメント株式会社 検知装置、検知システム、およびプログラム

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9158996B2 (en) * 2013-09-12 2015-10-13 Kabushiki Kaisha Toshiba Learning image collection apparatus, learning apparatus, and target object detection apparatus
US9437000B2 (en) * 2014-02-20 2016-09-06 Google Inc. Odometry feature matching
US10157327B2 (en) * 2014-08-06 2018-12-18 Sony Semiconductor Solutions Corporation Image processing device, image processing method, and program
JP6525545B2 (ja) * 2014-10-22 2019-06-05 キヤノン株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
CN104680555B (zh) * 2015-02-13 2018-04-13 电子科技大学 基于视频监控的越界检测方法及越界监控系统
JP6389801B2 (ja) * 2015-05-27 2018-09-12 富士フイルム株式会社 画像処理装置、画像処理方法、プログラムおよび記録媒体
CN106327517B (zh) * 2015-06-30 2019-05-28 芋头科技(杭州)有限公司 一种目标跟踪装置及目标跟踪方法
US20190244030A1 (en) * 2018-02-07 2019-08-08 Hitachi, Ltd. Object tracking in video using better object area
CN108960213A (zh) * 2018-08-16 2018-12-07 Oppo广东移动通信有限公司 目标跟踪方法、装置、存储介质及终端
CN110473227B (zh) * 2019-08-21 2022-03-04 图谱未来(南京)人工智能研究院有限公司 目标跟踪方法、装置、设备及存储介质
TWI733188B (zh) * 2019-09-11 2021-07-11 瑞昱半導體股份有限公司 用於獨立物件之運動估計的裝置以及方法
CN111008305B (zh) * 2019-11-29 2023-06-23 百度在线网络技术(北京)有限公司 一种视觉搜索方法、装置以及电子设备
US11403856B2 (en) 2020-08-26 2022-08-02 Ford Global Technologies, Llc Group object-tracking

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9019538D0 (en) * 1990-09-07 1990-10-24 Philips Electronic Associated Tracking a moving object
US5960097A (en) * 1997-01-21 1999-09-28 Raytheon Company Background adaptive target detection and tracking with multiple observation and processing stages
US7062093B2 (en) * 2000-09-27 2006-06-13 Mvtech Software Gmbh System and method for object recognition
US7215795B2 (en) * 2000-09-28 2007-05-08 Hitachi Kokusai Electric Inc. Intruding object detecting method and intruding object monitoring apparatus employing the method
US7035430B2 (en) * 2000-10-31 2006-04-25 Hitachi Kokusai Electric Inc. Intruding object detection method and intruding object monitor apparatus which automatically set a threshold for object detection
US6841780B2 (en) * 2001-01-19 2005-01-11 Honeywell International Inc. Method and apparatus for detecting objects
JP4140202B2 (ja) * 2001-02-28 2008-08-27 三菱電機株式会社 移動物体検出装置
JP2002334338A (ja) * 2001-05-09 2002-11-22 National Institute Of Advanced Industrial & Technology 物体追跡装置及び物体追跡方法並びに記録媒体
US7400344B2 (en) * 2002-12-19 2008-07-15 Hitachi Kokusai Electric Inc. Object tracking method and object tracking apparatus
US7072494B2 (en) * 2004-02-20 2006-07-04 Siemens Corporate Research, Inc. Method and system for multi-modal component-based tracking of an object using robust information fusion
US20070092110A1 (en) * 2004-11-08 2007-04-26 Li-Qun Xu Object tracking within video images
JP3970877B2 (ja) * 2004-12-02 2007-09-05 独立行政法人産業技術総合研究所 追跡装置および追跡方法
JP4913801B2 (ja) * 2006-05-09 2012-04-11 パイオニア株式会社 遮蔽物映像識別装置及び方法
US20110123067A1 (en) * 2006-06-12 2011-05-26 D & S Consultants, Inc. Method And System for Tracking a Target
US20070286458A1 (en) * 2006-06-12 2007-12-13 D&S Consultants, Inc. Method and System for Tracking a Target
JP5161435B2 (ja) * 2006-06-26 2013-03-13 株式会社ソニー・コンピュータエンタテインメント 画像処理装置、画像処理システム、コンピュータの制御方法及びプログラム
US7929729B2 (en) * 2007-04-02 2011-04-19 Industrial Technology Research Institute Image processing methods
TWI351001B (en) * 2007-11-21 2011-10-21 Ind Tech Res Inst Method and apparatus for adaptive object detection
ATE468572T1 (de) * 2008-01-18 2010-06-15 Mvtec Software Gmbh System und verfahren zur erkennung verformbarer objekte
US8699755B2 (en) * 2009-02-20 2014-04-15 Navteq B.V. Determining travel path features based on retroreflectivity
IL197996A (en) * 2009-04-05 2014-07-31 Rafael Advanced Defense Sys A method for locating people
JP5644097B2 (ja) * 2009-12-08 2014-12-24 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
JP2011192141A (ja) * 2010-03-16 2011-09-29 Sony Corp 動体検出装置と動体検出方法およびプログラム
EP2591460A1 (en) * 2010-06-22 2013-05-15 Nokia Corp. Method, apparatus and computer program product for providing object tracking using template switching and feature adaptation
IL208910A0 (en) * 2010-10-24 2011-02-28 Rafael Advanced Defense Sys Tracking and identification of a moving object from a moving sensor using a 3d model
AU2011253910B2 (en) * 2011-12-08 2015-02-26 Canon Kabushiki Kaisha Method, apparatus and system for tracking an object in a sequence of images

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014048702A (ja) * 2012-08-29 2014-03-17 Honda Elesys Co Ltd 画像認識装置、画像認識方法、及び画像認識プログラム
JP2014067320A (ja) * 2012-09-27 2014-04-17 Hitachi Automotive Systems Ltd ステレオカメラ装置
JP2014093711A (ja) * 2012-11-06 2014-05-19 Canon Inc 追尾装置、追尾方法及びプログラム
JP2015226326A (ja) * 2014-05-26 2015-12-14 富士通株式会社 映像解析方法及び映像解析装置
WO2016027410A1 (ja) * 2014-08-21 2016-02-25 パナソニックIpマネジメント株式会社 検知装置および検知システム
JP2016053938A (ja) * 2014-08-21 2016-04-14 パナソニックIpマネジメント株式会社 検知装置、検知システム、およびプログラム
JP2016053939A (ja) * 2014-08-21 2016-04-14 パナソニックIpマネジメント株式会社 検知装置、検知システム、およびプログラム

Also Published As

Publication number Publication date
US20120134541A1 (en) 2012-05-31

Similar Documents

Publication Publication Date Title
JP2012133759A (ja) 侵入物体の検知を行うことができる物体追尾装置、物体追尾方法及び記憶媒体
US10893207B2 (en) Object tracking apparatus, object tracking method, and non-transitory computer-readable storage medium for storing program
US11270108B2 (en) Object tracking method and apparatus
US8989448B2 (en) Moving object detecting device, moving object detecting method, moving object detection program, moving object tracking device, moving object tracking method, and moving object tracking program
US8818046B2 (en) Image processing device, image processing method, and program
US9589192B2 (en) Information processing system, information processing method, and program
KR20180112090A (ko) 카메라의 포즈를 판단하기 위한 장치 및 방법
US20130070105A1 (en) Tracking device, tracking method, and computer program product
US9984300B2 (en) Image processing system, image processing method, and program
JP6331785B2 (ja) 物体追跡装置、物体追跡方法および物体追跡プログラム
KR101885839B1 (ko) 객체추적을 위한 특징점 선별 장치 및 방법
US20180197308A1 (en) Information processing apparatus and method of controlling the same
JP2018025988A (ja) 画像処理プログラム、画像処理方法および画像処理装置
JP5253227B2 (ja) 画像入力装置及び被写体検出方法、プログラム
US8929590B2 (en) Object tracking device capable of tracking object accurately, object tracking method, and storage medium
JP5412984B2 (ja) フォロー対象検出装置、フォロー対象検出方法およびフォロー対象検出プログラム
US9530216B2 (en) Image processing apparatus and image processing method
US9094561B1 (en) Frame interpolation and motion vector reconstruction
US11107223B2 (en) Image detection device, image detection method and storage medium storing program
JP2019207607A (ja) 移動体追跡装置
CN104980623B (zh) 检测方法及检测装置
KR101837482B1 (ko) 영상처리방법 및 장치, 그리고 이를 이용한 제스처 인식 인터페이스 방법 및 장치
KR20160111151A (ko) 영상처리방법 및 장치, 그리고 이를 이용한 제스처 인식 인터페이스 방법 및 장치
JP4714647B2 (ja) カット点検出装置及びカット点検出プログラム
US20230222672A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium