JP6405778B2 - 対象追跡方法及び対象追跡装置 - Google Patents

対象追跡方法及び対象追跡装置 Download PDF

Info

Publication number
JP6405778B2
JP6405778B2 JP2014162175A JP2014162175A JP6405778B2 JP 6405778 B2 JP6405778 B2 JP 6405778B2 JP 2014162175 A JP2014162175 A JP 2014162175A JP 2014162175 A JP2014162175 A JP 2014162175A JP 6405778 B2 JP6405778 B2 JP 6405778B2
Authority
JP
Japan
Prior art keywords
detected
target
current frame
frame
center
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014162175A
Other languages
English (en)
Other versions
JP2015041382A (ja
Inventor
ガヌメイ イオウ
ガヌメイ イオウ
ヤオジエ ルゥ
ヤオジエ ルゥ
ジョォンチャオ シ
ジョォンチャオ シ
ガン ワン
ガン ワン
リィウ トォン
リィウ トォン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of JP2015041382A publication Critical patent/JP2015041382A/ja
Application granted granted Critical
Publication of JP6405778B2 publication Critical patent/JP6405778B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Description

本発明は全体的に画像識別に関し、具体的には対象追跡方法及び装置に関する。
対象追跡技術は、運転支援、車両識別・追跡、運転警報などの非常に多い分野で幅広く応用されている。
テンプレートマッチング追跡は、通常の対象追跡方法である。米国特許第US7660438B2号(特許文献1)は発生しようとする衝撃の検出前の対象追跡方法及び装置を開示した。該特許においては、対象追跡器の第1操作領域内に対象を検出し、対象追跡器が対象の種類を決定して対象を追跡し、次に衝撃検出器の第2操作領域内に対象を検出し、最後に衝撃検出器を用いて前記対象の種類に基づいて安全対策を開始する。該特許の主な主旨は対象が位置する各位置と奥行きのテンプレートを予め記憶し、検出された対象と各テンプレートをマッチングする。しかし、予め被追跡対象の寸法及び各の位置と奥行きでのテンプレートを知らない場合、該方法は適用できない。
現在、より多くの研究者は視差図を用いて道路上の対象(例えば、車両)を検出・追跡し始め、2次元画像を用いて追跡を行う場合より優れた結果を取得した。中心に基づく予測−検出−補正方法はそのうちの1種のよく使われている追跡方法である。ところが、現実中、取得した対象の視差図は多くの場合不完全であり、対象の一部(例えば水平辺)は視差図中に対応する視差値がない可能性があり、従って、この場合で、対象の一部しか検出できない。例えば、図1に示す視差図中で、2つの丸における車の一部は視差値がなく、従って、図2の対応のグレースケール画像に示すように、左側丸における車は左半分しかが検出できず、右側丸における車は間違って3つの物体として検出された。このような場合、前記中心に基づく予測−検出−補正方法は検出結果に従って追跡を行い、間違った追跡結果を得る可能性がある。
具体的には、図3(a)に示すように、第N−1フレーム画像中において被追跡対象(例えば、車両)の外枠は図における長方形枠に示す通りであると仮定し、且つそれに従って決定した対象中心の横座標はxObject,N−1であり、第Nフレーム中において、視差図が不完全であるため、対象の一部しか検出できず、即ち、検出された被追跡対象の外枠は図3(b)中の実線長方形枠に示す通りであり、且つそれに従って決定した対象中心の横座標はxObject,Nであり、実際上に該対象の第Nフレーム中での真の外枠は図3(b)中における破線枠に示す通りであり、且つ該対象の真の横座標はXObject,Nであるはずである。中心に基づく予測−検出−補正方法に従って、第N−1フレームの対象中心の横座標と第Nフレームから検出された対象中心の横座標に従って、第N+1フレーム中における対象の外枠(図3(c)における破線枠に示すように)と対象中心の横座標xObject,N+1,P=xObject,N+(Xobject,N−Xobject,N−l)を予測する。第N+1フレーム中の対象の検出結果は図3(c)中における実線枠に示す通りであり、従って、第N+1フレーム中に対象の予測結果と検出結果はマッチングしない可能性がある。従って、間違って被追跡対象がなくなったと考え、従って正確ではない追跡結果を取得した。
従って、予め被追跡対象の寸法を知らず且つ被追跡対象の視差図が不完全の場合でも、優れた追跡結果を提供することができる対象追跡技術が必要になった。
本発明の実施例により、現フレームの視差図から、対象の寸法及び対象の中心を含む対象の位置を検出するステップと、直前の所定数のフレームの視差図から検出された対象の位置に基づいて、現フレームの視差図における対象の位置を予測するステップと、現フレームの視差図から検出された対象の位置が予測された対象の位置とマッチングしている場合、前フレームの視差図から検出された対象の寸法の信頼度を用いて、現フレームの視差図から検出された対象の位置を補正し、補正された位置を取得するステップと、を含む対象追跡方法を提供する。
本発明の別の実施例により、現フレーム視差図から、対象の寸法及び対象の中心を含む対象の位置を検出する検出部と、直前の所定数のフレームの視差図から検出された対象の位置に基づいて、現フレームの視差図における対象の位置を予測する予測部と、現フレームの視差図から検出された対象の位置が予測された対象の位置とマッチングしている場合、前フレームの視差図から検出された対象の寸法の信頼度を用いて、現フレームの視差図から検出された対象の位置を補正し、補正された位置を取得する補正部と、を含む対象追跡装置を提供する。
本発明実施例の対象追跡技術により、予め被追跡対象の寸法を知らず且つ被追跡対象の視差図が不完全の場合でも、優れた追跡結果を提供することができる。
視差図が不完全な例示形態を示す図である。 グレースケール画像中に示す例示性間違い検出結果を示す図である。 図3(a)〜3(c)は従来の技術に基づく対象追跡検出結果を概略的に示す図である。 本発明実施例による対象追跡技術を応用する例示シーンを概略的に示す図である。 本発明第1実施例よる視差図を利用する対象追跡方法を示すフローチャートである。 図6(a)〜6(d)はそれぞれ第N−2フレーム被追跡対象の検出結果、第N−1フレーム被追跡対象の検出結果、第Nフレーム被追跡対象の予測結果及び第Nフレーム被追跡対象の検出結果を概略的に示す図である。 本発明第1実施例による例示性信頼度計算方法を示すフローチャートである。 現フレームが検出した対象の中心を処理する概略情況を示す図である。 本発明実施例による対象追跡装置の機能構成ブロック図を示す図である。 本発明実施例による対象追跡システムの全体ハードウェアブロック図を示す図である。
当業者によりよく本発明を理解させるために、以下、図面と具体的な実施形態を参照しながら、本発明をさらに詳しく説明する。
図4は本発明実施例による対象追跡技術を応用する例示シーンを概略的に示す図である。図4に示すように、ユーザーは双眼カメラ402が配置された車401内に位置し、該双眼カメラは道路上に走行する車両を追跡撮影し、連続的なマルチフレームの左視図及び右視図を取得する。例えば計算チップの処理装置403は双眼カメラが撮影した連続的なマルチフレームの左視図及び右視図に従って、計算して対応する連続的なマルチフレームの視差図を取得し、該視差図を用いて撮影する車両を検出、追跡する。理解の便宜上、下文の前記の被追跡対象が道路上の車両であると認めることができる。
<第1実施例>
図5は本発明第1実施例よる視差図を利用する対象追跡方法を示すフローチャートである。
図5に示すように、ステップS510では、現フレーム視差図から対象の位置を検出し、そのうち、対象の位置が対象の寸法及び対象の中心を備える。
当業者が公知した通りに、視差図は1対の画像のいずれか画像を基準画像とし、寸法が該基準画像の寸法であり、且つ各点(画素点)のグレー値は基準画像における対応点の視差である画像である。本領域の公知の多くの形態で視差図を取得することができ、ここでは、さらに詳しく説明しない。
また、前述のように、視差図を用いて対象を検出することは本分野では、多くの研究があり、本発明のキーではなく、当業者は例えば連結成分分析(connected component analysis)に基づく方法、U視差図又はV視差図に基づく方法等のいかなる従来の適当形態を用いて視差図中に対象を検出することができ、ここではさらに詳しく説明しない。
本発明では、対象の寸法及び対象の中心で対象の位置を表す。図6(d)を参照し、現フレーム(第Nフレーム)視差図から検出された対象の位置が図6(d)中における長方形枠に示す通りであると仮定し、その中、該長方形枠は対象の外枠を表し、該外枠の寸法は長と幅で表すことができ、長方形枠中における点は該外枠により決定された対象の中心を表し、該中心のx座標はXobject,Nで表す。また、好ましくは、対象の寸法が前の1つのフレームから現フレームまで、対象の奥行き移動方向上の移動距離を含むことができ、該移動距離は視差図自体の情報から取得することができる。
ステップS520において、前(直前)の所定数のフレーム視差図から検出された対象の位置から、現フレーム視差図中の対象の位置を予測する。
歴史的フレームに従って現フレーム中における対象の位置を予測することは、本分野では、多くの研究があり、基本的な実現形態として、前の2つのフレームに従って対象の移動速度を決定することができ、従って、現フレーム中における対象の位置を予測する。
例えば、図6(a)及び6(b)に示すように、N−2フレームから検出された被追跡対象の中心座標はObject(xObject,N−2,yobject,N−2,zobject,N−2)であり、そのうちz座標は対象の奥行き方向上の位置を表し、該対象の幅はwN−2、高はhN−2であり、第N−3フレームから第N−2フレームまでの奥行き方向上の移動距離はdN−2であり、第N−1フレームから検出された被追跡対象の中心座標はObject(xObject,N−1,yobject,N−1,zobject,N−1)であり、該対象の幅はwN−1であり、高さはhN−1であり、奥行き方向上の移動距離はdN−1である。各フレーム視差図は等速で取得し、且つ隣接する両フレームの間の時間間隔が単位時間であるため、対象の移動速度がObject(△xc,N,△yc,N,△zc,N)であり、ただし、△xC,N=x−xN−1,yc,N=y−yN−1,△zc,N=z−zN−1である。
隣接する両フレームの間の時間間隔が非常に短いため、対象の隣接フレームの間の運動が等速運動であると考えることができる。従って、図6(c)に示すように、現フレーム(第Nフレーム)中における対象の中心がObject(xObject,N,p,yObject,N,p,zObject,N,p)であることが予測することができ、ただし、xObject,N,p=xObject,N−l+△xc,N,yobject,N,p=yobject,N−1+△yc,N,,zObject,N,p=zObject,N−l+△zc,Nである。また、対象の幅、高は現実の世界中に一定であるため、第Nフレーム視差図中の対象の幅と高が即ち第N−1フレーム視差図中の対象の幅と高であると考えることができる。
前記の説明中に、前の2つのフレーム視差図から検出された対象の位置から、現フレーム視差図中の対象の位置を予測し、これは1種の例示に過ぎない。実際上、必要に応じて、より多くの歴史フレーム(例えば前の3つのフレーム)から検出された対象の位置に基づいて現フレーム視差図における対象の位置を予測することができる。
ステップS530では、現フレーム視差図から検出された対象の位置と予測された対象の位置がマッチングする場合、前のフレーム視差図から検出された対象の寸法の信頼度を用いて、現フレーム視差図から検出された対象の位置を補正し、補正された位置を取得する。
現フレーム視差図から検出された対象の位置が予測された対象の位置とマッチングすれば、現フレーム中に被追跡対象が追跡されたと考えられ、従って、本ステップ中に検出された対象の位置を補正し、現フレーム視差図から検出された対象の位置と予測された対象の位置がマッチングしないと、被追跡対象が見失ったと考えられ、従って、さらにいかなる処理を行なわない。
どのように現フレーム視差図から検出された対象の位置と予測された対象の位置がマッチングするかどうかを判断することは、本発明のキーではなく、当業者は状況に応じて任意の規則を設定して判断を行うことができる。一種の基本の実現形態として、予測された対象の中心を中心とする所定大きさの領域中に捜索を行なうことができ、該領域中に検出された対象を検索しなかったと、マッチングしないと考えられ、逆に、現フレーム視差図から検出された対象の位置と予測された対象の位置がマッチングすると考えられる。
現フレーム視差図から検出された対象の位置と予測された対象の位置がマッチングすると、視差図信頼度を用いて検出された対象の位置を補正する。信頼度は各フレーム中における検出結果の信頼性を表し、当業者は状況に応じて任意の適当の規則を設定して信頼度を決定することができる。信頼度をより正確にさせるために、好ましくは、信頼度はフレームずつ累計して決定することができる。前述したように、視差図は不完全であるため、現フレーム視差図から検出された対象の位置は不正確である可能性があり、従って、前のフレーム視差図から検出された対象位置と信頼度を用いて現フレーム視差図から検出された対象の位置を補正してさらなる精確の検出結果を取得することができる。
図7は本実施例による例示性信頼度計算方法を示すフローチャートである。該信頼度計算方法中に、各フレームに対して該フレームから検出された対象の幅、高さ、移動距離の信頼度を計算する。
図7に示すように、まず、ステップS701中に計算しようとする信頼度が第1フレーム視差図であるかどうかを決定する。YESであると、ステップS702中に該第1フレームから検出された対象の幅の信頼度、高さ信頼度及び移動距離の信頼度を任意の定数、例えば1と設定する。ステップS701中に計算しようとする信頼度が第1フレーム視差図ではないと決定されたと、ステップS703にChange_w=|wk−1−w|/wk−1,Change_h=|hk−1−h|/hk−1,Change_d=|dk−1−d|/dk−1を計算し、そのうち、kはフレーム番号であり、且つk>l,wk−1,hk−1及びdk−1はそれぞれ対象の第k−1フレーム視差図中の補正後の幅、高さ及び奥行き方向上の移動距離であり、w,h及びdはそれぞれ第kフレーム視差図から検出された該対象の幅、高さ及び奥行き方向上の移動距離である。
続いて、ステップS704中に計算されたChange_wが所定の幅閾値MAX_W_CHANGEより大きいかどうかを判断する。その後、ステップS704の判断結果に従って第kフレーム視差図から検出された対象の幅の信頼度を決定する。任意の適当の形態に従って幅の信頼度を決定することができ、下記の条件を満たせばよく、即ち、Change_wが幅閾値MAX_W_CHANGE未満であると、検出された幅変化は大きくないと表し、第k−1フレーム視差図から検出された対象の幅の信頼度Cw,k−1を増大させ、第kフレーム視差図から検出された対象の幅の信頼度Cw,kを取得し(ステップS705)、そうではないと、第k−1フレーム視差図から検出された対象の幅の信頼度を減少させ、第kフレーム視差図から検出された対象の幅の信頼度を取得する(ステップS706)。1種例示形態として、Change_w<MAX_W_CHANGEであると、Cw,k=Cw,k−1+(MAX_CONFIDENCE−Change)/MAX_W_CHANGEを計算し、Change_w≧MAX_W_CHANGEであると、Cw,k=Cw,k−1+(MAX_W_CHANGE−Change)/(1−MAX_W_CHANGE))を計算し、そのうち、MAX_CONFIDENCEは予め設定された最大信頼度である。前記計算形態は本発明をより理解やすくさせるために与えられる1種の例示形態に過ぎず、本発明を制限するものではないと分かるべきである。
類似的に、高さ信頼度に対して、計算されたChange_hが所定の高さ閾値MAX_H_CHANGEより大きいかどうかを判断する(ステップS707)。Change_hが高さ閾値MAX_W_HIGHT未満であると、検出された高さ変化は大きくないと表し、第k−1フレーム視差図に検出された対象の高さの信頼度Ck−1を増大させ、第kフレーム視差図から検出された対象の高さの信頼度Ch,kを取得する(ステップS708)、そうではないと、第k−1フレーム視差図から検出された対象の高さの信頼度を減少させ、第kフレーム視差図から検出された対象の高さの信頼度を取得する(ステップS709)。同様に、移動距離信頼度に対して、計算されたChange_dが所定の移動距離閾値MAX_D_CHANGEより大きいかどうかを判断する(ステップS710)。Change_dが移動距離閾値MAX_W_DISTANCE未満であると、第k−1フレーム視差図から検出された対象の移動距離の信頼度Cd,k−1を増大させ、第kフレーム視差図から検出された対象の移動距離の信頼度Cd,kを取得し(ステップS711)、そうではないと、第k−1フレーム視差図から検出された対象の移動距離の信頼度を減少させ、第kフレーム視差図から検出された対象の移動距離の信頼度を取得する(ステップS712)。
前記例示形態により、各フレーム視差図に対して該フレームから検出された対象の幅、高さ、移動距離の信頼度を計算することができる。
図5に戻って、前述したように、ステップS530中に、前のフレーム視差図から検出された対象の寸法の信頼度を用いて、現フレーム視差図から検出された対象の寸法と中心を補正する。
まず前のフレーム視差図の信頼度を用いて現フレーム視差図から検出された対象の寸法を補正する。
本文で述べたように、現フレーム視差図から検出された対象の寸法は正確ではないかもしれないが、現実の世界中対象の寸法が一定であるため、歴史フレーム中に決定された対象の寸法を用いて現フレーム中における検出結果を補正することができる。具体的には、前のフレーム視差図中の対象の補正の寸法及び上述のような前記計算された対象の検出の寸法の信頼度を用いて、現フレーム視差図から検出された対象の寸法を補正し、より正確な結果を取得する。
例えば、表現式(1)に示すように、前のフレーム視差図中の対象の補正の寸法と現フレーム視差図から検出された対象の寸法に重み付けし、重み付けして得られた値を現フレーム視差図中の対象の補正された寸法とすることができる。
ここで、wN,correct,hN,correct,dN,correctはそれぞれ現フレーム(第Nフレーム)視差図中の対象の補正された幅、高及び移動距離を表し、wN−1,correct,hN−1,correct,dN−1,correctはそれぞれ前のフレーム(第N−1フレーム)視差図中の対象の補正された幅、高及び移動距離を表し、wN,detectior,hN,detectior,dN,detectiorはそれぞれ現フレーム視差図中の対象の検出された幅、高および移動距離を表し、Cw,N−1,Ch,N−1,Cd,N−1はそれぞれ前のフレーム視差図から検出された対象の幅、高さ及び移動距離の信頼度を表す。
補正された寸法が正確であるかどうかが主として検出された寸法の正確程度に依存し、従って、前のフレーム中における対象の検出された寸法の信頼度は実際上に前のフレームにおける補正された尺寸の信頼度を反映する。従って、表現式(1)中に、前のフレーム視差図中の対象の補正された幅、高さ及び移動距離の重みはそれぞれ前のフレーム視差図から検出された対象の幅、高さ及び移動距離の信頼度に設置され、現フレーム視差図から検出された対象幅、高さ及び移動距離の重みは1に設置される。もちろん、前記設定された例示性重み及び重み付け形態により現フレーム視差図から検出された対象の寸法を補正する方法は1種の例示に過ぎず、本発明を制限するものではなく、当業者は具体的な状況に応じて異なる重みを設置し、又は他の形態を用いて現フレームから検出された対象の寸法を補正することができる。
以下、前のフレーム視差図の信頼度を用いて現フレーム視差図から検出された対象の中心を補正することを説明する。
現フレーム視差図から検出された対象の中心は不正確である可能性があるため、ステップS520に予測された現フレーム視差図中の対象の中心を補正することができる。具体的には、予測された現フレーム視差図中の対象の中心及び前のフレーム中における対象の検出された寸法の信頼度を用いて、現フレーム視差図から検出された対象の寸法を補正し、より正確な結果を取得する。
例えば、表現式(2)に示すように、予測された現フレーム視差図中の対象の中心座標及び現フレーム視差図から検出された対象の中心座標に重み付けすることができ、重み付けして得られた値を現フレーム視差図中の対象の補正された中心座標としてもよい。
ここで、Xobject,N,correct,Yobject,N,correct,Zobject,N,correctは現フレーム(第Nフレーム)視差図における対象の補正された中心座標を表し、Xobject,N,p,Yobject,N,p,Zobject,N,pはそれぞれ予測された現フレーム視差図における対象の中心座標を表し、Xobject,N,detection,Yobject,N,detection,Zobject,N,detectionは現フレーム視差図から検出された対象の中心座標を表し、Cw,N−1,Ch,N−1,Cd,N−1は前のフレーム(第N−1フレーム)視差図から検出された対象の幅、高さ及び移動距離の信頼度を表す。
ステップS520中において現フレーム中対象の中心は前のフレーム中対象の中心を用いて予測され、前のフレーム中対象の中心のx,y及びz軸座標は該前のフレームから検出された対象の幅、高及び移動距離を用いて決定されたため、前のフレーム中対象の検出された寸法の信頼度は実際上に予測された現フレーム中対象の中心の信頼度も反映している。従って、表現式(2)中において、予測された現フレーム中対象中心のx,y及びz軸座標の重みはそれぞれ前のフレーム視差図から検出された対象の幅、高さ及び移動距離の信頼度に設置され、現フレーム視差図から検出された対象幅、高さ及び移動距離の重みは1に設置される。もちろん、前記設定された例示性重み及び重み付け形態により現フレーム視差図から検出された対象の中心を補正する方法は例示に過ぎず、本発明を制限するものではなく、当業者は具体的な状況に応じて異なる重みを設置、又はほかの形態により現フレームから検出された対象の中心を補正することができる。また、表現式(2)に示すように、前記例示中にy軸座標をも補正したが、これは必ずではない。隣接する両フレームの間路面起伏は大きくないため、路面は平らであると考えられ、検出された対象の中心のy軸座標は通常に比較的正確であり、従って、現フレームから検出された対象の中心のy軸座標は補正しなくてもよい。
以上は、第N−1フレームと第Nフレームを例として第Nフレーム中において第N−1中に現れた対象を検出、追跡する方法を説明した。任意長さの視差フレームシーケンスにおける各フレームに対して検出追跡を実行し、従って視差フレームシーケンス全体上に対象の追跡を実現することが理解できる。
<第2実施例>
前述のように、検出する対象中心は実際的に検出された対象の外枠に従って計算して決定されたのである。従って、前述の図3(b)を参照しながら説明した通りに、第Nフレーム中において視差図の不完全で対象の一部しか検出しなかったと、検出された被追跡対象の外枠は図3(b)における実線長方形枠に示す通りであり、それにより計算決定された対象中心の横座標はXObject,Nである。実際には、第Nフレーム中において被追跡対象の真の外枠は図3(b)における破線枠に示す通りであり、且つ、従ってその真の中心の横座標はXObject,Nであるべき。従って、対象の一部しか検出しなかったため、検出された対象の中心は大きな誤差があり、従って該中心を補正する効果もおそらくよくないとことがわかる。この状況に対して、本実施例は改良された対象追跡方法を提供する。
本実施例の対象追跡方法は第1実施例中に説明した対象追跡方法と基本的に同じ、その区別はステップS530中に現フレーム視差図から検出された対象の中心を補正する前、まず該検出する対象の中心に対してさらなる処理を行うことにある。以下、図8を参照しながら詳しく説明する。
視差図の生成原理と実験検証により、視差図の不完全で対象の一部しか検出しなかったと、この一部は対象の右側側辺を含むもっとも右の一部又は対象の左側側辺を含むもっとも左の一部であるべきことが既知である。また、現実の世界中に、対象の幅と高は明らかに一定である。以上の結論に基づいて、対象の一部しか検出しなかった場合、検出された対象の中心より正確な中心(以下、導出中心と略称する)を導き出すことができる。具体的には、検出された対象の一部はもっとも右の一部であると、左導出中心(図8中におけるもっとも左側の点に示すように)を導き出し、検出された対象中心(図8中における実線枠中の点に示すように)とのx軸での距離はwN,correct/2−wN,detection/2であり、そのうち、wN,correctは表現式(1)により計算された現フレーム(第Nフレーム)中における対象の補正された幅であり、wN,detectionは現フレーム(第Nフレーム)中に検出された対象の幅であり、検出された対象の一部はもっとも左の一部であると、右導出中心(図8中におけるもっとも右側の点に示すように)を導き出すことができ、検出された対象中心のX軸での距離もwN,correct/2−wN,detection/2である。
本実施例中において、直接現フレームから検出された対象の一部が対象のもっとも左の一部であるか画像のもっとも右の一部であるかを判断できないため、左導出中心と右導出中心を導き出して2つの候補中心とする。その後、この2つの候補中心と予測された現フレーム中における対象の中心との距離により選択し、即ち、この2つの候補中心のうち、予測された現フレーム中における対象の中心とのX軸方向の距離が近い中心を選択して現フレーム視差図から検出された対象の中心とする。例えば、図8に示すように、左導出中心は予測された対象の中心により近いため、左導出中心を選択して検出された対象の中心とする。従って、現フレームから検出された対象の中心をさらに処理してより正確な結果を取得する。相応的に、その後、ステップS530中に前のフレーム視差図の信頼度を用いて現フレーム視差図におけるこのさらなる処理された検出対象の中心を補正することにより、より優れた効果を取得することができる。
以上の説明中に、検出された対象の中心のX座標のみに対してさらなる処理を行い、必要があると、実際の検出結果に応じてY座標とZ座標に対して類似処理を行うことができ、ここでは繰り返して説明しない。
以上、本発明実施例による対象追跡方法を詳しく説明したが、該方法は予め被追跡対象の寸法を知る必要がなく、且つ被追跡対象の視差図が不完全な場合、優れた追跡結果を提供することができる。
<対象追跡装置の全体構成>
図9は本発明実施例による対象追跡装置900の機能構成ブロック図を示す図である。
図9に示すように、対象追跡装置900は、現フレーム視差図から、対象の寸法及び対象の中心を含む対象の位置を検出する検出部910と、直前の所定数のフレーム視差図から検出された対象の位置から、現フレーム視差図中の対象の位置を予測する予測部920と、現フレーム視差図から検出された対象の位置と予測された対象の位置がマッチングしている場合、前のフレーム視差図から検出された対象の尺寸の信頼度を用いて、現フレーム視差図から検出された対象の位置を補正して、現フレーム視差図中の対象の補正された位置を取得する補正部930と、を備えてもよい。
検出部910、予測部920及び補正部930の具体的な機能と操作は前記図5〜図8の関連説明を参照してよく、ここでは、さらに繰り返して説明しない。
〈システムハードウェア構成>
図10は本発明実施例による対象追跡システム1000の総体ハードウェアブロック図を示す図である。
図10に示すように、対象追跡システム1000は、外部から関連画像又は情報、例えば双眼カメラが撮影した左画像及び右図により生成した視差図シーケンスを入力することに用いられ、例えばキーボード、マウス、カメラ等であってもよい入力装置1010、前記の本発明実施例による対象追跡方法を実施し、又は前記の対象追跡装置として実施することに用いられ、例えばコンピュータの中央処理器又はほかの処理能力を有するチップ等であってもよい処理装置1020、外部に前記対象追跡過程を実施して得られた結果、例えば補正された中心座標、補正された対象寸法等を出力することに用いられ、例えばディスプレイ、プリンタ等であってもよい出力装置1030、及び、揮発性又は非揮発性の形態で前記対象追跡過程に関わる例えば歴史フレームに補正された対象寸法、中心、検出された対象寸法、中心、及び検出された対象寸法の信頼度等のデータを記憶することに用いられ、例えばランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、ハードディスク、又は半導体メモリ等の各種揮発性又は不揮発性メモリであってもよい記憶装置1040を備えてもよい。
以上、具体的な実施例を参照しながら本発明の基本原理を説明したが、ただし、本領域の一般の当業者にとって、本発明の方法及び装置の全部又はいかなるステップ又は各部は、いかなる計算装置(プロセッサー、記憶媒体等を含む)又は計算装置のネットワーク中に、ハードウェア、ファームウエア、ソフトウェア又はこれらの組み合わせで実現することができると理解可能であり、これは本分野の一般の当業者が本発明の説明を読んだ場合、これらの基本プログラミングスキルを運用して実現することができる。
従って、本発明の目的はいかなる計算装置上で1つのプログラム又は1組のプログラムを運行して実現することができる。前記計算装置は、公知の汎用装置であってもよい。従って、本発明の目的は前記方法又は装置を実現するプログラムコードを含むプログラム製品を提供することのみにより実現することができる。つまり、このようなプログラム製品も本発明を構成し、且つこのようなプログラム製品を記憶する記憶媒体も本発明を構成する。明らかに、前記記憶媒体はいかなる公知の記憶媒体又は将来に開発するいかなる記憶媒体であってもよい。
ただし、本発明の装置及び方法中に、明らかに、各部又は各ステップは分解及び/又は再組合することができる。これらの分解及び/又は再組合は本発明の等価方案と見なすべきである。且つ、前記一連の処理を実行するステップは自然的に説明した順序により時間順序により実行することができるが、かならず時間順序により実行する必要がない。いくつのステップは並行し又は互いに独立に実行することができる。
前記具体的な実施形態は、本発明保護範囲を制限するものではない。当業者は、設計要求とほかの要素に応じて、さまざまな修正、組合、サブ組合及び取代を生じることができると分かるべきである。本発明の主旨と原則の内に行ったいかなる修正、等同取替及び改良等はいずれも本発明保護範囲内に含まれるべきである。
米国特許第US7660438B2号

Claims (8)

  1. 現フレームの視差図から、対象の寸法及び対象の中心を含む対象の位置を検出するステップと、
    直前の所定数のフレームの視差図から検出された対象の位置に基づいて、現フレームの視差図における対象の位置を予測するステップと、
    現フレームの視差図から検出された対象の位置が予測された対象の位置とマッチングしている場合、前フレームの視差図から検出された対象の位置の信頼度を用いて、現フレームの視差図から検出された対象の位置を補正し、補正された位置を取得するステップと、を含み、
    現フレームの視差図から検出された対象の位置を補正し、補正された位置を取得するステップは、
    前フレームの視差図から検出された対象の位置の信頼度を用いて、予測された対象の現フレームの視差図における中心に基づいて、現フレームの視差図から検出された対象の中心を補正し、補正された中心を取得するステップ、を含み、
    前記対象の寸法は、対象の幅を含み、
    現フレームの視差図から検出された対象の中心を補正し、補正された中心を取得するステップは、
    現フレームの視差図における対象の補正された幅及び現フレームの視差図から検出された対象の位置に基づいて、現フレームの視差図における対象の2つの候補の中心を決定するステップと、
    2つの候補の中心から、予測された現フレームの視差図における対象の中心とのX軸方向の距離が近い中心を選択するステップと、
    選択された中心を、現フレームの視差図から検出された対象の中心とするステップと、を含む対象追跡方法。
  2. 現フレームの視差図から検出された対象の位置を補正し、補正された位置を取得するステップは、
    前フレームの視差図から検出された対象の位置の信頼度を用いて、前フレームの視差図における対象の補正された寸法に基づいて、現フレームの視差図から検出された対象の寸法を補正し、補正された寸法を取得するステップ、をさらに含む請求項1に記載の対象追跡方法。
  3. 前記対象の寸法は、対象の高さをさらに含み、
    前記対象の位置は、隣接フレームの間の奥行き方向の移動距離を含む請求項2に記載の対象追跡方法。
  4. 現フレームの視差図から検出された対象の寸法を補正し、補正された寸法を取得するステップは、
    前フレームの視差図における対象の補正された高さ及び現フレームの視差図から検出された対象の高さに重み付けし、重み付けされた値を現フレームの視差図における対象の補正された高さとするステップであって、前フレームの視差図における対象の補正された高さの重みが前フレームの視差図から検出された対象の高さの信頼度である、ステップと、
    前フレームの視差図における対象の補正された幅及び現フレームの視差図から検出された対象の幅に重み付けし、重み付けされた値を現フレームの視差図における対象の補正された幅とするステップであって、前フレームの視差図における対象の補正された幅の重みが前フレームの視差図から検出された対象の幅の信頼度である、ステップと、
    前フレームの視差図における対象の補正された移動距離及び現フレームの視差図から検出された対象の移動距離に重み付けし、重み付けてされた値を現フレームの視差図における対象の補正された移動距離とするステップと、前フレームの視差図における対象の補正された移動距離の重みが前フレームの視差図から検出された対象の移動距離の信頼度である、ステップと、を含む請求項3に記載の対象追跡方法。
  5. 現フレームの視差図から検出された対象の中心を補正し、補正された中心を取得するステップは、
    予測された現フレームの視差図における対象の中心のx軸座標値及び現フレームの視差図から検出された対象の中心のX軸座標値に重み付けし、重み付けされたX軸座標値を現フレームの視差図における対象の補正された中心のX軸座標値とするステップであって、予測された現フレームの視差図における対象の中心のX軸座標値の重みが前フレームの視差図から検出された対象の幅の信頼度である、ステップと、
    予測された現フレームの視差図における対象の中心の奥行き方向の移動距離及び現フレームの視差図から検出された対象の中心の奥行き方向の移動距離に重み付けし、重み付けてされた移動距離を現フレームの視差図における対象の補正された移動距離とするステップであって、予測された現フレームの視差図における対象の中心の移動距離の重みが前フレームの視差図から検出された対象の移動距離の信頼度である、ステップと、を含む請求項3に記載の対象追跡方法。
  6. 現フレームの視差図から検出された対象の中心を補正し、補正された中心を取得するステップは、
    予測された現フレームの視差図における対象の中心のy軸座標値及び現フレームの視差図から検出された対象の中心のy軸座標値に重み付けし、重み付けされたy軸座標値を現フレームの視差図における対象の補正された中心のy軸座標値とするステップであって、予測された現フレームの視差図における対象の中心のy軸座標値の重みが前フレームの視差図から検出された対象の高さの信頼度である、ステップをさらに含む請求項5に記載の対象追跡方法。
  7. 各フレームから検出された対象の位置の信頼度を決定する際に、
    第1フレームの視差図から検出された対象の幅の信頼度、高さ信頼度及び奥行き方向の移動距離の信頼度を設定し、
    第kフレームの視差図に対して、Change_w=|wk−1−w|/wk−1,Change_h=|hk−1−h|/hk−1,Change_d=|dk−1−d|/dk−1を計算し、ここで、k>l,wk−1,hk−1及びdk−1はそれぞれ対象の第k−1フレームの視差図における補正後の幅、高さ及び奥行き方向の移動距離であり、w,h及びdはそれぞれ第kフレームの視差図から検出された該対象の幅、高さ及び奥行き方向の移動距離であり、
    第kフレームの視差図から検出された対象の幅の信頼度を決定し、Change_wが所定の幅閾値未満であると、所定の方式で第k−1フレームの視差図から検出された対象の幅の信頼度を増大させ、所定の幅閾値未満でないと、所定の方式で第k−1フレームの視差図から検出された対象的幅の信頼度を減少させ、
    第kフレームの視差図から検出された対象の高さの信頼度を決定し、Change_hが所定の高さ閾値未満であると、所定の方式で第k−1フレームの視差図から検出された対象の高さの信頼度を増大させ、所定の高さ閾値未満でないと、所定の方式で第k−1フレームの視差図から検出された対象の高さの信頼度を減少させ、
    第kフレームの視差図から検出された対象の移動距離の信頼度を決定し、Change_dが所定の距離閾値未満であると、所定の方式で第k−1フレームの視差図から検出された対象の移動距離の信頼度を増大させ、所定の距離閾値未満でないと、所定の方式で第k−1フレームの視差図から検出された対象の移動距離の信頼度を減少させる請求項3〜6のいずれかに記載の対象追跡方法。
  8. 現フレームの視差図から、対象の寸法及び対象の中心を含む対象の位置を検出する検出部と、
    直前の所定数のフレームの視差図から検出された対象の位置に基づいて、現フレームの視差図における対象の位置を予測する予測部と、
    現フレームの視差図から検出された対象の位置が予測された対象の位置とマッチングしている場合、前フレームの視差図から検出された対象の位置の信頼度を用いて、現フレームの視差図から検出された対象の位置を補正し、補正された位置を取得する補正部と、を備え
    前記補正部は、
    前フレームの視差図から検出された対象の位置の信頼度を用いて、予測された対象の現フレームの視差図における中心に基づいて、現フレームの視差図から検出された対象の中心を補正し、補正された中心を取得し、
    前記対象の寸法は、対象の幅を含み、
    前記補正部は、
    現フレームの視差図における対象の補正された幅及び現フレームの視差図から検出された対象の位置に基づいて、現フレームの視差図における対象の2つの候補の中心を決定し、
    2つの候補の中心から、予測された現フレームの視差図における対象の中心とのX軸方向の距離が近い中心を選択し、
    選択された中心を、現フレームの視差図から検出された対象の中心とする対象追跡装置。
JP2014162175A 2013-08-20 2014-08-08 対象追跡方法及び対象追跡装置 Active JP6405778B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201310364526.3 2013-08-20
CN201310364526.3A CN104424648B (zh) 2013-08-20 2013-08-20 对象跟踪方法和设备

Publications (2)

Publication Number Publication Date
JP2015041382A JP2015041382A (ja) 2015-03-02
JP6405778B2 true JP6405778B2 (ja) 2018-10-17

Family

ID=51483212

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014162175A Active JP6405778B2 (ja) 2013-08-20 2014-08-08 対象追跡方法及び対象追跡装置

Country Status (3)

Country Link
EP (1) EP2840528B1 (ja)
JP (1) JP6405778B2 (ja)
CN (1) CN104424648B (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10586102B2 (en) * 2015-08-18 2020-03-10 Qualcomm Incorporated Systems and methods for object tracking
JP6756507B2 (ja) * 2016-04-01 2020-09-16 日立オートモティブシステムズ株式会社 環境認識装置
CN107403440B (zh) * 2016-05-18 2020-09-08 株式会社理光 用于确定对象的姿态的方法和装置
CN107516303A (zh) * 2017-09-01 2017-12-26 成都通甲优博科技有限责任公司 多目标跟踪方法及系统
KR20190062635A (ko) * 2017-11-15 2019-06-07 전자부품연구원 객체 추적 장치 및 객체 추적 방법
CN108446622A (zh) * 2018-03-14 2018-08-24 海信集团有限公司 目标物体的检测跟踪方法及装置、终端
CN108388879B (zh) * 2018-03-15 2022-04-15 斑马网络技术有限公司 目标的检测方法、装置和存储介质
CN110264498A (zh) * 2019-06-26 2019-09-20 北京深醒科技有限公司 一种视频监控场景下的人体跟踪方法
JP7308112B2 (ja) * 2019-09-19 2023-07-13 京セラ株式会社 物体検出装置、物体検出システム、移動体及び物体検出方法
CN110794422B (zh) * 2019-10-08 2022-03-29 歌尔光学科技有限公司 一种含有tof成像模组的机器人数据采集系统及方法
CN110675432B (zh) * 2019-10-11 2022-11-08 杭州云栖智慧视通科技有限公司 一种基于多维特征融合的视频多目标跟踪方法
CN111079525B (zh) * 2019-11-05 2023-05-30 阿里巴巴集团控股有限公司 图像处理方法、设备、系统及存储介质
JP7393270B2 (ja) * 2020-03-25 2023-12-06 株式会社コア 情報処理装置、情報処理方法及び情報処理プログラム
CN112614160B (zh) * 2020-12-24 2021-08-31 中标慧安信息技术股份有限公司 多对象人脸跟踪方法和系统

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005060640A2 (en) 2003-12-15 2005-07-07 Sarnoff Corporation Method and apparatus for object tracking prior to imminent collision detection
JP2007249309A (ja) * 2006-03-13 2007-09-27 Toshiba Corp 障害物追跡装置及びその方法
JP4856612B2 (ja) * 2007-10-29 2012-01-18 富士重工業株式会社 物体検出装置
US8050459B2 (en) * 2008-07-25 2011-11-01 GM Global Technology Operations LLC System and method for detecting pedestrians
CN101419667B (zh) * 2008-12-15 2010-12-08 东软集团股份有限公司 识别图像中障碍物的方法和装置
US20100208063A1 (en) * 2009-02-19 2010-08-19 Panasonic Corporation System and methods for improving accuracy and robustness of abnormal behavior detection
CN101527046B (zh) * 2009-04-28 2012-09-05 青岛海信数字多媒体技术国家重点实验室有限公司 一种运动检测方法、装置和系统
CN101877131A (zh) * 2009-04-28 2010-11-03 青岛海信数字多媒体技术国家重点实验室有限公司 一种目标识别方法、装置及目标识别系统
JP5528151B2 (ja) * 2010-02-19 2014-06-25 パナソニック株式会社 対象物追跡装置、対象物追跡方法、および対象物追跡プログラム
CN102163280B (zh) * 2011-04-12 2012-09-26 华中科技大学 一种基于置信度和多帧判决的目标识别跟踪转换方法
JP2013085089A (ja) * 2011-10-07 2013-05-09 Nikon Corp 被写体追尾装置およびカメラ
JP5886616B2 (ja) * 2011-11-30 2016-03-16 キヤノン株式会社 物体検出装置、物体検出装置の制御方法、およびプログラム

Also Published As

Publication number Publication date
CN104424648A (zh) 2015-03-18
CN104424648B (zh) 2018-07-24
JP2015041382A (ja) 2015-03-02
EP2840528B1 (en) 2019-04-03
EP2840528A3 (en) 2015-03-25
EP2840528A2 (en) 2015-02-25

Similar Documents

Publication Publication Date Title
JP6405778B2 (ja) 対象追跡方法及び対象追跡装置
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
JP6760114B2 (ja) 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム
KR101776620B1 (ko) 검색 기반 상관 매칭을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US10275649B2 (en) Apparatus of recognizing position of mobile robot using direct tracking and method thereof
US10399228B2 (en) Apparatus for recognizing position of mobile robot using edge based refinement and method thereof
KR101708659B1 (ko) 이동 로봇의 맵을 업데이트하기 위한 장치 및 그 방법
JP5892663B2 (ja) 自己位置推定装置、自己位置推定方法、自己位置推定プログラム、及び移動体
KR101926563B1 (ko) 카메라 추적을 위한 방법 및 장치
KR20180112090A (ko) 카메라의 포즈를 판단하기 위한 장치 및 방법
JP2005528707A (ja) データ組間の特徴マッピング
US10650535B2 (en) Measurement device and measurement method
JP2019132664A (ja) 自車位置推定装置、自車位置推定方法、及び自車位置推定プログラム
KR101468545B1 (ko) 이동 로봇의 전역위치인식 및 지도 업데이트 장치 및 방법
JP6681682B2 (ja) 移動体計測システム及び移動体計測方法
JP4836065B2 (ja) エッジトラッキング方法及びそのコンピュータプログラム
CN113902801A (zh) 移动机器人重定位方法、装置、设备及存储介质
Baligh Jahromi et al. Layout slam with model based loop closure for 3d indoor corridor reconstruction
KR101847113B1 (ko) 이미지를 이용하는 카메라의 방향과 관련한 정보 추정장치 및 추정방법
KR101373982B1 (ko) 스테레오 비전에서 탐색 영역 예측을 통한 빠른 스테레오 정합 방법 및 장치와 이를 이용한 스테레오 비전 시스템
CN113793378B (zh) 基于层次分组的语义slam对象关联和位姿更新方法及系统
Gomez-Ojeda et al. Accurate stereo visual odometry with gamma distributions
KR101882319B1 (ko) 경로 역추적 이동을 위한 수중 이미지 처리 장치 및 그 방법
KR101726695B1 (ko) 객체추적방법
CN116558526A (zh) 基于视觉slam的动态物体识别避障导航方法及系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170721

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180605

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180821

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180903

R151 Written notification of patent or utility model registration

Ref document number: 6405778

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151