JP5258651B2 - 物体検出装置、物体検出方法、及び、プログラム - Google Patents

物体検出装置、物体検出方法、及び、プログラム Download PDF

Info

Publication number
JP5258651B2
JP5258651B2 JP2009074557A JP2009074557A JP5258651B2 JP 5258651 B2 JP5258651 B2 JP 5258651B2 JP 2009074557 A JP2009074557 A JP 2009074557A JP 2009074557 A JP2009074557 A JP 2009074557A JP 5258651 B2 JP5258651 B2 JP 5258651B2
Authority
JP
Japan
Prior art keywords
candidate
image
unit
detected
type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009074557A
Other languages
English (en)
Other versions
JP2010225105A (ja
Inventor
晃仁 関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2009074557A priority Critical patent/JP5258651B2/ja
Publication of JP2010225105A publication Critical patent/JP2010225105A/ja
Application granted granted Critical
Publication of JP5258651B2 publication Critical patent/JP5258651B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、動画像から歩行者等の物体を検出し追跡する物体検出装置、物体検出方法、及び、プログラムに関する。
従来から、動画像から物体を検出し、追跡する装置等の技術がある。これらの技術は、以下の3通りに大別される。
1つめは、直前の時刻で物体を検出し、検出された物体を追跡することで、現在の時刻における物体位置や大きさを推定する。推定された結果と現在の時刻で検出された物体との間で物体位置や大きさなどの関係から、それらが同一物体であるか時刻間の対応づけを行うことで目的を達成する(特許文献1参照))。
2つめは、直前の時刻で検出された物体と現在の時刻で検出された物体同士を物体の持つ色やパターンなどの特徴を比較することで対応づけを行うことで目的を達成する(特許文献2参照))。
3つめは、例えば現在時刻で物体が検出されていないときに、過去の時刻に検出された物体と現在時刻より後の時刻に検出された物体とから、現在時刻における物体の位置や大きさや有無も推定する、オフライン処理である(非特許文献1参照)。
特開2006−53756号公報 特開2006−133946号公報
L.Zhang,Y.Li,R.Nevatia,"Global Data Association for Multi−Object Tracking Using Network Flows",IEEE Computer Vision and Pattern Recognition,2008. 関、服部、"複数のサンプル点を利用したリアルタイム3次元運動推定"、画像の認識・理解シンポジウム、2008.
しかしながら、上記特許文献1及び2に記載の物体認識装置等の技術では、毎時刻において物体が正しく検出されている必要があった。そのため、毎時刻で安定して物体を検出出来ない場合には、時刻間で物体が同一であるか否かの判定ができない。また物体が検出されない時刻では、物体の位置や大きさや有無を特定できない。
また、非特許文献1に記載のオフライン処理による検出では、直後の時刻の情報も用いるため、あらかじめ撮影された動画像が必要であり、検出および追跡結果に時間遅れが発生する。
本発明は、上記の点に鑑みて、これらの問題を解消するために発明されたものであり、動画像から、時間遅れなく、かつ、正確に物体の有無や位置を特定することを目的とする。
上記目的を達成するために、本発明の物体検出装置は次の如き構成を採用した。
本発明の一態様に係る物体検出装置は、動画像を構成する画像のうちの過去の一の時刻の画像から検出された所定の種別の物体の候補の、現在時刻における状態を推定し、推定された状態の前記物体の候補の物体種別度を求める追跡部と、前記動画像の現在時刻の画像から、前記所定の種別の物体の候補を検出し、検出した前記候補の状態及び物体種別度を求める物体検出部と、前記追跡部が求めた物体種別度及び前記物体検出部が求めた物体種別度を用いて、一の物体毎に一の前記候補を選択する選択部と、前記一の時刻の画像から検出された所定の種別の物体毎に、選択された前記候補の中から一の候補を対応づける
対応付け部と、前記物体検出部が検出する候補が複数の場合に、前記選択部は、前記追跡部及び前記物体検出部の各々が求めた前記物体種別度から、該物体種別度が大きいほど値の大きい物体種別重みを求めると共に、前記追跡部及び前記物体検出部の各々が求めた前記物体種別度から、一の物体に対して同時に選択される前記候補の数が多いほど値の小さいペナルティ重みを求め、前記物体種別重みと前記ペナルティ重みとの総和が最大になる前記候補を選択する構成とすることができる。
本発明の物体検出装置、物体検出方法、及び、プログラムによれば、動画像から、時間遅れなく、かつ、正確に物体の有無や位置を特定する物体検出装置、物体検出方法、及び、プログラムを提供することが可能になる。
本実施の形態に係る物体検出装置のブロック図である。 本実施の形態に係る物体検出方法の処理の概略を示すフロー図である。 本実施の形態に係る物体検出方法のステップにおける処理により出力される検出結果を説明する図である。 追跡ステップ(ステップS10)の詳細を示すフロー図である。 動画像に含まれる一の時刻の画像を示す図である。 物体検出ステップ(ステップS20)の詳細を説明するフロー図である。 対応付けステップ(ステップS40)の詳細を説明するフロー図である。 本実施の形態にかかる物体検出装置のハードウェア構成を示す説明図である。
図1は、本実施の形態に係る物体検出装置のブロック図である。図1の物体検出装置は、追跡部11、物体検出部12、選択部13、及び、対応付け部14を有する。追跡部11は、動画像から、現在の時刻の直前の時刻の画像で求められた物体を追跡して物体候補として登録する。物体検出部12は、現在の時刻の画像から物体を検出して物体候補として登録する。
選択部13は、追跡部11で得られた物体候補と物体検出部12で得られた物体候補とから物体を選択する。対応付け部14は、選択部13で選択された物体と追跡部11で得られた物体候補とが、同一物体であるか否かを判定する。
図2は、本実施の形態に係る物体検出方法の処理の概略を示すフロー図である。本実施の形態に係る物体検出方法は、図2に示す4つのステップを有する。ステップS10は、追跡部11による追跡ステップであり、ステップS20は、物体検出部12による物体検出ステップであり、ステップS30は、選択部13による選択ステップであり、ステップS40は、対応付け部14による対応づけステップである。
図3は、図2に示すフロー図に対応し、各ステップにおける処理により出力される検出結果を説明する図である。図3では、現在の時刻の直前の時刻の画像において、物体が2つ検出されている。それぞれの物体のIDを1及び2とする。
ステップS10では、各物体の現在の時刻の位置や大きさ等を推定する。ステップS20では、現在の時刻の画像の情報から物体の検出を行う。
ステップS30では、ステップS10で推定された物体候補とステップS20で検出された物体候補とから、物体の選択を行う。ステップ40では、追跡ステップ(ステップS10)で検出された物体の情報と選択ステップ(ステップS30)で選択された物体の情報とから、2つの時刻間で同一の物体の対応づけを行う。ここでは、IDが1と2の物体が追跡され、IDが3の物体は新しく検出された物体である。それぞれのステップのより詳細な例を以下で説明する。
図4は、追跡ステップであるステップS10の詳細を示すフロー図である。図4の追跡ステップは、物体追跡ステップ(ステップS101)、追跡判定ステップ(ステップS102)、候補破棄ステップ(ステップS103)、物体種別度設定ステップ(ステップS104)、及び、候補更新ステップ(ステップS105)の5つのステップが含まれる。
ここでは、検出する物体として歩行者の例について説明する。なお、本実施の形態により検出される対象物体は、歩行者の他に、自動車、自転車等の種別でもよい。本実施の形態に係る物体検出方法は、検出する対象物の種別が定められる。
図5は、動画像に含まれる一の時刻の画像を示す図である。図5の画像1000は、歩行者の物体1001を有する。領域1002は、物体1001の周囲の矩形領域である。なお、図5の例では、矩形を物体検出の際の形状とするが、楕円、物体の輪郭形状でもよい。
一の時刻の画像に、歩行者が複数含まれる場合には、それぞれの歩行者について、追跡ステップを実行する。
物体追跡ステップ(ステップS101)では、現在の時刻の直前の時刻の画像で求められた歩行者の追跡を行う。直前の時刻の画像で求められた歩行者とは、物体検出処理を直前の時刻の画像に対して実行することで得られた歩行者である。直前の時刻の画像に対する物体検出処理は、本実施形態の物体検出処理と同一でよい。なお、一の動画像に対する最初の物体検出処理の際には、直前の時刻で求められた歩行者が存在しないため、追跡ステップ(ステップS10)は行わず、物体検出ステップ(ステップS20)から処理を行う。
物体追跡ステップ(ステップS101)では、例えば、直前の時刻の画像と現在の時刻の画像から、画像上での移動ベクトルや大きさの変化を求める。より詳細には、例えば、テンプレートマッチング法やCamShift法を用いて歩行者の移動ベクトルや大きさの変化を推定する。
物体追跡ステップ(ステップS101)では、また例えば、直前の時刻の画像と現在の時刻の画像との両時刻の画像に加えて、両時刻の3次元的な位置情報から、空間上での3次元的な移動ベクトルを求めることで画像上での移動位置や大きさの変化を得る(非特許文献2参照)。3次元的な位置情報は、例えば、両時刻の画像において、それぞれステレオ計測を用いて得ることができる。
追跡判定ステップ(ステップS102)では、物体追跡ステップ(ステップS101)で行われた追跡が成功したか否かの判定を行う。判定方法は、物体追跡ステップ(ステップS101)で採用する追跡方法に対応させる。
例えば、物体追跡ステップ(ステップS101)で、テンプレートマッチング法を採用した場合には、追跡判定ステップ(ステップS102)では、テンプレートマッチング法で利用した類似度(例えばSum of Absolute Differences:SAD)に閾値を設けて、設定値以上の場合には追跡が失敗したと判断し、設定値未満のときは追跡が成功したと判断する。また例えば、歩行者の移動速度には上限があることから、移動ベクトルが閾値以上の場合に追跡が失敗したとみなしてもよい。
候補破棄ステップ(ステップS103)では、追跡判定ステップ(ステップS102)で失敗と判定された歩行者の結果を破棄する。
物体種別度設定ステップ(ステップS104)では、追跡判定ステップ(ステップS102)で成功と判断された歩行者に対して、物体種別度の設定を行う。物体種別度とは、検出された物体が、その物体の種別に含まれるか否かを表す指標であり、例えば、検出の対象が「歩行者」の場合には「歩行者らしさ」を表す指標である。
物体種別度は、例えば、識別器の出力(104−1)、路面からの距離(104−2)、奥行き(104−3)、大きさ(104−4)、動き(104−5)、及び、事前知識(104−6)等の指標から算出する。
識別器の出力(104−1)は、あらかじめ学習した歩行者画像のパターンと入力した画像パターンとの類似性を判断するため、サポートベクターマシン(以下、「SVM」という。)から得られる識別確率を用いる。識別確率は、0から1に正規化され、あらかじめSVMで学習されたパターンに近いほど、1に近い値を持つ。なお、SVMの他に、Randamized Tree等の識別器を用いてもよい。
識別確率は、歩行者の姿勢、歩行者の背景のパターン、及び、影等によって、低下する場合がある。そのため、直前の時刻の画像から得られた識別確率P^p,t−1を次式(1)に入力して求めるP^’p,t−1と、物体追跡ステップ(ステップS101)で得られた現在の時刻の画像における位置と大きさとから求めた矩形領域を画像パターンとして入力し、求められた識別確率Pp,tと、の大きい方を識別器の出力(104−1)による物体種別度P^p,tとする。
Figure 0005258651

なお、数式中の「ハット記号^の付された文字P」を、本文中では「P^」を表記する。
路面からの距離(104−2)は、検出対象の物体が、歩行者、自転車、バイク、自動車等、道路面上に接する場合に利用できる。そのような物体は、路面からの距離が近い。そこで、路面からの距離が近いほど、路面からの距離(104−2)による物体種別度Pを1に近い値とし、遠いほど0に近い値とする。例として、図5の領域1002の中央下部の位置1003における路面からの距離をhと表すと、物体種別度Pを次式(2)から求める。
Figure 0005258651

なお、距離hは、カメラに対する路面の姿勢と、物体1001の空間位置とから求めることができる。
奥行き(104−3)を得るには、ステレオ計測などによって得られた3次元位置情報が必要である。図5において、物体が存在する領域1002内では、奥行きに偏りのある3次元位置情報を含んでいる。この偏りが大きいほど奥行き(104−3)による物体種別度Pを1に近い値とし、偏りが小さいほど0に近い値とする。
大きさ(104−4)は、検出結果から得られる物体の大きさに基づいて得られる。例えば、歩行者は、身長がある程度の決まった範囲であるため、その範囲を逸脱する物体の大きさによる物体種別度Pを0に、その範囲内である物体の大きさによる物体種別度Pを1にする。物体の空間的な大きさは、物体の奥行きと画像上での大きさ、及び、カメラの内部パラメータが既知であれば求めることができる。
動き(104−5)は、物体の動きに基づいて得られる。検出対象が歩行者の場合には、移動速度に上限がある。また対象が自動車の場合には、急に進行方向が変化することが少ない。本実施の形態では、物体追跡ステップ(ステップS101)において、物体の移動ベクトルが求められているため、移動ベクトルが対象の動きに近いほど、動きによる物体種別度Pを1に近い値とし、移動ベクトルが対象の動きに遠いほど、動きによる物体種別度Pを0に近い値とする。
事前知識(104−6)は、対象の事前知識に基づく指標である。例えば、遠赤外線カメラを用いる場合には、歩行者は周りに比べて高い温度を持つため、画像中で明るく映る。そこで、検出された対象を含む矩形領域に明るい輝度値を多く含む場合には、事前知識による物体種別度Ppriを1に近い値とし、そうでない場合ほど、0に近い値とする。
また例えば、カメラにGPS(Global Positioning System)とコンパスと地図とを搭載する場合には、検出された物体が歩道エリアに存在する場合に、事前知識による物体種別度Ppriを1に近い値とし、検出された物体が、歩行者が存在する可能性の低いエリアに存在する場合ほど、事前知識による物体種別度Ppriを0に近い値とする。
またその他に、カメラが進行していくエリアにある物体を漏れなく検出・追跡するために、カメラが進行していくエリア近くに存在する物体では事前知識による物体種別度Ppriを1に近い値とし、そうでないエリアほど、事前知識による物体種別度Ppriを0に近い値とするとよい。または、物体追跡ステップ(ステップS101)において追跡した際の信頼度を用いてもよい。例えば、SADの値が小さいほど信頼度が高いとして、事前知識による物体種別度Ppriを1に近い値とする。
上記の(104−1)ないし(104−6)の指標により求めたそれぞれの物体種別度を、次式(3)に示す積の形にして、検出された各対象の物体種別度Pを求める。
Figure 0005258651

なお、式(3)に示すように、各指標による物体種別度を全て用いて、物体種別度Pを求めてもよく、各指標による物体種別度P^p,t,P,P,P,P,Ppriのうち、一以上の物体種別度を選び、それらの積により、物体種別度Pを求めてもよい。
さらに、事前知識による物体種別度Ppriが複数の事前知識を用いる場合には、各事前知識による物体種別度Ppriの積を、事前知識による物体種別度Ppriとするとよい。
候補更新ステップ(ステップS105)では、物体追跡ステップ(ステップS101)で得られた現在の時刻の画像における物体候補の位置や矩形領域と、物体種別度設定ステップ(ステップS104)で得られた物体種別度Pを追跡結果として更新する。なお、P^p,tを追跡結果に含ませてもよい。
図6は、物体検出ステップ(ステップS20)の詳細を説明するフロー図である。物体検出ステップ(ステップS20)は、物体検出ステップ(ステップS201)、物体種別度設定ステップ(ステップS202)、及び、候補登録ステップ(ステップS203)を有する。
物体検出ステップ(ステップS201)では、現在の時刻の画像から歩行者を検出する。歩行者を検出する際には、例えば現在の時刻の画像上に大きさや位置の異なる矩形領域を複数生成し、それぞれの矩形領域の画像パターンに対し、識別器の出力(104−1)による物体種別度の算出の際に用いたSVMを用いて識別確率を求め、識別確率が閾値以上のものを検出結果とする。一人の歩行者のまわりの複数の矩形領域で閾値を上回る場合には、検出結果を1つにまとめずにそれぞれの検出結果として扱う。また、ステレオ計測などによって得られた現在の時刻の3次元位置を用いて、立体物の領域を抽出し、それらを物体の検出結果としてもよい。
物体種別度設定ステップ(ステップS202)では、物体検出ステップ(ステップS201)で検出された物体候補それぞれに対して物体種別度を求める。物体種別度の求め方は、ステップS10の物体種別度設定ステップ(ステップS104)と同じである。但し、ここでは初めて検出されており、追跡時の情報を用いることができないため、動き(104−5)の指標は利用することができない。
候補登録ステップ(ステップS203)では、物体検出ステップ(ステップS201)で求めた物体候補の位置や矩形領域と、物体種別度設定ステップ(ステップS202)で求めた物体種別度を新たに記録する。なお、ステップS201で求めた識別確率を併せて記録してもよい。
選択ステップ(ステップS30)では、追跡ステップ(ステップS10)の候補更新ステップ(ステップS105)で記録された物体候補の結果と、物体検出ステップ(ステップS20)の候補登録ステップ(ステップS203)で記録された物体候補の結果と、の中から、一人の歩行者に対する1つの検出結果を選択する。
より詳細には、まずそれぞれの物体検出結果が選択される際に加算する重みを設定する。次に、一人の歩行者に対して複数の検出結果が選択されないようにするため、複数の物体検出結果が同時に選択された際のペナルティとなる重みを設定する。重みの合計が最も大きくなるように検出結果を選択することで、一人の歩行者に対する検出結果が1つとなる。
候補更新ステップ(ステップS105)と候補登録ステップ(ステップS203)で記録された物体候補の結果を順に並べ、i番目の結果をh、その物体種別度をPと表すとき、次式(4)で与えられる重みを計算する。
Figure 0005258651
式(4)では、物体種別度が大きいほど関数fは大きな値を持つ。次に、複数の物体検出結果が選択された際のペナルティとなる重みを計算する。ここでは、計算を高速に行うため、2つの検出結果が同時に選ばれる場合のペナルティのみ求める。これにより、3つ以上の検出結果が同時に選ばれる場合は近似的なペナルティとなるが、3つ以上の検出結果が同時に選ばれる際のペナルティを求める処理を別途行ってもよい。i番目とj番目(ただし、i<j)の検出結果が同時に選択された際にペナルティとなる重みを次式(5)で与える。
Figure 0005258651

ここで、Pi∩jは、次式(6)で与えられる。
Figure 0005258651
なお、Rijは、矩形領域同士が重なっている面積を分子とし、分母にi番目またはj番目の検出結果の矩形領域の面積の小さい方とした比である。Eijは、i番目の検出結果の奥行きZiとj番目の検出結果の奥行きZjが分かる場合に利用し、わからない場合はEijの代わりに1とする。Pi∩jは、検出結果の奥行きに差があるほど、検出結果の矩形領域同士が重なっていないほど小さな値となる。
続いて、求めた重みを使って検出結果から1の物体を選択する方法について説明する。次式(7)では、目的関数Eをベクトルmと行列Qを使って表現する。
Figure 0005258651
ベクトルmは0または1を要素に持つ未知ベクトルであり、次元数kは候補更新ステップ(ステップS105)と候補登録ステップ(ステップS203)で記録された物体候補の結果の合計数である。ベクトルmのi番目の要素が1であるときには、i番目の検出結果が選択され、0のときにはi番目の検出結果が選択されない。行列Qは、式(8)に示す対称行列であり、それぞれの要素は式(9)に従い与えられる。
Figure 0005258651

Figure 0005258651
式(7)の目的関数を最大にするベクトルmを推定することで、検出結果の選択を行う。ベクトルmの求め方は、総当たりで計算してもよいが、ベクトルmの次元が大きくなると非常に計算時間がかかる。そこで、たとえば貪欲法を用いることで高速に計算するとよい。
図7は、対応付けステップ(ステップS40)の詳細を説明するフロー図である。対応付けステップ(ステップS40)は、候補対応づけステップ(ステップS401)、対応付け判定ステップ(ステップS402)、物体新規登録ステップ(ステップS403)、及び、物体情報更新ステップ(ステップS404)を有する。
候補対応づけステップ(ステップS401)では、選択ステップ(ステップS30)で選択された現在の時刻における歩行者の検出結果と直前の時刻の歩行者の検出が同一であるか否かを判断するために0以上1以下の時間対応づけ類似度を計算する。時間対応付け類似度Tijは、選択ステップ(ステップS30)で選択された検出結果を順に並べてi番目の結果と、候補更新ステップ(ステップS105)の追跡結果を順に並べてj番目の結果から組を作り、次式(10)に従って求める。
Figure 0005258651

ここで、γijは、定数またはi番目とj番目の物体の結果を囲む矩形領域内の輝度ヒストグラムや画像パターンの特徴から算出した0から1に正規化された類似度(類似しているほど1に近い)、または、定数として1でもよい。Rijは、式(6)と同様に求める。
Ψijは、定数でもよい。Ψijは、また、物体の奥行き情報がある場合には、i番目の物体の結果の奥行きziと、j番目の物体の結果の奥行きzjと、から、式(11)により算出される類似度でもよい。
Figure 0005258651

時間対応づけ類似度Tijは、選択ステップ(ステップS30)で選択された現在の歩行者の検出結果と、候補更新ステップ(ステップS105)の追跡結果とのすべての組み合わせについて求める。選択ステップ(ステップS30)において選択された検出結果と、候補更新ステップ(ステップS105)の追跡結果と、が一致している場合もあるが、その場合には時間対応づけ類似度Tijは1である。
対応付け判定ステップ(ステップS402)では、候補対応づけステップ(ステップS401)で計算された類似度を元に、選択ステップ(ステップS30)において選択された検出結果と、候補更新ステップ(ステップS105)の追跡結果とが、同一のものであるか否かの判定を行う。
物体が同一であるか否かの判定は、時間対応づけ類似度に対して0以上1以下の閾値を設け、閾値を超える検出結果の組は、同一のものであるとし「同一物体あり」と判定する。候補更新ステップ(ステップS105)の追跡結果の1つに対して、選択ステップ(ステップS30)において選択された物体の複数個が、同一物体であると判断される場合には、時間対応づけ類似度が最大である組を同一物体と判断する。選択ステップ(ステップS30)において選択された検出結果で時間対応づけがなされなかったものは「同一物体なし」と判定する。
物体新規登録ステップ(ステップS403)では、対応づけ判定ステップ(ステップS402)で「同一物体なし」と判定された検出結果を、その時刻の画像に新たに現れた歩行者として登録する。登録する情報は、歩行者の位置、矩形領域の情報、及び、物体固有のID等である。これにより、直後の時刻に対しても現在の時刻と同様に本発明を実行できる。物体固有のIDは、ここで新たに生成する。なお、識別器の出力(104−1)による指標により求められた物体種別度P^p,tや歩行者の速度等の情報を、併せて記録してもよい。
物体情報更新ステップ(ステップS404)では、対応づけ判定ステップ(ステップS402)で、「同一物体あり」と判定された検出結果を、直前の時刻で検出された歩行者の情報に更新する。更新する情報は、歩行者の位置や矩形領域の情報である。また、識別器の出力(104−1)による指標で求めた物体種別度P^p,tや歩行者の速度等の情報が記録されている場合には、更新するとよい。
以上のステップS10からステップS40までを、時刻を変えながら逐次的に行うことで、歩行者の検出と追跡を長時間に渡って行うことができ、さらに現在の時刻からは検出ができなかった物体がある場合でも、過去の時刻から引き継がれた物体の情報を使うため物体位置や大きさや有無を推定することができる。
次に、本実施の形態にかかる物体検出装置のハードウェア構成について図8を用いて説明する。図8は、本実施の形態にかかる物体検出装置のハードウェア構成を示す説明図である。
本実施の形態にかかる物体検出装置は、CPU(Central Processing Unit)51などの制御装置と、ROM(Read Only Memory)52やRAM(Random Access Memory)53などの記憶装置と、ネットワークに接続して通信を行う通信I/F54と、各部を接続するバス61を備えている。
本実施の形態にかかる物体検出装置で実行されるプログラムは、ROM52等に予め組み込まれて提供される。
本実施の形態にかかる物体検出装置で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。
さらに、本実施の形態にかかる物体検出装置で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施の形態にかかる物体検出装置で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
本実施の形態にかかる物体検出装置で実行されるプログラムは、上述した各部を含むモジュール構成となっており、実際のハードウェアとしてはCPU51が上記ROM52からプログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、各部が主記憶装置上に生成されるようになっている。
なお、本発明は、上記実施の形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施の形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態にわたる構成要素を適宜組み合わせても良い。
以上のように、本発明の実施の形態に係る物体検出装置は、テレビカメラ等により撮影された動画像中から、歩行者等の所定の種別の物体を検出する際に有用である。
11 追跡部
12 物体検出部
13 選択部
14 対応付け部
51 CPU
52 ROM
53 RAM
54 通信I/F
61 バス
1000 画像
1001 物体
1002 領域
1003 位置

Claims (6)

  1. 動画像を構成する画像のうちの過去の一の時刻の画像から検出された所定の種別の物体
    の候補の、現在時刻における状態を推定し、推定された状態の前記物体の候補の物体種別
    度を求める追跡部と、
    前記動画像の現在時刻の画像から、前記所定の種別の物体の候補を検出し、検出した前
    記候補の状態及び物体種別度を求める物体検出部と、
    前記追跡部が求めた物体種別度及び前記物体検出部が求めた物体種別度を用いて、一の
    物体毎に一の前記候補を選択する選択部と、
    前記一の時刻の画像から検出された所定の種別の物体毎に、選択された前記候補の中か
    ら一の候補を対応づける対応付け部と、
    を有することを特徴とする物体検出装置であって、
    前記物体検出部が検出する候補が複数の場合に、
    前記選択部は、前記追跡部及び前記物体検出部の各々が求めた前記物体種別度から、該物体種別度が大きいほど値の大きい物体種別重みを求めると共に、前記追跡部及び前記物体検出部の各々が求めた前記物体種別度から、一の物体に対して同時に選択される前記候補の数が多いほど値の小さいペナルティ重みを求め、前記物体種別重みと前記ペナルティ重みとの総和が最大になる前記候補を選択する
    ことを特徴とする物体検出装置。
  2. 前記対応付け部は、前記一の時刻の画像から検出された所定の種別の物体毎に、選択された複数の前記候補の各々との類似度を算出し、該複数の前記候補の内の類似度の最も高い一の候補を対応づける、請求項1に記載の物体検出装置。
  3. 前記追跡部が推定する状態、及び、前記物体検出部が求める状態、の何れか一以上は、前記動画像を構成する画像における位置、前記動画像を構成する画像における領域、及び、空間上の位置、の何れか一以上であることを特徴とする請求項1または2に記載の物体検出装置。
  4. 前記追跡部は、現在時刻の画像において当該物体検出装置により検出された物体を、新たに前記過去の一の時刻の画像において検出された物体の候補として、新たな現在時刻における状態を推定し、推定された状態の前記物体の候補の物体種別度を求め、
    前記物体検出部は、前記新たな現在時刻の画像から、前記候補を検出し、検出した前記候補の状態及び物体種別度を求めることを特徴とする請求項1〜請求項3の何れか一項に記載の物体検出装置。
  5. コンピュータを、
    動画像を構成する画像のうちの過去の一の時刻の画像から検出された所定の種別の物体の候補の、現在時刻における状態を推定し、推定された状態の前記物体の候補の物体種別度を求める追跡部と、
    前記動画像の現在時刻の画像から、前記所定の種別の物体の候補を検出し、検出した前記候補の状態及び物体種別度を求める物体検出部と、
    前記追跡部が求めた物体種別度及び前記物体検出部が求めた物体種別度を用いて、一の物体毎に一の前記候補を選択する選択部と、
    前記一の時刻の画像から検出された所定の種別の物体毎に、選択された前記候補の中から一の候補を対応づける対応付け部と
    前記物体検出部が検出する候補が複数の場合に、
    前記選択部は、前記追跡部及び前記物体検出部の各々が求めた前記物体種別度から、該物体種別度が大きいほど値の大きい物体種別重みを求めると共に、前記追跡部及び前記物体検出部の各々が求めた前記物体種別度から、一の物体に対して同時に選択される前記候補の数が多いほど値の小さいペナルティ重みを求め、前記物体種別重みと前記ペナルティ重みとの総和が最大になる前記候補を選択する
    ように機能させるためのプログラム。
  6. 追跡部が、動画像を構成する画像のうちの過去の一の時刻の画像から検出された所定の種別の物体の候補の、現在時刻における状態を推定し、推定された状態の前記物体の候補の物体種別度を求める追跡ステップと、
    物体検出部が、前記動画像の現在時刻の画像から、前記所定の種別の物体の候補を検出し、検出した前記候補の状態及び物体種別度を求める物体検出ステップと、
    選択部が、前記追跡ステップにおいて求めた物体種別度及び前記物体検出ステップにおいて求めた物体種別度を用いて、一の物体毎に一の前記候補を選択する選択ステップと、
    対応付け部が、前記一の時刻の画像から検出された所定の種別の物体毎に、選択された前記候補の中から一の候補を対応づける対応付けステップと、
    前記物体検出部が検出する候補が複数の場合に、
    前記選択部は、前記追跡部及び前記物体検出部の各々が求めた前記物体種別度から、該物体種別度が大きいほど値の大きい物体種別重みを求めると共に、前記追跡部及び前記物体検出部の各々が求めた前記物体種別度から、一の物体に対して同時に選択される前記候補の数が多いほど値の小さいペナルティ重みを求め、前記物体種別重みと前記ペナルティ重みとの総和が最大になる前記候補を選択するスッテップと
    を有することを特徴とする物体検出方法。
JP2009074557A 2009-03-25 2009-03-25 物体検出装置、物体検出方法、及び、プログラム Active JP5258651B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009074557A JP5258651B2 (ja) 2009-03-25 2009-03-25 物体検出装置、物体検出方法、及び、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009074557A JP5258651B2 (ja) 2009-03-25 2009-03-25 物体検出装置、物体検出方法、及び、プログラム

Publications (2)

Publication Number Publication Date
JP2010225105A JP2010225105A (ja) 2010-10-07
JP5258651B2 true JP5258651B2 (ja) 2013-08-07

Family

ID=43042191

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009074557A Active JP5258651B2 (ja) 2009-03-25 2009-03-25 物体検出装置、物体検出方法、及び、プログラム

Country Status (1)

Country Link
JP (1) JP5258651B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5708294B2 (ja) * 2011-06-22 2015-04-30 日本電気株式会社 信号検出装置、信号検出方法及び信号検出プログラム
JP2013156189A (ja) * 2012-01-31 2013-08-15 Japan Radio Co Ltd レーダ信号処理装置
JP5829155B2 (ja) * 2012-03-13 2015-12-09 株式会社豊田中央研究所 歩行者検出装置及びプログラム
US10007269B1 (en) * 2017-06-23 2018-06-26 Uber Technologies, Inc. Collision-avoidance system for autonomous-capable vehicle
CN109558505A (zh) 2018-11-21 2019-04-02 百度在线网络技术(北京)有限公司 视觉搜索方法、装置、计算机设备及存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05205052A (ja) * 1992-01-23 1993-08-13 Matsushita Electric Ind Co Ltd 自動追尾装置
JP2004046647A (ja) * 2002-07-12 2004-02-12 Univ Waseda 動画像データに基づく移動物体追跡方法及び装置
JP4490076B2 (ja) * 2003-11-10 2010-06-23 日本電信電話株式会社 物体追跡方法、物体追跡装置、プログラム、および、記録媒体

Also Published As

Publication number Publication date
JP2010225105A (ja) 2010-10-07

Similar Documents

Publication Publication Date Title
US11144786B2 (en) Information processing apparatus, method for controlling information processing apparatus, and storage medium
WO2018142900A1 (ja) 情報処理装置、データ管理装置、データ管理システム、方法、及びプログラム
US9177404B2 (en) Systems and methods of merging multiple maps for computer vision based tracking
JP5385105B2 (ja) 画像検索方法およびシステム
JP4426436B2 (ja) 車両検知装置
JP5136504B2 (ja) 物体識別装置
CN110753892A (zh) 在自动驾驶车辆中用于经由交叉模态验证的即时物体标记的方法和系统
JP4702569B2 (ja) 車両用画像処理装置
JP5258651B2 (ja) 物体検出装置、物体検出方法、及び、プログラム
JP2008020951A (ja) 物体検出装置、物体検出方法、および物体検出用プログラム
CN110751012B (zh) 目标检测评估方法、装置、电子设备及存储介质
JP2011133273A (ja) 推定装置及びその制御方法、プログラム
WO2014132490A1 (ja) 車両諸元計測処理装置、車両諸元計測方法及び記録媒体
JP5262705B2 (ja) 運動推定装置及びプログラム
JP2010033447A (ja) 画像処理装置および画像処理方法
JP6234349B2 (ja) 移動体位置推定装置、移動体位置推定方法及び移動体位置推定プログラム
EP3624060A1 (en) Information processing device, information processing method, and program
JP2012221162A (ja) 対象物検出装置及びプログラム
JP6116765B1 (ja) 物体検出装置及び物体検出方法
US10275900B2 (en) Estimation apparatus, estimation method, and computer program product
CN114005105A (zh) 驾驶行为检测方法、装置以及电子设备
JP5614118B2 (ja) ランドマーク検知方法、ロボット及びプログラム
US11682211B2 (en) Computer-implemented method
Huang et al. Deep learning–based autonomous road condition assessment leveraging inexpensive rgb and depth sensors and heterogeneous data fusion: Pothole detection and quantification
JP2014048702A (ja) 画像認識装置、画像認識方法、及び画像認識プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120724

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120921

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121127

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130227

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20130308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130329

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130423

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160502

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5258651

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151