JP2017146990A - 物体検出装置及びその検出方法 - Google Patents

物体検出装置及びその検出方法 Download PDF

Info

Publication number
JP2017146990A
JP2017146990A JP2017087317A JP2017087317A JP2017146990A JP 2017146990 A JP2017146990 A JP 2017146990A JP 2017087317 A JP2017087317 A JP 2017087317A JP 2017087317 A JP2017087317 A JP 2017087317A JP 2017146990 A JP2017146990 A JP 2017146990A
Authority
JP
Japan
Prior art keywords
frame
detector
detection
region
detection result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017087317A
Other languages
English (en)
Inventor
麻由 奥村
Mayu Okumura
麻由 奥村
友樹 渡辺
Yuki Watanabe
友樹 渡辺
晃仁 関
Akihito Seki
晃仁 関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2017087317A priority Critical patent/JP2017146990A/ja
Publication of JP2017146990A publication Critical patent/JP2017146990A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】物体検出において未検出数を低減する。【解決手段】実施形態によれば、物体検出装置は、取得部と、第1検出器と、判定部と、第2検出器と、を具備する。取得部は、時系列順の複数フレームを取得する。第1検出器は、前記フレームごとに、予め決められた対象物を検出する。判定部は、前記フレームごとに検出結果を記憶し、第1フレームでの検出結果と、第1フレーム以降の第2フレームでの第1検出器の検出結果とを比較し、前記第2フレームに未検出の対象物が存在するかどうかを判定する。第2検出器は、未検出の検出対象物が存在すると判定された場合には、前記フレームごとに対象物を検出する、前記第1検出器とは性能が異なる。【選択図】図1

Description

本発明の実施形態は、画像中から対象物体を検出する物体検出装置とその検出方法に関する。
性能の異なる2つの検出器を用いて、画像中から対象物体を検出する技術がある。これは、事前学習した検出器が設置場所の環境に適合しきれなかったために生じる誤検出を低減する技術である。まず第1検出器を用いて画像全体から対象物体を検出し、次に検出された結果のみに対して第2検出器で再度検出を行う。第1検出器と第2検出器の両方で検出された物体を検出結果とすることで、非検出対象物体が検出されてしまうことを低減する。
特開2010−170201号公報
しかしながら、第1検出器の検出結果にのみ第2検出器を用いるため、そもそも第1検出器で検出されない物体の数(未検出の数)は減らないという問題がある。
本発明が解決しようとする課題は、物体検出において未検出数を低減することができる物体検出装置及びその検出方法を提供することである。
実施形態によれば、物体検出装置は、取得部と、第1検出器と、判定部と、第2検出器と、を具備する。取得部は、時系列順の複数フレームを取得する。第1検出器は、前記フレームごとに、予め決められた対象物を検出する。判定部は、前記フレームごとに検出結果を記憶し、第1フレームでの検出結果と、第1フレーム以降の第2フレームでの第1検出器の検出結果とを比較し、前記第2フレームに未検出の対象物が存在するかどうかを判定する。第2検出器は、未検出の検出対象物が存在すると判定された場合には、前記フレームごとに対象物を検出する、前記第1検出器とは性能が異なる。
第1の実施形態の物体検出装置を示すブロック図。 検出窓領域が画像中を走査する様子を表す図。 重なり率を表す図。 検出窓領域が前フレームの検出結果周辺領域を走査する様子を表す図。 第1の実施形態の物体検出装置を示すフローチャート。 第2の実施形態の物体検出装置を示すブロック図。 ポジティブデータ、ネガティブデータの収集を表す図。 第2の実施形態の物体検出装置を示すフローチャート。 第3の実施形態の物体検出装置を示すブロック図。 第3の実施形態のポジティブデータ、ネガティブデータの収集を表す図。 第3の実施形態の物体検出装置を示すフローチャート。
以下、図面を参照しながら実施形態に係る物体検出装置及びその検出方法について詳細に説明する。なお、以下の実施形態では、同一の番号を付した部分については同様の動作を行うものとして、重ねての説明を省略する。
(第1の実施形態)
第1の実施形態における物体検出装置100について図1のブロック図を参照して説明する。
第1の実施形態の物体検出装置100は、画像取得部101と、第1検出器102と、未検出判定部103と、第2検出器104とを備える。なお物体検出装置100は、検出結果出力部111を含んでいてもよい。なお、以降に説明する実施形態では、検出対象物(例えば後述する201)を人物として説明するが、検出対象物201は人物に限定せず検出することができる物体またはその部分であればよい。検出対象物201は例えば、顔、手、自動車、自転車、道路標識、犬、猫などである。検出結果出力部111は、第1検出器102の検出結果、及び第2検出器104の検出結果を受け取り出力する。
画像取得部101は、その周辺を撮影しフレームを時系列に並べた時系列画像を得るためのカメラである。画像取得部101としては、通常可視光を撮影するカメラを想定しているが、暗所を撮影するために赤外線カメラを用いてもよい。
第1検出器102は、画像取得部101により得られた画像から、検出対象物201の位置を検出する。第1検出器102は例えば、図2で示すように、画像取得部101で撮影された画像中を、検出窓領域200を少しずつずらして、画像全体を漏れなく探索するように走査しながら、検出窓領域200の内に検出対象物201が存在するかを判定し、検出対象物201が存在しているかどうかを検出結果として返す。具体的には例えば、第1検出器102は画像中における検出対象物201の位置を検出結果として返す。例えば、“Tomoki Watanabe, Satoshi Ito and Kentaro Yokoi: “Co-occurrence Histograms of Oriented Gradients for Human Detection”, IPSJ Transactions on Computer Vision and Applications, Vol. 2, pp.39-47. (2010).”に開示されている技術を用いて画像中の検出対象物201の位置を検出する。以降に説明する実施形態では、検出窓領域200を矩形として説明するが、検出窓領域200は矩形に限定せず、任意の形状でよい。
未検出判定部103は、前フレームの検出結果を記憶し、第1フレームでの検出結果と、第1フレーム以外の第2フレームでの検出結果とを比較し、未検出の検出対象物が存在するかどうかを判定する。より具体的には未検出判定部103は、記憶しておいた前フレームの検出結果と、現フレームに対する第1検出器102の検出結果とを比較し、現フレームに対する第1検出器102の検出結果に未検出の検出対象物が存在するかどうかを判定する。前フレームは、通常現フレームの1つ前のフレームであるが、任意の個数前のフレームでもよい。フレームレート、検出対象物201の動きの速さ、画像取得部201が固定されているかどうか等に応じて、前フレームを現フレームのいくつ前のフレームに設定するかを決定してもよい。例えば、固定されている画像取得部101で動きの遅い検出対象物201を撮影し、検出する場合には、フレームに映る画像の変化が小さいため、前フレームは現フレームより十分に前のフレームに設定してもよい。また例えば、固定されていない画像取得部101を用いて動きの遅い検出対象物201を撮影し、検出する場合には、画像取得部101のフレームレートによってフレームに映る画像の変化が異なるため、フレームレートに応じて検出対象物201がフレームアウトしない範囲で前フレームを設定してもよい。例えば、フレームレートが低い場合には、前フレームを現フレームの直前のフレームや少し前のフレームに設定し、フレームレートが高い場合には、検出対象物201がフレームアウトしない範囲で現フレームより前に前フレームを設定してもよい。
前フレームの検出結果とは、第1検出器102及び第2検出器104の検出結果(またはどちらかの検出結果)における、検出結果に関連する値である。前フレームの検出結果はある指標で表され、例えば、検出対象物201の位置や、検出領域の高さや幅、検出領域内の色ヒストグラムである。
未検出判定部103は、例えば、前フレームの検出結果と現フレームに対する第1検出器102の検出結果の数で未検出を判定してもよい。この場合、現フレームに対する第1検出器102の検出結果の数が、前フレームの検出結果の数より少ない場合、未検出が存在すると判定する。
また未検出判定部103は例えば、前フレームの検出結果と、現フレームに対する第1検出器102の検出結果との検出位置間の距離によって未検出を判定してもよい。前フレームの検出結果の検出位置と、現フレームに対する第1検出器102の検出結果の検出位置との間の距離が、予め定められた閾値より大きい場合、未検出が存在すると判定する。
例えば、検出位置間の距離は、前フレームの検出結果矩形の中心座標を(xt−1,yt−1)、現フレームに対する第1検出器の検出結果矩形の中心座標を(x,y)とすると、例えば次式で表される。
さらに未検出判定部103は例えば、記憶しておいた前フレームの検出結果の検出対象物201を包含する領域と、現フレームに対する第1検出器102の検出結果の検出対象物201を包含する領域とのどちらか、もしくは両方に含まれる領域に対する、記憶しておいた前フレームの検出結果の検出対象物201を包含する領域と現フレームに対する第1検出器102の検出結果の検出対象物201を包含する領域とが重なる領域の割合(重なり率)を、閾値と比較することで未検出を判定してもよい。重なり率が、予め定められた閾値より小さい場合、未検出が存在すると判定する。図3は、上記の重なり率を表す図である。前フレームの検出結果の検出対象物201を包含する領域をA、現フレームに対する第1検出器102の検出結果の検出対象物201を包含する領域をBとすると、重なり率Rは次式で表される。重なり率は、換言すれば、前フレームで検出された検出対象物を包含する第1領域と、現フレームで検出された該検出対象物を包含する第2領域との和集合である領域に対する、第1領域と第2領域との積集合である領域の割合である。
また未検出判定部103はさらに例えば、記憶しておいた前フレームの検出結果と、現フレームの第1検出器102の検出結果との色の類似度を、閾値と比較することで未検出を判定してもよい。前フレームの検出結果の色と、現フレームに対する第1検出器102の検出結果の色との類似度が、予め定められた閾値より小さい場合、未検出が存在すると判定する。例えば、ヒストグラムの合計が1となるように正規化された、前フレームの検出結果の対象領域の色ヒストグラムをp、現フレームに対する第1検出器102の検出結果の対象領域の色ヒストグラムをqとし、色ヒストグラムp、qの各ビンをp、qとすると、2つの正規化色ヒストグラムの類似度Sは次式で表される。
さらにまた未検出判定部103は、上述した複数の指標を組み合わせて未検出が存在するかどうかを判定してもよい。
第2検出器104は、第1検出器102とは性能が異なる検出器であり、画像取得部101により得られた画像から、検出対象物201の位置を検出する。性能が異なるとは、検出に用いるパラメータ(例えば、解像度、画像の分割サイズ、次元数等)の違い、検出に用いる特徴量(例えば、HOG、CoHOG、LBP、edgelet、Haar、Joint-Haar等)の違い、検出器の学習に用いる学習手法(例えば、SVM、boosting、random trees、k-NN、Perceptron、Passive Agressive、AROW、Confidence weighted等)の違い、検出対象物のうち検出に用いるパーツ(例えば、対象物が人物であれば上半身・下半身・顔、対象物が車であれば正面・側面・後面・上面部分など)の違いにより、ある検出対象物201について一方の検出器で検出できる物体が他方では検出できない、もしくはその逆など、検出性能に違いがあることである。
第2検出器104は、例えば図4に示すように、未検出判定部103により現フレームに対する第1検出器102の検出結果に未検出が存在すると判定された場合に、前フレームの検出矩形402の上下左右に予め定めたサイズのマージン領域を付加して前フレームの検出結果周辺領域401を設定する。設定した前フレームの検出結果周辺領域401の中で、検出窓領域200を少しずつずらして走査し、画像中における検出対象物201の位置を検出する。第2検出器104は、例えば第1検出器102とパラメータが異なる検出器でもよい。この場合例えば、第1検出器102に、上記の“Tomoki Watanabe, Satoshi Ito and Kentaro Yokoi: “Co-occurrence Histograms of Oriented Gradients for Human Detection”, IPSJ Transactions on Computer Vision and Applications, Vol. 2, pp.39-47. (2010).”に開示されている技術を用い、第1検出器102では画像を6 pixel × 6 pixelに分割して輝度勾配共起ヒストグラムを生成した場合、第2検出器104は、画像を4 pixel × 4 pixelに分割して輝度勾配共起ヒストグラムを生成する検出器でもよい。
また例えば、第2検出器104は、第1検出器102と検出器の学習に用いる学習手法が異なる検出器でもよい。例えば、第1検出器102に上記の“Tomoki Watanabe, Satoshi Ito and Kentaro Yokoi: “Co-occurrence Histograms of Oriented Gradients for Human Detection”, IPSJ Transactions on Computer Vision and Applications, Vol. 2, pp.39-47. (2010).”に開示されている技術を用いた場合、第2検出器は“T. Mita, T. Kaneko and O.Hori, “Joint Haar-like Features for Face Detection”, IEEE International Conference on Computer Vision, pp. 1619-1626, 2005.”に開示されている技術を用いてもよい。
さらに例えば第2検出器104は、第1検出器102とは検出対象物のうち検出に用いるパーツが異なる検出器でもよい。例えば、第1検出器102が人物の上半身を検出する検出器の場合、第2検出器は、人物の下半身を検出する検出器でもよい。他に例えば、第1検出器102が人物の顔検出を行い、第2検出器104が人物の全身検出を行ってもよい。
次に、第1の実施形態に係る物体検出装置の動作について図1及び図5を参照して説明する。なお図5は、第1の実施形態に係る物体検出装置の動作を示すフローチャートである。
まず、画像取得部101が画像を撮影し(S501)、第1検出器102が、その画像について検出窓領域200を少しずつずらしながら、検出窓領域200に検出対象物201が存在するかを判定して、その位置を検出する(S502)。
次に、未検出判定部103が、前フレームの検出結果と現フレームにおける第1検出器102の検出結果を比較し、未検出があるかを判定する(S503)。未検出判定部103が、現フレームに対する第1検出器102の検出結果に、未検出はないと判定した場合(S504)、検出結果出力部111が第1検出器102の検出結果を出力し処理を終了する(S506)。
未検出判定部103が現フレームに対する第1検出器102の検出結果に未検出が存在すると判定した場合(S504)、前フレームの検出矩形402を包含するように検出結果周辺領域401を設定し、検出結果周辺領域401の中に沿って検出窓領域200を少しずつずらして走査し、検出窓領域200内に検出対象物201が存在するかを、第2検出器104を用いて検出する(S505)。その後、検出結果出力部111が第1検出器102の検出結果と第2検出器104の検出結果とを出力し処理を終了する(S506)。
このように、第1の実施形態に係る物体検出装置によれば、第1検出器102の検出結果に未検出がある場合に、前フレームの検出結果周辺に対して第2検出器104を用いることで、未検出数を低減することが可能となる。
以上に示した第1の実施形態によれば、第1検出器の検出結果に未検出が存在するかを判定し、未検出が存在すると判定された場合には、第1検出器とは性能の異なる第2検出器を用いることによって、未検出を低減することができる。
(第2の実施形態)
第2の実施形態の物体検出装置600は、第1の実施形態の装置部分に加え、学習部602を備えることが異なる。また第2検出器601は、学習部602からデータをフィードバックするので、第1の実施形態の第2検出器104とはこのフィードバックする点が異なる。
第2の実施形態に係る物体検出装置600について図6を参照して説明する。
学習部602は、画像取得部101により得られた現フレームの画像からポジティブデータとネガティブデータとを決定して収集し、収集したデータから算出した特徴量を用いて、第2検出器601が検出対象物201を検出するための辞書と呼ばれるパラメータを更新する。学習部602はこれらのパラメータを記憶している。ポジティブデータとネガティブデータとは、第1検出器102の検出結果と第2検出器601の検出結果と(またはどちらかの検出結果)を用いて決定される。学習部602は、例えば図7のように第1検出器102の検出結果と第2検出器601の検出結果と(またはどちらかの検出結果)の領域701から算出した特徴量の情報をポジティブデータとし、また第1検出器102の検出結果と第2検出器601の検出結果と(またはどちらかの検出結果)の領域701をランダムな値だけ上下、左右にずらした領域702から算出した特徴量の情報をネガティブデータとする。例えば、第1検出器102または第2検出器601の検出結果の領域701の左上の座標を(X,Y)とすると、ネガティブデータの領域702の左上の座標(X,Y)は次式で表される。
ここでδ、δは、ランダムに定めた値である。ポジティブデータとは検出対象物201を含む領域701から算出した特徴量の情報であり、ネガティブデータとは検出対象物201を含まない、もしくは部分的に含む領域702から算出した特徴量の情報である。
これらのポジティブデータとネガティブデータから、特徴量を変数とした空間において、ポジティブデータになる場合とネガティブデータになる場合との境界線(一般には境界となる超平面。特徴量の次元に依存する。)を決定することができる。
特徴量の情報を算出するには、例えば、前述の“Tomoki Watanabe, Satoshi Ito and Kentaro Yokoi: “Co-occurrence Histograms of Oriented Gradients for Human Detection”, IPSJ Transactions on Computer Vision and Applications, Vol. 2, pp.39-47. (2010).”に開示されている技術を用いる。また辞書の更新には、オンライン学習と呼ばれる手法を用いる。例えば、“Koby Crammer, Arex Kulesza, Mark Dredze : “Adaptive Regularization of Weight Vectors”, Neural Information Processing Systems(2009).”に開示されている方法を用いる。
オンライン学習では、画像取得部101が取得した画像に対する、第1検出器102及び第2検出器601の検出結果から学習部602がパラメータを更新する。画像取得部101が設置環境下で、照明条件等が異なる多様な画像を大量に取得し、学習部602がその画像から学習することで、より画像取得部101の設置環境での検出に適したパラメータを得ることができる。
第2検出器601は、学習部602から更新された辞書(更新されたパラメータ)を入力して、このパラメータを使用して検出対象物201を検出する。検出手法は、第1の実施形態での第1検出器または第2検出器と同様である。
次に、第2の実施形態に係る物体検出装置の動作について図8を参照して説明する。図8は、図5と同一又は相当の部分については同一の符号を付し説明を省略する。第2の実施形態の物体検出装置は、第1の実施形態の物体検出装置の動作に新たに辞書の更新(S801)を追加したものであり、第1の実施形態の物体検出装置とは辞書の更新(S801)がある点が異なる。
辞書の更新(S801)では、第1検出器102と第2検出器601(またはどちらか)によって検出対象物201が検出されると、検出結果の領域701と、その周辺の領域702とから特徴量を算出し、辞書の更新を行う。この処理は、学習部602で行われる。
以上に示した第2の実施形態によれば、照明条件が事前に用意している条件とは異なるなどの理由によって事前に用意するデータでは検出できない物体についても、辞書を更新することによって、物体を検出することが可能となるため、未検出数を低減することが可能となる。
(第3の実施形態)
第3の実施形態の物体検出装置900は、第1の実施形態の装置部分に加え、第1学習部902及び第2学習部602を備えることが異なる。また第3の実施形態の第1検出部901及び第2検出部601はそれぞれ、第1学習部902及び第2学習部602からデータをフィードバックするので、第1の実施形態の第1検出部及び第2検出部とはこのフィードバックする点が異なる。
第3の実施形態では、第1検出器901と第2検出器601とは、検出対象物のうち検出に用いるパーツ(人物の上半身と下半身、車体全体と正面部分など)の違いにより、検出性能が異なる検出器とする。例えば第1検出器901は、人物の上半身の特徴を用いて検出し、第2検出器は人物の下半身を用いて検出する。
第1学習部902は、画像取得部101により得られた現フレームの画像から、第1学習部902が用いるポジティブデータと、第1学習部902が用いるネガティブデータとを決定し収集し、収集したデータから算出した特徴量を用いて、第1検出器901が検出対象物201を検出するための辞書と呼ばれるパラメータを更新する。第1学習部902が用いるポジティブデータと第1学習部902が用いるネガティブデータとは、第1検出器901の検出結果を用いて決定する。図10のように、第1検出器901の検出結果の領域1001、1011から算出した特徴量の情報を第1学習部902が用いるポジティブデータとし、また第1検出器901の検出結果の領域1001、1011をランダムな値だけ上下、左右にずらした領域1012から算出した特徴量の情報を第1学習部902が用いるネガティブデータとする。
また第2学習部602は、画像取得部101により得られた現フレームの画像から第2学習部602が用いるポジティブデータと第2学習部602が用いるネガティブデータを収集し、収集したデータから算出した特徴量を用いて、第2検出器601が検出対象物201を検出するための辞書と呼ばれるパラメータを更新する。第2学習部602が用いるポジティブデータと、第2学習部602が用いるネガティブデータとは、第2検出器601の検出結果を用いて決定する。図10のように、第2検出器601の検出結果の領域1002、1021から算出した特徴量の情報を第2学習部602が用いるポジティブデータとし、また第2検出器601の検出結果の領域1002、1021をランダムな値だけ上下、左右にずらした領域1022から算出した特徴量の情報を第2学習部602が用いるネガティブデータとする。特徴量の情報を算出するには、例えば、前述の“Tomoki Watanabe, Satoshi Ito and Kentaro Yokoi: “Co-occurrence Histograms of Oriented Gradients for Human Detection”, IPSJ Transactions on Computer Vision and Applications, Vol. 2, pp.39-47. (2010).”に開示されている技術を用いる。また、辞書の更新には、例えば、“Koby Crammer, Arex Kulesza, Mark Dredze : “Adaptive Regularization of Weight Vectors”, Neural Information Processing Systems(2009).”に開示されているオンライン学習と呼ばれる手法を用いる。
第3の実施形態に係る物体検出装置の動作について図11を参照して説明する。図11は、図5と同一又は相当の部分については同一の符号を付し説明を省略する。第3の実施形態の物体検出装置900は、第1の実施形態の物体検出装置100に新たに第1検出器901が用いる辞書の更新(S1102)と第2検出器601が用いる辞書の更新(S1101)を追加したものであり、第1の実施形態とは第1検出器901が用いる辞書の更新(S1102)と第2検出器601が用いる辞書の更新(S1101)がある点が異なる。
第1検出器901が用いる辞書の更新(S1102)では、第1検出器901によって検出対象物201が検出されると、第1検出器901の検出結果の領域1001と、その周辺の領域1012から特徴量を算出し、第1検出器901が用いる辞書の更新を行う。
この処理は第1学習部902で行われる。
第2検出器601が用いる辞書の更新(S1101)では、第2検出器601によって検出対象物201が検出されると、第2検出器601の検出結果の領域1002と、その周辺の領域1022から特徴量を算出し、第2検出器601が用いる辞書の更新を行う。
この処理は第2学習部602で行われる。
以上に示した第3の実施形態によれば、第2の実施形態の効果に加え、複数の検出器ごとに検出に用いるパーツを異ならせることにより、片方のパーツに隠れが生じていても他方のパーツで検出することができるため、未検出数を低減することが可能となる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
100,600,900・・・物体検出装置、101・・・画像取得部、102,901・・・第1検出器、103,302,304・・・未検出判定部、104,601・・・第2検出器、111・・・検出結果出力部、200・・・検出窓領域、201・・・検出対象物、401・・・前フレームの検出結果周辺領域、402・・・前フレームの検出矩形、602・・・学習部、第2学習部、701,1011,1021・・・ポジティブデータが関連する領域、702,1012,1022・・・ネガティブデータが関連する領域、902・・・第1学習部、1001,1002・・・検出結果の領域。

Claims (10)

  1. 第1フレームおよび時系列順で前記第1フレームより後のフレームである第2フレームを取得する取得部と、
    前記第1フレームおよび前記第2フレームから対象物を検出する第1検出器と、
    前記第2フレームで検出された対象物の数より前記第1フレームで検出された対象物の数が多い場合、前記第2フレームから対象物を検出する第2検出器と、
    を備える物体検出装置。
  2. 第1フレームおよび時系列順で前記第1フレームより後のフレームである第2フレームを取得する取得部と、
    前記第1フレームおよび前記第2フレームから対象物を検出する第1検出器と、
    前記第1フレームで検出された対象物を包含する第1領域と前記第2フレームで検出された対象物を包含する第2領域との和集合である第3領域に対する、前記第1領域と前記第2領域との積集合である第4領域の割合が閾値より小さい場合、前記第2フレームから対象物を検出する第2検出器と、
    を備える物体検出装置。
  3. 第1フレームおよび時系列順で前記第1フレームより後のフレームである第2フレームを取得する取得部と、
    前記第1フレームおよび前記第2フレームから対象物を検出する第1検出器と、
    前記第1フレームで検出された対象物の色と、前記第2フレームで検出された対象物の色との類似度が閾値よりも小さい場合、前記第2フレームから対象物を検出する第2検出器と、
    を備える物体検出装置。
  4. 第1フレームおよび時系列順で前記第1フレームより後のフレームである第2フレームを取得する取得部と、
    前記第1フレームおよび前記第2フレームから対象物を検出する第1検出器と、
    前記第2フレームに未検出の対象物が存在する場合、前記第2フレームから対象物を検出する第2検出器と、
    前記第1フレームもしくは前記第2フレームにおける第1領域と、前記第1フレームもしくは前記第2フレームにおける第2領域と、前記第1フレームもしくは前記第2フレームにおける第3領域とから算出した特徴量を用いて、前記第2検出器のパラメータを学習する学習部と、を備え、
    前記第1領域は第1対象物を含む領域であり、前記第2領域は前記第1対象物とは異なる第2対象物を含む領域であり、前記第3領域は、少なくとも、前記第1対象物の部分、前記第2対象物の部分および対象物以外の部分の何れか一つを含む領域である
    物体検出装置。
  5. 前記第2検出器は、前記第2フレームで検出された対象物の数より前記第1フレームで検出された対象物の数が多い場合、前記第2フレームから対象物を検出する請求項4に記載の物体検出装置。
  6. 前記学習部は、前記第1領域および前記第2領域から算出した特徴量をポジティブデータとして、前記第3領域から抽出した特徴量をネガティブデータとして、前記第2検出器のパラメータを学習する請求項4または5に記載の物体検出装置。
  7. 前記第1検出器と前記第2検出器とでは、少なくとも、検出に用いるパラメータ、検出に用いる特徴量、検出器の学習手法、および、検出に用いるパーツの何れか一つが異なる請求項1乃至6の何れか一項に記載の物体検出装置。
  8. 前記第1検出器による前記第1フレームの検出結果と、前記第1検出器による前記第2フレームの検出結果とを比較し、前記第2フレームに未検出の前記対象物が存在するかどうかを判定する判定部、
    を更に備える請求項1乃至7の何れか一項に記載の物体検出装置。
  9. 第1フレームおよび時系列順で前記第1フレームより後のフレームである第2フレームを取得し、
    前記第1フレームおよび前記第2フレームから対象物を検出し、
    前記第2フレームで検出された対象物の数より前記第1フレームで検出された対象物の数が多い場合、前記第2フレームから対象物を検出する、
    ことを備える物体検出方法。
  10. 第1フレームおよび時系列順で前記第1フレームより後のフレームである第2フレームを取得し、
    前記第1フレームおよび前記第2フレームから対象物を検出し、
    前記第2フレームに未検出の対象物が存在する場合、前記第2フレームから対象物を検出し、
    前記第1フレームもしくは前記第2フレームにおける第1領域と、前記第1フレームもしくは前記第2フレームにおける第2領域と、前記第1フレームもしくは前記第2フレームにおける第3領域とから算出した特徴量を用いて、前記第2フレームに未検出の対象物が存在する場合に前記第2フレームから対象物を検出する際のパラメータを学習すること、を備え、
    前記第1領域は第1対象物を含む領域であり、前記第2領域は前記第1対象物とは異なる第2対象物を含む領域であり、前記第3領域は、少なくとも、前記第1対象物の部分、前記第2対象物の部分および対象物以外の部分の何れか一つを含む領域である
    物体検出方法。
JP2017087317A 2017-04-26 2017-04-26 物体検出装置及びその検出方法 Pending JP2017146990A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017087317A JP2017146990A (ja) 2017-04-26 2017-04-26 物体検出装置及びその検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017087317A JP2017146990A (ja) 2017-04-26 2017-04-26 物体検出装置及びその検出方法

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012219715A Division JP2014071832A (ja) 2012-10-01 2012-10-01 物体検出装置及びその検出方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019080976A Division JP2019114305A (ja) 2019-04-22 2019-04-22 物体検出装置及びその検出方法

Publications (1)

Publication Number Publication Date
JP2017146990A true JP2017146990A (ja) 2017-08-24

Family

ID=59682271

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017087317A Pending JP2017146990A (ja) 2017-04-26 2017-04-26 物体検出装置及びその検出方法

Country Status (1)

Country Link
JP (1) JP2017146990A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112424849A (zh) * 2019-01-02 2021-02-26 松下电器(美国)知识产权公司 信息处理装置、信息处理方法及程序

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005284348A (ja) * 2004-03-26 2005-10-13 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2007279970A (ja) * 2006-04-05 2007-10-25 Toyota Motor Corp 物体検出装置
JP2008243215A (ja) * 2001-12-03 2008-10-09 Microsoft Corp 複数のキューを使用する複数の個人の自動検出および追跡のためのシステム
JP2012156609A (ja) * 2011-01-24 2012-08-16 Jvc Kenwood Corp 顔検出装置および顔検出方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008243215A (ja) * 2001-12-03 2008-10-09 Microsoft Corp 複数のキューを使用する複数の個人の自動検出および追跡のためのシステム
JP2005284348A (ja) * 2004-03-26 2005-10-13 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2007279970A (ja) * 2006-04-05 2007-10-25 Toyota Motor Corp 物体検出装置
JP2012156609A (ja) * 2011-01-24 2012-08-16 Jvc Kenwood Corp 顔検出装置および顔検出方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112424849A (zh) * 2019-01-02 2021-02-26 松下电器(美国)知识产权公司 信息处理装置、信息处理方法及程序
CN112424849B (zh) * 2019-01-02 2023-08-04 松下电器(美国)知识产权公司 信息处理装置、信息处理方法及记录介质

Similar Documents

Publication Publication Date Title
JP6088792B2 (ja) 画像検出装置及び制御プログラム並びに画像検出方法
JP2014071832A (ja) 物体検出装置及びその検出方法
US8406470B2 (en) Object detection in depth images
US10264176B2 (en) Gaze tracking device and method and recording medium for performing the same
Benedek 3D people surveillance on range data sequences of a rotating Lidar
EP2544149A1 (en) Moving-body detection device, moving-body detection method, moving-body detection program, moving-body tracking device, moving-body tracking method, and moving-body tracking program
Budzan et al. Fusion of 3D laser scanner and depth images for obstacle recognition in mobile applications
JP7101805B2 (ja) ビデオ異常検出のためのシステム及び方法
Rujikietgumjorn et al. Optimized pedestrian detection for multiple and occluded people
Jiang et al. Multiple pedestrian tracking using colour and motion models
KR101699014B1 (ko) 스테레오 카메라를 이용한 객체 검출 방법 및 장치
Nallasivam et al. Moving human target detection and tracking in video frames
Gunale et al. Fall detection using k-nearest neighbor classification for patient monitoring
JP6080572B2 (ja) 通行物体検出装置
Nosheen et al. Efficient Vehicle Detection and Tracking using Blob Detection and Kernelized Filter
KR100977259B1 (ko) 다중 기울기 히스토그램을 이용한 사람 탐색 및 추적 방법
JP2017146990A (ja) 物体検出装置及びその検出方法
JP2019114305A (ja) 物体検出装置及びその検出方法
JP2019075051A (ja) 画像処理装置
Tatarenkov et al. The human detection in images using the depth map
Tatarenkov et al. Feature extraction from a depth map for human detection
JP2019121031A (ja) 画像処理装置
Wang et al. Long-term visual tracking based on adaptive correlation filters
Sivabalasundari et al. RETRACTED: Identifying LCF-DLT approach and educating engineering students to learn foreground perception in video surveillance
Ruiz et al. Active scene text recognition for a domestic service robot

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180410

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180626

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190122