JP2017146990A - 物体検出装置及びその検出方法 - Google Patents
物体検出装置及びその検出方法 Download PDFInfo
- Publication number
- JP2017146990A JP2017146990A JP2017087317A JP2017087317A JP2017146990A JP 2017146990 A JP2017146990 A JP 2017146990A JP 2017087317 A JP2017087317 A JP 2017087317A JP 2017087317 A JP2017087317 A JP 2017087317A JP 2017146990 A JP2017146990 A JP 2017146990A
- Authority
- JP
- Japan
- Prior art keywords
- frame
- detector
- detection
- region
- detection result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
Abstract
Description
第1の実施形態における物体検出装置100について図1のブロック図を参照して説明する。
第1の実施形態の物体検出装置100は、画像取得部101と、第1検出器102と、未検出判定部103と、第2検出器104とを備える。なお物体検出装置100は、検出結果出力部111を含んでいてもよい。なお、以降に説明する実施形態では、検出対象物(例えば後述する201)を人物として説明するが、検出対象物201は人物に限定せず検出することができる物体またはその部分であればよい。検出対象物201は例えば、顔、手、自動車、自転車、道路標識、犬、猫などである。検出結果出力部111は、第1検出器102の検出結果、及び第2検出器104の検出結果を受け取り出力する。
未検出判定部103は、例えば、前フレームの検出結果と現フレームに対する第1検出器102の検出結果の数で未検出を判定してもよい。この場合、現フレームに対する第1検出器102の検出結果の数が、前フレームの検出結果の数より少ない場合、未検出が存在すると判定する。
例えば、検出位置間の距離は、前フレームの検出結果矩形の中心座標を(xt−1,yt−1)、現フレームに対する第1検出器の検出結果矩形の中心座標を(xt,yt)とすると、例えば次式で表される。
また例えば、第2検出器104は、第1検出器102と検出器の学習に用いる学習手法が異なる検出器でもよい。例えば、第1検出器102に上記の“Tomoki Watanabe, Satoshi Ito and Kentaro Yokoi: “Co-occurrence Histograms of Oriented Gradients for Human Detection”, IPSJ Transactions on Computer Vision and Applications, Vol. 2, pp.39-47. (2010).”に開示されている技術を用いた場合、第2検出器は“T. Mita, T. Kaneko and O.Hori, “Joint Haar-like Features for Face Detection”, IEEE International Conference on Computer Vision, pp. 1619-1626, 2005.”に開示されている技術を用いてもよい。
次に、第1の実施形態に係る物体検出装置の動作について図1及び図5を参照して説明する。なお図5は、第1の実施形態に係る物体検出装置の動作を示すフローチャートである。
まず、画像取得部101が画像を撮影し(S501)、第1検出器102が、その画像について検出窓領域200を少しずつずらしながら、検出窓領域200に検出対象物201が存在するかを判定して、その位置を検出する(S502)。
このように、第1の実施形態に係る物体検出装置によれば、第1検出器102の検出結果に未検出がある場合に、前フレームの検出結果周辺に対して第2検出器104を用いることで、未検出数を低減することが可能となる。
第2の実施形態の物体検出装置600は、第1の実施形態の装置部分に加え、学習部602を備えることが異なる。また第2検出器601は、学習部602からデータをフィードバックするので、第1の実施形態の第2検出器104とはこのフィードバックする点が異なる。
学習部602は、画像取得部101により得られた現フレームの画像からポジティブデータとネガティブデータとを決定して収集し、収集したデータから算出した特徴量を用いて、第2検出器601が検出対象物201を検出するための辞書と呼ばれるパラメータを更新する。学習部602はこれらのパラメータを記憶している。ポジティブデータとネガティブデータとは、第1検出器102の検出結果と第2検出器601の検出結果と(またはどちらかの検出結果)を用いて決定される。学習部602は、例えば図7のように第1検出器102の検出結果と第2検出器601の検出結果と(またはどちらかの検出結果)の領域701から算出した特徴量の情報をポジティブデータとし、また第1検出器102の検出結果と第2検出器601の検出結果と(またはどちらかの検出結果)の領域701をランダムな値だけ上下、左右にずらした領域702から算出した特徴量の情報をネガティブデータとする。例えば、第1検出器102または第2検出器601の検出結果の領域701の左上の座標を(Xr,Yr)とすると、ネガティブデータの領域702の左上の座標(X,Y)は次式で表される。
これらのポジティブデータとネガティブデータから、特徴量を変数とした空間において、ポジティブデータになる場合とネガティブデータになる場合との境界線(一般には境界となる超平面。特徴量の次元に依存する。)を決定することができる。
辞書の更新(S801)では、第1検出器102と第2検出器601(またはどちらか)によって検出対象物201が検出されると、検出結果の領域701と、その周辺の領域702とから特徴量を算出し、辞書の更新を行う。この処理は、学習部602で行われる。
第3の実施形態の物体検出装置900は、第1の実施形態の装置部分に加え、第1学習部902及び第2学習部602を備えることが異なる。また第3の実施形態の第1検出部901及び第2検出部601はそれぞれ、第1学習部902及び第2学習部602からデータをフィードバックするので、第1の実施形態の第1検出部及び第2検出部とはこのフィードバックする点が異なる。
この処理は第1学習部902で行われる。
この処理は第2学習部602で行われる。
Claims (10)
- 第1フレームおよび時系列順で前記第1フレームより後のフレームである第2フレームを取得する取得部と、
前記第1フレームおよび前記第2フレームから対象物を検出する第1検出器と、
前記第2フレームで検出された対象物の数より前記第1フレームで検出された対象物の数が多い場合、前記第2フレームから対象物を検出する第2検出器と、
を備える物体検出装置。 - 第1フレームおよび時系列順で前記第1フレームより後のフレームである第2フレームを取得する取得部と、
前記第1フレームおよび前記第2フレームから対象物を検出する第1検出器と、
前記第1フレームで検出された対象物を包含する第1領域と前記第2フレームで検出された対象物を包含する第2領域との和集合である第3領域に対する、前記第1領域と前記第2領域との積集合である第4領域の割合が閾値より小さい場合、前記第2フレームから対象物を検出する第2検出器と、
を備える物体検出装置。 - 第1フレームおよび時系列順で前記第1フレームより後のフレームである第2フレームを取得する取得部と、
前記第1フレームおよび前記第2フレームから対象物を検出する第1検出器と、
前記第1フレームで検出された対象物の色と、前記第2フレームで検出された対象物の色との類似度が閾値よりも小さい場合、前記第2フレームから対象物を検出する第2検出器と、
を備える物体検出装置。 - 第1フレームおよび時系列順で前記第1フレームより後のフレームである第2フレームを取得する取得部と、
前記第1フレームおよび前記第2フレームから対象物を検出する第1検出器と、
前記第2フレームに未検出の対象物が存在する場合、前記第2フレームから対象物を検出する第2検出器と、
前記第1フレームもしくは前記第2フレームにおける第1領域と、前記第1フレームもしくは前記第2フレームにおける第2領域と、前記第1フレームもしくは前記第2フレームにおける第3領域とから算出した特徴量を用いて、前記第2検出器のパラメータを学習する学習部と、を備え、
前記第1領域は第1対象物を含む領域であり、前記第2領域は前記第1対象物とは異なる第2対象物を含む領域であり、前記第3領域は、少なくとも、前記第1対象物の部分、前記第2対象物の部分および対象物以外の部分の何れか一つを含む領域である
物体検出装置。 - 前記第2検出器は、前記第2フレームで検出された対象物の数より前記第1フレームで検出された対象物の数が多い場合、前記第2フレームから対象物を検出する請求項4に記載の物体検出装置。
- 前記学習部は、前記第1領域および前記第2領域から算出した特徴量をポジティブデータとして、前記第3領域から抽出した特徴量をネガティブデータとして、前記第2検出器のパラメータを学習する請求項4または5に記載の物体検出装置。
- 前記第1検出器と前記第2検出器とでは、少なくとも、検出に用いるパラメータ、検出に用いる特徴量、検出器の学習手法、および、検出に用いるパーツの何れか一つが異なる請求項1乃至6の何れか一項に記載の物体検出装置。
- 前記第1検出器による前記第1フレームの検出結果と、前記第1検出器による前記第2フレームの検出結果とを比較し、前記第2フレームに未検出の前記対象物が存在するかどうかを判定する判定部、
を更に備える請求項1乃至7の何れか一項に記載の物体検出装置。 - 第1フレームおよび時系列順で前記第1フレームより後のフレームである第2フレームを取得し、
前記第1フレームおよび前記第2フレームから対象物を検出し、
前記第2フレームで検出された対象物の数より前記第1フレームで検出された対象物の数が多い場合、前記第2フレームから対象物を検出する、
ことを備える物体検出方法。 - 第1フレームおよび時系列順で前記第1フレームより後のフレームである第2フレームを取得し、
前記第1フレームおよび前記第2フレームから対象物を検出し、
前記第2フレームに未検出の対象物が存在する場合、前記第2フレームから対象物を検出し、
前記第1フレームもしくは前記第2フレームにおける第1領域と、前記第1フレームもしくは前記第2フレームにおける第2領域と、前記第1フレームもしくは前記第2フレームにおける第3領域とから算出した特徴量を用いて、前記第2フレームに未検出の対象物が存在する場合に前記第2フレームから対象物を検出する際のパラメータを学習すること、を備え、
前記第1領域は第1対象物を含む領域であり、前記第2領域は前記第1対象物とは異なる第2対象物を含む領域であり、前記第3領域は、少なくとも、前記第1対象物の部分、前記第2対象物の部分および対象物以外の部分の何れか一つを含む領域である
物体検出方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017087317A JP2017146990A (ja) | 2017-04-26 | 2017-04-26 | 物体検出装置及びその検出方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017087317A JP2017146990A (ja) | 2017-04-26 | 2017-04-26 | 物体検出装置及びその検出方法 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012219715A Division JP2014071832A (ja) | 2012-10-01 | 2012-10-01 | 物体検出装置及びその検出方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019080976A Division JP2019114305A (ja) | 2019-04-22 | 2019-04-22 | 物体検出装置及びその検出方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017146990A true JP2017146990A (ja) | 2017-08-24 |
Family
ID=59682271
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017087317A Pending JP2017146990A (ja) | 2017-04-26 | 2017-04-26 | 物体検出装置及びその検出方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017146990A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112424849A (zh) * | 2019-01-02 | 2021-02-26 | 松下电器(美国)知识产权公司 | 信息处理装置、信息处理方法及程序 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005284348A (ja) * | 2004-03-26 | 2005-10-13 | Sony Corp | 情報処理装置および方法、記録媒体、並びにプログラム |
JP2007279970A (ja) * | 2006-04-05 | 2007-10-25 | Toyota Motor Corp | 物体検出装置 |
JP2008243215A (ja) * | 2001-12-03 | 2008-10-09 | Microsoft Corp | 複数のキューを使用する複数の個人の自動検出および追跡のためのシステム |
JP2012156609A (ja) * | 2011-01-24 | 2012-08-16 | Jvc Kenwood Corp | 顔検出装置および顔検出方法 |
-
2017
- 2017-04-26 JP JP2017087317A patent/JP2017146990A/ja active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008243215A (ja) * | 2001-12-03 | 2008-10-09 | Microsoft Corp | 複数のキューを使用する複数の個人の自動検出および追跡のためのシステム |
JP2005284348A (ja) * | 2004-03-26 | 2005-10-13 | Sony Corp | 情報処理装置および方法、記録媒体、並びにプログラム |
JP2007279970A (ja) * | 2006-04-05 | 2007-10-25 | Toyota Motor Corp | 物体検出装置 |
JP2012156609A (ja) * | 2011-01-24 | 2012-08-16 | Jvc Kenwood Corp | 顔検出装置および顔検出方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112424849A (zh) * | 2019-01-02 | 2021-02-26 | 松下电器(美国)知识产权公司 | 信息处理装置、信息处理方法及程序 |
CN112424849B (zh) * | 2019-01-02 | 2023-08-04 | 松下电器(美国)知识产权公司 | 信息处理装置、信息处理方法及记录介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6088792B2 (ja) | 画像検出装置及び制御プログラム並びに画像検出方法 | |
JP2014071832A (ja) | 物体検出装置及びその検出方法 | |
US8406470B2 (en) | Object detection in depth images | |
US10264176B2 (en) | Gaze tracking device and method and recording medium for performing the same | |
Benedek | 3D people surveillance on range data sequences of a rotating Lidar | |
EP2544149A1 (en) | Moving-body detection device, moving-body detection method, moving-body detection program, moving-body tracking device, moving-body tracking method, and moving-body tracking program | |
Budzan et al. | Fusion of 3D laser scanner and depth images for obstacle recognition in mobile applications | |
JP7101805B2 (ja) | ビデオ異常検出のためのシステム及び方法 | |
Rujikietgumjorn et al. | Optimized pedestrian detection for multiple and occluded people | |
Jiang et al. | Multiple pedestrian tracking using colour and motion models | |
KR101699014B1 (ko) | 스테레오 카메라를 이용한 객체 검출 방법 및 장치 | |
Nallasivam et al. | Moving human target detection and tracking in video frames | |
Gunale et al. | Fall detection using k-nearest neighbor classification for patient monitoring | |
JP6080572B2 (ja) | 通行物体検出装置 | |
Nosheen et al. | Efficient Vehicle Detection and Tracking using Blob Detection and Kernelized Filter | |
KR100977259B1 (ko) | 다중 기울기 히스토그램을 이용한 사람 탐색 및 추적 방법 | |
JP2017146990A (ja) | 物体検出装置及びその検出方法 | |
JP2019114305A (ja) | 物体検出装置及びその検出方法 | |
JP2019075051A (ja) | 画像処理装置 | |
Tatarenkov et al. | The human detection in images using the depth map | |
Tatarenkov et al. | Feature extraction from a depth map for human detection | |
JP2019121031A (ja) | 画像処理装置 | |
Wang et al. | Long-term visual tracking based on adaptive correlation filters | |
Sivabalasundari et al. | RETRACTED: Identifying LCF-DLT approach and educating engineering students to learn foreground perception in video surveillance | |
Ruiz et al. | Active scene text recognition for a domestic service robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180410 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180417 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180611 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180626 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190122 |