JP2011198006A - Object detecting apparatus, object detecting method, and object detecting program - Google Patents

Object detecting apparatus, object detecting method, and object detecting program Download PDF

Info

Publication number
JP2011198006A
JP2011198006A JP2010063827A JP2010063827A JP2011198006A JP 2011198006 A JP2011198006 A JP 2011198006A JP 2010063827 A JP2010063827 A JP 2010063827A JP 2010063827 A JP2010063827 A JP 2010063827A JP 2011198006 A JP2011198006 A JP 2011198006A
Authority
JP
Japan
Prior art keywords
scan window
object detection
processing result
past
setting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010063827A
Other languages
Japanese (ja)
Inventor
Yuichi Matsumoto
裕一 松本
Sumio Yokomitsu
澄男 横光
Hirobumi Fujii
博文 藤井
Takeshi Fujimatsu
健 藤松
Takeshi Watanabe
偉志 渡邊
Michio Miwa
道雄 三輪
Masaki Sugiura
雅貴 杉浦
Mikio Morioka
幹夫 森岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2010063827A priority Critical patent/JP2011198006A/en
Publication of JP2011198006A publication Critical patent/JP2011198006A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an object detecting method and program for detecting an object with high accuracy within a predetermined time period without depending on the scene of the images input continuously.SOLUTION: The object detecting apparatus includes: a scan window setting section for setting a set-up scan window in each of the images continuously captured; a first object detecting section for executing first object detection on an image in the set-up scan window to output a result of prestage processing; a past processing result storing unit for storing a past processing result detected by a second object detection section; a scan window selecting unit for selecting a selection scan window on the basis of the prestage processing result and the past processing result; and the second object detecting section for detecting an object from the selection scan window.

Description

本発明は、連続して撮影された画像から、対象となるオブジェクトの検出を行うためのオブジェクト検出装置、オブジェクト検出方法、およびオブジェクト検出プログラムに関するものである。   The present invention relates to an object detection apparatus, an object detection method, and an object detection program for detecting a target object from continuously photographed images.

連続して撮影された画像から、特定のオブジェクトの検出を行う技術をオブジェクト検出技術と呼び、対象となるオブジェクトとしては、人物や車、二輪車、動物などがある。   A technique for detecting a specific object from continuously photographed images is called an object detection technique, and examples of target objects include a person, a car, a two-wheeled vehicle, and an animal.

一般的なオブジェクト検出技術では、所定サイズの矩形(スキャンウィンドゥと呼ぶ)で走査を行い、各スキャンウィンドゥ内に、特定のオブジェクトが含まれるか否かをオブジェクト検出器を用いて判定する。   In a general object detection technique, scanning is performed with a rectangle of a predetermined size (referred to as a scan window), and whether or not a specific object is included in each scan window is determined using an object detector.

オブジェクト検出技術は、各スキャンウィンドゥ内から特徴量を抽出する特徴量抽出器と、抽出した特徴量を入力とし、各スキャンウィンドゥ内に、特定のオブジェクトが含まれるか否かを判定するオブジェクト検出器から構成される。   The object detection technique includes a feature amount extractor that extracts a feature amount from each scan window, and an object detector that receives the extracted feature amount as input and determines whether or not a specific object is included in each scan window. Consists of

例えば特許文献1では、特徴量として、局所領域における輝度勾配強度を方向別にヒストグラム化したHOG(Hitogram of Oriented Gradient)特徴量を各スキャンウィンドゥから抽出し、オブジェクト検出器への入力としている。オブジェクト検出器は、統計的学習手法のひとつであるブースティング法を用いて構築されており、検出精度の低いオブジェクト検出器(弱識別器と呼ぶ)を多数組み合わせ、これらをアンサンブルすることで、検出エラー率の低いオブジェクト検出器(強識別器と呼ぶ)を構築している。   For example, in Patent Document 1, a HOG (Hitogram of Oriented Gradient) feature value obtained by histogramating the luminance gradient strength in a local region for each direction is extracted from each scan window as a feature value and used as an input to the object detector. The object detector is constructed by using the boosting method, which is one of the statistical learning methods. By combining many object detectors with low detection accuracy (called weak classifiers) and ensemble these, An object detector (called a strong classifier) with a low error rate is constructed.

さらに特許文献1では、ブースティング法を用いて構築した強識別器に対し、精度の異なる強識別器を、さらに複数段連結させたカスケード型オブジェクト検出器を用いており(ひとつの段をステージと呼ぶ)、すべてのステージを通過したスキャンウィンドゥに対して、特定のオブジェクトが含まれると判定させている。カスケード型オブジェクト検出器では、非検出対象となるスキャンウィンドゥをカスケード型オブジェクト検出器の前半のステージの時点で棄却し、後半のステージのオブジェクト検出処理を省略することで、オブジェクト検出処理の高速化を実現している。   Furthermore, Patent Document 1 uses a cascade type object detector in which multiple strong classifiers having different accuracy are connected to a strong classifier constructed using the boosting method (one stage as a stage). The scan window that has passed through all the stages is determined to contain a specific object. In cascaded object detectors, scan detection windows that are not subject to detection are rejected at the first stage of the cascaded object detector, and object detection processing in the latter half of the stage is omitted, thereby speeding up object detection processing. Realized.

また、非特許文献1では、スキャンウィンドゥ内からHOG特徴量、色周波数特徴量、共分散行列特徴量を抽出し、合わせて170,820次元の特徴量ベクトルを生成している。この特徴量の中から、オブジェクト検出に有用な特徴量の選択を行い、選択された少数の特徴量だけをオブジェクト検出器への入力とする高速なオブジェクト検出器を実現し、カスケード型オブジェクト検出器の前段ステージとしている。一方、特徴量の選択を行わず、抽出した170,820次元全ての特徴量を入力とすることで、高精度なオブジェクト検出処理を実現したオブジェクト検出器を、カスケード型オブジェクト検出器の後段ステージとし、以上2つのオブジェクト検出器を連結させた2段ステージ構成のカスケード型オブジェクト検出器を構築している。このような構成により、非検出対象となるスキャンウィンドゥを、高速なカスケード型オブジェクト検出器の前段ステージの時点で棄却し、後段ステージのオブジェクト検出処理を省略することが可能となり、オブジェクト検出処理の高速化を実現している。   In Non-Patent Document 1, HOG feature values, color frequency feature values, and covariance matrix feature values are extracted from the scan window, and a 170,820-dimensional feature value vector is generated. From these feature quantities, feature quantities useful for object detection are selected, and a high-speed object detector that uses only a small number of selected feature quantities as input to the object detector is realized. The previous stage. On the other hand, an object detector that realizes high-precision object detection processing by inputting all the extracted feature quantities of 170 and 820 dimensions without selecting feature quantities is set as a subsequent stage of the cascade type object detector. Thus, a cascade type object detector having a two-stage configuration in which the two object detectors are connected is constructed. With this configuration, it is possible to reject scan windows that are not to be detected at the previous stage of the high-speed cascade-type object detector, and to omit the object detection process in the subsequent stage. Has been realized.

図10に、従来のオブジェクト検出装置を示す。図10において、カメラ部1001に
よって撮影された画像に対して、スキャンウインドゥ設定部1002によりスキャンウインドゥが設定され、第1のオブジェクト検出部1003によってオブジェクトが検出される。第1のオブジェクト検出部1003は、高速なオブジェクト検出部であり、カメラ部によって撮影された画像の全ての位置においてオブジェクト検出が実施される。
前段処理結果保存部1004には、その結果が保存され、この結果に対して第2のオブジェクト検出部1005によってオブジェクト検出が行われ、検出結果表示部1006にその結果が表示される。第2のオブジェクト検出部1005は高精度なオブジェクト検出であり、第1のオブジェクト検出部1003によって検出された結果に基づいて行われる。
FIG. 10 shows a conventional object detection apparatus. In FIG. 10, a scan window is set by the scan window setting unit 1002 for an image photographed by the camera unit 1001, and an object is detected by the first object detection unit 1003. The first object detection unit 1003 is a high-speed object detection unit, and object detection is performed at all positions of an image captured by the camera unit.
The result is stored in the pre-processing result storage unit 1004, the object detection is performed on the result by the second object detection unit 1005, and the result is displayed on the detection result display unit 1006. The second object detection unit 1005 is highly accurate object detection, and is performed based on the result detected by the first object detection unit 1003.

米国特許出願公開第2007/0237387号明細書US Patent Application Publication No. 2007/0237387

W. R. Schwartz, A. Kembhavi, D. Harwood and L. S. Davis, 「Human Detection Using Partial Least Squares Analysis」, The 12th IEEE International Conference on Computer Vision, Kyoto, JAPAN, pages 24-31, September 2009.W. R. Schwartz, A. Kembhavi, D. Harwood and L. S. Davis, `` Human Detection Using Partial Least Squares Analysis '', The 12th IEEE International Conference on Computer Vision, Kyoto, JAPAN, pages 24-31, September 2009.

しかしながら、非特許文献1、および特許文献1、あるいは図10に示す従来のオブジェクト検出装置にて提案されているカスケード型オブジェクト検出器を用いた場合、下記のような課題がある。   However, when the cascade type object detector proposed in the non-patent document 1, the patent document 1, or the conventional object detection device shown in FIG. 10 is used, there are the following problems.

カスケード型オブジェクト検出器を用いた場合、非検出対象となるスキャンウィンドゥを、カスケード型オブジェクト検出器の前段ステージの時点で棄却し、カスケード型オブジェクト検出器の後段ステージのオブジェクト検出処理を省略することで、オブジェクト検出処理を高速化できる。しかしながら、入力される画像に依存して、カスケード型オブジェクト検出器の前段ステージを通過するスキャンウィンドゥの数が変動する。これに伴い、後段ステージがオブジェクト検出処理するスキャンウィンドゥの数も変動し、結果的にカスケード型オブジェクト検出器全体のオブジェクト検出処理時間も、入力される画像に依存して変動してしまう。   When a cascade-type object detector is used, the scan window that is not to be detected is rejected at the previous stage of the cascade-type object detector, and the object detection process at the subsequent stage of the cascade-type object detector is omitted. The object detection process can be speeded up. However, depending on the input image, the number of scan windows passing through the previous stage of the cascade type object detector varies. Along with this, the number of scan windows for object detection processing in the subsequent stage also varies, and as a result, the object detection processing time of the entire cascade type object detector also varies depending on the input image.

例えば、対象となるオブジェクトが人物の場合、人物と似通った形状や、色のオブジェクト(木や電柱、人形など)が多く含まれるシーンにおいてオブジェクト検出処理を行うと、検出精度が低いカスケード型オブジェクト検出器の前段ステージだけではスキャンウィンドゥを棄却することが出来ず、多くのスキャンウィンドゥが検出精度の高い後段ステージに対して受け渡されることになる。一般的にカスケード型オブジェクト検出器の後段ステージは、オブジェクト検出精度は高い一方で、オブジェクト検出速度は遅いという性質を持つため、オブジェクト検出処理すべきスキャンウィンドゥの数が増加するほど、カスケード型オブジェクト検出器全体のオブジェクト検出処理時間の増加も顕著になる。   For example, if the target object is a person, cascading object detection with low detection accuracy can be achieved by performing object detection in a scene that contains many objects with similar shapes or colors (trees, telephone poles, dolls, etc.). The scan window cannot be rejected only with the front stage of the instrument, and many scan windows are delivered to the subsequent stage with high detection accuracy. In general, the latter stage of the cascade type object detector has the property that the object detection accuracy is high while the object detection speed is slow. Therefore, the cascade type object detection is increased as the number of scan windows to be detected is increased. The increase in the object detection processing time of the entire vessel is also noticeable.

また、オブジェクト検出技術をカメラなどのハードウェアに組み込む場合には、リアルタイム処理が必須となる。オブジェクト検出処理は、ハードウェアの他の処理プロセスに影響を与えぬように、常に一定時間内に終了しなければならない。しかしながら、カスケード型オブジェクト検出器のように、入力された画像に依存してオブジェクト検出処理時間が変動する場合、一定時間内にオブジェクト検出処理が終了しない可能性が生じる。その結果、リアルタイム処理を優先すると、入力された画像に依存してオブジェクト検出処理はスキャンウィンドゥの走査の途中で強制的に打ち切られる場合があり、結果的に未検
出が増加し、オブジェクト検出精度を保つことが困難になる。
Further, when the object detection technique is incorporated in hardware such as a camera, real-time processing is essential. The object detection process must always end within a certain time so as not to affect other processing processes of the hardware. However, when the object detection processing time varies depending on the input image as in the cascade type object detector, there is a possibility that the object detection processing does not end within a certain time. As a result, if priority is given to real-time processing, depending on the input image, object detection processing may be forcibly interrupted during the scan window scan, resulting in an increase in undetected results and increased object detection accuracy. It becomes difficult to keep.

図10に示した従来のオブジェクト検出装置について、図11を用いて具体的に説明する。カメラ部1001から入力された画像に対して、スキャンウインドゥ設定部1002によってスキャンウインドゥが設定され、カスケード型オブジェクト検出器の前段ステージである第1のオブジェクト検出部1003によってオブジェクトが検出されると、オブジェクトが検出されたスキャンウインドゥ群1101が出力される。この際、入力画像によって出力されるスキャンウィンドゥ群1101の数は変動する。この数が多い場合、一定時間内にオブジェクト検出処理を終えるために、カスケード型オブジェクト検出器の後段ステージである第2のオブジェクト検出部1005においては、スキャンウィンドゥの走査の順に、限られたスキャンウィンドゥのみオブジェクト検出処理が行われるようになる(1102)。このような場合、オブジェクト検出処理はスキャンウィンドゥの走査の途中で強制的に打ち切られ、例えば1103のような検出対象オブジェクト(ここでは人物)のオブジェクト検出処理は第2のオブジェクト検出部1005において行われず、結果としてオブジェクト検出精度を保つことが困難になる。   The conventional object detection apparatus shown in FIG. 10 will be specifically described with reference to FIG. When a scan window is set by the scan window setting unit 1002 for the image input from the camera unit 1001 and an object is detected by the first object detection unit 1003 which is the previous stage of the cascade type object detector, A scan window group 1101 in which is detected is output. At this time, the number of scan window groups 1101 output by the input image varies. When this number is large, in order to finish the object detection process within a fixed time, the second object detection unit 1005 which is the subsequent stage of the cascade type object detector has limited scan windows in the order of scan window scans. Only the object detection process is performed (1102). In such a case, the object detection process is forcibly interrupted during the scan window scan, and the object detection process for the detection target object (here, a person) such as 1103 is not performed in the second object detection unit 1005. As a result, it becomes difficult to maintain the object detection accuracy.

本発明は、従来の問題を解決するためになされたものであり、カスケード型オブジェクト識別機の本来の特徴である高速処理も可能な一方で、入力された画像に依存することなく、高精度に、かつ所定の時間内にオブジェクト検出処理を終了することができる、カスケード型のオブジェクト検出装置、オブジェクト検出方法、およびオブジェクト検出プログラムを提供することを目的とする。   The present invention has been made to solve the conventional problems, and can perform high-speed processing, which is an original characteristic of a cascade type object discriminator, while being highly accurate without depending on an input image. An object of the present invention is to provide a cascade-type object detection device, an object detection method, and an object detection program that can finish object detection processing within a predetermined time.

本発明のオブジェクト検出装置は、連続して撮影された画像の各々の画像内に設定スキャンウィンドゥを設定するスキャンウィンドゥ設定手段と、前記設定スキャンウィンドゥ内の画像に対して第1のオブジェクト検出を実行し前段処理結果を出力する第1のオブジェクト検出手段と、前記連続して撮影された画像の過去の画像から第2のオブジェクト検出手段によって検出された過去処理結果を保持する過去処理結果保存部と、前記前段処理結果と前記過去処理結果に基づき選択スキャンウインドゥを選択するスキャンウインドゥ選択部と、前記選択スキャンウインドゥからオブジェクトを検出する第2のオブジェクト検出部との構成を有している。   The object detection apparatus according to the present invention executes scan object setting means for setting a set scan window in each of continuously shot images, and executes first object detection for the image in the set scan window. A first object detection unit that outputs a previous processing result; a past processing result storage unit that holds a past processing result detected by the second object detection unit from past images of the continuously captured images; And a scan window selection unit that selects a selected scan window based on the previous process result and the past process result, and a second object detection unit that detects an object from the selected scan window.

この構成により、カスケード型オブジェクト検出器の後段ステージに相当する、第2のオブジェクト検出手段へ受け渡されるスキャンウィンドゥが、スキャンウィンドゥ選択手段によって、第1のオブジェクト検出手段の処理結果と、過去に入力された画像に対する第2のオブジェクト検出手段の処理結果に基づき、検出対象オブジェクトが含まれる可能性の高いスキャンウィンドゥから優先的に所定数選択されるため、オブジェクト検出処理を高精度に、かつ所定のオブジェクト検出処理時間内に行うことができる。   With this configuration, the scan window transferred to the second object detection means corresponding to the subsequent stage of the cascade type object detector is input by the scan window selection means and the processing result of the first object detection means in the past. Based on the processing result of the second object detecting means for the processed image, a predetermined number is preferentially selected from the scan windows that are likely to include the detection target object. This can be done within the object detection processing time.

また、本発明のオブジェクト検出装置は、前記過去処理結果保存部に保持された過去処理結果は、前記連続して撮影された該画像より以前に撮影された前記選択スキャンウィンドゥの画像に対する前記第2のオブジェクト検出手段の検出結果であることを特徴としている。   In the object detection device of the present invention, the past processing result held in the past processing result storage unit may be the second for the image of the selected scan window taken before the continuously photographed image. This is a detection result of the object detection means.

この構成により、過去に処理された画像からのオブジェクト検出結果を反映させてオブジェクト検出を行うので、高精度のオブジェクト検出を行うことが出来る。   With this configuration, the object detection is performed by reflecting the object detection result from the image processed in the past, so that highly accurate object detection can be performed.

さらに、本発明のオブジェクト検出装置は、前記前段処理結果は前記連続して撮影された画像該画像の前記設定スキャンウインドゥの位置およびサイズであり、前記過去処理結果は前記該画像より以前に撮影された選択スキャンウィンドゥの位置およびサイズである
ことを特徴としている。
Furthermore, the object detection device of the present invention is such that the pre-processing result is the position and size of the set scan window of the continuously captured images, and the past processing result is captured before the images. It is characterized by the position and size of the selected scan window.

この構成により、オブジェクトの検出位置を正確に決定することが出来る。   With this configuration, the detection position of the object can be accurately determined.

さらに、本発明のオブジェクト検出装置は、前記スキャンウィンドゥ選択手段は、前記該画像より以前に撮影された選択スキャンウィンドゥの位置と該画像の設定スキャンウィンドゥの重なり度合いに応じて選択スキャンウィンドゥを選択することを特徴としている。   Furthermore, in the object detection apparatus of the present invention, the scan window selection means selects the selected scan window according to the overlapping position of the selected scan window taken before the image and the set scan window of the image. It is characterized by that.

この構成により、過去に検出されたオブジェクトの検出結果を利用して、現在のオブジェクトの検出結果から有効なものを選択することが出来る。   With this configuration, it is possible to select an effective object detection result from the detection results of the current object using the detection results of the objects detected in the past.

さらに、本発明のオブジェクト検出装置は、連続して撮影された各々の画像をサイズの異なる少なくとも2つ以上の画像に拡大または縮小してスケール画像を作成するスケール画像生成手段を有し、前記スキャンウィンドゥ設定手段は前記スケール画像に対して設定スキャンウィンドゥを設定することを特徴としている。   Furthermore, the object detection apparatus of the present invention has scale image generation means for creating a scale image by enlarging or reducing each continuously captured image to at least two or more images having different sizes. The window setting means sets a setting scan window for the scale image.

この構成により、スケール画像に対してスキャンウインドウを設定してオブジェクトを検出することが出来る。   With this configuration, an object can be detected by setting a scan window for the scale image.

さらに、本発明のオブジェクト検出装置は、前記過去処理結果保持部は、前記第2のオブジェクト検出部によって検出された検出結果を前記スケール画像に拡張した結果を保持することを特徴としている。   Furthermore, the object detection apparatus of the present invention is characterized in that the past processing result holding unit holds a result of extending the detection result detected by the second object detection unit to the scale image.

この構成により、過去のオブジェクト検出結果をスケール画像に反映させてオブジェクトを検出することが出来る。   With this configuration, the object can be detected by reflecting the past object detection result on the scale image.

本発明は、連続して入力された画像のシーンに依存することなく、高精度に、かつ所定の時間内にオブジェクト検出処理を行うことが可能なオブジェクト検出方法、オブジェクト検出プログラムを提供することができるものである。   The present invention provides an object detection method and an object detection program capable of performing object detection processing with high accuracy and within a predetermined time without depending on scenes of continuously input images. It can be done.

本発明の第1の実施の形態におけるオブジェクト検出装置のブロック図The block diagram of the object detection apparatus in the 1st Embodiment of this invention 本発明の第1の実施の形態におけるオブジェクト検出装置のスキャンウィンドゥ選択処理の概要図Schematic diagram of scan window selection processing of the object detection device according to the first embodiment of the present invention 本発明の第1の実施の形態におけるオブジェクト検出装置のスキャンウィンドゥ重なり具合算出方法を示す説明図Explanatory drawing which shows the scan window overlap condition calculation method of the object detection apparatus in the 1st Embodiment of this invention. 本発明の第1の実施の形態におけるオブジェクト検出装置の過去処理結果保存部における統合処理概要図Overview of integrated processing in past processing result storage unit of object detection device according to first exemplary embodiment of the present invention 本発明の第1の実施の形態におけるオブジェクト検出装置の動作説明のためのフロー図Flow chart for explaining the operation of the object detection apparatus according to the first embodiment of the present invention. 本発明の第2の実施の形態におけるオブジェクト検出装置のブロック図The block diagram of the object detection apparatus in the 2nd Embodiment of this invention 本発明の第2の実施の形態におけるオブジェクト検出装置の過去処理結果保存部における検出対象移動モデル設定概要図Overview of detection target movement model setting in the past processing result storage unit of the object detection device according to the second exemplary embodiment of the present invention 本発明の第2の実施の形態の処理の概要を示す概要図Schematic diagram showing an overview of the processing of the second embodiment of the present invention 本発明の第2の実施の形態におけるオブジェクト検出装置の動作説明のためのフロー図Flow chart for explaining the operation of the object detection apparatus in the second embodiment of the present invention 従来のオブジェクト検出装置のブロック図Block diagram of a conventional object detection device 従来のオブジェクト検出装置のフローチャートConventional Object Detection Device Flowchart

以下、本発明の実施の形態のオブジェクト検出装置について、図面を用いて説明する。
本発明の第1の実施の形態のオブジェクト検出装置を図1に示す。
Hereinafter, an object detection device according to an embodiment of the present invention will be described with reference to the drawings.
An object detection apparatus according to a first embodiment of the present invention is shown in FIG.

図1において、本発明の実施の形態のオブジェクト検出装置は、カメラ部101から連続して撮影された画像の各々の画像内に設定スキャンウィンドゥを設定するスキャンウィンドゥ設定部102と、設定されたスキャンウィンドゥに対して第1のオブジェクト検出を実行する第1のオブジェクト検出部103と、第1のオブジェクト検出部103の検出結果を保存する前段階処理結果保存部104と、前記第1のオブジェクト検出の結果に基づいて前記設定スキャンウィンドゥから選択スキャンウィンドゥを選択するスキャンウィンドゥ選択部105と、前記選択スキャンウィンドゥの画像に対して第2のオブジェクト検出を実行する第2のオブジェクト検出部106と、第2のオブジェクト検出部106の結果を保存する過去処理結果保存部108と、第2のオブジェクト検出部106の結果を表示する検出結果表示部107とを有する。   In FIG. 1, an object detection apparatus according to an embodiment of the present invention includes a scan window setting unit 102 that sets a set scan window in each of images continuously captured from a camera unit 101, and a set scan. A first object detection unit 103 that performs first object detection on a window; a pre-stage processing result storage unit 104 that stores a detection result of the first object detection unit 103; and A scan window selection unit 105 that selects a selected scan window from the setting scan window based on the result, a second object detection unit 106 that performs second object detection on the image of the selected scan window, and a second The past processing result storage for storing the result of the object detection unit 106 It has a section 108, a detection result display unit 107 for displaying the results of the second object detection unit 106.

スキャンウィンドゥ設定部102は、連続して撮影された画像の各々の画像内に、例えば縦横1画素毎に位置を変えた複数のスキャンウィンドゥを設定する。   The scan window setting unit 102 sets, for example, a plurality of scan windows whose positions are changed for each pixel in the vertical and horizontal directions in each of the continuously captured images.

第1のオブジェクト検出を実行する第1のオブジェクト検出部103は、スキャンウィンドゥ設定部102で設定された複数のスキャンウィンドゥそれぞれに対して、例えば特許文献1に記載されているHOG特徴量などを抽出し、その特徴量を入力として、検出対象らしさを表すスコアを出力する。   The first object detection unit 103 that executes the first object detection extracts, for example, HOG feature amounts described in Patent Document 1 for each of the plurality of scan windows set by the scan window setting unit 102. Then, using the feature amount as an input, a score representing the likelihood of detection is output.

第1のオブジェクト検出部103は、事前に、検出対象サンプルと非検出対象サンプル(学習サンプルと呼ぶ)から特徴量を抽出し、その特徴量空間上の学習サンプルの分布に基づいて、SVM(Support Vector Machine)やブースティング法などの代表的な統計的学習手法を用いることで、特徴量空間上の検出対象サンプルと非検出対象サンプルの境界線を学習し、構築すればよい。   The first object detection unit 103 extracts feature amounts from detection target samples and non-detection target samples (referred to as learning samples) in advance, and based on the distribution of learning samples in the feature amount space, SVM (Support By using a typical statistical learning method such as Vector Machine) or boosting method, the boundary line between the detection target sample and the non-detection target sample in the feature amount space may be learned and constructed.

次に、第1のオブジェクト検出部103は、各々のスキャンウィンドゥ内のオブジェクトの検出対象らしさを、各々のスキャンウィンドゥから抽出した特徴量と、事前に構築した特徴量空間上の境界線との空間的な位置関係に基づき、スコアとして出力する。   Next, the first object detection unit 103 is a space between the feature amount extracted from each scan window and the boundary line on the feature amount space that is pre-constructed to determine the likelihood of detection of the object in each scan window. Output as a score based on the relative positional relationship.

第1のオブジェクト検出部103は、従来のカスケード型オブジェクト検出器では前段ステージに相当する。そして、後段ステージに相当する第2のオブジェクト検出を実行する第2のオブジェクト検出部106よりも、高速処理が可能なように構築する。   The first object detection unit 103 corresponds to the preceding stage in the conventional cascade type object detector. Then, the second object detection unit 106 that performs second object detection corresponding to the subsequent stage is constructed so that high-speed processing is possible.

具体的には、第1のオブジェクト検出部103は、次のような手法を用いて構築すればよい。学習サンプルから抽出した特徴量空間上の分布に基づき、例えば、非特許文献1に記載されているVIP(Variable Importance on Projection)や、ブースティング法を用いて、オブジェクト検出に有用な特徴量を選択し、選択された特徴量のみを入力とするSVMを用いることで、高速なオブジェクト検出器を構築する手法、または、特許文献1のように、ブースティング法により選択された各特徴量に基づき、精度の異なる強識別器をカスケード上に複数ステージ連結させることで、高速なオブジェクト検出器を構築する手法などである。   Specifically, the first object detection unit 103 may be constructed using the following method. Based on the distribution in the feature value space extracted from the learning sample, for example, select the feature value useful for object detection using VIP (Variable Importance on Projection) described in Non-Patent Document 1 or the boosting method. Then, based on each feature quantity selected by the boosting method, as in the method of constructing a high-speed object detector by using SVM that receives only the selected feature quantity, For example, a high-speed object detector can be constructed by connecting multiple stages of strong classifiers with different accuracy on a cascade.

また、第1のオブジェクト検出部103は、上に挙げたSVMやブースティング法による構築手法以外にも、他の代表的なオブジェクト検出技術を用いて構築してもよい。   Further, the first object detection unit 103 may be constructed using another typical object detection technique other than the construction method using the SVM or the boosting method mentioned above.

第1のオブジェクト検出部103におけるオブジェクト検出処理は、常にスキャンウィンドゥ設定部102で作成された複数のスキャンウィンドゥ全てに対して行われるため、第1のオブジェクト検出部103におけるオブジェクト検出処理時間は、スキャンウィンドゥ設定部102で作成されたスキャンウィンドゥの総数と、スキャンウィンドゥひとつあたりのオブジェクト検出処理時間で決定される。   Since the object detection process in the first object detection unit 103 is always performed for all of the plurality of scan windows created by the scan window setting unit 102, the object detection processing time in the first object detection unit 103 is the scan time. This is determined by the total number of scan windows created by the window setting unit 102 and the object detection processing time per scan window.

第1のオブジェクト検出部103から出力される各々の各スキャンウィンドゥのスコアは、前段処理結果保存部104において、表1のように各スキャンウィンドゥの位置情報と共に保存されている。

Figure 2011198006
Each scan window score output from the first object detection unit 103 is stored together with the position information of each scan window in the pre-processing result storage unit 104 as shown in Table 1.
Figure 2011198006

第2のオブジェクト検出を実行する第2のオブジェクト検出部106は、第1のオブジェクト検出部103と同様に、スキャンウィンドゥ選択部105により選択された所定数のスキャンウィンドゥから特徴量を抽出し、その特徴量を入力として、検出対象らしさを表すスコアを出力するようなオブジェクト検出処理を実行する。   Similar to the first object detection unit 103, the second object detection unit 106 that executes the second object detection extracts feature amounts from a predetermined number of scan windows selected by the scan window selection unit 105. An object detection process is performed in which a feature amount is input and a score representing the likelihood of detection is output.

第2のオブジェクト検出部106は、特許文献1、非特許文献1のようなカスケード型オブジェクト検出器と同様に、後段ステージに相当し、前段ステージに相当する第1のオブジェクト検出部103よりも、高精度処理が可能なように構築する。   The second object detection unit 106 corresponds to the subsequent stage, as in the cascade type object detectors as in Patent Document 1 and Non-Patent Document 1, and more than the first object detection unit 103 corresponding to the previous stage. Build so that high-precision processing is possible.

具体的には、例えば特許文献1、非特許文献1に記載されているように、ブースティング法やVIPを用いて選択した一部の特徴量のみを入力として高速化を図る第1のオブジェクト検出部103に対し、抽出した全ての特徴量を線形SVMなどのオブジェクト検出器への入力とし、オブジェクト検出処理に用いる特徴量数を増加させることで、オブジェクト検出精度を高精度化させる手法を用いて構築すればよい。   Specifically, as described in, for example, Patent Document 1 and Non-Patent Document 1, first object detection is achieved by using only a part of feature values selected by using the boosting method or VIP as input. Using the technique for increasing the object detection accuracy by using the extracted feature quantities as input to an object detector such as a linear SVM for the unit 103 and increasing the number of feature quantities used for object detection processing. Build it.

また、第2のオブジェクト検出部106は、特徴量数を増加させることで、オブジェクト検出精度を高精度化させる手法以外にも、他の代表的なオブジェクト検出技術を用いて構築してもよい。   Further, the second object detection unit 106 may be constructed using another typical object detection technique in addition to a method for increasing the object detection accuracy by increasing the number of feature amounts.

第2のオブジェクト検出部106は、オブジェクト検出処理結果を、スキャンウィンドゥごとのスコアと共に、そのスキャンウィンドゥの位置情報を、過去処理結果保存部108と、検出結果表示部107に対して出力する。   The second object detection unit 106 outputs the object detection processing result together with the score for each scan window, and the position information of the scan window to the past processing result storage unit 108 and the detection result display unit 107.

スキャンウィンドゥ選択部105は、前段処理結果保存部104の保持する各々のスキャンウィンドゥのスコア(表1)に対して、以前に撮影された画像内の、所定数のスキャンウィンドゥに対する第2のオブジェクト検出部106の検出結果(過去処理結果保存部
108)を用いて重み付けを行い、新たに算出されたスコアの上位から、所定数のスキャンウィンドゥを選択し、第2のオブジェクト検出部106へ、その位置情報を出力する。
The scan window selection unit 105 performs second object detection for a predetermined number of scan windows in the previously captured image for each scan window score (Table 1) held by the pre-processing result storage unit 104. Weighting is performed using the detection result (past processing result storage unit 108) of the unit 106, a predetermined number of scan windows are selected from the top of the newly calculated score, and the position is sent to the second object detection unit 106 Output information.

この際、過去処理結果保存部108では、以前に撮影された画像の中からスキャンウィンドゥ選択部105によって選択された、所定数のスキャンウィンドゥに対する第2のオブジェクト検出部106の検出結果を保存している。この結果は、第2のオブジェクト検出部106から入力されるスキャンウィンドゥ毎のスコアと、ユーザによって設定される閾値を比較することによって、スキャンウィンドゥ内に検出対象オブジェクトが含まれるスキャンウィンドゥ(OBJECTと表記する)と、スキャンウィンドゥ内に検出対象オブジェクトが含まれないスキャンウィンドゥ(NON_OBJECTと表記する)に分類されている。過去処理結果保存部108では、表2のように内部情報を保持している。   At this time, the past processing result storage unit 108 stores the detection results of the second object detection unit 106 for a predetermined number of scan windows selected by the scan window selection unit 105 from previously captured images. Yes. This result is obtained by comparing the score for each scan window input from the second object detection unit 106 with a threshold value set by the user, so that the scan window (noted as OBJECT) includes the detection target object in the scan window. And a scan window (denoted as NON_OBJECT) in which the detection target object is not included in the scan window. The past processing result storage unit 108 holds internal information as shown in Table 2.

Figure 2011198006
Figure 2011198006

例えば図2のように、前段処理結果保存部104の保持する各々のスキャンウィンドゥのスコアに対し、ユーザの設定する閾値を超えた一部のスキャンウィンドゥを201、過去処理結果保存部108の保持する各々のスキャンウィンドゥを202とすると、スキャンウィンドゥ選択処理の結果、所定数のスキャンウィンドゥが205のように選択され、第2のオブジェクト検出部106へ受け渡される。   For example, as shown in FIG. 2, for each scan window score held by the pre-stage processing result storage unit 104, a part of the scan window exceeding the threshold set by the user is stored in the past processing result storage unit 108. Assuming that each scan window is 202, as a result of the scan window selection process, a predetermined number of scan windows are selected as 205, and transferred to the second object detection unit 106.

具体的には、図2に示すように例えば前段処理結果保存部104の結果204と、過去処理結果保存部108の保持する203があるとき、204のスコアは、203と204との重なり具合によって重み付けされ、新たなスコアが算出される。このようにして、201における全てのスキャンウィンドゥに対して同様の重み付け計算を繰り返し実行し、新たに算出されたスコアの中で、204が上位から所定数以内に位置づけられたとき、204は205のように選択され、第2のオブジェクト検出部106へ受け渡される。   Specifically, as shown in FIG. 2, for example, when there is a result 204 of the previous process result storage unit 104 and 203 held by the past process result storage unit 108, the score of 204 depends on the overlap between 203 and 204. Weighting is performed and a new score is calculated. In this way, when the same weighting calculation is repeatedly executed for all scan windows in 201, and 204 is positioned within a predetermined number from the top in the newly calculated score, 204 is 205 Are selected and passed to the second object detection unit 106.

スキャンウィンドゥ選択部105における、前段処理結果保存部のスキャンウィンドゥへの重み付け方法として、まず最初に図3の301と302のように、スキャンウィンドゥの重なり度合いが算出される。このスキャンウィンドゥの重なり度合いは、例えば下記のようなIOU(Intersection Over Union)などを用いればよい。
重なり度合いをIOU_SCORE、area(A)をAの面積とすると、

IOU_SCORE = area(301∩302) / area(301∪302)

のように重なり度合いを定義してもよい。
As a weighting method for the scan window of the pre-processing result storage unit in the scan window selection unit 105, first, as shown in 301 and 302 of FIG. 3, the degree of overlap of the scan windows is calculated. For example, the following IOU (Intersection Over Union) may be used for the degree of overlap of the scan windows.
If the overlap degree is IOU_SCORE and area (A) is the area of A,

IOU_SCORE = area (301∩302) / area (301∪302)

The degree of overlap may be defined as follows.

また、前段処理結果保存部104のスキャンウィンドゥ201は、以前に撮影された画
像内の所定数のスキャンウィンドゥ202とIOUを算出する際、各スキャンウィンドゥの重心間距離が最小となる組み合わせのスキャンウィンドゥ同士について、IOUを算出する。
Further, the scan window 201 of the pre-processing result storage unit 104 calculates a predetermined number of scan windows 202 and IOUs in a previously captured image, and a combination of scan windows that minimizes the distance between the centers of gravity of the scan windows. IOU is calculated for each other.

次に、スキャンウィンドゥ選択部105における、前段処理結果保存部104のスキャンウィンドゥへの重み付け方法は、図3の301と302のように、スキャンウィンドゥの重なり度合いに応じて、例えば下記のように算出すればよい。   Next, the weighting method for the scan window of the pre-processing result storage unit 104 in the scan window selection unit 105 is calculated as follows according to the degree of overlap of the scan windows, as indicated by 301 and 302 in FIG. do it.

前段処理結果保存部104の各々のスキャンウィンドゥのスコアをSCORE、重み付けされたスキャンウィンドゥのスコアをFINAL_SCORE、IOUのスコアをIOU_SCORE、過去処理結果保存部108の保持するスコアをPRE_SCOREとすると、FINAL_SCOREは

FINAL_SCORE = a*SCORE + b*IOU_SCORE*PRE_SCORE

のように算出することができ、スキャンウィンドゥ選択部105は、FINAL_SCOREの値を基に、上位から所定数のスキャンウィンドゥを選択し、第2のオブジェクト検出部106へその位置情報を出力する。
なお、a、bは、ユーザによって設定される任意のパラメータである。
When the score of each scan window of the pre-stage processing result storage unit 104 is SCORE, the score of the weighted scan window is FINAL_SCORE, the score of the IOU is IOU_SCORE, and the score held by the past processing result storage unit 108 is PRE_SCORE, FINAL_SCORE is

FINAL_SCORE = a * SCORE + b * IOU_SCORE * PRE_SCORE

The scan window selection unit 105 selects a predetermined number of scan windows from the top based on the value of FINAL_SCORE, and outputs the position information to the second object detection unit 106.
Note that a and b are arbitrary parameters set by the user.

過去処理結果保存部108は、図4に示すように、所定の閾値以下の距離間にある少なくとも2つ以上のスキャンウィンドゥを、保存情報量削減のために1つの矩形に統合してもよい。このような矩形の統合には、例えば2つの矩形の重心間の中点に、2つの矩形の縦、横の長さの平均値をそれぞれ縦、横の長さとするような矩形を統合処理結果とし、新たな位置情報として保存してもよい。なお、統合される2つ以上のスキャンウィンドゥは、OBJECT同士、あるいはNON_OBJECT同士で実行する。また、統合されたスキャンウィンドゥのスコアは、統合に用いたスキャンウィンドゥのスコアの平均値を採用してもよい。   As illustrated in FIG. 4, the past processing result storage unit 108 may integrate at least two or more scan windows within a distance equal to or less than a predetermined threshold into one rectangle in order to reduce the amount of stored information. For the integration of such rectangles, for example, a rectangle whose vertical and horizontal lengths are the average values of the vertical and horizontal lengths of the two rectangles at the midpoint between the centroids of the two rectangles is the result of the integration process. And may be stored as new position information. Two or more scan windows to be integrated are executed between OBJECTs or NON_OBJECTs. Further, as the integrated scan window score, an average value of the scan window scores used for the integration may be adopted.

スキャンウィンドゥ選択部105においてIOU_SCOREを算出する際には、OBJECT、NON_OBJECT情報を利用する。
具体的に段落(0052)の式は、

IOU_SCORE_OBJECT:前段処理結果保存部104のスキャンウィンドゥと、過去処理結果保存部108のスキャンスキャンウィンドゥのうちオブジェクトが含まれていたスキャンスキャンウィンドゥとのIOU
IOU_SCORE_NON_OBJECT:前段処理結果保存部104のスキャンウィンドゥと、過去処理結果保存部108のスキャンスキャンウィンドゥのうちオブジェクトが含まれていないスキャンスキャンウィンドゥとのIOU

としたとき、

IOU_SCORE = c*IOU_SCORE_OBJECT + d*IOU_SCORE_NON_OBJECT

のように展開してもよい。
ここで、c、dはユーザによって設定される任意のパラメータである。
When the scan window selection unit 105 calculates IOU_SCORE, OBJECT and NON_OBJECT information is used.
Specifically, the expression in paragraph (0052) is

IOU_SCORE_OBJECT: IOU between the scan window of the pre-processing result storage unit 104 and the scan scan window in which the object was included in the scan scan window of the past process result storage unit 108
IOU_SCORE_NON_OBJECT: IOU between the scan window of the previous process result storage unit 104 and the scan scan window of the past process result storage unit 108 that does not include an object

When

IOU_SCORE = c * IOU_SCORE_OBJECT + d * IOU_SCORE_NON_OBJECT

You may expand like this.
Here, c and d are arbitrary parameters set by the user.

前記より、スキャンウィンドゥ選択部105においては、検出対象オブジェクトが存在する確率の高いスキャンウィンドゥが、常に所定数個、新たに算出したスコアに基づき、優先的にスコア上位から選択される。このため、第2のオブジェクト検出部106は、入力された画像に依存することなく、常に所定の時間内にオブジェクト検出処理を終了することができ、従来のように、スキャンウィンドゥの走査の順に依存して、検出漏れが発生
したりはしない。
As described above, in the scan window selection unit 105, scan windows having a high probability that the detection target object exists are always preferentially selected based on the newly calculated score from the top of the score. Therefore, the second object detection unit 106 can always finish the object detection process within a predetermined time without depending on the input image, and depends on the scan window scanning order as in the past. As a result, no detection failure occurs.

以上のように構成されたオブジェクト検出装置について、図5のフローチャートを用いてさらに説明する。
S501では、スキャンウィンドゥ設定部102が、スキャンウィンドゥの設定処理を行う。連続して撮影された画像の各々の画像内に、複数のスキャンウィンドゥを設定する。
S502では、第1のオブジェクト検出部103が、第1のオブジェクト検出処理を行う。S501で設定された複数のスキャンウィンドゥに対して、例えば特許文献1に記載されているHOG特徴量などを抽出し、その特徴量を入力として、検出対象らしさを表すスコアを出力する。
The object detection apparatus configured as described above will be further described with reference to the flowchart of FIG.
In step S501, the scan window setting unit 102 performs scan window setting processing. A plurality of scan windows are set in each of the images photographed continuously.
In S502, the first object detection unit 103 performs a first object detection process. For example, the HOG feature amount described in Patent Document 1 is extracted from the plurality of scan windows set in S501, and the feature amount is used as an input to output a score representing the likelihood of detection.

S503では、スキャンウィンドゥ選択105が、スキャンウィンドゥ選択処理を行う。S502で出力されるスコアと、S505における過去処理結果保存処理によって保持されている情報に基づき、所定数のスキャンウィンドゥを選択する。
S504では、第2のオブジェクト検出部106が第2のオブジェクト検出処理を行う。S503で選択された所定数のスキャンウィンドゥに対して、S502と同様に特徴量を抽出し、その特徴量を入力として、検出対象らしさを表すスコアを出力する。ユーザがあらかじめ定めたスコアに対する閾値に基づき、スキャンウィンドゥ内に検出対象が含まれるか否か判定する。
S505では、過去処理結果保存部108が過去処理結果保存処理を行う。S504における第2のオブジェクト検出処理結果を、各々のスキャンウィンドゥに対し、位置、スコア情報と共に保持している。
In S503, the scan window selection 105 performs a scan window selection process. A predetermined number of scan windows are selected based on the score output in S502 and the information held in the past process result storage process in S505.
In S504, the second object detection unit 106 performs a second object detection process. For the predetermined number of scan windows selected in S503, feature amounts are extracted in the same manner as in S502, and the feature amount is input and a score representing the likelihood of detection is output. It is determined whether or not a detection target is included in the scan window based on a threshold for a score predetermined by the user.
In step S505, the past processing result storage unit 108 performs past processing result storage processing. The second object detection processing result in S504 is held together with the position and score information for each scan window.

このような本発明の第1の実施の形態のオブジェクト検出装置によれば、過去に撮影されたスキャンウィンドゥに対する第2のオブジェクト検出処理結果と、現時刻に撮影されたスキャンウィンドゥに対する第1のオブジェクト検出処理結果に基づき、高精度処理すべきスキャンウィンドゥを所定数選択スキャンウィンドゥ選択部を設けることにより、連続して入力された画像のシーンに依存することなく、高精度に、かつ所定の時間内にオブジェクト検出処理を行うことができる。   According to the object detection apparatus of the first embodiment of the present invention as described above, the second object detection processing result for the scan window photographed in the past and the first object for the scan window photographed at the current time. Based on the detection processing result, a predetermined number of scan windows to be processed with high accuracy are provided. By providing a scan window selection unit, it is highly accurate and within a predetermined time without depending on the scenes of images input continuously. The object detection process can be performed.

次に、本発明の第2の実施の形態のオブジェクト検出装置を図6に示す。
図6において、本発明の実施の形態のオブジェクト検出装置は、連続して撮影された画像から、ピラミッド画像を生成するスケール画像生成部601と、ピラミッド画像の各々の階層画像内に設定スキャンウィンドゥを設定するスキャンウィンドゥ設定部102と、設定されたスキャンウィンドゥに対して第1のオブジェクト検出を実行する第1のオブジェクト検出部103と、第1のオブジェクト検出部103の検出結果を保存する前段階処理結果保存部104と、前記第1のオブジェクト検出の結果に基づいて前記設定スキャンウィンドゥから選択スキャンウィンドゥを選択するスキャンウィンドゥ選択部105と、前記選択スキャンウィンドゥの画像に対して第2のオブジェクト検出を実行する第2のオブジェクト検出部106と、第2のオブジェクト検出部106の結果を保存する過去処理結果保存部108と、第2のオブジェクト検出部の結果を表示する検出結果表示部107とを有する。
Next, an object detection apparatus according to a second embodiment of the present invention is shown in FIG.
In FIG. 6, the object detection apparatus according to the embodiment of the present invention includes a scale image generation unit 601 that generates a pyramid image from continuously captured images, and a setting scan window in each hierarchical image of the pyramid image. Scan window setting unit 102 to be set, first object detection unit 103 that performs first object detection on the set scan window, and pre-stage processing for storing detection results of the first object detection unit 103 A result storage unit 104, a scan window selection unit 105 that selects a selected scan window from the set scan window based on the result of the first object detection, and a second object detection for the image of the selected scan window. A second object detection unit 106 to execute, With the past processing result storage unit 108 for storing the results of the object detection unit 106, a detection result display unit 107 for displaying the results of the second object detector.

なお、以下の説明では、それぞれのブロックから出力されるスキャンウインドゥに対して、スキャンウインドゥ設定部102の出力を設定スキャンウインドゥ、第1のオブジェクト検出部103の出力を前段処理結果スキャンウインドゥ、スキャンウインドゥ選択部105の出力を選択スキャンウインドゥ、第2のオブジェクト検出部106の出力を後段処理結果スキャンウインドゥ、過去処理結果保存部108からの出力を拡張スキャンウインドゥと呼ぶ。   In the following description, with respect to the scan window output from each block, the output of the scan window setting unit 102 is set as the set scan window, the output of the first object detection unit 103 is set as the pre-processing result scan window, and the scan window. The output of the selection unit 105 is referred to as a selection scan window, the output of the second object detection unit 106 is referred to as a post-processing result scan window, and the output from the past processing result storage unit 108 is referred to as an extended scan window.

スケール画像生成部601は、連続して撮影された画像を所定のスケールで順次リサイズさせながら、ピラミッド画像を生成する。   The scale image generation unit 601 generates a pyramid image while sequentially resizing successively photographed images at a predetermined scale.

スキャンウィンドゥ設定部102は、スケール画像生成部601によって生成されたピラミッド画像の各々の階層の画像に対して、複数のスキャンウィンドゥを設定し設定スキャンウインドゥを出力する。   The scan window setting unit 102 sets a plurality of scan windows and outputs a set scan window for each layer image of the pyramid image generated by the scale image generation unit 601.

過去処理結果保存部108は、図7に示すように、以前に撮影されたピラミッド画像の中から、スキャンウィンドゥ選択部102によって選択された所定数の選択スキャンウィンドゥに対する第2のオブジェクト検出手段106の検出結果である後段処理結果スキャンウインドゥ706を、事前に構築した検出対象オブジェクトの移動モデルに基づき、現時刻に撮影されたピラミッド画像に対して、ピラミッド画像の階層間を跨るようにスキャンウィンドゥの位置情報を拡張して拡張スキャンウインドゥとして保持している。   As shown in FIG. 7, the past processing result storage unit 108 includes the second object detection unit 106 for a predetermined number of selected scan windows selected by the scan window selection unit 102 from the previously captured pyramid images. Based on the movement model of the detection target object constructed in advance, the post-processing result scan window 706 that is the detection result is the position of the scan window so as to straddle the pyramid image hierarchy with respect to the pyramid image photographed at the current time. The information is extended and held as an extended scan window.

過去処理結果保存部108における検出対象オブジェクトの移動モデルは、撮影される画像シーンにおける検出対象の移動速度に応じて、ユーザが設定することができる。具体的に移動モデルとは、例えば第2のオブジェクト検出部手段106の検出結果をピラミッド画像の階層701とした場合、ピラミッド画像のどの階層間までスキャンウィンドゥ枠705を拡張するかという点と(図7の例では、702、703のような上下1つの階層間まで拡張している)と、ピラミッド画像のある階層上において、どの程度上下左右にスキャンウィンドゥ枠を拡張するかという点(図7の例では、704のスキャンウィンドゥを705まで拡張している)の、2点を意味する。   The movement model of the detection target object in the past processing result storage unit 108 can be set by the user according to the movement speed of the detection target in the image scene to be shot. Specifically, the movement model is, for example, a point in which the scan window frame 705 is extended to which layer of the pyramid image when the detection result of the second object detection unit 106 is the layer 701 of the pyramid image (see FIG. In the example of FIG. 7, the scan window frame is expanded to the upper and lower layers such as 702 and 703, and how much the scan window frame is expanded vertically and horizontally on a certain layer of the pyramid image (in FIG. In the example, the scan window of 704 is expanded to 705).

ユーザによる移動モデル設定において、スキャンウィンドゥ枠705を702、703の階層へ拡張する際、702、703におけるスキャンウィンドゥ枠は、スキャンウィンドゥ枠705の大きさ(縦、横)に、ピラミッド画像のスケール変化を考慮したものとする。
具体的には、705のスキャンウィンドゥ枠の縦、横の長さをそれぞれHEIGHT_705、WIDTH_705、702のスキャンウィンドゥ枠の縦、横の長さをそれぞれHEIGHT_702、WIDTH702、ピラミッド画像の拡大・縮小のスケールパラメータをscaleとするとき、

HEIGHT_702 = scale * HEIGHT_705
WIDTH_702 = scale * WIDTH_702

と計算してもよい。
When the scan window frame 705 is expanded to the hierarchy of 702 and 703 in the movement model setting by the user, the scan window frame in 702 and 703 is changed in the scale (vertical and horizontal) of the scan window frame 705 and the scale change of the pyramid image. Is considered.
Specifically, the vertical and horizontal lengths of the scan window frame 705 are HEIGHT_705, WIDTH_705, and the vertical and horizontal lengths of the scan window frame 702 are HEIGHT_702 and WIDTH 702, respectively. Is scale,

HEIGHT_702 = scale * HEIGHT_705
WIDTH_702 = scale * WIDTH_702

May be calculated.

過去処理結果保存部108における検出対象オブジェクトの移動モデルの設定は、第2のオブジェクト検出部106手段の検出結果であるピラミッド画像上のスキャンウィンドゥ位置に応じて、例えば近距離にいる検出対象の移動範囲は大きく、遠距離にいる検出対象の移動範囲は小さい、といったように適応的に設定してもよい。   The setting of the movement model of the detection target object in the past processing result storage unit 108 is, for example, the movement of the detection target at a short distance according to the scan window position on the pyramid image that is the detection result of the second object detection unit 106 means. The range may be set adaptively such that the range is large and the moving range of the detection target at a long distance is small.

スキャンウィンドゥ選択部105において、前段階処理結果保存部104の保持するピラミッド画像における各々の前段処理結果スキャンウィンドゥのスコアは、そのスキャンウィンドゥが存在するピラミッド画像の階層上において、過去処理結果保存部108の保持する情報を基に重み付け計算が実行される。   In the scan window selection unit 105, the score of each previous process result scan window in the pyramid image held by the previous process result storage unit 104 is the past process result storage unit 108 on the hierarchy of the pyramid image in which the scan window exists. The weighting calculation is executed based on the information held by the.

図8は、第2の実施の形態におけるオブジェクトの検出手順を説明した説明図である。図8において、801、803、805、807はそれぞれ図7に示しているピラミッド画像を平面的に並べたものである。801は、過去のピラミッド画像に対して第2のオブ
ジェクト検出部106による検出が行われた様子を示しており、802が検出結果である後段処理結果スキャンウインドゥである。
次に、第2のオブジェクト検出手段の結果に対して、後段処理結果スキャンウインドゥを拡張して、拡張スキャンウインドゥ804が過去処理結果保存部108に保存される。
このような状態で、現在のピラミッド画像に対して第1のオブジェクト検出部103により、第1のオブジェクト検出が行われると、前段処理結果スキャンウインドゥ806が得られる。
FIG. 8 is an explanatory diagram for explaining an object detection procedure according to the second embodiment. In FIG. 8, reference numerals 801, 803, 805, and 807 are obtained by arranging the pyramid images shown in FIG. Reference numeral 801 denotes a state in which detection by the second object detection unit 106 is performed on a past pyramid image, and reference numeral 802 denotes a post-processing result scan window that is a detection result.
Next, the post-processing result scan window is expanded with respect to the result of the second object detection means, and the expanded scan window 804 is stored in the past processing result storage unit 108.
In this state, when the first object detection is performed on the current pyramid image by the first object detection unit 103, a pre-processing result scan window 806 is obtained.

そして、スキャンウインドゥ選択部105によって、前段処理結果スキャンウインドゥ806と拡張スキャンウインドゥ804から選択スキャンウインドゥ808が得られる。
この際の選択スキャンウインドウ808の選び方については、実施の形態1のように、ウインドウの重なり度合いとして804と806についてIOU_SCOREを算出し、これを元にFINAL_SCOREを計算することができる。
Then, the scan window selection unit 105 obtains a selected scan window 808 from the preceding process result scan window 806 and the extended scan window 804.
As to how to select the selected scan window 808 at this time, as in the first embodiment, the IOU_SCORE can be calculated for 804 and 806 as the overlapping degree of the windows, and the FINAL_SCORE can be calculated based on this.

第2のオブジェクト検出部106は、この選択スキャンウインドゥ808に対してオブジェクト検出処理を行う。
以上のように構成されたオブジェクト検出装置について、図9のフローチャートを用いてその動作についてさらに説明する。
The second object detection unit 106 performs object detection processing on the selected scan window 808.
The operation of the object detection apparatus configured as described above will be further described with reference to the flowchart of FIG.

S901では、スケール画像生成処理部601が、スケール画像生成処理を行う。連続して撮影された画像を所定のスケールで順次リサイズさせながら、ピラミッド画像を生成する。
S902では、スキャンウィンドゥ設定部102が、スキャンウィンドゥの設定処理を行う。S9801で生成されたピラミッド画像の各々の階層画像内に、複数の設定スキャンウィンドゥを設定する。
S903では、第1のオブジェクト検出部103が、第1のオブジェクト検出処理を行う。S902で設定された複数の設定スキャンウィンドゥに対して、例えば特許文献1に記載されているHOG特徴量などを抽出し、その特徴量を入力として、検出対象らしさを表すスコアを出力し、オブジェクトが存在すると判定されたものを前段処理結果スキャンウインドゥとして出力する。
In step S901, the scale image generation processing unit 601 performs scale image generation processing. A pyramid image is generated while sequentially resizing successively photographed images at a predetermined scale.
In step S902, the scan window setting unit 102 performs scan window setting processing. A plurality of setting scan windows are set in each hierarchical image of the pyramid image generated in S9801.
In step S903, the first object detection unit 103 performs a first object detection process. For the plurality of setting scan windows set in S902, for example, HOG feature amounts described in Patent Document 1 are extracted, the feature amounts are input, a score representing the likelihood of detection is output, and the object is What is determined to exist is output as a pre-processing result scan window.

S904では、スキャンウィンドゥ選択105が、スキャンウィンドゥ選択処理を行う。S903で出力されたるスコア付けされた前段処理結果スキャンウインドゥと、S906における過去処理結果保存処理によって保持されている拡張スキャンウインドゥ情報に基づき、所定数の選択スキャンウィンドゥを選択する。
S905では、第2のオブジェクト検出部106が、第2のオブジェクト検出処理を行う。S904で選択された所定数の選択スキャンウィンドゥに対して、S9803と同様に特徴量を抽出し、その特徴量を入力として、検出対象らしさを表すスコアを出力する。ユーザがあらかじめ定めたスコアに対する閾値に基づき、スキャンウィンドゥ内に検出対象が含まれるか否か判定する。その結果を、オブジェクトの有無を検出結果表示部107に出力する。また、その結果を後段処理結果スキャンウインドゥとして過去処理結果保存部108に出力する。
S906では、過去処理結果保存部108が、過去処理結果保存処理を行う。S905における第2のオブジェクト検出処理結果で得られた後段処理結果スキャンウインドゥを拡張スキャンウインドゥに拡張して、位置、スコア情報と共に保持している。
In S904, the scan window selection 105 performs a scan window selection process. A predetermined number of selected scan windows are selected based on the scored preceding process result scan window output in S903 and the extended scan window information held by the past process result storage process in S906.
In step S905, the second object detection unit 106 performs a second object detection process. For the predetermined number of selected scan windows selected in S904, feature amounts are extracted in the same manner as in S9803, and the feature amount is input, and a score representing the likelihood of detection is output. It is determined whether or not a detection target is included in the scan window based on a threshold for a score predetermined by the user. As a result, the presence / absence of an object is output to the detection result display unit 107. The result is output to the past processing result storage unit 108 as a subsequent processing result scan window.
In step S906, the past processing result storage unit 108 performs past processing result storage processing. The post-processing result scan window obtained as a result of the second object detection process in S905 is expanded to an extended scan window and held together with position and score information.

以上のように本発明の第2の実施の形態のオブジェクト検出装置によれば、スケール画像生成部601を設けることにより、過去処理結果保存部108において、現時刻における検出対象の移動範囲を考慮したスキャンウィンドゥ選択を行うことができ、より検出対象オブジェクトが存在する可能性の高いスキャンウィンドゥのみが第2のオブジェクト検
出部106に処理されることになる。
As described above, according to the object detection device of the second exemplary embodiment of the present invention, by providing the scale image generation unit 601, the past processing result storage unit 108 considers the movement range of the detection target at the current time. Scan window selection can be performed, and only the scan window that is more likely to have a detection target object is processed by the second object detection unit 106.

以上のように、本発明にかかるオブジェクト検出装置は、連続して入力された画像のシーンに依存することなく、高精度に、かつ所定の時間内にオブジェクト検出処理を行うことが可能なオブジェクト検出方法、オブジェクト検出プログラムを提供することができる、という効果を有し、本発明は、連続して撮影された画像から、対象となるオブジェクトの検出を行うためのオブジェクト検出装置、オブジェクト検出方法、およびオブジェクト検出プログラムに関するもの等として有用である。   As described above, the object detection apparatus according to the present invention is capable of performing object detection processing with high accuracy and within a predetermined time without depending on a scene of continuously input images. The present invention has an effect that a method and an object detection program can be provided, and the present invention provides an object detection apparatus, an object detection method, and an object detection method for detecting a target object from continuously captured images. This is useful as an object detection program.

101 カメラ部
102 スキャンウインドゥ設定部
103 第1のオブジェクト検出部
104 前段処理結果保存部
105 スキャンウインドゥ選択部
106 第2のオブジェクト検出部
107 検出結果表示部
108 過去処理結果保存部
DESCRIPTION OF SYMBOLS 101 Camera part 102 Scan window setting part 103 1st object detection part 104 Previous stage process result storage part 105 Scan window selection part 106 Second object detection part 107 Detection result display part 108 Past process result storage part

Claims (8)

連続して撮影された画像の各々の画像内に設定スキャンウィンドゥを設定するスキャンウィンドゥ設定手段と、
前記設定スキャンウィンドゥ内の画像に対して第1のオブジェクト検出を実行し前段処理結果を出力する第1のオブジェクト検出手段と、
前記連続して撮影された画像の過去の画像から第2のオブジェクト検出手段によって検出された過去処理結果を保持する過去処理結果保存部と、
前記前段処理結果と前記過去処理結果に基づき選択スキャンウインドゥを選択するスキャンウインドゥ選択部と、
前記選択スキャンウインドゥからオブジェクトを検出する前記第2のオブジェクト検出部とによって構成されるオブジェクト検出装置。
A scan window setting means for setting a setting scan window in each of the continuously shot images;
First object detection means for executing first object detection on an image in the setting scan window and outputting a pre-processing result;
A past processing result storage unit for storing a past processing result detected by a second object detection unit from past images of the continuously shot images;
A scan window selection unit for selecting a selected scan window based on the previous process result and the past process result;
An object detection apparatus comprising: the second object detection unit that detects an object from the selected scan window.
前記過去処理結果保存部に保持された過去処理結果は、前記連続して撮影された該画像より以前に撮影された前記選択スキャンウィンドゥの画像に対する前記第2のオブジェクト検出手段の検出結果であることを特徴とするオブジェクト検出装置。   The past processing result held in the past processing result storage unit is a detection result of the second object detection unit with respect to the image of the selected scan window taken before the images taken continuously. An object detection device characterized by. 前記前段処理結果は前記連続して撮影された画像該画像の前記設定スキャンウインドゥの位置およびサイズであり、
前記過去処理結果は前記該画像より以前に撮影された選択スキャンウィンドゥの位置およびサイズであることを特徴とする請求項2記載のオブジェクト検出装置。
The pre-processing result is the position and size of the set scan window of the continuously captured images.
The object detection apparatus according to claim 2, wherein the past processing result is a position and a size of a selected scan window taken before the image.
前記スキャンウィンドゥ選択手段は、前記該画像より以前に撮影された選択スキャンウィンドゥの位置と該画像の設定スキャンウィンドゥの重なり度合いに応じて選択スキャンウィンドゥを選択することを特徴とする請求項3に記載のオブジェクト検出装置。   The said scan window selection means selects a selection scan window according to the overlapping degree of the position of the selection scan window image | photographed before the said image, and the setting scan window of this image, It is characterized by the above-mentioned. Object detection device. 連続して撮影された各々の画像をサイズの異なる少なくとも2つ以上の画像に拡大または縮小してスケール画像を作成するスケール画像生成手段を有し、
前記スキャンウィンドゥ設定手段は前記スケール画像に対して設定スキャンウィンドゥを設定することを特徴とする請求項1記載のオブジェクト検出装置。
Scale image generating means for creating a scale image by enlarging or reducing each of the continuously captured images into at least two or more images of different sizes;
2. The object detection apparatus according to claim 1, wherein the scan window setting means sets a set scan window for the scale image.
前記過去処理結果保持部は、前記第2のオブジェクト検出部によって検出された検出結果を前記スケール画像に拡張した結果を保持することを特徴とする請求項1記載のオブジェクト検出装置。   The object detection apparatus according to claim 1, wherein the past processing result holding unit holds a result of extending the detection result detected by the second object detection unit to the scale image. 連続して撮影された画像の各々の画像内に設定スキャンウィンドゥを設定するスキャンウィンドゥ設定ステップと、
前記設定スキャンウィンドゥ内の画像に対して第1のオブジェクト検出を実行し前段処理結果を出力する第1のオブジェクト検出ステップと、
前記連続して撮影された画像の過去の画像から第2のオブジェクト検出ステップによって検出された過去処理結果を保持する過去処理結果保存ステップと、
前記前段処理結果と前記過去処理結果に基づき選択スキャンウインドゥを選択するスキャンウインドゥ選択ステップと、
前記選択スキャンウインドゥからオブジェクトを検出する第2のオブジェクト検出ステップとによって構成されるオブジェクト検出装置。
A scan window setting step for setting a setting scan window in each of the continuously shot images;
A first object detection step of executing a first object detection on an image in the setting scan window and outputting a pre-processing result;
A past processing result storage step for storing a past processing result detected by a second object detection step from past images of the continuously photographed images;
A scan window selection step of selecting a selected scan window based on the previous process result and the past process result;
An object detection apparatus comprising: a second object detection step of detecting an object from the selected scan window.
コンピュータに、
連続して撮影された画像の各々の画像内に設定スキャンウィンドゥを設定するスキャンウィンドゥ設定ステップと、
前記設定スキャンウィンドゥ内の画像に対して第1のオブジェクト検出を実行し前段処
理結果を出力する第1のオブジェクト検出ステップと、
第2のオブジェクト検出手段によって検出された過去処理結果を保持する過去処理結果保存ステップと、
前記前段処理結果と前記過去処理結果に基づき選択スキャンウインドゥを選択するスキャンウインドゥ選択ステップと、
前記選択スキャンウインドゥからオブジェクトを検出する第2のオブジェクト検出ステップとを実行させるオブジェクトプログラム。
On the computer,
A scan window setting step for setting a setting scan window in each of the continuously shot images;
A first object detection step of executing a first object detection on an image in the setting scan window and outputting a pre-processing result;
A past processing result storing step for holding a past processing result detected by the second object detecting means;
A scan window selection step of selecting a selected scan window based on the previous process result and the past process result;
An object program for executing a second object detection step of detecting an object from the selected scan window.
JP2010063827A 2010-03-19 2010-03-19 Object detecting apparatus, object detecting method, and object detecting program Pending JP2011198006A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010063827A JP2011198006A (en) 2010-03-19 2010-03-19 Object detecting apparatus, object detecting method, and object detecting program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010063827A JP2011198006A (en) 2010-03-19 2010-03-19 Object detecting apparatus, object detecting method, and object detecting program

Publications (1)

Publication Number Publication Date
JP2011198006A true JP2011198006A (en) 2011-10-06

Family

ID=44876129

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010063827A Pending JP2011198006A (en) 2010-03-19 2010-03-19 Object detecting apparatus, object detecting method, and object detecting program

Country Status (1)

Country Link
JP (1) JP2011198006A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013114583A (en) * 2011-11-30 2013-06-10 Aiphone Co Ltd Moving direction identification device
JP2013114582A (en) * 2011-11-30 2013-06-10 Aiphone Co Ltd Object detection device
JP2013218476A (en) * 2012-04-06 2013-10-24 Denso Corp Image recognition device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013114583A (en) * 2011-11-30 2013-06-10 Aiphone Co Ltd Moving direction identification device
JP2013114582A (en) * 2011-11-30 2013-06-10 Aiphone Co Ltd Object detection device
JP2013218476A (en) * 2012-04-06 2013-10-24 Denso Corp Image recognition device

Similar Documents

Publication Publication Date Title
US10832069B2 (en) Living body detection method, electronic device and computer readable medium
US11403874B2 (en) Virtual avatar generation method and apparatus for generating virtual avatar including user selected face property, and storage medium
EP2864933B1 (en) Method, apparatus and computer program product for human-face features extraction
WO2014207991A1 (en) Teaching data generating device, method, and program, and crowd state recognition device, method, and program
JP2014089626A (en) Image detection device and control program and image detection method
US11853892B2 (en) Learning to segment via cut-and-paste
JP2011008704A (en) Image processing apparatus, image processing method and program
CN109977912A (en) Video human critical point detection method, apparatus, computer equipment and storage medium
KR20150024719A (en) Method and appratus for segmenting an object in an image
CN111753782A (en) False face detection method and device based on double-current network and electronic equipment
JP2017156988A (en) Object detecting device
CN114241277A (en) Attention-guided multi-feature fusion disguised target detection method, device, equipment and medium
JP2010165052A (en) Image processor and image processing method
JP2011002882A (en) Imaging apparatus, image processing program, and imaging method
WO2011096010A1 (en) Pattern recognition device
JP5100688B2 (en) Object detection apparatus and program
JP2011198006A (en) Object detecting apparatus, object detecting method, and object detecting program
CN109635755A (en) Face extraction method, apparatus and storage medium
JP6645076B2 (en) Image processing device
JP2016167128A (en) Information processing apparatus, information processing method, and program
KR101124560B1 (en) Automatic object processing method in movie and authoring apparatus for object service
JP2010271792A (en) Image processing apparatus and method
JP2011232845A (en) Feature point extracting device and method
JP6030457B2 (en) Image detection apparatus, control program, and image detection method
JP5795916B2 (en) Image processing apparatus and image processing method