JP2018180945A - Object detection apparatus and program - Google Patents

Object detection apparatus and program Download PDF

Info

Publication number
JP2018180945A
JP2018180945A JP2017079769A JP2017079769A JP2018180945A JP 2018180945 A JP2018180945 A JP 2018180945A JP 2017079769 A JP2017079769 A JP 2017079769A JP 2017079769 A JP2017079769 A JP 2017079769A JP 2018180945 A JP2018180945 A JP 2018180945A
Authority
JP
Japan
Prior art keywords
detection
frame
size
frames
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017079769A
Other languages
Japanese (ja)
Inventor
崇史 大脇
Takashi Owaki
崇史 大脇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2017079769A priority Critical patent/JP2018180945A/en
Publication of JP2018180945A publication Critical patent/JP2018180945A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide an object detection apparatus and a program capable of accurately detecting a detection target object irrespective of the size of the detection target object on an image.SOLUTION: In an object detection apparatus 10, an object detection unit 22 outputs the position and the size of a detection frame representing a detection target object included in each detection processing frame set at each position from an input image by using CNN, an adjusting unit 30 adjusts a threshold to be used for integrating detection frames according to the properties of the output detection frames, and an integration unit 24 integrates the detection frames in which the degree of overlapping with other detection frame is equal to or greater than the threshold on the basis of the position and the size of the detection frame output for each detection processing frame and outputs a final object detection frame.SELECTED DRAWING: Figure 1

Description

本発明は、物体検出装置及びプログラムに係り、特に、画像から検出対象物体を検出する物体検出装置及びプログラムに関する。   The present invention relates to an object detection apparatus and program, and more particularly to an object detection apparatus and program for detecting an object to be detected from an image.

従来より、畳み込みニューラルネットワークを用いて、画像中に含まれる検出対象物体よりも大きい検出処理枠を平行移動しながら同一物体に対する検出枠と確度を複数出力し、重なりの大きさが一定以上の検出枠のペアについて確度を加算し検出枠の座標を平均した1つの検出枠に置き換える処理を繰り返すことで高精度な物体検出を行う技術が知られている(非特許文献1)。   Conventionally, using a convolutional neural network, a detection processing frame larger than a detection target object included in an image is parallel-shifted, and a plurality of detection frames and a certainty for the same object are output, and detection of an overlap of a predetermined size or more There is known a technique for performing high-accuracy object detection by repeating processing of adding a certainty with respect to a pair of frames and replacing it with one detection frame obtained by averaging coordinates of detection frames (Non-Patent Document 1).

また、畳み込みニューラルネットワークと再帰型ニューラルネットワークを用いて、画像中に含まれる検出対象物体よりも大きい検出処理枠を平行移動しながら同一物体に対する検出枠と確度を複数出力し、検出枠の位置関係と確度の大小関係などに基づいて検出枠を統合することで高精度な物体検出を行う技術が知られている(非特許文献2)。   Also, using a convolutional neural network and a recursive neural network, a detection processing frame larger than the detection target object included in the image is parallelly moved, and a plurality of detection frames and certainty for the same object are output, and the positional relationship of the detection frames There is known a technique for performing high-accuracy object detection by integrating detection frames based on the magnitude relationship between accuracy and the like (Non-Patent Document 2).

上記の非特許文献1、2の技術において、検出処理枠を平行移動しながら行う多数の検出処理は、畳み込みニューラルネットワークの特性によって検出処理枠の重なっている部分の処理結果が共有される上に、処理の並列化が容易なため、効率的に処理できる。また、検出対象物体よりも大きい検出処理枠を用いることで、検出対象物体周辺の画像も考慮した検出処理ができることや、検出対象物体と同じ大きさの検出処理枠を用いる手法で必要となる、さまざまな形状の検出処理枠をスキャンすることによる多数の検出処理が不要になるという特長を持つ。   In the techniques of Non-Patent Documents 1 and 2 described above, many detection processes performed while translating the detection process frame share the processing result of the overlapping portion of the detection process frame according to the characteristics of the convolutional neural network. Because processing is easily parallelized, processing can be performed efficiently. In addition, by using a detection processing frame larger than the detection target object, it is possible to perform detection processing in consideration of an image around the detection target object, or in a method using a detection processing frame having the same size as the detection target object. It has the feature that a large number of detection processes become unnecessary by scanning detection processing frames of various shapes.

P. Sermanet, D. Eigen, X. Zhang, M. Mathieu, R. Fergus, and Y. LeCun: Overfeat: Integrated Recognition, Localization and Detection, ICLR 2014P. Sermanet, D. Eigen, X. Zhang, M. Mathieu, R. Fergus, and Y. LeCun: Overfeat: Integrated Recognition, Localization and Detection, ICLR 2014 R. Stewart and M. Andriluka: End-to-end people detection in crowded scenes, arXiv, 2015R. Stewart and M. Andriluka: End-to-end people detection in crowded scenes, arXiv, 2015

しかしながら、上記非特許文献1に記載の技術では、検出処理枠を平行移動するときの移動量は畳み込みニューラルネットワークの構成によって固定されており、検出対象物体のサイズが大きい場合は多数の検出枠の確度が加算される一方、検出対象物体のサイズが小さい場合には少数の検出枠の確度しか加算されないため、一定の確度の閾値を用いると検出対象物体のサイズが大きい場合は誤検出が、検出対象物体のサイズが小さい場合は未検出が発生しやすくなる。   However, in the technique described in Non-Patent Document 1, the amount of movement when translating the detection processing frame is fixed by the configuration of the convolutional neural network, and when the size of the detection target object is large, the number of detection frames is large. While the accuracy is added, while the accuracy of a small number of detection frames is added when the size of the detection target object is small, false detection is detected when the size of the detection target object is large using a threshold of certain accuracy. When the size of the target object is small, undetection tends to occur.

また、上記非特許文献1に記載の技術では、この問題に対して入力画像を拡大した上で再度検出処理を行うことで検出対象物体のサイズが小さい場合でも多数の検出枠の確度を加算できるようにしているが、拡大した入力画像に対する処理が必要となるため処理速度が低下する。   In addition, in the technique described in the above Non-Patent Document 1, the accuracy of a large number of detection frames can be added even if the size of the object to be detected is small by performing the detection process again after enlarging the input image for this problem However, the processing speed is reduced because processing for the enlarged input image is required.

また、上記非特許文献2に記載の技術においては、検出枠統合において確度の加算は行わないが、サイズの大きい検出枠が誤検出によって出力されるとその検出枠に重なりを持つ他物体の検出枠が誤って削除されることで未検出が増加し、性能低下が起きやすい。   In addition, in the technique described in the above non-patent document 2, accuracy addition is not performed in detection frame integration, but when a large detection frame is output by false detection, detection of other objects having an overlap in the detection frame is detected By deleting the frame by mistake, the undetected number increases and performance degradation is likely to occur.

本発明は、上記の問題点を解決するためになされたもので、画像上の検出対象物体の大きさに関わらず、精度良く検出対象物体を検出することができる物体検出装置及びプログラムを提供することを目的とする。   The present invention has been made to solve the above-mentioned problems, and provides an object detection apparatus and program that can accurately detect a detection target object regardless of the size of the detection target object on an image. The purpose is

上記の目的を達成するために本発明に係る物体検出装置は、 入力画像から、検出モデルを用いて、各位置に設定された検出処理枠ごとに、前記検出処理枠に含まれる検出対象物体を表す検出枠の位置及び大きさを出力する検出部と、前記検出処理枠ごとに出力された検出枠の位置及び大きさに基づいて、他の検出枠と重複する重複度合いが閾値以上となる検出枠を統合して、最終的な物体検出枠として出力する統合部と、を含み、前記検出部によって出力された検出枠の性質に応じて、検出枠を統合する際に用いる閾値を調整する調整部を更に含んで構成されている。   In order to achieve the above object, an object detection apparatus according to the present invention detects an object to be detected included in the detection processing frame for each detection processing frame set at each position using an input image and a detection model. Detection unit that outputs the position and size of the detection frame to be displayed, and the position and size of the detection frame output for each of the detection processing frames, detection that the overlapping degree overlapping with other detection frames is equal to or higher than a threshold Adjustment that adjusts the threshold used when integrating the detection frame according to the nature of the detection frame output by the detection unit, including an integration unit that integrates the frames and outputs the final object detection frame It further comprises a part.

また、本発明に係るプログラムは、コンピュータを、入力画像から、検出モデルを用いて、各位置に設定された検出処理枠ごとに、前記検出処理枠に含まれる検出対象物体を表す検出枠の位置及び大きさを出力する検出部、前記検出部によって出力された検出枠の性質に応じて、検出枠を統合する際に用いる閾値を調整する調整部、及び前記検出処理枠ごとに出力された検出枠の位置及び大きさに基づいて、他の検出枠と重複する重複度合いが閾値以上となる検出枠を統合して、最終的な物体検出枠として出力する統合部として機能させるためのプログラムである。   In the program according to the present invention, the position of the detection frame representing the detection target object included in the detection processing frame is set for each detection processing frame set at each position using the computer from the input image and using the detection model. And a detection unit that outputs a size, an adjustment unit that adjusts a threshold used when integrating detection frames according to the nature of the detection frame output by the detection unit, and the detection output for each of the detection processing frames This program is a program to function as an integration unit that integrates detection frames whose overlap degree with another detection frame is equal to or greater than a threshold based on the position and size of the frame and outputs the final detection frame as an object detection frame. .

本発明によれば、検出部によって、入力画像から、検出モデルを用いて、各位置に設定された検出処理枠ごとに、前記検出処理枠に含まれる検出対象物体を表す検出枠の位置及び大きさを出力する。調整部によって、前記検出部によって出力された検出枠の性質に応じて、検出枠を統合する際に用いる閾値を調整する。そして、統合部によって、前記検出処理枠ごとに出力された検出枠の位置及び大きさに基づいて、他の検出枠と重複する重複度合いが閾値以上となる検出枠を統合して、最終的な物体検出枠として出力する。   According to the present invention, the position and size of the detection frame representing the detection target object included in the detection processing frame for each detection processing frame set at each position using the detection model from the input image by the detection unit Output. The adjustment unit adjusts the threshold used when integrating the detection frames in accordance with the nature of the detection frame output by the detection unit. Then, based on the position and size of the detection frame output for each of the detection processing frames, the integration unit integrates detection frames in which the overlapping degree overlapping with another detection frame is equal to or higher than the threshold, Output as an object detection frame.

このように、検出枠の性質に応じて、検出枠を統合する際に用いる閾値を調整することにより、画像上の検出対象物体の大きさに関わらず、精度良く検出対象物体を検出することができる。   As described above, it is possible to accurately detect the detection target object regardless of the size of the detection target object on the image by adjusting the threshold used when integrating the detection frames according to the nature of the detection frame. it can.

以上説明したように、本発明の物体検出装置及びプログラムによれば、検出枠の性質に応じて、検出枠を統合する際に用いる閾値を調整することにより、画像上の検出対象物体の大きさに関わらず、精度良く検出対象物体を検出することができる、という効果が得られる。   As described above, according to the object detection apparatus and program of the present invention, the size of the detection target object on the image is adjusted by adjusting the threshold used when integrating the detection frames according to the nature of the detection frame. The effect of being able to detect the detection target object with high accuracy is obtained regardless of.

本発明の第1の実施の形態に係る物体検出装置を示すブロック図である。FIG. 1 is a block diagram showing an object detection device according to a first embodiment of the present invention. 検出処理枠を説明するためのイメージ図である。It is an image figure for demonstrating a detection process frame. 複数の検出枠を統合する方法を説明するための図である。It is a figure for demonstrating the method to integrate several detection frames. 本発明の第1の実施の形態に係る物体検出装置における検出処理ルーチンの内容を示すフローチャートである。It is a flowchart which shows the content of the detection processing routine in the object detection apparatus which concerns on the 1st Embodiment of this invention. 従来技術での検出結果を示すイメージ図である。It is an image figure which shows the detection result in a prior art. 実験結果を示すグラフである。It is a graph which shows an experimental result.

以下、図面を参照して本発明の実施の形態を詳細に説明する。なお、本実施の形態では、検出対象物体としての車両を検出する物体検出装置に本発明を適用した場合を例に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In the present embodiment, a case where the present invention is applied to an object detection apparatus for detecting a vehicle as a detection target object will be described as an example.

<第1の実施の形態>
図1に示すように、第1の実施の形態に係る物体検出装置10は、検出対象領域を撮像し、撮像画像を生成する撮像装置12と、撮像装置12から出力される撮像画像から、検出対象物体としての車両を検出し、車両が検出されたか否かを判定する検出処理ルーチンを実現するためのプログラムを格納したコンピュータ14と、コンピュータ14での処理結果を表示するための表示装置16とを備えている。
First Embodiment
As shown in FIG. 1, the object detection apparatus 10 according to the first embodiment detects an area from a detection target area, and an imaging apparatus 12 that generates a captured image and a captured image output from the imaging apparatus 12. A computer 14 storing a program for realizing a detection processing routine for detecting a vehicle as a target object and determining whether the vehicle is detected, and a display device 16 for displaying the processing result in the computer 14 Is equipped.

撮像装置12は、検出対象領域を撮像し、画像信号を生成する撮像部(図示省略)と、撮像部で生成された画像信号をA/D変換するA/D変換部(図示省略)と、A/D変換された画像信号を一時的に格納するための画像メモリ(図示省略)とを備えている。   The imaging device 12 captures an area to be detected and generates an image signal (not shown); and an A / D conversion unit (not shown) that A / D converts the image signal generated by the imaging unit. And an image memory (not shown) for temporarily storing an A / D converted image signal.

コンピュータ14は、CPU、後述する検出処理ルーチンのプログラムを記憶したROM、データ等を記憶するRAM、及びこれらを接続するバスを含んで構成されている。このコンピュータ14をハードウエアとソフトウエアとに基づいて定まる機能実現手段毎に分割した機能ブロックで説明すると、図1に示すように、撮像装置12から出力される濃淡画像である撮像画像を入力する画像入力部20と、画像入力部20によって入力された撮像画像から、検出処理枠毎に、当該検出処理枠内の、車両を表す処理枠を各々出力する対象物検出部22と、対象物検出部22によって出力された処理枠の性質に応じて、処理枠の統合方法を調整する調整部24と、対象物検出部22によって出力された処理枠に基づいて、処理枠を統合して、車両を表す車両領域として出力する統合部26と、を備えている。   The computer 14 is configured to include a CPU, a ROM storing a program of a detection processing routine to be described later, a RAM storing data and the like, and a bus connecting these. Describing this computer 14 by functional blocks divided into function realizing means determined based on hardware and software, as shown in FIG. 1, a captured image which is a gray-scale image output from the imaging device 12 is input An object input unit 20, an object detection unit 22 for outputting a processing frame representing a vehicle within the detection processing frame for each detection processing frame from the captured image input by the image input unit 20, an object detection The processing frame is integrated based on the adjusting unit 24 that adjusts the method of integrating the processing frame according to the nature of the processing frame output by the unit 22, and the processing frame is output by the object detection unit 22. And an integration unit 26 for outputting as a vehicle area representing

対象物検出部22は、各位置に設定された検出処理枠毎に、撮像画像から当該検出処理枠で切出した画像を、予め学習されたCNN(Convolutional Neural Network、畳み込みニューラルネットワーク)に入力し、当該検出処理枠に含まれる検出対象物体を表す検出枠の位置、大きさ、及び検出対象物体らしさを示す確度を出力する。   The object detection unit 22 inputs, for each detection processing frame set at each position, an image cut out from the captured image by the detection processing frame into a CNN (Convolutional Neural Network, convolutional neural network) learned in advance, The position and size of the detection frame representing the detection target object included in the detection processing frame, and the accuracy indicating the detection object likeness are output.

ここで、図2に示すように、検出処理枠のサイズが、想定される検出対象物体の画像上のサイズよりも大きく設定されており、予め定められた平行移動単位で、各位置に検出処理枠が設定される。   Here, as shown in FIG. 2, the size of the detection processing frame is set larger than the size on the image of the detection target object assumed, and the detection processing is performed at each position in a predetermined parallel movement unit. A frame is set.

具体的には、CNNによって、画像中に含まれる検出対象物体よりも大きい検出処理枠を平行移動しながら1枚の画像に対して上記図2のように20×15=300個のグリッドを中心とする300回の検出処理を行う。   Specifically, the CNN centers on 20 × 15 = 300 grids as shown in FIG. 2 for one image while translating a detection processing frame larger than the detection target object included in the image by CNN. Perform 300 times of detection processing.

CNNは、画像を入力とし、画像に含まれる検出対象物体を表す検出枠の位置、大きさ(幅、高さ)、確度を出力するように予め学習される。具体的には、検出対象物体を囲む検出枠が、検出処理枠の中央に定められた検出対象領域(図2参照)と重なりを持つときに検出枠を出力するようにCNNが予め学習される。   The CNN takes an image as input, and is learned in advance so as to output the position, size (width, height) and accuracy of a detection frame representing an object to be detected included in the image. Specifically, the CNN is previously learned so that the detection frame is output when the detection frame surrounding the detection target object overlaps the detection target area (see FIG. 2) defined at the center of the detection processing frame. .

調整部24は、対象物検出部22によって出力された検出枠の性質に応じて、検出枠を統合する際に用いる閾値を調整する。本実施の形態では、対象物検出部22によって出力された検出枠の大きさに応じて、重複度合いに関する閾値を調整する。具体的には、検出枠の大きさが大きいほど、重複度合いに関する閾値が大きくなるように調整する。   The adjustment unit 24 adjusts the threshold used when integrating the detection frames in accordance with the nature of the detection frame output by the object detection unit 22. In the present embodiment, in accordance with the size of the detection frame output by the object detection unit 22, the threshold value regarding the overlapping degree is adjusted. Specifically, the larger the size of the detection frame, the larger the threshold value for the overlapping degree.

統合部26は、検出処理枠ごとに出力された検出枠の位置、大きさ、及び確度に基づいて、他の検出枠と重複する重複度合いが、調整された閾値以上となる検出枠が、個数に関する閾値以上ある場合に、これらの検出枠を、確度が最も高い1つの検出枠に統合した上で、最終的な物体検出枠として出力する。   The integration unit 26 determines the number of detection frames whose overlapping degree overlapping with another detection frame is equal to or higher than the adjusted threshold value, based on the position, size, and accuracy of the detection frame output for each detection processing frame. If there is a threshold value or more regarding the above, these detection frames are integrated into one detection frame with the highest accuracy, and then output as a final object detection frame.

具体的には、図3に示すように、最終的な物体検出枠が出力される。この例では、最終的な物体検出枠である検出枠を出力した検出処理枠の中心と、重なる各検出枠の中心とを結んで示しており、5×8=40個のほぼ重なる検出枠が出力されている。これらの検出枠のサイズは90×160ピクセル程度であり、重複した検出枠個数の閾値である(検出枠の幅÷32)×(検出枠の高さ÷32)は約15個であるため、これらの検出枠は1つの検出枠に統合した上で最終的な検出結果として採用される。従来技術では、検出枠の統合処理結果を最終的な検出結果として採用するか否かを判断する上で、重複した検出枠個数は考慮してない。   Specifically, as shown in FIG. 3, a final object detection frame is output. In this example, the center of the detection processing frame to which the detection frame which is the final object detection frame is output is connected to the centers of the overlapping detection frames, and 5 × 8 = 40 substantially overlapping detection frames are shown. It has been output. The size of these detection frames is about 90 × 160 pixels, and the threshold of the number of overlapping detection frames (the detection frame width 検 出 32) × (the detection frame height ÷ 32) is about 15, These detection frames are integrated into one detection frame and adopted as a final detection result. In the prior art, the number of overlapping detection frames is not considered in determining whether or not to use the detection processing result of the detection processing as the final detection result.

なお、本実施の形態では、重複度合いとして、2つの検出枠を合わせた面積に対する、重複する領域の面積の割合を用いる。   In the present embodiment, the ratio of the area of the overlapping area to the area obtained by combining the two detection frames is used as the overlapping degree.

次に、第1の実施の形態に係る物体検出装置10の作用について説明する。   Next, the operation of the object detection device 10 according to the first embodiment will be described.

まず、撮像装置12が、検出対象領域に向けられ、撮像装置12によって検出対象領域を表わす画像が撮像されると、コンピュータ14において、図4に示す検出処理ルーチンが実行される。   First, when the imaging device 12 is directed to the detection target area and an image representing the detection target area is captured by the imaging device 12, the computer 14 executes a detection processing routine shown in FIG.

まず、ステップS100において、撮像装置12から、撮像された撮像画像を取得し、ステップS102において、   First, in step S100, a captured image obtained by imaging is acquired from the imaging device 12, and in step S102,

各位置に設定された検出処理枠毎に、撮像画像から当該検出処理枠で切出した画像を、予め学習されたCNNに入力し、当該検出処理枠に含まれる検出対象物体を表す検出枠の位置、大きさ、及び確度を出力する。 For each detection processing frame set at each position, an image extracted from the captured image by the detection processing frame is input to a CNN learned in advance, and the position of the detection frame representing the detection target object included in the detection processing frame , Size, and accuracy.

ステップS104では、上記ステップS102で出力された検出枠のうちの、重複した検出枠の性質に応じて、統合方法を調整する。例えば、重複する検出枠の大きさに応じて、重複度合いに関する閾値を調整する。   In step S104, the integration method is adjusted according to the nature of the overlapping detection frame of the detection frames output in step S102. For example, in accordance with the size of the overlapping detection frame, the threshold regarding the overlapping degree is adjusted.

ステップS106では、上記ステップS102で出力された検出枠のうちの、上記ステップS104で調整された閾値以上の重複部分で重複した検出枠を、確度が最も高い1つの検出枠に統合した上で、最終的な物体検出枠として出力する。   In step S106, after combining the detection frames overlapped in the overlapping part equal to or more than the threshold adjusted in step S104 among the detection frames output in step S102 into one detection frame with the highest accuracy, Output as the final object detection frame.

ステップS108では、別の重複した検出枠があるか否かを判定する。別の重複した検出枠がある場合には、上記ステップS104へ戻り、当該別の重複した検出枠の性質に応じて閾値を調整し、ステップS106で、当該別の重複した検出枠を統合する。   In step S108, it is determined whether there is another overlapping detection frame. If there is another overlapping detection frame, the process returns to step S104, the threshold is adjusted in accordance with the nature of the other overlapping detection frame, and the other overlapping detection frame is integrated in step S106.

上記ステップS108で、別の重複した検出枠がないと判定された場合、ステップS110へ移行し、上記ステップS106で出力された最終的な物体検出枠の各々を、検出対象物体の検出結果として表示装置16に表示して、検出処理ルーチンを終了する。   If it is determined in step S108 that there is no other overlapping detection frame, the process proceeds to step S110, and each of the final object detection frames output in step S106 is displayed as the detection result of the detection target object. It displays on the device 16 and ends the detection processing routine.

以上説明したように、第1の実施の形態に係る物体検出装置によれば、検出枠の大きさに応じて、検出枠を統合する際に用いる、重複度合いに関する閾値を調整することにより、画像上の検出対象物体の大きさに関わらず、精度良く検出対象物体を検出することができる。   As described above, according to the object detection apparatus according to the first embodiment, an image is obtained by adjusting the threshold value regarding the overlapping degree used when integrating detection frames according to the size of the detection frame. The detection target object can be detected with high accuracy regardless of the size of the upper detection target object.

また、検出枠のサイズや形状といった性質によって統合するときの処理方法を調整することにより、画像を様々な解像度にリサイズして検出処理を行わなくても物体検出枠が小さい時の未検出や物体検出枠が大きい時の誤検出を抑制することができる。すわなち、検出枠を高速かつ高精度に統合することが可能となる。   In addition, by adjusting the processing method when integrating according to the properties such as the size and shape of the detection frame, the image is resized to various resolutions and the object detection frame is not detected or detected even when the detection processing is not performed. Erroneous detection when the detection frame is large can be suppressed. That is, it becomes possible to integrate detection frames at high speed and with high accuracy.

また、拡大のない元の入力画像に対する複数の検出枠と確度に基づいて検出枠を統合する際に用いる閾値を、検出枠の性質に応じて調整することによって、拡大した入力画像に対する処理を行わなくても様々な検出対象物体のサイズに対して高精度な検出が可能となる。   Also, processing is performed on the enlarged input image by adjusting the threshold used when integrating the detection frame based on the plurality of detection frames and the accuracy with respect to the original input image without enlargement according to the nature of the detection frame. Even if it does not exist, highly accurate detection is possible for various detection target sizes.

また、サイズの大きい検出枠は重なりの大きい検出枠が一定数出力されていなければ削除するという形で統合処理を検出枠の性質によって調整することにより、サイズの大きい物体の誤検出による性能低下を抑制することができる。   Also, by adjusting the integration process according to the nature of the detection frame in the form of deleting detection frames with a large size if detection frames with a large size are not output by a fixed number, performance degradation due to false detection of large size objects It can be suppressed.

また、上記非特許文献2の手法における、サイズの大きい検出枠が誤検出によって出力されるとその検出枠に重なりを持つ他物体の検出枠が誤って削除されることで未検出が増加するという問題に対して、以下の2点の改良を加えている。第1の改良として、未検出抑制のため、他の検出枠と重複していても削除されにくくしている。第2の改良として、誤検出抑制のため、一定数の重複した検出枠がなければ統合処理結果から削除している。   In addition, when the detection frame with a large size is output as a false detection in the method of Non-Patent Document 2, the detection frame of another object having an overlap with the detection frame is erroneously deleted, thereby increasing undetection. The following two improvements have been made to the problem. As a first improvement, it is made difficult to be deleted even if it overlaps with other detection frames, in order to suppress non-detection. As a second improvement, in order to suppress false detection, if there is no certain number of overlapping detection frames, they are deleted from the integrated processing result.

<第2の実施の形態>
次に、第2の実施の形態について説明する。なお、第2の実施の形態に係る物体検出装置は、第1の実施の形態と同様の構成であるため、同一符号を付して説明を省略する。
Second Embodiment
Next, a second embodiment will be described. The object detection apparatus according to the second embodiment has the same configuration as that of the first embodiment, so the same reference numerals are given and the description is omitted.

第2の実施の形態では、検出枠の大きさに応じて、個数に関する閾値を調整する点が第1の実施の形態と異なっている。   The second embodiment differs from the first embodiment in that the threshold for the number is adjusted according to the size of the detection frame.

第2の実施の形態に係る物体検出装置の調整部24は、対象物検出部22によって出力された検出枠の大きさに応じて、検出枠を統合する際の個数に関する閾値を調整する。   The adjustment unit 24 of the object detection device according to the second embodiment adjusts the threshold value related to the number when integrating detection frames according to the size of the detection frame output by the object detection unit 22.

具体的には、検出枠の大きさが大きいほど、個数に関する閾値が大きくなるように調整する。例えば、個数に関する閾値を、(検出枠の幅÷32)×(検出枠の高さ÷32)と設定することで検出枠のサイズによる調整を行う。なお、32はここで用いた畳み込みニューラルネットワークに入力する画像を切り出すための検出処理枠が平行移動するピクセル数である。   Specifically, the threshold for the number is adjusted to be larger as the size of the detection frame is larger. For example, adjustment based on the size of the detection frame is performed by setting the threshold for the number as (detection frame width の 32) × (detection frame height ÷ 32). Reference numeral 32 denotes the number of pixels to which a detection processing frame for cutting out an image to be input to the convolutional neural network used here moves in parallel.

統合部26は、検出処理枠ごとに出力された検出枠の位置及び大きさに基づいて、他の検出枠と重複する重複度合いが閾値以上となる検出枠が、調整された、個数に関する閾値以上ある場合に、これらの検出枠を、確度が最も高い1つの検出枠に統合した上で、最終的な物体検出枠として出力する。   The integration unit 26 is configured to adjust the number of detection frames equal to or greater than the threshold, based on the position and size of the detection frames output for each detection processing frame, in which the detection frames having overlapping degrees overlapping with other detection frames are equal to or higher than the threshold In some cases, these detection frames are integrated into one detection frame with the highest accuracy, and then output as a final object detection frame.

なお、第2の実施の形態に係る物体検出装置の他の構成及び作用については第1の実施の形態と同様であるため、説明を省略する。   The other configuration and operation of the object detection device according to the second embodiment are the same as those of the first embodiment, and thus the description thereof is omitted.

以上説明したように、第2の実施の形態に係る物体検出装置によれば、検出枠の大きさに応じて、検出枠を統合する際に用いる、個数に関する閾値を調整することにより、画像上の検出対象物体の大きさに関わらず、精度良く検出対象物体を検出することができる。   As described above, according to the object detection apparatus according to the second embodiment, the threshold value related to the number used when integrating the detection frames is adjusted according to the size of the detection frames, on the image. The detection target object can be detected with high accuracy regardless of the size of the detection target object.

なお、上記の実施の形態では、検出対象物体として車両を検出する場合を例に説明したが、これに限定されるものではなく、歩行者など他の物体を検出対象物体としてもよい。   In the above embodiment, although the case of detecting a vehicle as a detection target object has been described as an example, the present invention is not limited to this, and another object such as a pedestrian may be used as a detection target object.

<第3の実施の形態>
次に、第3の実施の形態について説明する。なお、第3の実施の形態に係る物体検出装置は、第1の実施の形態と同様の構成であるため、同一符号を付して説明を省略する。
Third Embodiment
Next, a third embodiment will be described. The object detection apparatus according to the third embodiment has the same configuration as that of the first embodiment, so the same reference numerals are given and the description is omitted.

第3の実施の形態では、CNNは、検出処理枠に含まれる検出対象物体の種類を更に出力し、統合部は、他の検出枠と重複する重複度合いが閾値以上となる検出枠を統合し、調整部は、検出処理枠に含まれる検出対象物体の種類に応じて、重複度合いに関する閾値を調整する点が第1の実施の形態と異なっている。   In the third embodiment, the CNN further outputs the type of the detection target object included in the detection processing frame, and the integration unit integrates the detection frames in which the overlapping degree overlapping with other detection frames is equal to or higher than the threshold value. The adjustment unit is different from the first embodiment in that the adjustment unit adjusts the threshold value regarding the overlapping degree according to the type of the detection target object included in the detection processing frame.

第3の実施の形態に係る物体検出装置の対象物検出部22において、CNNは、検出処理枠に含まれる検出対象物体を表す検出枠の位置、大きさ、検出対象物体らしさを示す確度、検出対象物体の種類を出力する。検出対象物体の種類としては、例えば、車両、歩行者などがある。   In the object detection unit 22 of the object detection apparatus according to the third embodiment, the CNN indicates the position and size of a detection frame representing the detection target object included in the detection processing frame, the accuracy indicating the detection object likeness, detection Output the type of target object. Examples of the type of object to be detected include vehicles and pedestrians.

調整部24は、対象物検出部22によって出力された検出枠の検出対象物体の種類に応じて、重複度合いに関する閾値を調整する。   The adjustment unit 24 adjusts the threshold value regarding the overlapping degree according to the type of the detection target object of the detection frame output by the object detection unit 22.

具体的には、検出枠の検出対象物体の種類が、歩行者である場合には、重複度合いに関する閾値が小さくなるように調整する。   Specifically, when the type of the detection target object of the detection frame is a pedestrian, adjustment is performed so that the threshold value regarding the overlapping degree is reduced.

統合部26は、検出処理枠ごとに出力された検出枠の位置、大きさ、確度、種類に基づいて、種類が同一の他の検出枠と重複する重複度合いが、調整された閾値以上となる検出枠が、個数に関する閾値以上ある場合に、これらの検出枠を、確度が最も高い1つの検出枠に統合した上で、最終的な物体検出枠として出力する。   The integration unit 26 determines that the overlapping degree overlapping with another detection frame of the same type is equal to or higher than the adjusted threshold based on the position, size, accuracy, and type of the detection frame output for each detection processing frame. When the number of detection frames is equal to or more than the threshold value, the detection frames are integrated into one detection frame with the highest accuracy, and then output as a final object detection frame.

なお、第3の実施の形態に係る物体検出装置の他の構成及び作用については第1の実施の形態と同様であるため、説明を省略する。   The other configuration and operation of the object detection device according to the third embodiment are the same as those of the first embodiment, and thus the description thereof is omitted.

以上説明したように、第3の実施の形態に係る物体検出装置によれば、検出枠の検出対象物体の種類に応じて、検出枠を統合する際に用いる、重複度合いに関する閾値を調整することにより、検出対象物体の種類に関わらず、精度良く検出対象物体を検出することができる。   As described above, according to the object detection device according to the third embodiment, the threshold value regarding the overlapping degree used when integrating the detection frames is adjusted according to the type of the detection target object of the detection frame. Thus, regardless of the type of detection target object, the detection target object can be detected accurately.

<第4の実施の形態>
次に、第4の実施の形態について説明する。なお、第1の実施の形態と同様の構成となっている部分については、同一符号を付して説明を省略する。
Fourth Embodiment
Next, a fourth embodiment will be described. The same reference numerals are given to parts having the same configuration as the first embodiment and the description will be omitted.

第4の実施の形態では、検出枠の大きさに応じて、確度に関する閾値を調整する点が第1の実施の形態と異なっている。   The fourth embodiment is different from the first embodiment in that the threshold regarding the accuracy is adjusted according to the size of the detection frame.

第4の実施の形態に係る物体検出装置の調整部24は、対象物検出部22によって出力された検出枠の大きさに応じて、確度に関する閾値を調整する。   The adjustment unit 24 of the object detection device according to the fourth embodiment adjusts the threshold regarding the accuracy in accordance with the size of the detection frame output by the object detection unit 22.

具体的には、検出枠の大きさが大きいほど、確度に関する閾値が大きくなるように調整する。   Specifically, the threshold regarding the accuracy is adjusted to be larger as the size of the detection frame is larger.

統合部26は、検出処理枠ごとに出力された検出枠の位置、大きさ、及び確度に基づいて、調整された、確度に関する閾値以上となる確度を有し、かつ、重複する検出枠において、他の検出枠と重複する重複度合いが閾値以上となる検出枠が、個数に関する閾値以上ある場合に、これらの検出枠を、確度が最も高い1つの検出枠に統合した上で、最終的な物体検出枠として出力する。   The integration unit 26 has an accuracy that is equal to or higher than the threshold regarding the accuracy adjusted based on the position, the size, and the accuracy of the detection frame output for each detection processing frame, and in the overlapping detection frames, When the number of detection frames whose overlapping degree overlapping with other detection frames is equal to or more than the threshold is equal to or more than the threshold for the number, these detection frames are integrated into one detection frame with the highest accuracy, and then the final object is obtained. Output as a detection frame.

以上説明したように、第4の実施の形態に係る物体検出装置によれば、検出枠の大きさに応じて、検出枠を統合する際に用いる、確度に関する閾値を調整することにより、画像上の検出対象物体の大きさに関わらず、精度良く検出対象物体を検出することができる。   As described above, according to the object detection device according to the fourth embodiment, the threshold value related to the accuracy used when integrating the detection frames is adjusted on the image according to the size of the detection frames. The detection target object can be detected with high accuracy regardless of the size of the detection target object.

<実験結果>
図5に示す画像に対して従来技術を適用すると、一つの検出処理枠に対する処理で発生した誤検出(車両との一致度が基準以下の検出枠)によって、誤検出である検出枠と重なりを持つ他の車両の検出枠が削除され車両2台が未検出となった。
<Experimental result>
When the prior art is applied to the image shown in FIG. 5, an erroneous detection (a detection frame whose degree of coincidence with the vehicle is lower than the reference) generated in the processing for one detection processing frame overlaps the detection frame that is an erroneous detection. Detection frames of other vehicles possessed were deleted and two vehicles became undetected.

また、上述した第2の実施の形態で説明した手法を用いた場合には、個数に関する閾値を調整したことにより、従来技術で誤検出となった検出枠は重複した検出枠個数の閾値を超えないため削除され、従来技術で未検出となった車両は検出されるようになった。   In addition, when the method described in the second embodiment described above is used, the detection frames that are erroneously detected in the related art exceed the threshold of the number of overlapping detection frames by adjusting the threshold regarding the number. Because they are not present, vehicles that are not detected in the prior art are now detected.

車両検出性能の評価に標準的に用いられるデータセットである、KITTI Object Detection Evaluation 2012の訓練データセットの一部をテストデータとして改良前後の車両検出性能を比較したところ、図6に示すように、KITTIの性能指標であるAverage PrecisionがEasy・Moderate・Hardの各難易度に対してそれぞれ10.4・5.9・7.5ポイント改善し、全ての難易度に対して改善することが分かった。   A part of the training data set of KITTI Object Detection Evaluation 2012, which is a data set typically used for evaluation of vehicle detection performance, was compared with the vehicle detection performance before and after improvement as test data, as shown in FIG. It was found that Average Precision, which is a performance index of KITTI, improved 10.4.5.9.7.5 points for each difficulty of Easy, Moderate and Hard, and improved for all difficulty.

なお、上記の実施の形態では、検出枠を出力する検出モデルとして、CNNを用いる場合を例に説明したが、これに限定されるものではない。検出処理枠に含まれる検出枠の位置、大きさ、確度を出力するものであれば、CNN以外のモデルを用いてもよい。   In the above embodiment, a CNN is used as a detection model for outputting a detection frame, but the present invention is not limited to this. A model other than CNN may be used as long as it can output the position, size, and accuracy of the detection frame included in the detection processing frame.

また、検出枠の重複度合いとして、2つの検出枠を合わせた面積に対する、重複する領域の面積の割合を用いる場合を例に説明したが、これに限定されるものではなく、2つの検出枠における重複領域の大きさを、重複度合いとして用いてもよい。   In addition, although the case where the ratio of the area of the overlapping area to the combined area of the two detection frames is used is described as an example of the overlapping degree of the detection frames, the present invention is not limited thereto. The size of the overlapping area may be used as the overlapping degree.

10 物体検出装置
12 撮像装置
14 コンピュータ
16 表示装置
20 画像入力部
22 対象物検出部
24 調整部
26 統合部
DESCRIPTION OF SYMBOLS 10 object detection apparatus 12 imaging apparatus 14 computer 16 display apparatus 20 image input part 22 object detection part 24 adjustment part 26 integrated part

Claims (8)

入力画像から、検出モデルを用いて、各位置に設定された検出処理枠ごとに、前記検出処理枠に含まれる検出対象物体を表す検出枠の位置及び大きさを出力する検出部と、
前記検出処理枠ごとに出力された検出枠の位置及び大きさに基づいて、他の検出枠と重複する重複度合いが閾値以上となる検出枠を統合して、最終的な物体検出枠として出力する統合部と、
を含み、
前記検出部によって出力された検出枠の性質に応じて、検出枠を統合する際に用いる閾値を調整する調整部を更に含む
物体検出装置。
A detection unit which outputs the position and size of a detection frame representing an object to be detected included in the detection processing frame for each detection processing frame set at each position from the input image using the detection model;
Based on the position and size of the detection frame output for each of the detection processing frames, the detection frames having an overlapping degree equal to or higher than the other detection frames are integrated and output as a final object detection frame Integration department,
Including
An adjustment unit which adjusts a threshold used when integrating a detection frame according to a property of a detection frame outputted by the detection unit. Object detection device.
前記調整部は、前記検出部によって出力された検出枠の大きさに応じて、前記重複度合いに関する閾値を調整する請求項1記載の物体検出装置。   The object detection apparatus according to claim 1, wherein the adjustment unit adjusts a threshold related to the degree of overlap in accordance with the size of the detection frame output by the detection unit. 前記統合部は、統合する検出枠の個数が、個数に関する閾値以上となる場合に、前記検出枠を統合し、
前記調整部は、前記検出部によって出力された検出枠の大きさに応じて、前記個数に関する閾値を調整する請求項1記載の物体検出装置。
The integration unit integrates the detection frames when the number of detection frames to be integrated is equal to or more than a threshold value regarding the number,
The object detection apparatus according to claim 1, wherein the adjustment unit adjusts the threshold regarding the number according to the size of the detection frame output by the detection unit.
前記検出部は、前記検出処理枠に含まれる検出対象物体の種類を更に出力し、
前記調整部は、前記検出部によって出力された検出対象物体の種類に応じて、前記重複度合いに関する閾値を調整する請求項1記載の物体検出装置。
The detection unit further outputs the type of the detection target object included in the detection processing frame;
The object detection apparatus according to claim 1, wherein the adjustment unit adjusts a threshold related to the overlapping degree according to the type of the detection target object output by the detection unit.
前記検出部は、前記検出枠が表す検出対象物体の確度を更に出力し、
前記統合部は、他の検出枠と重複する重複度合いが閾値以上となる検出枠であって、かつ、前記確度が確度に関する閾値以上となる検出枠を統合し、
前記調整部は、前記検出部によって出力された検出枠の大きさに応じて、前記確度に関する閾値を調整する請求項1記載の物体検出装置。
The detection unit further outputs the accuracy of the detection target object represented by the detection frame,
The integration unit integrates a detection frame in which the overlapping degree overlapping with another detection frame is equal to or higher than a threshold, and the accuracy is equal to or higher than a threshold related to the accuracy.
The object detection apparatus according to claim 1, wherein the adjustment unit adjusts a threshold related to the accuracy in accordance with the size of the detection frame output by the detection unit.
前記検出モデルを、CNN(Convolutional Neural Network)とし、
前記検出部は、検出処理枠毎に、前記入力画像から前記検出処理枠で切出した画像をCNNに入力し、前記検出処理枠に含まれる検出対象物体を表す検出枠の位置及び大きさを出力する請求項1〜請求項5の何れか1項記載の物体検出装置。
Let CNN (Convolutional Neural Network) be the detection model,
The detection unit inputs, to the CNN, an image extracted from the input image by the detection processing frame for each detection processing frame, and outputs the position and size of a detection frame representing a detection target object included in the detection processing frame. The object detection apparatus according to any one of claims 1 to 5.
前記検出処理枠が、想定される検出対象物体の画像上のサイズよりも大きい請求項1〜請求項6の何れか1項記載の物体検出装置。   The object detection apparatus according to any one of claims 1 to 6, wherein the detection processing frame is larger than a size on an image of a detection target object assumed. コンピュータを、
入力画像から、検出モデルを用いて、各位置に設定された検出処理枠ごとに、前記検出処理枠に含まれる検出対象物体を表す検出枠の位置及び大きさを出力する検出部、
前記検出部によって出力された検出枠の性質に応じて、検出枠を統合する際に用いる閾値を調整する調整部、及び
前記検出処理枠ごとに出力された検出枠の位置及び大きさに基づいて、他の検出枠と重複する重複度合いが閾値以上となる検出枠を統合して、最終的な物体検出枠として出力する統合部
として機能させるためのプログラム。
Computer,
A detection unit that outputs the position and size of a detection frame representing an object to be detected included in the detection processing frame for each detection processing frame set at each position using a detection model from an input image;
According to the nature of the detection frame output by the detection unit, an adjustment unit that adjusts a threshold used when integrating the detection frame, and the position and size of the detection frame output for each detection processing frame A program for functioning as an integration unit that integrates detection frames whose overlap degree overlapping with other detection frames is equal to or greater than a threshold and outputs the final detection frame as an object detection frame.
JP2017079769A 2017-04-13 2017-04-13 Object detection apparatus and program Pending JP2018180945A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017079769A JP2018180945A (en) 2017-04-13 2017-04-13 Object detection apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017079769A JP2018180945A (en) 2017-04-13 2017-04-13 Object detection apparatus and program

Publications (1)

Publication Number Publication Date
JP2018180945A true JP2018180945A (en) 2018-11-15

Family

ID=64276754

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017079769A Pending JP2018180945A (en) 2017-04-13 2017-04-13 Object detection apparatus and program

Country Status (1)

Country Link
JP (1) JP2018180945A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112101061A (en) * 2019-06-17 2020-12-18 富士通株式会社 Target detection method and device and image processing equipment
JP2021117530A (en) * 2020-01-22 2021-08-10 沖電気工業株式会社 Object detection device, object detection method, program, and recording medium
JPWO2021171386A1 (en) * 2020-02-25 2021-09-02
JP2021525409A (en) * 2019-04-30 2021-09-24 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド Target detection method and device, equipment and storage medium
JP2021528757A (en) * 2018-06-20 2021-10-21 ズークス インコーポレイテッド Instance segmentation inferred from the output of a machine learning model
CN114978720A (en) * 2022-05-26 2022-08-30 沈阳理工大学 Intelligent detection method for visual representation of distributed denial of service attack
EP4170600A1 (en) 2021-10-22 2023-04-26 Canon Kabushiki Kaisha Information processing apparatus, method of controlling information processing apparatus, and program
US11688199B2 (en) 2019-11-13 2023-06-27 Samsung Electronics Co., Ltd. Method and apparatus for face detection using adaptive threshold

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7469237B2 (en) 2018-06-20 2024-04-16 ズークス インコーポレイテッド Instance segmentation inferred from the output of a machine learning model
JP2021528757A (en) * 2018-06-20 2021-10-21 ズークス インコーポレイテッド Instance segmentation inferred from the output of a machine learning model
JP2021525409A (en) * 2019-04-30 2021-09-24 ベイジン センスタイム テクノロジー デベロップメント カンパニー, リミテッド Target detection method and device, equipment and storage medium
JP7012880B2 (en) 2019-04-30 2022-01-28 ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド Target detection method and equipment, equipment and storage media
CN112101061A (en) * 2019-06-17 2020-12-18 富士通株式会社 Target detection method and device and image processing equipment
US11688199B2 (en) 2019-11-13 2023-06-27 Samsung Electronics Co., Ltd. Method and apparatus for face detection using adaptive threshold
JP2021117530A (en) * 2020-01-22 2021-08-10 沖電気工業株式会社 Object detection device, object detection method, program, and recording medium
WO2021171386A1 (en) * 2020-02-25 2021-09-02 株式会社日立国際電気 Information processing system, information processing program, and security camera system
JP7266145B2 (en) 2020-02-25 2023-04-27 株式会社日立国際電気 Information processing system, information processing program and surveillance camera system
JPWO2021171386A1 (en) * 2020-02-25 2021-09-02
EP4170600A1 (en) 2021-10-22 2023-04-26 Canon Kabushiki Kaisha Information processing apparatus, method of controlling information processing apparatus, and program
CN114978720B (en) * 2022-05-26 2023-06-20 沈阳理工大学 Intelligent detection method for visual characterization of distributed denial of service attack
CN114978720A (en) * 2022-05-26 2022-08-30 沈阳理工大学 Intelligent detection method for visual representation of distributed denial of service attack

Similar Documents

Publication Publication Date Title
JP2018180945A (en) Object detection apparatus and program
EP3876141A1 (en) Object detection method, related device and computer storage medium
US10769473B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP6088792B2 (en) Image detection apparatus, control program, and image detection method
US20170330315A1 (en) Information processing apparatus, method for processing information, discriminator generating apparatus, method for generating discriminator, and program
JP2008217347A (en) License plate recognition device, its control method and computer program
CN107845068B (en) Image view angle conversion device and method
JP6642970B2 (en) Attention area detection device, attention area detection method, and program
US20220261653A1 (en) Method of Processing Image Data in a Connectionist Network
JP6095817B1 (en) Object detection device
US20210142490A1 (en) Information processing apparatus, control method, and program
CN109543534B (en) Method and device for re-detecting lost target in target tracking
US20220351413A1 (en) Target detection method, computer device and non-transitory readable storage medium
EP2821935B1 (en) Vehicle detection method and device
KR101699014B1 (en) Method for detecting object using stereo camera and apparatus thereof
EP3207523B1 (en) Obstacle detection apparatus and method
EP3955207A1 (en) Object detection device
EP3309710A1 (en) Human body detection apparatus, control method for human body detection apparatus, and program
US9710922B2 (en) Image processing apparatus, method and medium storing a program for detecting a motion vector
CN110689556A (en) Tracking method and device and intelligent equipment
WO2016092783A1 (en) Information processing apparatus, method for processing information, discriminator generating apparatus, method for generating discriminator, and program
US10949988B2 (en) Information processing apparatus, information processing method, and program
JP2012185555A (en) Object detecting device and method, and program
JP6030457B2 (en) Image detection apparatus, control program, and image detection method
US20210366129A1 (en) Image processing apparatus, image processing method, and storage medium