JP6301440B2 - Object detection system and object detection method - Google Patents

Object detection system and object detection method Download PDF

Info

Publication number
JP6301440B2
JP6301440B2 JP2016252936A JP2016252936A JP6301440B2 JP 6301440 B2 JP6301440 B2 JP 6301440B2 JP 2016252936 A JP2016252936 A JP 2016252936A JP 2016252936 A JP2016252936 A JP 2016252936A JP 6301440 B2 JP6301440 B2 JP 6301440B2
Authority
JP
Japan
Prior art keywords
image
vehicle
signal
object detection
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016252936A
Other languages
Japanese (ja)
Other versions
JP2017194949A (en
Inventor
國清 張
國清 張
▲伝▼仁 李
▲伝▼仁 李
瀚文 ▲黄▼
瀚文 ▲黄▼
Original Assignee
財団法人車輌研究測試中心
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 財団法人車輌研究測試中心 filed Critical 財団法人車輌研究測試中心
Publication of JP2017194949A publication Critical patent/JP2017194949A/en
Application granted granted Critical
Publication of JP6301440B2 publication Critical patent/JP6301440B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • G06V10/7788Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors the supervisor being a human, e.g. interactive learning with a human teacher
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は検出システム及び検出方法に関し、より具体的には、適応学習可能な対象物検出システム及び対象物を検出でき且つ適応学習可能な方法に関する。   The present invention relates to a detection system and a detection method, and more particularly to an object detection system capable of adaptive learning and a method capable of detecting an object and adaptive learning.

先進運転支援システム(Advanced Driver Assistance Systems、略称ADAS)は、交通事故を防止するために人工知能の採用が進んでいる。目下、多くの企業が、人工知能の機械学習能力を応用した車線検出システム、駐車支援システム、衝突回避システムといった技術の開発に注力している(例えば特許文献1参照)。   Advanced Driver Assistance Systems (abbreviated as ADAS) are adopting artificial intelligence to prevent traffic accidents. At present, many companies are focusing on developing technologies such as a lane detection system, a parking assistance system, and a collision avoidance system that apply the machine learning ability of artificial intelligence (see, for example, Patent Document 1).

前述の各システムにおいて、画像識別技術は不可欠な技術であり、画像識別の精度を向上することが、前述の各システムにおける課題となっている。このため、主に機械学習に関連するアルゴリズムを構築して、これにより分類器のパラメータを機械的に訓練することによって、画像識別の誤判定率の低減が図られている。   In each of the aforementioned systems, the image identification technique is an indispensable technique, and improving the accuracy of image identification is a problem in each of the aforementioned systems. For this reason, an algorithm related to machine learning is mainly constructed, and the parameters of the classifier are mechanically trained thereby, thereby reducing the misjudgment rate of image identification.

このように、多様な道路環境において誤判定率をいかに効果的に低減するかは、現在の運転支援システムの研究開発における重要なポイントとなっている。   Thus, how to effectively reduce the misjudgment rate in various road environments is an important point in the current research and development of driving assistance systems.

台湾特許第I478835号公報Taiwan Patent No. I478835

しかしながら、車両に搭載される車両組み込みシステム(vehicle embedded system)の性能には限界があるため、車両組み込みシステムに設けられる識別装置の性能も限りがある。   However, since the performance of a vehicle embedded system mounted on a vehicle is limited, the performance of an identification device provided in the vehicle embedded system is also limited.

そこで、本発明の目的は、車両組み込みシステムの限られた性能によっても、機械学習を通して誤判定率の効果的な低減を図ることができる対象物検出システム及び対象物検出方法を提供することにある。   Accordingly, an object of the present invention is to provide an object detection system and an object detection method capable of effectively reducing an erroneous determination rate through machine learning even with limited performance of a vehicle embedded system.

上記目的を達成するための手段として、本発明は、以下の対象物検出システムを提供する。   As means for achieving the above object, the present invention provides the following object detection system.

即ち、画像を取得し、前記画像の一部が所定の対象物に類似するか否かを弱分類器パラメータを用いた分類処理により判定すると共に、前記画像を出力し、類似すると判定した際には対象物検出信号を出力するように構成された検出ユニットと、
前記画像を受信するように前記検出ユニットと通信可能に接続され、前記画像の前記一部が前記対象物に類似するか否かを弱分類器パラメータ用いた分類処理と強分類器パラメータを用いた分類処理とによりそれぞれ判定するように構成された機械学習ユニットとを具え、
前記機械学習ユニットは更に、前記弱分類器パラメータによる判定と前記強分類器パラメータによる判定の結果が異なる場合に、当該判定の対象となった前記画像を用いて訓練処理を行って新たな弱分類器パラメータを取得し、当該新たな弱分類器パラメータによって前記検出ユニットと前記機械学習ユニットそれぞれの前記弱分類器パラメータを更新するように構成されていることを特徴とする、対象物検出システム対象物検出システムを提供する。
That is, when an image is acquired and whether or not a part of the image is similar to a predetermined object is determined by a classification process using weak classifier parameters, and the image is output and determined to be similar Is a detection unit configured to output an object detection signal;
The detection unit is communicatively connected to receive the image, and a classification process using a weak classifier parameter and a strong classifier parameter are used to determine whether the part of the image is similar to the object. A machine learning unit configured to determine each by a classification process;
The machine learning unit further performs a training process using the image subjected to the determination when the determination based on the weak classifier parameter and the determination based on the strong classifier parameter are different, and performs a new weak classification. An object detection system, wherein the weak classifier parameter of each of the detection unit and the machine learning unit is updated with the new weak classifier parameter. Provide a detection system.

また、本発明は、以下の対象物検出方法を提供する。即ち、検出ユニットと機械学習ユニットとを具える対象物検出システムによって実行される対象物検出方法であって、
(A)前記検出ユニットによって、画像を取得し、取得した前記画像の一部が所定の対象物に類似するか否かについて、弱分類器パラメータを用いた分類処理を実行して判定を行うステップと、
(B)前記画像の一部が所定の対象物に類似すると判定したときに、前記検出ユニットによって対象物検出信号を出力するステップと、
(C)前記検出ユニットによって、前記画像を前記機械学習ユニットに出力するステップと、
(D)前記機械学習ユニットによって、前記画像を受信してから、受信した前記画像の一部が対象物に類似するか否かについて、弱分類器パラメータを用いた分類処理と、強分類器パラメータを用いた分類処理とをそれぞれ実行して2つの判定を行うステップと、
(E)前記2つの判定の結果が異なるときに、前記機械学習ユニットによって、前記2つの判定の対象となった前記画像を用いて訓練処理を行うことにより新たな弱分類器パラメータを取得し、前記新たな弱分類器パラメータによって前記検出ユニットと前記機械学習ユニットそれぞれの弱分類器パラメータを更新するステップと、を含むことを特徴とする対象物検出方法を提供する。
The present invention also provides the following object detection method. That is, an object detection method executed by an object detection system including a detection unit and a machine learning unit,
(A) A step of acquiring an image by the detection unit and performing a classification process using weak classifier parameters to determine whether a part of the acquired image is similar to a predetermined object. When,
(B) outputting a target detection signal by the detection unit when it is determined that a part of the image is similar to a predetermined target;
(C) outputting the image to the machine learning unit by the detection unit;
(D) After the image is received by the machine learning unit, whether or not a part of the received image is similar to an object is classified using a weak classifier parameter, and a strong classifier parameter Performing two determinations by performing each of the classification processes using
(E) When the results of the two determinations are different, the machine learning unit acquires a new weak classifier parameter by performing a training process using the images subjected to the two determinations, And updating a weak classifier parameter of each of the detection unit and the machine learning unit with the new weak classifier parameter.

上記手段によれば、検出ユニットを具えることで、取得した画像に対して分類処理が行われ、画像に対象物が含まれているかを即時に判定することができる上に、検出ユニットと共に更に機械学習ユニットを具えることで、検出ユニットによる判定の結果に誤りがないかどうかを機械的に確かめて、誤判定があった場合にはその画像を用いて分類器のパラメータに対して訓練処理を自動的に行って誤判定率の低下を図ることができるので、人手による補助判定やラベル付けなどの作業を必要とせずに、効率よく且つ速やかに対象物検出精度が向上する。   According to the above means, by providing the detection unit, classification processing is performed on the acquired image, and it is possible to immediately determine whether the object is included in the image, and further together with the detection unit. By including a machine learning unit, it is mechanically checked whether there is an error in the result of the determination by the detection unit, and if there is an error, training processing is performed on the parameters of the classifier using the image. Since the erroneous determination rate can be reduced by automatically performing the above, the object detection accuracy can be improved efficiently and promptly without requiring manual operations such as auxiliary determination and labeling.

本発明に係る対象物検査システムの第1の実施形態を示すブロック図である。It is a block diagram which shows 1st Embodiment of the target object inspection system which concerns on this invention. 検出ユニットが車両に配置されていると共に機械学習ユニットが検出ユニットに通信可能に接続されている実施形態を示す概略図である。It is the schematic which shows embodiment by which the detection unit is arrange | positioned at the vehicle and the machine learning unit is connected to the detection unit so that communication is possible. 本発明に係る対象物検査システムにおける弱分類器と強分類器の一実施例を示す概略図である。It is the schematic which shows one Example of the weak classifier and the strong classifier in the target object inspection system which concerns on this invention. 本発明に係る対象物検査システムの第2の実施形態を示すブロック図である。It is a block diagram which shows 2nd Embodiment of the target object inspection system which concerns on this invention. 検出ユニットと機械学習ユニットの両方が車両に配置されている実施形態を示す概略図である。FIG. 2 is a schematic diagram showing an embodiment in which both a detection unit and a machine learning unit are arranged in a vehicle. 本発明に係る対象物検出方法の一実施形態を示すフローチャートである。It is a flowchart which shows one Embodiment of the target object detection method which concerns on this invention.

以下、図面を参照しながら本発明の具体的な実施形態を説明する。   Hereinafter, specific embodiments of the present invention will be described with reference to the drawings.

<対象物検出システム> <Object detection system>

(第1の実施形態) (First embodiment)

図1及び図2には、本発明に係る対象物検出システムの第1の実施形態が示されている。対象物検出システムは、検出ユニット2と、機械学習ユニット3を具える。   1 and 2 show a first embodiment of an object detection system according to the present invention. The object detection system includes a detection unit 2 and a machine learning unit 3.

検出ユニット2は、自動車などの車両9(図2参照)に配置され、画像を取得し、取得した画像の一部が対象物に類似するか否かを弱分類器パラメータ(一組のパラメータグループ)を用いた分類処理により判定し、その画像を出力する上に、画像の一部が対象物に類似すると判定した場合、即ち画像に対象物が含まれると判定した場合には対象物検知信号を出力し、且つ、新たな弱分類器パラメータ(一組のパラメータグループ)を受信した際にはこれにより元の弱分類器パラメータを更新するように構成されたものである。以下、検出ユニット2の構造をより具体的に説明する。   The detection unit 2 is arranged in a vehicle 9 such as an automobile (see FIG. 2), acquires an image, and determines whether or not a part of the acquired image is similar to a target object using a weak classifier parameter (a set of parameter groups). ), And when it is determined that part of the image is similar to the object, that is, when it is determined that the image includes the object, the object detection signal , And when a new weak classifier parameter (a set of parameter groups) is received, the original weak classifier parameter is updated accordingly. Hereinafter, the structure of the detection unit 2 will be described more specifically.

なお、本実施形態において、上記画像は、車両9に設置されていて車両9の周辺の映像を記録するドライブレコーダー(図示せず)により撮影された動画から取り出されるものとして例示されており、車両9の近辺における対象物の有無の判定のために検出ユニット2に提供される。ここで対象物とは、対象物検出システムにおいて予め定義されているものであり、車両9が自動車である場合には、例えば接近しすぎると運転の障害となる歩行者や他の車両などであるが、これに限らず、対象物検出システムは自動車以外の車両にも適用することができ、車両及び対象物の種類は本例示に限定されるものではない。   In the present embodiment, the image is illustrated as being taken from a moving image that is installed in the vehicle 9 and is recorded by a drive recorder (not shown) that records video around the vehicle 9. 9 is provided to the detection unit 2 for determining the presence or absence of an object in the vicinity of 9. Here, the object is defined in advance in the object detection system, and when the vehicle 9 is an automobile, for example, it is a pedestrian or other vehicle that becomes an obstacle to driving if it is too close. However, the present invention is not limited to this, and the object detection system can be applied to vehicles other than automobiles, and the types of vehicles and objects are not limited to this example.

検出ユニット2は、画像取得モジュール21、第1の画像処理モジュール22、第1の分類器モジュール23、出力モジュール24、パラメータモジュール25を含む。   The detection unit 2 includes an image acquisition module 21, a first image processing module 22, a first classifier module 23, an output module 24, and a parameter module 25.

画像取得モジュール21は、ドライブレコーダーにより撮影された動画を受信して該動画から静止画としての画像を取り出すように構成されている。なお、以下の説明で単に画像と記載する場合にはこの画像取得モジュール21により取得された画像を指す。   The image acquisition module 21 is configured to receive a moving image shot by the drive recorder and extract an image as a still image from the moving image. In the following description, when an image is simply described, the image acquired by the image acquisition module 21 is indicated.

第1の画像処理モジュール22は、画像を受信するように画像取得モジュール21と電気的に接続されていて、受信した画像から該画像の一部分である第1の部分画像を抽出する。第1の部分画像は、検出ユニット2による判定に供する部分画像とされる。   The first image processing module 22 is electrically connected to the image acquisition module 21 so as to receive an image, and extracts a first partial image that is a part of the image from the received image. The first partial image is a partial image used for determination by the detection unit 2.

第1の分類器モジュール23は、第1の部分画像を受信するように第1の画像処理モジュール22に電気的に接続され、弱分類器パラメータ(一組のパラメータグループ)を用いた分類処理を行い、第1の部分画像が対象物に類似するか否かを判定する。第1の部分画像が対象物に類似すると判定した場合、第1の分類器モジュール23は、車両9の近辺に対象物が存在すると判断し、車両9の運転者に対象物の存在を通知するための対象物検出信号を出力する。   The first classifier module 23 is electrically connected to the first image processing module 22 so as to receive the first partial image, and performs a classification process using weak classifier parameters (a set of parameter groups). And determine whether the first partial image is similar to the object. When it is determined that the first partial image is similar to the object, the first classifier module 23 determines that the object exists in the vicinity of the vehicle 9 and notifies the driver of the vehicle 9 of the presence of the object. The object detection signal for output is output.

出力モジュール24は、画像を受信するように画像取得モジュール21と電気的に接続されていて、画像を機械学習ユニット3に出力するように構成されている。   The output module 24 is electrically connected to the image acquisition module 21 so as to receive an image, and is configured to output the image to the machine learning unit 3.

パラメータモジュール25は、第1の分類器モジュール23に電気的に接続されていて、第1の分類器モジュール23が上述の分類処理を行うために使用する上記弱分類器パラメータを格納できるように構成されている。   The parameter module 25 is electrically connected to the first classifier module 23 and configured to store the weak classifier parameters used by the first classifier module 23 for performing the above-described classification processing. Has been.

機械学習ユニット3は、画像を受信するように検出ユニット2と通信可能に接続されており、分類に関連する処理を、弱分類器パラメータ及び強分類器パラメータ(いずれも一組のパラメータグループ)を用いてそれぞれ実行し、画像の一部が対象物に類似するか否かの2つの判定(即ち、弱分類器パラメータを用いた分類処理による判定と強分類器パラメータを用いた分類処理による判定)をそれぞれ行うように構成されている。この2つの判定の結果が異なる場合には、その画像を用いて訓練処理を行い、新たな弱分類器パラメータを求めて、求められた新たな弱分類器パラメータによって、検出ユニット2のパラメータモジュール25に格納されている弱分類器パラメータを更新する。   The machine learning unit 3 is communicatively connected to the detection unit 2 so as to receive an image, and performs processing related to classification by using a weak classifier parameter and a strong classifier parameter (both are a set of parameter groups). 2 determinations of whether or not a part of the image is similar to the object (ie, determination by classification processing using weak classifier parameters and determination by classification processing using strong classifier parameters) It is comprised so that each may be performed. If the results of the two determinations are different, training processing is performed using the images, a new weak classifier parameter is obtained, and the parameter module 25 of the detection unit 2 is determined based on the obtained new weak classifier parameter. Update the weak classifier parameters stored in.

本実施形態において、機械学習ユニット3は、図2に示すように例えば図示しないリモートサーバーに設置されているが、これに限らず、図5に示すように検出ユニット2と共に車両9に設置されるよう構成されてもよい。また、機械学習ユニット3は、出力モジュール24から画像を受信し且つパラメータモジュール25に新たな弱分類器パラメータを送信することができるように、検出ユニット2に無線又は有線で接続される。以下、機械学習ユニット3の構造をより具体的に説明する。   In the present embodiment, the machine learning unit 3 is installed in a remote server (not shown), for example, as shown in FIG. 2, but is not limited thereto, and is installed in the vehicle 9 together with the detection unit 2 as shown in FIG. It may be configured as follows. The machine learning unit 3 is connected to the detection unit 2 wirelessly or by wire so that it can receive images from the output module 24 and transmit new weak classifier parameters to the parameter module 25. Hereinafter, the structure of the machine learning unit 3 will be described more specifically.

機械学習ユニット3は、第2の画像処理モジュール31、第2の分類器モジュール32、訓練モジュール33、更新モジュール34を含む   The machine learning unit 3 includes a second image processing module 31, a second classifier module 32, a training module 33, and an update module 34.

第2の画像処理モジュール31は、検出ユニット2の出力モジュール24から画像を受信し、その画像から第1の部分画像と同一の内容を含む第2の部分画像を抽出するように構成されている。第2の部分画像は、機械学習ユニット3の前述した2つの判定の対象とされる。   The second image processing module 31 is configured to receive an image from the output module 24 of the detection unit 2 and extract a second partial image including the same contents as the first partial image from the image. . The second partial image is a target of the above-described two determinations of the machine learning unit 3.

第2の分類器モジュール32は、第2の部分画像及び検出ユニット2からの元の画像を受信するように第2の画像処理モジュール31に電気的に接続され、機械学習ユニット3が有する弱分類器パラメータ及び強分類器パラメータをそれぞれ用いて分類に関連する演算処理を行い、第2の部分画像が対象物に類似するか否かの2つの判定をそれぞれ行うように構成されている。ここで、第2の分類器モジュール32及び第1の分類器モジュール23がそれぞれ上述の分類処理を実行するに当たって使用する弱分類器パラメータは相同するものなので、第2の分類器モジュール32による弱分類器パラメータを用いた判定結果は、第1の分類器モジュール23による判定結果と同じになる。また、強分類器パラメータの総数が弱分類器パラメータの総数よりも多いので、強分類器パラメータによる判定結果はより高い精度を有する。よって、強分類器パラメータによる判定結果は正しい結果とみなされる。弱分類器パラメータ及び強分類器パラメータをそれぞれ用いて行われた2つの判定結果が異なる場合には、弱分類器パラメータを用いた判定結果が誤っていることになり、誤判定が起きた画像が第2の分類器モジュール32から訓練モジュール33に出力される。   The second classifier module 32 is electrically connected to the second image processing module 31 so as to receive the second partial image and the original image from the detection unit 2, and the weak classification of the machine learning unit 3. The calculation process related to the classification is performed using each of the classifier parameter and the strong classifier parameter, and two determinations are made as to whether or not the second partial image is similar to the object. Here, since the weak classifier parameters used when the second classifier module 32 and the first classifier module 23 execute the above-described classification processing are similar to each other, the weak classification by the second classifier module 32 is performed. The determination result using the classifier parameter is the same as the determination result by the first classifier module 23. In addition, since the total number of strong classifier parameters is larger than the total number of weak classifier parameters, the determination result based on the strong classifier parameters has higher accuracy. Therefore, the determination result based on the strong classifier parameter is regarded as a correct result. If the two determination results performed using the weak classifier parameter and the strong classifier parameter are different from each other, the determination result using the weak classifier parameter is incorrect, and the image in which the erroneous determination has occurred is determined. Output from the second classifier module 32 to the training module 33.

訓練モジュール33は、上述の誤判定が起きた画像を受信するように第2の分類器モジュール32に電気的に接続されており、その画像を第2の分類器モジュール32のパラメータを訓練するための訓練サンプルとして使用し、これにより新たな弱分類器パラメータ(一組のパラメータグループ)を求めて(以下、「訓練処理」とも言う。)、更新モジュール34に出力する。   The training module 33 is electrically connected to the second classifier module 32 so as to receive the image in which the above-described misjudgment occurs, and for training the image of the parameters of the second classifier module 32. As a training sample, a new weak classifier parameter (a set of parameter groups) is obtained (hereinafter also referred to as “training process”) and output to the update module 34.

更新モジュール34は、新たな弱分類器パラメータを受信するように訓練モジュール33に電気的に接続されていて、新たな弱分類器パラメータによって第2の分類器モジュール32の弱分類器パラメータを更新する上に、第1の分類器モジュール23によって使用される弱分類器パラメータを更新するために新たな弱分類器パラメータを検出ユニット2のパラメータモジュール25に送信するように構成されている。本実施形態では、上述の誤判定が起きた画像が収集され、収集された画像は第2の分類器モジュール32のパラメータを訓練するために利用され、その結果元の弱分類器パラメータを更新するために使用される新たな弱分類器パラメータが得られる。   The update module 34 is electrically connected to the training module 33 to receive new weak classifier parameters and updates the weak classifier parameters of the second classifier module 32 with the new weak classifier parameters. Above, it is configured to send new weak classifier parameters to the parameter module 25 of the detection unit 2 in order to update the weak classifier parameters used by the first classifier module 23. In the present embodiment, the image in which the above-described erroneous determination has occurred is collected, and the collected image is used to train the parameters of the second classifier module 32, thereby updating the original weak classifier parameters. New weak classifier parameters are obtained.

なお、更新モジュール34は、上述の構成に加えて、所定の画像サンプルセットを用いて新たな弱分類器パラメータの信頼度スコアを計算し、対象物検出システムに予め定義された対象物(歩行者やその他の車両など)を検出する精度において当該新たな弱分類器パラメータが元の弱分類器パラメータよりも実際に優れているかどうかを判断できるように更に構成されてもよい。この場合、新たな弱分類器パラメータの信頼度スコアが元の弱分類器パラメータの信頼度スコアよりも大きいときにのみ、更新モジュール34は、新たな弱分類器パラメータによって第2の分類器モジュール32の弱分類器パラメータを更新し、また、第1の分類器モジュール23の弱分類器パラメータを更新するために新たな弱分類器パラメータを検出ユニット2のパラメータモジュール25に送信する。   In addition to the above-described configuration, the update module 34 calculates a reliability score of a new weak classifier parameter using a predetermined image sample set, and the object (pedestrian) defined in advance in the object detection system. And the other weak classifier parameters may be further configured to determine whether the new weak classifier parameters are actually superior to the original weak classifier parameters. In this case, only when the confidence score of the new weak classifier parameter is greater than the confidence score of the original weak classifier parameter, the update module 34 uses the new weak classifier parameter to update the second classifier module 32. The weak classifier parameters are updated, and new weak classifier parameters are transmitted to the parameter module 25 of the detection unit 2 in order to update the weak classifier parameters of the first classifier module 23.

また、一実施形態において、第1の分類器モジュール23は弱分類器231を有してもよく、弱分類器231は、分類処理を実行するために弱分類器パラメータと組み合わせて利用される。また、第2の分類器モジュール32は図3に示すような強分類器321を有してもよく、強分類器321は、分類処理を実行するために強分類器パラメータと組み合わせて利用される。そして、第2の分類器モジュール32において強分類器321の最初からM段階までが弱分類器322を形成し、弱分類器322は分類処理を実行するために弱分類器パラメータと組み合わせて利用される。このようにして、第2の分類器モジュール32は、強分類器321と弱分類器322とによる2つの判定結果をそれぞれ出力することができる。   In one embodiment, the first classifier module 23 may have a weak classifier 231. The weak classifier 231 is used in combination with weak classifier parameters to perform classification processing. Further, the second classifier module 32 may have a strong classifier 321 as shown in FIG. 3, and the strong classifier 321 is used in combination with the strong classifier parameter to execute the classification process. . In the second classifier module 32, the first to M stages of the strong classifier 321 form a weak classifier 322, and the weak classifier 322 is used in combination with the weak classifier parameters to execute the classification process. The In this way, the second classifier module 32 can output two determination results by the strong classifier 321 and the weak classifier 322, respectively.

本実施形態によれば、対象物検出システムは以下の利点を有する。   According to this embodiment, the object detection system has the following advantages.

まず、検出ユニット2を設けることにより、ドライブレコーダーが出力する動画から取り出された各画像に対してリアルタイム演算が行われ、画像の一部が対象物と類似している、即ち、対象物が存在すると判定された場合には、運転者に対象物の存在を通知するための対象物検出信号が出力される。また、弱分類器パラメータを継続的に更新することにより、第1の分類器モジュール23による判定の精度をさらに向上させることができる。   First, by providing the detection unit 2, a real-time calculation is performed on each image extracted from the moving image output by the drive recorder, and a part of the image is similar to the object, that is, the object exists. If it is determined, an object detection signal for notifying the driver of the presence of the object is output. In addition, by continuously updating the weak classifier parameters, the accuracy of determination by the first classifier module 23 can be further improved.

更に、検出ユニット2に通信可能に接続された機械学習ユニット3を有する上に、2つの判定結果を得るために弱分類器パラメータと強分類器パラメータをそれぞれ用いて分類処理を行う第2の分類器モジュール32を設けることにより、第1の分類器モジュール23による判定結果に誤りがないかを確かめることが可能となる。誤判定であると判断された場合には、誤判定を起こした画像が学習モジュール33に出力される。学習モジュール33は、この画像を基に第2の分類器モジュール32のパラメータを訓練して新たな弱分類器パラメータを取得する。そして更新モジュール34は、この新しい弱分類器パラメータを用いて元の弱分類器パラメータを更新する。このように、第1の分類器モジュール23による誤判定の結果となった画像が自動的に判別され、この画像が機械学習に用いられることで、次回の画像判定における誤判定率が低減される。上記の手順は本発明に係る対象物検出システムにおいて自動的に行われるため、人手による作業やタグ付け等による補助的な判定を必要とせず、大量の学習サンプルを速やかに集めて弱分類器パラメータを訓練することができる。このように、本発明に係る対象物検出システムによれば、検出ユニット2の誤判定率を迅速に低減することができ、対象物検出の精度が大幅に向上することで車両9の運転の安全性をより確かなものとすることができる。   Furthermore, in addition to having a machine learning unit 3 communicably connected to the detection unit 2, a second classification for performing a classification process using a weak classifier parameter and a strong classifier parameter in order to obtain two determination results By providing the classifier module 32, it is possible to confirm whether there is an error in the determination result by the first classifier module 23. If it is determined that it is an erroneous determination, the image that caused the erroneous determination is output to the learning module 33. The learning module 33 trains the parameters of the second classifier module 32 based on this image and acquires new weak classifier parameters. The update module 34 then updates the original weak classifier parameters with the new weak classifier parameters. In this way, an image that is a result of erroneous determination by the first classifier module 23 is automatically determined, and this image is used for machine learning, thereby reducing the erroneous determination rate in the next image determination. Since the above procedure is automatically performed in the object detection system according to the present invention, there is no need for auxiliary determination by manual work or tagging, and a large amount of learning samples can be quickly collected and weak classifier parameters. Can be trained. Thus, according to the object detection system according to the present invention, the erroneous determination rate of the detection unit 2 can be quickly reduced, and the accuracy of the object detection is greatly improved, so that the driving safety of the vehicle 9 is improved. Can be made more certain.

また、図2に示されているように、車両9に搭載された車両組み込みシステム(図示せず)に検出ユニット2を設けると共に、検出ユニット2にワイヤレス接続されたサーバー(図示せず)に機械学習ユニット3を設けることにより、機械学習ユニット3は、車両組み込みシステムの性能に影響されることがなく、より優れた演算能力を有する第2の分類器モジュール32を具えることができる。そのため、強分類器パラメータを利用することで分類に係るリアルタイム処理を行って第1の分類器モジュール23による判定結果に誤りがないかどうかを迅速に確認することができ、弱分類器パラメータの精度をその確認の後に行われる訓練や更新を経て更に向上することができる。但し、これは一実施例であり、例えば図5に示される他の実施例においては、機械学習ユニット3を、検出ユニット2と共に車両9に搭載された車両組み込みシステムに配置することも可能である。   Further, as shown in FIG. 2, the detection unit 2 is provided in a vehicle built-in system (not shown) mounted on the vehicle 9, and a server (not shown) wirelessly connected to the detection unit 2 is provided with a machine. By providing the learning unit 3, the machine learning unit 3 can be provided with the second classifier module 32 having a higher computing capacity without being affected by the performance of the vehicle embedded system. Therefore, by using the strong classifier parameter, it is possible to perform real-time processing related to classification and quickly check whether there is an error in the determination result by the first classifier module 23, and the accuracy of the weak classifier parameter. Can be further improved through training and renewal after the confirmation. However, this is one embodiment, and in another embodiment shown in FIG. 5, for example, the machine learning unit 3 can be arranged in a vehicle built-in system mounted on the vehicle 9 together with the detection unit 2. .

加えて、更新モジュール34が元の弱分類器パラメータを新たな弱分類器パラメータによって後者の信頼度スコアがより高い場合においてのみ更新するよう構成されているので、それぞれ弱分類器パラメータが更新されると、第1の分類器モジュール23及び第2の分類器モジュール32の精度が更に向上する。一方、誤判定を起こした画像が第2の分類器モジュール32のパラメータを訓練するのに適さない場合、第1の分類器モジュール23及び第2の分類器モジュール32のパラメータは新しい弱分類器パラメータによって更新されないので、検出性能の劣化が防がれる。   In addition, the update module 34 is configured to update the original weak classifier parameters only when the latter confidence score is higher with the new weak classifier parameters, so that each weak classifier parameter is updated. As a result, the accuracy of the first classifier module 23 and the second classifier module 32 is further improved. On the other hand, if the erroneously determined image is not suitable for training the parameters of the second classifier module 32, the parameters of the first classifier module 23 and the second classifier module 32 are the new weak classifier parameters. Therefore, the detection performance is prevented from deteriorating.

(第2の実施形態) (Second Embodiment)

図4及び図5には、本発明に係る対象物検出システムの第2の実施形態が示されている。第2の実施形態は、上述の第1の実施形態と同様であるが、第1の実施形態と比較して以下の相違点を有する。   4 and 5 show a second embodiment of the object detection system according to the present invention. The second embodiment is the same as the first embodiment described above, but has the following differences compared to the first embodiment.

本実施形態において、検出ユニット2の第1の分類器モジュール23は、距離算出モジュール232を更に有する。距離算出モジュール232は、弱分類器231が車両9の近辺に対象物が存在すると判定した場合に、上述の第1の部分画像を取得し、第1の部分画像に含まれる対象物の大きさに基づいて車両9から対象物までの距離を算出し、当該距離を示す対象物距離信号を出力するように構成されている。   In the present embodiment, the first classifier module 23 of the detection unit 2 further includes a distance calculation module 232. When the weak classifier 231 determines that there is an object in the vicinity of the vehicle 9, the distance calculation module 232 acquires the first partial image described above, and the size of the object included in the first partial image. The distance from the vehicle 9 to the object is calculated based on the above, and the object distance signal indicating the distance is output.

また、本実施形態において対象物検出システムは、上記対象物検出信号を受信できるように検出ユニット2に電気的に接続されている上に、検出ユニット2が設けられた車両9の運転状態に関連する車両信号と、車両9に設けられる衝突センサ(図示せず)によって車両9が物体と衝突した際に出力される衝突信号と、上記対象物距離信号とを更に受信できるように構成されたフィードバックユニット4を更に具える。フィードバックユニット4は、車両信号、衝突信号、対象物距離信号および対象物検出信号の内の1つ以上に基づいて、誤判定フィードバック信号を出力モジュール24に出力するように構成されている。出力モジュール24は、誤判定フィードバック信号の受信に応じて、画像を機械学習ユニット3の第2の画像処理モジュール31に出力する。   In the present embodiment, the object detection system is electrically connected to the detection unit 2 so as to receive the object detection signal, and is related to the driving state of the vehicle 9 provided with the detection unit 2. Feedback that is configured to further receive a vehicle signal to be received, a collision signal output when the vehicle 9 collides with an object by a collision sensor (not shown) provided in the vehicle 9, and the object distance signal. A unit 4 is further provided. The feedback unit 4 is configured to output an erroneous determination feedback signal to the output module 24 based on one or more of the vehicle signal, the collision signal, the object distance signal, and the object detection signal. The output module 24 outputs an image to the second image processing module 31 of the machine learning unit 3 in response to receiving the erroneous determination feedback signal.

なお、車両信号は、本実施形態では走行速度とブレーキペダルの移動量との両方を示すものであるが、これに限らず、走行速度及びブレーキペダルの移動量のいずれか一方を示すものでもよく、本実施形態に限られない。   In the present embodiment, the vehicle signal indicates both the traveling speed and the amount of movement of the brake pedal. However, the vehicle signal is not limited to this, and may indicate either the traveling speed or the amount of movement of the brake pedal. It is not limited to this embodiment.

フィードバックユニット4は、以下の状況の内の少なくとも1つにおいて誤判定フィードバック信号を出力するように構成されている。   The feedback unit 4 is configured to output an erroneous determination feedback signal in at least one of the following situations.

第1の状況は、フィードバックユニット4が対象物検出信号を受信しているのに対して車両9の走行速度の減速率が予め設定された減速率閾値以下である状況、あるいはフィードバックユニット4が対象物検出信号を受信しているのに対して車両9のブレーキペダルの移動量が予め設定されたブレーキペダル移動量閾値以下である状況である。   The first situation is a situation where the deceleration rate of the traveling speed of the vehicle 9 is equal to or less than a preset deceleration rate threshold while the feedback unit 4 receives the object detection signal, or the feedback unit 4 is the target. While the object detection signal is received, the movement amount of the brake pedal of the vehicle 9 is not more than a preset brake pedal movement amount threshold value.

この状況は、第1の分類器モジュール23による判定結果では対象物が存在する(即ち、第1の部分画像が対象物に類似する)とされているのに関わらず、車両9が急速に減速していないか、または運転者がブレーキペダルを踏み込んでいないことを意味する。従って、この場合、フィードバックユニット4は第1の分類器モジュール23による判定が誤りであると判断する。   In this situation, the vehicle 9 is rapidly decelerated regardless of the determination result by the first classifier module 23 that the object is present (that is, the first partial image is similar to the object). Means that the driver has not depressed the brake pedal. Therefore, in this case, the feedback unit 4 determines that the determination by the first classifier module 23 is an error.

第2の状況は、フィードバックユニット4が対象物検出信号を受信していないのに対して車両9の走行速度の減速率が予め設定された減速率閾値よりも大きい状況、あるいはフィードバックユニット4が対象物検出信号を受信していないのに対してブレーキペダルの移動量が予め設定されたブレーキペダル移動量閾値よりも大きい状況である。   In the second situation, the feedback unit 4 does not receive the object detection signal, whereas the deceleration rate of the traveling speed of the vehicle 9 is larger than a preset deceleration rate threshold, or the feedback unit 4 is the target. Although the object detection signal is not received, the movement amount of the brake pedal is larger than a preset brake pedal movement amount threshold value.

この状況は、第1の分類器モジュール23による判定結果では対象物が存在していない(即ち、第1の部分画像が対象物に類似しない)とされているのに関わらず、車両9が急速に減速したか、または運転者がブレーキペダルを踏み込んだことを意味する。従って、この場合、第1の状況と同様に、フィードバックユニット4は、第1の分類器モジュール23による判定が誤りであると判断する。   In this situation, the vehicle 9 is rapidly detected regardless of the determination result by the first classifier module 23 that the object does not exist (that is, the first partial image is not similar to the object). This means that the vehicle has slowed down or the driver has depressed the brake pedal. Therefore, in this case, as in the first situation, the feedback unit 4 determines that the determination by the first classifier module 23 is an error.

第3の状況は、フィードバックユニット4が対象物検出信号を受信していないのに対して衝突信号を受信した場合である。   The third situation is when the feedback unit 4 does not receive the object detection signal but receives a collision signal.

この状況は、車両9の近辺に対象物が存在したにも関わらず第1の分類器モジュール23が対象物検出信号を出力しなかったこと、または第1の分類器モジュール23による対象物検出信号の出力が遅すぎて運転者が十分な応答時間を有しなかったことを意味する。   This situation is due to the fact that the first classifier module 23 did not output the object detection signal despite the presence of the object in the vicinity of the vehicle 9, or the object detection signal from the first classifier module 23. Means that the driver did not have sufficient response time.

第4の状況は、対象物距離信号が示す車両9から対象物までの距離が下述する計算により得られる車両9の制動距離を下回る状況である。   The fourth situation is a situation in which the distance from the vehicle 9 to the object indicated by the object distance signal is less than the braking distance of the vehicle 9 obtained by the calculation described below.

この状況において、フィードバックユニット4は、第1の分類器モジュール23により対象物が存在すると判定されている上に距離算出部232により算出された車両9から対象物までの距離が安全に制動できる距離である制動距離未満であるのに関わらず、車両9が引き続き対象物に接近していると判断する。この場合、フィードバックユニット4は、第1の分類器モジュール23による判定が誤りであると判断する。   In this situation, the feedback unit 4 determines that the object is present by the first classifier module 23 and that the distance from the vehicle 9 to the object calculated by the distance calculation unit 232 can be safely braked. It is determined that the vehicle 9 continues to approach the object regardless of whether the braking distance is less than. In this case, the feedback unit 4 determines that the determination by the first classifier module 23 is an error.

なお、上述の制動距離は、以下の式により求められる。   Note that the above-described braking distance is obtained by the following equation.

Figure 0006301440
Figure 0006301440

Figure 0006301440
Figure 0006301440

Figure 0006301440
Figure 0006301440

式中、S'は算出される制動距離であり、vは予め設定された終了速度であり、ここではゼロに設定され、voは制動開始時の車速である初速であり、aは所定の制動力0.4gに基づいて得られる加速度であり、sは式1により得られる理論上の制動距離、Sは運転者の応答時間内での車両9の変位、tは運転者の応答時間であり、実質的には0.8秒として計算する。 In the equation, S ′ is a calculated braking distance, v is a preset end speed, which is set to zero here, v o is an initial speed which is a vehicle speed at the start of braking, and a is a predetermined speed The acceleration obtained based on the braking force of 0.4 g, s is the theoretical braking distance obtained by Equation 1, S is the displacement of the vehicle 9 within the driver's response time, and t is the driver's response time. Yes, practically 0.8 seconds.

このように、対象物検出システムの第2の実施形態は、第1の実施形態と同様の効果を得ることができる上に、更に以下の利点を有する。   As described above, the second embodiment of the object detection system can obtain the same effects as those of the first embodiment, and further has the following advantages.

フィードバックユニット4は、対象物検出信号、車両信号、対象物距離信号及び衝突信号を受信することにより、第1の分類器モジュール23による判定に誤りがあったか否かを判断することができる。また、出力モジュール24は、誤判定フィードバック信号を受信した場合にのみ、機械学習ユニット3に画像を出力するように構成されているため、出力モジュール24が出力する画像は、第1の分類器モジュール23による誤判定に関連する有効な訓練サンプルとなる。このように、第2の分類器モジュール32に必要なデータスループットを大幅に低減することができる。即ち、第2の分類器モジュール32に対するスペック要求が低くなるので、第2の分類器モジュール32の設計をより単純にすることができる。よって、一般的な演算能力を有するアーキテクチャによっても第2の分類器モジュール32を構成することが可能となる。また、例として機械学習ユニット3を検出ユニット2と共に車両9の車両組み込みシステムに直接搭載すれば、設計コストを節約できるだけでなく、車両9に機械学習ユニット3を独立して設けるための設備も必要なくなる。また、機械学習ユニット3を検出ユニット2と共に車両9の車両組み込みシステムに直接搭載すれば、機械学習ユニット3をリモートサーバに設ける場合と比較して、リモートサーバへの接続を必要としないので、第1の分類器モジュール23のパラメータを即時に更新することができる。   The feedback unit 4 can determine whether or not there is an error in the determination by the first classifier module 23 by receiving the object detection signal, the vehicle signal, the object distance signal, and the collision signal. Further, since the output module 24 is configured to output an image to the machine learning unit 3 only when an erroneous determination feedback signal is received, the image output by the output module 24 is the first classifier module. It becomes an effective training sample related to the misjudgment by 23. In this way, the data throughput required for the second classifier module 32 can be greatly reduced. That is, since the specification requirement for the second classifier module 32 is lowered, the design of the second classifier module 32 can be simplified. Therefore, the second classifier module 32 can be configured by an architecture having a general computing capability. Further, as an example, if the machine learning unit 3 is directly mounted on the vehicle built-in system of the vehicle 9 together with the detection unit 2, not only can the design cost be saved, but also equipment for independently providing the machine learning unit 3 on the vehicle 9 is required. Disappear. Further, if the machine learning unit 3 is directly mounted on the vehicle built-in system of the vehicle 9 together with the detection unit 2, it does not require connection to the remote server as compared with the case where the machine learning unit 3 is provided on the remote server. The parameters of one classifier module 23 can be updated immediately.

なお、本発明に係る対象物検出システムにおいて、検出ユニット2、機械学習ユニット3、フィードバックユニット4は、ハードウェア方式(プロセッサ、ICチップ等)により構成されてもよいし、 例えばプロセッサによって実行されるコマンドを含むコードのようなソフトウェア方式により構成されてもよいことに注意されたい。   In the object detection system according to the present invention, the detection unit 2, the machine learning unit 3, and the feedback unit 4 may be configured by a hardware method (processor, IC chip, etc.), and are executed by a processor, for example. Note that it may be configured by a software scheme such as code containing commands.

<対象物検出方法> <Object detection method>

本発明に係る対象物検出方法は、図4及び図6に示されているように、その一実施形態において、本発明に係る上述の対象物検出システムによって実施され、以下のステップを含む。   As shown in FIGS. 4 and 6, the object detection method according to the present invention is implemented by the above-described object detection system according to the present invention in one embodiment, and includes the following steps.

ステップS51において、検出ユニット2は、動画を受信して受信した動画から画像を取り出す。また、検出ユニット2は、取得した画像から画像の一部である第1の部分画像を抽出し、誤判定フィードバック信号の受信に応じて、その画像を機械学習ユニット3に出力する。なお、上記動画は、例えば対象物検出システムが配置される車両9に設置されていて車両9の周辺の映像を記録するドライブレコーダー(図示せず)により撮影されたものである。   In step S51, the detection unit 2 receives a moving image and extracts an image from the received moving image. Further, the detection unit 2 extracts a first partial image that is a part of the image from the acquired image, and outputs the image to the machine learning unit 3 in response to reception of the erroneous determination feedback signal. In addition, the said moving image was image | photographed with the drive recorder (not shown) which is installed in the vehicle 9 with which the target object detection system is arrange | positioned and records the image | video of the periphery of the vehicle 9, for example.

ステップS52において、検出ユニット2は、検出ユニット2が有する弱分類器パラメータを用いて分類に関連する処理を実行し、上記第1の部分画像が所定の対象物に類似するか否かを判定する。第1の部分画像が対象物に類似すると判定した場合、検出ユニット2は対象物検出信号を出力する。   In step S52, the detection unit 2 performs processing related to classification using the weak classifier parameters of the detection unit 2, and determines whether or not the first partial image is similar to a predetermined object. . When it is determined that the first partial image is similar to the object, the detection unit 2 outputs an object detection signal.

ステップS53において、フィードバックユニット4は、車両9の運転状況に関連する車両信号を少なくとも受信し、誤判定フィードバック信号を検出ユニット2に出力するか否かを少なくとも車両信号に基づいて決定する。ここで、車両信号は、車両9の走行速度、または車両9のブレーキペダルの移動量の少なくともいずれかを示す信号である。   In step S <b> 53, the feedback unit 4 receives at least a vehicle signal related to the driving situation of the vehicle 9 and determines whether or not to output an erroneous determination feedback signal to the detection unit 2 based on at least the vehicle signal. Here, the vehicle signal is a signal indicating at least one of the traveling speed of the vehicle 9 and the amount of movement of the brake pedal of the vehicle 9.

このステップS53においては、フィードバックユニット4は、車両9の衝突センサが出力する衝突信号と、車両9から対象物までの距離を示す対象物距離信号とを更に受信するようにしてもよい。この場合、フィードバックユニット5は、以下の状況の内の少なくとも1つにおいて誤判定フィードバック信号を出力する。   In step S53, the feedback unit 4 may further receive a collision signal output from the collision sensor of the vehicle 9 and an object distance signal indicating the distance from the vehicle 9 to the object. In this case, the feedback unit 5 outputs an erroneous determination feedback signal in at least one of the following situations.

第1の状況は、フィードバックユニット4が対象物検出信号を受信しているのに対して車速の減速率が予め設定された減速率閾値以下である状況、あるいはフィードバックユニット4が対象物検出信号を受信しているのに対してブレーキペダルの移動量が予め設定されたブレーキペダル移動量閾値以下である状況である。   The first situation is a situation where the feedback unit 4 receives the object detection signal, whereas the deceleration rate of the vehicle speed is equal to or less than a preset deceleration rate threshold, or the feedback unit 4 receives the object detection signal. The situation is that the movement amount of the brake pedal is equal to or less than a preset brake pedal movement amount threshold value although it is received.

第2の状況は、フィードバックユニット4が対象物検出信号を受信していないのに対して車速の減速率が予め設定された減速率閾値よりも大きい状況、あるいはフィードバックユニット4が対象物検出信号を受信していないのに対してブレーキペダルの移動量が予め設定されたブレーキペダル移動量閾値よりも大きい状況である。   The second situation is a situation where the feedback unit 4 has not received the object detection signal, whereas the deceleration rate of the vehicle speed is greater than a preset deceleration rate threshold value, or the feedback unit 4 receives the object detection signal. This is a situation in which the movement amount of the brake pedal is larger than a preset brake pedal movement amount threshold value although it is not received.

第3の状況は、フィードバックユニット4が対象物検出信号を受信していないのに対して衝突信号を受信した場合である。   The third situation is when the feedback unit 4 does not receive the object detection signal but receives a collision signal.

第4の状況は、対象物距離信号が示す車両9から対象物までの距離が車両9の制動距離を下回る状況である。なお、車両9の制動距離は走行速度を基にして上述した所定の算式により求められるものである。   The fourth situation is a situation in which the distance from the vehicle 9 to the object indicated by the object distance signal is less than the braking distance of the vehicle 9. The braking distance of the vehicle 9 is obtained by the above-described predetermined formula based on the traveling speed.

フィードバックユニット4により誤判定フィードバック信号が検出ユニット2に出力されると、ステップS54に進む。   When an erroneous determination feedback signal is output to the detection unit 2 by the feedback unit 4, the process proceeds to step S54.

ステップS54において、機械学習ユニット3は、分類に関連する処理を弱分類器パラメータ及び強分類器パラメータを用いてそれぞれ行い、画像の一部が対象物に類似するか否かの2つの判定を行う。これら2つの判定結果が異なる場合には、その画像を用いて訓練処理を行い、検出ユニット2と機械学習ユニット3それぞれの弱分類器パラメータを更新するための新たな弱分類器パラメータを取得する。   In step S54, the machine learning unit 3 performs processing related to the classification using the weak classifier parameter and the strong classifier parameter, respectively, and performs two determinations as to whether a part of the image is similar to the object. . When these two determination results are different, training processing is performed using the images, and new weak classifier parameters for updating the weak classifier parameters of the detection unit 2 and the machine learning unit 3 are acquired.

より具体的には、このステップS54において、機械学習ユニット3は、第1の部分画像と同一の内容を含み、画像の一部である第2の部分画像を画像から抽出し、弱分類器パラメータ及び強分類器パラメータを用いて分類に関連する処理をそれぞれ実行して、第2の部分画像が対象物に類似するか否かの2つの判定をそれぞれ行う。これら2つの判定結果が異なる場合は、その画像を機械学習ユニット3のパラメータを訓練するためのサンプルとして用い、これにより新たな弱分類器パラメータを得る。   More specifically, in this step S54, the machine learning unit 3 extracts a second partial image that includes the same contents as the first partial image and is a part of the image from the image, and sets the weak classifier parameter. Then, each of the processes related to the classification is executed using the strong classifier parameters, and two determinations are made as to whether or not the second partial image is similar to the object. If these two determination results are different, the image is used as a sample for training the parameters of the machine learning unit 3, thereby obtaining new weak classifier parameters.

また、このステップS54では、機械学習ユニット3は、新たな弱分類器パラメータの信頼度スコアを計算する。算出された信頼度スコアが、元の弱分類器パラメータの信頼度スコアよりも大きい場合には、ステップS55に進む。   In step S54, the machine learning unit 3 calculates a confidence score of a new weak classifier parameter. If the calculated reliability score is larger than the reliability score of the original weak classifier parameter, the process proceeds to step S55.

ステップS55では、機械学習ユニット3は新たな弱分類器パラメータを用いて自身の弱分類器パラメータを更新し、更にこの新たな弱分類器パラメータを検出ユニット2の弱分類器パラメータの更新のために検出ユニット2に出力する。   In step S55, the machine learning unit 3 updates its weak classifier parameter using the new weak classifier parameter, and further uses this new weak classifier parameter for updating the weak classifier parameter of the detection unit 2. Output to the detection unit 2.

このように、本発明に係る対象物検出方法によれば、適応学習が可能となり、上述した対象物検出システムの実施形態と同様の効果を得ることができる。   As described above, according to the object detection method of the present invention, adaptive learning is possible, and the same effects as those of the above-described embodiment of the object detection system can be obtained.

以上、本発明の好ましい実施形態を説明したが、本発明はこれに限定されるものではなく、その要旨を逸脱しない範囲で種々の変更が可能である。   As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to this, A various change is possible in the range which does not deviate from the summary.

本発明は、例えば自動車に設置されて走行時の障害物を検出して運転者に障害物の存在を知らせるための対象物検出システムとして有用である他に、各種の先進運転支援システムに応用することが可能である。   The present invention is applied to various advanced driving support systems in addition to being useful as an object detection system for detecting obstacles during driving by being installed in a car and notifying the driver of the presence of obstacles, for example. It is possible.

2 検出ユニット
21 画像取得モジュール
22 第1の画像処理モジュール
23 第1の分類器モジュール
231 弱分類器
232 距離算出モジュール
24 出力モジュール
25 パラメータモジュール
3 機械学習ユニット
31 第2の画像処理モジュール
32 第2の分類器モジュール
321 強分類器
322 弱分類器
33 訓練モジュール
34 更新モジュール
4 フィードバックユニット
9 車両
2 detection unit 21 image acquisition module 22 first image processing module 23 first classifier module 231 weak classifier 232 distance calculation module 24 output module 25 parameter module 3 machine learning unit 31 second image processing module 32 second Classifier module 321 Strong classifier 322 Weak classifier 33 Training module 34 Update module 4 Feedback unit 9 Vehicle

Claims (18)

画像を取得し、前記画像の一部が所定の対象物に類似するか否かを弱分類器パラメータを用いた分類処理により判定すると共に、前記画像を出力し、類似すると判定した際には対象物検出信号を出力するように構成された検出ユニットと、
前記画像を受信するように前記検出ユニットと通信可能に接続され、前記画像の前記一部が前記対象物に類似するか否かを弱分類器パラメータ用いた分類処理と強分類器パラメータを用いた分類処理とによりそれぞれ判定するように構成された機械学習ユニットとを具え、
前記機械学習ユニットは更に、前記弱分類器パラメータによる判定と前記強分類器パラメータによる判定の結果が異なる場合に、当該判定の対象となった前記画像を用いて訓練処理を行って新たな弱分類器パラメータを取得し、当該新たな弱分類器パラメータによって前記検出ユニットと前記機械学習ユニットのそれぞれの前記弱分類器パラメータを更新するように構成されていることを特徴とする、対象物検出システム。
An image is acquired, and whether or not a part of the image is similar to a predetermined object is determined by a classification process using weak classifier parameters, and the image is output. A detection unit configured to output an object detection signal;
The detection unit is communicatively connected to receive the image, and a classification process using a weak classifier parameter and a strong classifier parameter are used to determine whether the part of the image is similar to the object. A machine learning unit configured to determine each by a classification process;
The machine learning unit further performs a training process using the image subjected to the determination when the determination based on the weak classifier parameter and the determination based on the strong classifier parameter are different, and performs a new weak classification. The object detection system is configured to acquire a classifier parameter and update the weak classifier parameter of each of the detection unit and the machine learning unit with the new weak classifier parameter.
前記検出ユニットは、動画を受信できるように構成されていて、更に、
受信した前記動画から前記画像を取り出す画像取得モジュールと、
前記画像を受信するように前記画像取得モジュールに電気的に接続されていて、前記画像から前記判定の対象である前記画像の一部とする第1の部分画像を抽出するように構成された第1の画像処理モジュールと、
前記第1の部分画像を受信するように前記第1の画像処理モジュールに電気的に接続されていて、前記弱分類器パラメータを用いた前記分類処理を行い、前記第1の部分画像が前記対象物に類似するか否かを判定し、前記第1の部分画像が前記対象物に類似すると判定した際に前記対象物検出信号を出力するように構成された第1の分類器モジュールと、
前記画像を受信するように前記画像取得モジュールと電気的に接続されていて、前記画像を前記機械学習ユニットに出力するように構成された出力モジュールと、を有する、請求項1に記載の対象物検出システム。
The detection unit is configured to receive a video, and
An image acquisition module for extracting the image from the received video;
A first partial image electrically connected to the image acquisition module to receive the image and configured to extract a first partial image as a part of the image to be determined from the image; 1 image processing module,
Electrically connected to the first image processing module to receive the first partial image, performing the classification process using the weak classifier parameters, wherein the first partial image is the target A first classifier module configured to determine whether the object is similar to an object, and to output the object detection signal when it is determined that the first partial image is similar to the object;
The object of claim 1, further comprising: an output module electrically connected to the image acquisition module to receive the image and configured to output the image to the machine learning unit. Detection system.
前記機械学習ユニットは、
前記検出ユニットの前記出力モジュールから前記画像を受信し、受信した前記画像から前記第1の部分画像と同一の内容を含む部分画像であって前記機械学習ユニットによる各前記判定の対象である前記画像の一部とする第2の部分画像を抽出するように構成された第2の画像処理モジュールと、
前記第2の部分画像及び前記画像を受信するように前記第2の画像処理モジュールに電気的に接続されていて、前記弱分類器パラメータ用いた分類処理と前記強分類器パラメータを用いた分類処理とによる各前記判定を行い、各前記判定の結果が異なる場合に、当該判定の対象となった前記画像を出力するように構成された第2の分類器モジュールと、
前記画像を受信するように前記第2の分類器モジュールに電気的に接続されていて、前記画像を訓練サンプルとして用いて前記第2の分類器モジュールのパラメータを訓練して新たな弱分類器パラメータを取得するように構成された訓練モジュールと、
前記新たな弱分類器パラメータを受信するように前記訓練モジュールに電気的に接続されていて、前記第2の分類器モジュールの前記弱分類器パラメータを前記新たな弱分類器パラメータによって更新し、更に前記検出ユニットの前記第1の分類器モジュールの前記弱分類器パラメータを前記新たな弱分類器パラメータによって更新するよう前記新たな弱分類器パラメータを前記検出ユニットに送信するように構成された更新モジュールと、を有する、請求項2に記載の対象物検出システム。
The machine learning unit is
The image received from the output module of the detection unit, the partial image including the same content as the first partial image from the received image, and the image to be determined by the machine learning unit A second image processing module configured to extract a second partial image as a part of
Classification processing using the weak classifier parameter and classification processing using the strong classifier parameter electrically connected to the second image processing module so as to receive the second partial image and the image A second classifier module configured to output each of the determination target images when the determination results are different and the determination results are different from each other;
New weak classifier parameters that are electrically connected to the second classifier module to receive the image and train the parameters of the second classifier module using the image as a training sample. A training module configured to obtain,
Electrically connected to the training module to receive the new weak classifier parameter, updating the weak classifier parameter of the second classifier module with the new weak classifier parameter; An update module configured to send the new weak classifier parameter to the detection unit to update the weak classifier parameter of the first classifier module of the detection unit with the new weak classifier parameter. The object detection system according to claim 2, further comprising:
前記対象物検出信号を受信するように前記検出ユニットに電気的に接続されているフィードバックユニットを更に具え、
前記フィードバックユニットは、前記検出ユニットが設けられた車両の運転状態に関連する車両信号を受信する上に、受信した前記車両信号に基づいて誤判定フィードバック信号を前記出力モジュールに出力できるように構成されていて、
前記出力モジュールは、前記誤判定フィードバック信号の受信に応じて、前記画像を前記機械学習ユニットの前記第2の画像処理モジュールに出力する、請求項3に記載の対象物検出システム。
A feedback unit electrically connected to the detection unit to receive the object detection signal;
The feedback unit is configured to receive a vehicle signal related to a driving state of a vehicle provided with the detection unit and to output an erroneous determination feedback signal to the output module based on the received vehicle signal. And
The object detection system according to claim 3, wherein the output module outputs the image to the second image processing module of the machine learning unit in response to reception of the erroneous determination feedback signal.
前記車両信号は、前記車両の走行速度を示す信号であり、
前記フィードバックユニットは、前記フィードバックユニットが前記対象物検出信号を受信しているが前記車両信号により示される前記車両の走行速度の減速率が予め設定された減速率閾値以下である状況と、前記フィードバックユニットが前記対象物検出信号を受信していないが前記車両信号により示される前記車両の走行速度の減速率が予め設定された減速率閾値よりも大きい状況とのいずれかの状況において、前記誤判定フィードバック信号を出力する、請求項4に記載の対象物検出システム。
The vehicle signal is a signal indicating a traveling speed of the vehicle,
The feedback unit is configured so that the feedback unit receives the object detection signal, but the deceleration rate of the traveling speed of the vehicle indicated by the vehicle signal is equal to or less than a preset deceleration rate threshold, and the feedback In a situation where the unit has not received the object detection signal but the deceleration rate of the traveling speed of the vehicle indicated by the vehicle signal is greater than a preset deceleration rate threshold, the erroneous determination The target object detection system according to claim 4 which outputs a feedback signal.
前記車両信号は、前記車両のブレーキペダルの移動量を示す信号であり、
前記フィードバックユニットは、前記フィードバックユニットが前記対象物検出信号を受信しているが前記車両信号により示される前記車両のブレーキペダルの移動量が予め設定されたブレーキペダル移動量閾値以下である状況と、前記フィードバックユニットが前記対象物検出信号を受信していないが前記車両信号により示される前記車両のブレーキペダルの移動量が予め設定されたブレーキペダル移動量閾値よりも大きい状況とのいずれかの状況において、前記誤判定フィードバック信号を出力する、請求項4に記載の対象物検出システム。
The vehicle signal is a signal indicating a movement amount of a brake pedal of the vehicle,
The feedback unit is configured such that the feedback unit receives the object detection signal, but the amount of movement of the brake pedal of the vehicle indicated by the vehicle signal is equal to or less than a preset brake pedal movement amount threshold; In any of the situations where the feedback unit does not receive the object detection signal but the amount of movement of the brake pedal of the vehicle indicated by the vehicle signal is greater than a preset brake pedal movement amount threshold The object detection system according to claim 4, wherein the erroneous determination feedback signal is output.
前記対象物は、前記車両に近接していて前記車両の運転の障害となるものであって、
前記フィードバックユニットは、前記車両に設けられる衝突センサにより出力される衝突信号と、前記車両から前記対象物までの距離を示す対象物距離信号との少なくともいずれかを更に受信できるように構成され、
前記フィードバックユニットは、前記フィードバックユニットが前記対象物検出信号を受信していないが前記衝突信号を受信した状況と、前記対象物距離信号により示される前記距離が前記車両の制動距離よりも小さい状況とのいずれかの状況においても、前記誤判定フィードバック信号を出力する、請求項4に記載の対象物検出システム。
The object is an obstacle to driving the vehicle in proximity to the vehicle,
The feedback unit is configured to further receive at least one of a collision signal output by a collision sensor provided in the vehicle and an object distance signal indicating a distance from the vehicle to the object,
The feedback unit includes a situation in which the feedback unit has not received the object detection signal but has received the collision signal, and a situation in which the distance indicated by the object distance signal is smaller than a braking distance of the vehicle. 5. The object detection system according to claim 4, wherein the erroneous determination feedback signal is output even in any of the situations described above.
前記車両信号は、前記車両の走行速度を示す信号であり、
前記車両の制動距離は、前記車両信号が示す前記走行速度に基づいて算出されたものである、請求項7に記載の対象物検出システム。
The vehicle signal is a signal indicating a traveling speed of the vehicle,
The object detection system according to claim 7, wherein the braking distance of the vehicle is calculated based on the traveling speed indicated by the vehicle signal.
前記更新モジュールは、前記新たな弱分類器パラメータの信頼度スコアを計算した上で、計算された当該信頼度スコアが前記弱分類器パラメータの信頼度スコアよりも大きいときに、前記新たな弱分類器パラメータによって前記第2の分類器モジュールの前記弱分類器パラメータを更新すると共に、前記第1の分類器モジュールの前記弱分類器パラメータを更新するよう前記新たな弱分類器パラメータを前記検出ユニットに送信するように構成されている、請求項3に記載の対象物検出システム。   The update module calculates the reliability score of the new weak classifier parameter, and when the calculated reliability score is larger than the reliability score of the weak classifier parameter, Updating the weak classifier parameter of the second classifier module with the classifier parameter and the new weak classifier parameter to the detection unit to update the weak classifier parameter of the first classifier module. The object detection system of claim 3, wherein the object detection system is configured to transmit. 検出ユニットと機械学習ユニットとを具える対象物検出システムによって実行される対象物検出方法であって、
(A)前記検出ユニットによって、画像を取得し、取得した前記画像の一部が所定の対象物に類似するか否かについて、弱分類器パラメータを用いた分類処理を実行して判定を行うステップと、
(B)前記画像の一部が所定の対象物に類似すると判定したときに、前記検出ユニットによって対象物検出信号を出力するステップと、
(C)前記検出ユニットによって、前記画像を前記機械学習ユニットに出力するステップと、
(D)前記機械学習ユニットによって、前記画像を受信してから、受信した前記画像の一部が対象物に類似するか否かについて、弱分類器パラメータを用いた分類処理と、強分類器パラメータを用いた分類処理とをそれぞれ実行して2つの判定を行うステップと、
(E)前記2つの判定の結果が異なるときに、前記機械学習ユニットによって、前記2つの判定の対象となった前記画像を用いて訓練処理を行うことにより新たな弱分類器パラメータを取得し、前記新たな弱分類器パラメータによって前記検出ユニットと前記機械学習ユニットそれぞれの弱分類器パラメータを更新するステップと、
を含むことを特徴とする対象物検出方法。
An object detection method executed by an object detection system comprising a detection unit and a machine learning unit,
(A) A step of acquiring an image by the detection unit and performing a classification process using weak classifier parameters to determine whether a part of the acquired image is similar to a predetermined object. When,
(B) outputting a target detection signal by the detection unit when it is determined that a part of the image is similar to a predetermined target;
(C) outputting the image to the machine learning unit by the detection unit;
(D) After the image is received by the machine learning unit, whether or not a part of the received image is similar to an object is classified using a weak classifier parameter, and a strong classifier parameter Performing two determinations by performing each of the classification processes using
(E) When the results of the two determinations are different, the machine learning unit acquires a new weak classifier parameter by performing a training process using the images subjected to the two determinations, Updating the weak classifier parameters of each of the detection unit and the machine learning unit with the new weak classifier parameters;
The object detection method characterized by including.
前記(A)ステップにおいては、前記検出ユニットによって、動画を受信し、受信した動画から画像を取り出すことにより前記画像を取得し、取得した前記画像から第1の部分画像を抽出して前記画像の一部とし、
前記(B)ステップにおいては、前記第1の部分画像が前記対象物に類似すると判定したときに前記対象物検出信号を出力する、請求項10に記載の対象物検出方法。
In the step (A), the detection unit receives a moving image, extracts the image from the received moving image, acquires the image, extracts a first partial image from the acquired image, and extracts the image As part
The object detection method according to claim 10, wherein in the step (B), the object detection signal is output when it is determined that the first partial image is similar to the object.
前記(D)ステップにおいては、前記画像から前記第1の部分画像と同じ内容を含む第2の部分画像を抽出して前記画像の一部とし、
前記(E)ステップにおいては、前記画像を訓練サンプルとして用いて前記訓練処理を行い、前記新たな弱分類器パラメータを前記更新のため前記検出ユニットに送信する、請求項11に記載の対象物検出方法。
In the step (D), a second partial image including the same content as the first partial image is extracted from the image and made a part of the image,
The object detection according to claim 11, wherein in the step (E), the training process is performed using the image as a training sample, and the new weak classifier parameter is transmitted to the detection unit for the update. Method.
前記対象物検出システムはフィードバックユニットを更に具えるものであって、
前記(B)ステップと前記(C)ステップの間に、前記フィードバックユニットによってそれぞれ行われるステップであって、
(a)前記検出ユニットが設けられた車両の運転状態に関連する車両信号を受信するステップと、
(b)受信した前記車両信号に基づいて誤判定フィードバック信号を前記検出ユニットに出力するステップと、を更に含み、
前記(C)ステップにおいては、前記誤判定フィードバック信号の受信に応じて、前記画像を前記機械学習ユニットに出力する、請求項12に記載の対象物検出方法。
The object detection system further comprises a feedback unit,
The steps performed by the feedback unit between the step (B) and the step (C), respectively.
(A) receiving a vehicle signal related to a driving state of a vehicle provided with the detection unit;
(B) outputting a false determination feedback signal to the detection unit based on the received vehicle signal;
The object detection method according to claim 12, wherein in the step (C), the image is output to the machine learning unit in response to reception of the erroneous determination feedback signal.
前記(a)ステップにおける前記車両信号は前記車両の走行速度を示す信号であり、
前記(b)ステップにおいては、前記フィードバックユニットが前記対象物検出信号を受信しているが前記車両信号により示される前記車両の走行速度の減速率が予め設定された減速率閾値以下である状況と、前記フィードバックユニットが前記対象物検出信号を受信していないが前記車両信号により示される前記車両の走行速度の減速率が予め設定された減速率閾値よりも大きい状況とのいずれかの状況において、前記誤判定フィードバック信号を出力する、請求項13に記載の対象物検出方法。
The vehicle signal in the step (a) is a signal indicating a traveling speed of the vehicle,
In the step (b), the feedback unit receives the object detection signal, but the deceleration rate of the traveling speed of the vehicle indicated by the vehicle signal is not more than a preset deceleration rate threshold value; In any of the situations where the feedback unit has not received the object detection signal, but the deceleration rate of the traveling speed of the vehicle indicated by the vehicle signal is greater than a preset deceleration rate threshold value, The object detection method according to claim 13, wherein the erroneous determination feedback signal is output.
前記(a)ステップにおける前記車両信号は前記車両のブレーキペダルの移動量を示す信号であり、
前記(b)ステップにおいては、前記フィードバックユニットが前記対象物検出信号を受信しているが前記車両信号により示される前記車両のブレーキペダルの移動量が予め設定されたブレーキペダル移動量閾値以下である状況と、前記フィードバックユニットが前記対象物検出信号を受信していないが前記車両信号により示される前記車両のブレーキペダルの移動量が予め設定されたブレーキペダル移動量閾値よりも大きい状況とのいずれかの状況において、前記誤判定フィードバック信号を出力する、請求項13に記載の対象物検出方法。
The vehicle signal in the step (a) is a signal indicating a movement amount of a brake pedal of the vehicle,
In the step (b), the feedback unit receives the object detection signal, but the movement amount of the brake pedal of the vehicle indicated by the vehicle signal is equal to or less than a preset brake pedal movement amount threshold value. Either the situation or the situation where the feedback unit does not receive the object detection signal but the movement amount of the brake pedal of the vehicle indicated by the vehicle signal is larger than a preset brake pedal movement amount threshold value The object detection method according to claim 13, wherein the erroneous determination feedback signal is output in the situation described above.
前記対象物は、前記車両に近接していて前記車両の運転の障害となるものであって、
前記(a)ステップにおいては、前記フィードバックユニットが、前記車両に設けられる衝突センサにより出力される衝突信号と、前記車両から前記対象物までの距離を示す対象物距離信号との少なくともいずれかを更に受信し、
前記(b)ステップにおいては、前記フィードバックユニットが前記対象物検出信号を受信していないが前記衝突信号を受信した状況と、前記対象物距離信号により示される前記距離が前記車両の制動距離よりも小さい状況とのいずれかの状況においても、前記誤判定フィードバック信号を出力する、請求項13に記載の対象物検出方法。
The object is an obstacle to driving the vehicle in proximity to the vehicle,
In the step (a), the feedback unit further outputs at least one of a collision signal output from a collision sensor provided in the vehicle and an object distance signal indicating a distance from the vehicle to the object. Receive
In the step (b), the feedback unit does not receive the object detection signal but receives the collision signal, and the distance indicated by the object distance signal is greater than the braking distance of the vehicle. The object detection method according to claim 13, wherein the erroneous determination feedback signal is output even in any of the small situations.
前記(a)ステップにおける前記車両信号は、前記車両の走行速度を示す信号であり、
前記(b)ステップにおける前記車両の制動距離は、前記車両信号が示す前記走行速度に基づいて算出される、請求項16に記載の対象物検出方法。
The vehicle signal in the step (a) is a signal indicating a traveling speed of the vehicle,
The object detection method according to claim 16, wherein the braking distance of the vehicle in the step (b) is calculated based on the traveling speed indicated by the vehicle signal.
前記(E)ステップにおいては、前記機械学習ユニットによって、前記訓練処理を行った後に、前記新たな弱分類器パラメータの信頼度スコアを計算した上で、計算された当該信頼度スコアが前記弱分類器パラメータの信頼度スコアよりも大きいときに、前記新たな弱分類器パラメータによって前記機械学習ユニットの前記弱分類器パラメータを更新すると共に、前記新たな弱分類器パラメータを前記更新のため前記検出ユニットに送信する、請求項12に記載の対象物検出方法。   In the step (E), after the training process is performed by the machine learning unit, the reliability score of the new weak classifier parameter is calculated, and the calculated reliability score is used as the weak classification. Updating the weak classifier parameter of the machine learning unit with the new weak classifier parameter when the confidence score of the classifier parameter is greater than the confidence score, and detecting the new weak classifier parameter for the update in the detection unit The object detection method according to claim 12, wherein the object detection method is transmitted.
JP2016252936A 2016-04-22 2016-12-27 Object detection system and object detection method Active JP6301440B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
TW105112559 2016-04-22
TW105112559A TWI592883B (en) 2016-04-22 2016-04-22 Image recognition system and its adaptive learning method

Publications (2)

Publication Number Publication Date
JP2017194949A JP2017194949A (en) 2017-10-26
JP6301440B2 true JP6301440B2 (en) 2018-03-28

Family

ID=60021326

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016252936A Active JP6301440B2 (en) 2016-04-22 2016-12-27 Object detection system and object detection method

Country Status (3)

Country Link
JP (1) JP6301440B2 (en)
DE (1) DE102016226204B4 (en)
TW (1) TWI592883B (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111542834A (en) * 2017-12-27 2020-08-14 大众汽车(中国)投资有限公司 Processing method, processing device, control equipment and cloud server
US10467486B2 (en) 2017-12-29 2019-11-05 Automotive Research & Testing Center Method for evaluating credibility of obstacle detection
JP2019139316A (en) * 2018-02-06 2019-08-22 国立大学法人 東京大学 Discrimination system, discrimination device, discrimination method, and discrimination program
JP7198599B2 (en) * 2018-06-28 2023-01-04 株式会社カーメイト Image processing device, image processing method, drive recorder
CN112386249B (en) * 2019-08-14 2023-09-19 中移(苏州)软件技术有限公司 Fall detection method and device, equipment and storage medium
JP7308775B2 (en) * 2020-02-12 2023-07-14 株式会社日立ハイテク Machine learning method and information processing device for machine learning
US11390249B2 (en) 2020-08-05 2022-07-19 Ford Global Technologies, Llc Vehicle vision system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5115390B2 (en) * 2008-08-04 2013-01-09 住友電気工業株式会社 Mobile object identification device, computer program, and learning method of mobile object identification device
JP5388291B2 (en) * 2009-09-14 2014-01-15 住友電気工業株式会社 Discriminator generation method, computer program, discriminator generation device, and predetermined object detection device
JP5401344B2 (en) 2010-01-28 2014-01-29 日立オートモティブシステムズ株式会社 Vehicle external recognition device
JP2013152654A (en) * 2012-01-26 2013-08-08 Toyota Central R&D Labs Inc Discriminator, discriminator construction device and program
WO2014103433A1 (en) * 2012-12-25 2014-07-03 本田技研工業株式会社 Vehicle periphery monitoring device

Also Published As

Publication number Publication date
DE102016226204A1 (en) 2017-10-26
DE102016226204B4 (en) 2019-03-07
TW201738806A (en) 2017-11-01
TWI592883B (en) 2017-07-21
JP2017194949A (en) 2017-10-26

Similar Documents

Publication Publication Date Title
JP6301440B2 (en) Object detection system and object detection method
US11003921B2 (en) Apparatus and method for distinguishing false target in vehicle and vehicle including the same
CN106485233B (en) Method and device for detecting travelable area and electronic equipment
US11703860B2 (en) Automated driving apparatus
US9842283B2 (en) Target object detection system and a method for target object detection
US11216676B2 (en) Information processing system and information processing method
JP6407626B2 (en) Object recognition device and vehicle control system
CN106985780A (en) Vehicle safety accessory system
KR102268032B1 (en) Server device and vehicle
US11034293B2 (en) System for generating warnings for road users
KR20150096924A (en) System and method for selecting far forward collision vehicle using lane expansion
JP2019012481A (en) Driving diagnostic device and driving diagnostic method
US9365195B2 (en) Monitoring method of vehicle and automatic braking apparatus
US11420624B2 (en) Vehicle control apparatus and vehicle control method
KR102545109B1 (en) Apparatus and method for removing false target in vehicle and vehicle including the same
JP2022172444A (en) Method and assist device for assisting traveling operation of motor vehicle, and motor vehicle
CN109195849B (en) Image pickup apparatus
KR20230095751A (en) Apparatus for predicting camera sensor failure using deep learning and method thereof
US11919544B2 (en) Method and device for operating an automated vehicle
US20170349171A1 (en) Controlling a protection device of a motor vehicle
US11488481B2 (en) Method for assisting a motor vehicle
US20220237926A1 (en) Travel management device, travel management method, and recording medium
CN113591673A (en) Method and device for recognizing traffic signs
KR101748271B1 (en) Electronic System Mounted on Vehicle And Operating Method Therefor
JP7441839B2 (en) Abnormality detection device, abnormality detection method, program and information processing system

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180228

R150 Certificate of patent or registration of utility model

Ref document number: 6301440

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250