JP2007058751A - Apparatus, method, and program for discriminating object - Google Patents

Apparatus, method, and program for discriminating object Download PDF

Info

Publication number
JP2007058751A
JP2007058751A JP2005245950A JP2005245950A JP2007058751A JP 2007058751 A JP2007058751 A JP 2007058751A JP 2005245950 A JP2005245950 A JP 2005245950A JP 2005245950 A JP2005245950 A JP 2005245950A JP 2007058751 A JP2007058751 A JP 2007058751A
Authority
JP
Japan
Prior art keywords
discrimination
image
determination
discriminating
result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005245950A
Other languages
Japanese (ja)
Inventor
Katsumi Sakata
克己 阪田
Minoru Fujioka
稔 藤岡
Koji Yamashita
浩嗣 山下
Yoshinori Ishii
美紀 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2005245950A priority Critical patent/JP2007058751A/en
Publication of JP2007058751A publication Critical patent/JP2007058751A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To prevent the reduction of accuracy in the case of discriminating an object in an image by an object discrimination apparatus. <P>SOLUTION: The object discrimination apparatus includes a synthetic discrimination table for leading out a final object discrimination result. In order to lead out the final object discrimination result by using the synthetic discrimination table, a candidate object to be discriminated is detected from an image at first. Then the candidate object detected from the image is discriminated. For instance, when both of discrimination results transmitted from a pattern matching means and a neural network means are "a prescribed object" (e.g. a pedestrian) as shown in Fig.1, a synthetic discrimination result that the object is finally discriminated as the "prescribed object" (e.g. pedestrian) is led out while collating it with the synthetic discrimination table. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

この発明は、物体判別装置、物体判別方法および物体判別プログラムに関する。   The present invention relates to an object discrimination device, an object discrimination method, and an object discrimination program.

従来より、例えば、車両走行の障害となりうる物体を検出し、その物体との衝突を回避する技術が開発されてきている。そこで、そのような車両周辺にある障害物となるような物体を検出するために、カメラなどを用いて車両周辺を撮影しておき、撮像した画像を処理する技術が存在する。その画像内に映し出された物体を検出方法として、例えば、背景差分法がある。このような、背景差分法では、現入力されている現画像とその直前に入力されていた直前画像との各画素を比較し、差分が抽出された領域に直前画像では見られなかった物体が存在するものとし、その物体を走行障害の候補になるものとして画像内から検出している。このような方法を用いれば、走行障害の候補となる物体は検出されるが、検出された物体がどのようなものであるかが未だ判明しない。   2. Description of the Related Art Conventionally, for example, a technique for detecting an object that can be an obstacle to vehicle travel and avoiding a collision with the object has been developed. Therefore, in order to detect such an object that is an obstacle around the vehicle, there is a technique for photographing the periphery of the vehicle using a camera or the like and processing the captured image. As a method for detecting an object displayed in the image, for example, there is a background subtraction method. In such a background difference method, each pixel of the current image currently input and the immediately preceding image input immediately before is compared, and an object that is not seen in the immediately preceding image is found in the region where the difference is extracted. It is assumed that the object exists, and the object is detected from the image as a candidate for a travel obstacle. If such a method is used, an object that is a candidate for a running obstacle is detected, but it is still unclear what the detected object is.

そこで、画像内から検出された走行障害の候補となる物体に対し、その物体が何であるかを判別する代表的な画像処理手法として、パターンマッチングやニューラルネットワーク(Neural Network:神経回路網)がある(例えば、特許文献1、2参照)。そして、一般的にこれらの物体判別手法のいずれか一つを用いて画像内の物体判別が行われている。   Therefore, pattern matching and neural network (Neural Network) are typical image processing methods for determining what is an object that is a candidate for a running obstacle detected from within an image. (For example, refer to Patent Documents 1 and 2). In general, any one of these object discrimination methods is used to discriminate an object in an image.

このうち、このパターンマッチング方法では、画像内から検出された走行障害の候補となる物体に全てのテンプレートをあてはめて、その物体が特定の物体(例えば、歩行者)であるか否かをテンプレートと候補物体との一致度合によって判別する画像処理を行っている。   Among these, in this pattern matching method, all templates are assigned to objects that are candidates for running obstacles detected from within an image, and whether or not the object is a specific object (for example, a pedestrian) is used as a template. Image processing is performed based on the degree of coincidence with the candidate object.

また、ニューラルネットワークとは、人間の脳の構造を真似て作成した情報処理機構であり、人間の脳の中に張り巡らされた「ニューロン」と呼ばれる神経細胞の複雑な組合せ構造を応用したネットワークを構成することで、人間の得意とする物体判別を情報処理機構に取り入れて実現する方法である。具体的には、あらかじめ学習して記憶している物体のパターンと画像内から検出された走行障害の候補となる物体と照らし合わせて、その物体が特定の物体(例えば、歩行者)であるか否か判別する画像処理を行っている。   A neural network is an information processing mechanism created by imitating the structure of the human brain. It is a network that applies a complex combination of neurons, called neurons, that stretches around the human brain. By configuring, it is a method of implementing object discrimination that humans are good at by incorporating it into an information processing mechanism. Specifically, whether the object is a specific object (for example, a pedestrian) by comparing the object pattern that has been learned and stored in advance with an object that is a candidate for a running obstacle detected from within the image Image processing is performed to determine whether or not.

特開昭59−226981号公報JP 59-226981 A 特開平6−231258号公報JP-A-6-231258

ところで、上記した従来の技術は、以下に説明するように、物体判別の精度低下が考えられる場合があるという問題があった。   By the way, as described below, the above-described conventional technique has a problem that the accuracy of object discrimination may be reduced.

すなわち、画像内に映し出された物体を判別する手法としてパターンマッチングを用いた場合には、あらかじめ所持するテンプレートを画像の全領域にあてはめる処理を行っていたので、一定間隔で入力される画像に対して処理が間に合わずに、結果的に物体判別の精度の低下につながる場合もあることが考えられるという問題があった。   In other words, when pattern matching is used as a method for discriminating objects displayed in an image, a template that has been held in advance is applied to the entire area of the image. As a result, there is a problem that the processing may not be in time, and as a result, the accuracy of object discrimination may be reduced.

また、ニューラルネットワークを用いた場合は、物体判別を行う際の処理速度はテンプレートマッチングに比べ早いが、物体判別の精度が天候に左右されやすく、テンプレートマッチングと同様に物体判別の精度が低下する場合もあることが考えられるという問題があった。   In addition, when using a neural network, the processing speed when performing object discrimination is faster than template matching, but the accuracy of object discrimination is likely to be affected by the weather, and the accuracy of object discrimination is reduced as with template matching. There was also a problem that there could be.

したがって、これらの物体判別手法のいずれか一つを用いて画像内の物体判別を行っていたのでは、常に精度よく画像内の物体を判別できるわけではない。   Therefore, if an object in an image is determined using any one of these object determination methods, it is not always possible to accurately determine an object in the image.

なお、車載用の監視カメラなどにおいて物体判別を行う場合に、その判別の精度が低下する場合もあることが考えられるのでは、車両運転中に危険を予測し、いち早く危険を回避する上でも問題がある。   In addition, when performing object discrimination with an in-vehicle surveillance camera, etc., it is possible that the accuracy of the discrimination may be reduced, so it is also a problem in predicting danger while driving the vehicle and avoiding danger as soon as possible. There is.

そこで、この発明は、上述した従来技術の課題を解決するためになされたものであり、画像内の物体を判別する際の精度低下を防止することが可能な物体判別装置、物体判別方法および物体判別プログラムを提供することを目的とする。   Therefore, the present invention has been made to solve the above-described problems of the prior art, and an object discrimination device, an object discrimination method, and an object that can prevent a reduction in accuracy when discriminating an object in an image. An object is to provide a discrimination program.

上述した課題を解決し、目的を達成するため、請求項1に係る発明は、画像内の物体を判別する物体判別装置において、複数の物体判別手法を用いて前記画像内で検出された物体を各物体判別手法ごとに判別する第一の物体判別手段と、前記第一の物体判別手段による各判別結果から前記画像上の物体について一つの判別結果を導き出す第二の物体判別手段と、を備えたことを特徴とする。   In order to solve the above-described problems and achieve the object, the invention according to claim 1 is an object discriminating apparatus for discriminating an object in an image, and detects an object detected in the image using a plurality of object discriminating methods. First object discrimination means for discriminating each object discrimination method; and second object discrimination means for deriving one discrimination result for the object on the image from each discrimination result by the first object discrimination means. It is characterized by that.

また、請求項2に係る発明は、上記の発明において、前記第二の物体判別手段は、前記第一の物体判別手段による各判別結果の全てが前記画像上の物体を所定の物体であると判別するものである場合には、前記画像上の物体は所定の物体であるとする一つの判別結果を導き出すことを特徴とする。   In the invention according to claim 2, in the above invention, the second object discriminating unit may be configured such that all of the discrimination results by the first object discriminating unit are objects on the image as predetermined objects. In the case of discrimination, one discrimination result is derived that the object on the image is a predetermined object.

また、請求項3に係る発明は、上記の発明において、前記第二の物体判別手段は、前記第一の物体判別手段による各判別結果のうち一つでも前記画像上の物体を所定の物体であると判別するものがある場合には、前記画像上の物体は所定の物体であるとする一つの判別結果を導き出すことを特徴とする。   In the invention according to claim 3, in the above invention, the second object discriminating unit may use at least one of the discrimination results by the first object discriminating unit as an object on the image. If there is something that is determined to be present, one determination result that the object on the image is a predetermined object is derived.

また、請求項4に係る発明は、上記の発明において、前記第一の物体判別手段は、前記画像上の物体の判別値を算出するものであって、前記第二の物体判別手段は、前記第一の物体判別手段による各判別値をそれぞれ所定の値に換算した後に、それぞれ足し合わせた判別値の合計値が所定の閾値を超えている場合には、前記画像上の物体を所定の物体であるとする一つの判別結果を導き出すことを特徴とする。   According to a fourth aspect of the present invention, in the above invention, the first object discrimination means calculates a discrimination value of an object on the image, and the second object discrimination means After each discriminant value by the first object discriminating means is converted into a predetermined value, if the total sum of the discriminant values exceeds a predetermined threshold, the object on the image is It is characterized by deriving one discrimination result as.

また、請求項5に係る発明は、上記の発明において、前記第二の物体判別手段は、前記画像上の所定の距離範囲内の物体については、前記第一物体判別手段による各判別結果の全てが前記画像上の物体を所定の物体であると判別するものである場合には、前記画像上の物体は所定の物体であるとする一つの判別結果を導き出し、また、前記画像上の所定の距離範囲外の物体については、前記第一物体判別手段による各判別結果のうち一つでも前記画像上の物体を所定の物体であると判別するものがある場合には、前記画像上の物体は所定の物体であるとする一つの判別結果を導き出すことを特徴とする。   Further, in the invention according to claim 5, in the above invention, the second object discriminating unit may determine all the discrimination results by the first object discriminating unit for objects within a predetermined distance range on the image. When determining that the object on the image is a predetermined object, a determination result that the object on the image is a predetermined object is derived, and the predetermined object on the image As for an object outside the distance range, if there is one that determines that an object on the image is a predetermined object from among the determination results by the first object determination means, the object on the image is It is characterized by deriving one discrimination result indicating that the object is a predetermined object.

また、請求項6に係る発明は、上記の発明において、前記第二の物体判別手段は、天候に応じて、前記第一物体判別手段による各判別結果から一つの判別結果を導き出すことを特徴とする。   The invention according to claim 6 is characterized in that, in the above invention, the second object discrimination means derives one discrimination result from each discrimination result by the first object discrimination means according to the weather. To do.

また、請求項7に係る発明は、上記の発明において、前記第二の物体判別手段は、処理負荷に応じて、前記第一物体判別手段による各判別結果から一つの判別結果を導き出すことを特徴とする。   The invention according to claim 7 is characterized in that, in the above invention, the second object discrimination means derives one discrimination result from each discrimination result by the first object discrimination means in accordance with a processing load. And

また、請求項8に係る発明は、上記の発明において、前記第二の物体判別手段による各判別結果に応じて、車両を制御する車両制御手段をさらに備えたことを特徴とする。   Further, the invention according to claim 8 is characterized in that, in the above-mentioned invention, vehicle control means for controlling the vehicle is further provided according to each discrimination result by the second object discrimination means.

また、請求項9に係る発明は、上記の発明において、前記第二の判別手段による各判別結果に応じて、前記車両に対して警告を報知する警告報知手段をさらに備えたことを特徴とする。   The invention according to claim 9 is characterized in that, in the above-mentioned invention, the apparatus further comprises warning notifying means for notifying the vehicle according to each determination result by the second determining means. .

また、請求項10に係る発明は、上記の発明において、画像内の物体を判別する物体判別方法において、複数の物体判別手法を用いて前記画像内で検出された物体を各物体判別手法ごとに判別する第一の物体判別工程と、前記第一の物体判別手段による各判別結果から前記画像上の物体について一つの判別結果を導き出す第二の物体判別工程と、を含んだことを特徴とする。   According to a tenth aspect of the present invention, in the object discrimination method for discriminating an object in an image according to the above invention, an object detected in the image using a plurality of object discrimination methods is determined for each object discrimination method. A first object discrimination step for discrimination; and a second object discrimination step for deriving one discrimination result for the object on the image from each discrimination result by the first object discrimination means. .

また、請求項11に係る発明は、上記の発明において、画像内の物体を判別する方法をコンピュータに実行させる物体判別プログラムにおいて、複数の物体判別手法を用いて前記画像内で検出された物体を各物体判別手法ごとに判別する第一の物体判別手順と、前記第一の物体判別手段による各判別結果から前記画像上の物体について一つの判別結果を導き出す第二の物体判別手順と、をコンピュータに実行させることを特徴とする。   According to an eleventh aspect of the present invention, in the above-described invention, in an object determination program for causing a computer to execute a method for determining an object in an image, an object detected in the image using a plurality of object determination methods is detected. A first object discrimination procedure for discriminating each object discrimination method, and a second object discrimination procedure for deriving one discrimination result for the object on the image from each discrimination result by the first object discrimination means It is made to perform.

請求項1、10および11の発明によれば、この物体判別装置は、複数の物体判別手法よる各物体判別結果から、一つの判別結果を導き出すことで画像内の物体を判別するので、一つの物体判別手法を用いて画像内の物体を判別するのに比べてその精度が低下するのを防止することが可能となる。   According to the first, tenth, and eleventh aspects of the present invention, the object discriminating apparatus discriminates an object in the image by deriving one discrimination result from each object discrimination result by a plurality of object discrimination methods. It is possible to prevent the accuracy from being lowered as compared with the case where an object in an image is determined using an object determination method.

また、請求項2の発明によれば、この物体判別装置は、複数の物体判別手法による各物体判別結果の全てが、画像内の物体を所定の物体であるとするものである場合には、画像内の物体を所定の物体であるとする判別結果を導き出すことで物体判別するので、一つの物体判別手法を用いて画像内の物体を判別するのに比べてその精度が低下するのを防止することが可能となる。   According to the invention of claim 2, in the object discrimination device, when all of the object discrimination results by the plurality of object discrimination methods are such that the object in the image is a predetermined object, Since the object is determined by deriving the determination result that the object in the image is a predetermined object, the accuracy is prevented from being reduced compared to the case of determining the object in the image using one object determination method. It becomes possible to do.

また、請求項3の発明によれば、この物体判別装置は、複数の物体判別手法による各物体判別結果のうちいずれか一つでも画像内の物体を所定の物体であるとするものである場合には、画像内の物体を所定の物体であるとする判別結果を導き出すことで物体判別するので、一つの物体判別手法を用いて画像内の物体を判別するのに比べて、画像内の物体を判別できることが考えられ、結果的に物体判別の精度が低下するのを防止することが可能となる。   According to the invention of claim 3, the object discriminating apparatus assumes that any one of the object discrimination results obtained by the plurality of object discrimination methods is a predetermined object. Since the object is identified by deriving the determination result that the object in the image is the predetermined object, the object in the image is compared with the case where the object in the image is determined using one object determination method. Can be discriminated, and as a result, it is possible to prevent the accuracy of object discrimination from being lowered.

また、請求項4の発明によれば、この物体判別装置は、複数の物体検出手法により算出された判別値を足し合わせて、その足し合わせた判別値が所定の閾値を超えていれば画像内の物体を所定の物体であるとする判別結果を導き出すことで物体判別を行うので、一つの物体判別手法を用いて画像内の物体を判別するのに比べてその精度が低下するのを防止することが可能となる。   According to the invention of claim 4, the object discriminating apparatus adds the discriminant values calculated by a plurality of object detection methods, and if the sum of discriminant values exceeds a predetermined threshold, Since the object discrimination is performed by deriving the discrimination result that the object is a predetermined object, it is possible to prevent the accuracy from being lowered compared to the case where the object in the image is discriminated using one object discrimination method. It becomes possible.

また、請求項5の発明によれば、この物体判別装置は、画像内の所定の距離範囲内にある物体については、複数の物体判別手法による各物体判別結果の全てが、画像内の物体を所定の物体であるとするものである場合には、画像内の物体を所定の物体であるとする判別結果を導き出し、画像内の所定の距離範囲外にある物体については、複数の物体判別手法による各物体判別結果のうちいずれか一つでも画像内の物体を所定の物体であるとするものである場合には、画像内の物体を所定の物体であるとする判別結果を導き出すことで物体判別するので、物体判別の必要性の高い近距離に位置する物体の判別については、一つの物体判別手法を用いて画像内の物体を判別するのに比べてその精度が低下するのを防止することが可能となる。   According to the invention of claim 5, the object discriminating apparatus is configured such that, for an object within a predetermined distance range in the image, all the object discrimination results by the plurality of object discriminating methods are the objects in the image. If it is determined that the object is a predetermined object, a determination result that the object in the image is the predetermined object is derived, and a plurality of object determination methods are used for an object outside the predetermined distance range in the image. If any object in the image is determined to be a predetermined object, the object is obtained by deriving the determination result that the object in the image is a predetermined object. Since it is discriminated, the accuracy of discriminating an object located at a short distance, which is highly necessary for discriminating objects, is prevented compared to discriminating an object in an image using one object discriminating method. It becomes possible.

また、請求項6の発明によれば、この物体判別装置は、天候に応じて、複数の物体検出手法による各物体判別結果から一つの判別結果を導き出すことで物体判別を行うので、一つの物体判別手法を用いて画像内の物体を判別するのに比べて、天候によりその精度が低下するのを防止することが可能となる。   According to the invention of claim 6, this object discrimination device performs object discrimination by deriving one discrimination result from each object discrimination result by a plurality of object detection methods according to the weather. Compared to discriminating an object in an image using a discrimination method, it is possible to prevent the accuracy from being lowered due to the weather.

また、請求項7の発明によれば、この物体判別装置は、処理負荷に応じて、複数の物体検出手法による各物体判別結果から一つの判別結果を導き出すことで物体判別を行うので、一つの物体判別手法を用いて画像内の物体を判別するのに比べて、処理負荷によりその精度が低下するのを防止することが可能となる。   Further, according to the invention of claim 7, the object discrimination device performs object discrimination by deriving one discrimination result from each object discrimination result by a plurality of object detection methods according to the processing load. As compared with the case where an object in an image is discriminated using an object discriminating method, it is possible to prevent the accuracy from being lowered due to a processing load.

また、請求項8の発明によれば、この物体判別装置は、複数の物体検出手法による各物体判別結果に応じて車両の制御を行うので、一つの物体判別手法による物体判別結果に応じて車両制御を行うのに比べて、より適切に車両制御を行うことが可能となる。   In addition, according to the invention of claim 8, since the object discriminating apparatus controls the vehicle according to each object discriminating result by the plurality of object detecting methods, the object discriminating vehicle Compared with performing control, it becomes possible to perform vehicle control more appropriately.

また、請求項9の発明によれば、この物体判別装置は、複数の物体検出手法による各物体判別結果に応じて警告の報知を行うので、一つの物体判別手法による物体判別結果に応じて警告の報知を行うのに比べて、より適切に警告の報知を行うことが可能となる。   According to the invention of claim 9, since the object discriminating apparatus issues a warning in accordance with each object discrimination result obtained by a plurality of object detection methods, the object discrimination device warns according to the object discrimination result obtained by one object discrimination method. It is possible to more appropriately notify the warning as compared to the above notification.

以下に添付図面を参照して、この発明に係る物体判別装置、物体判別方法および物体判別プログラムの実施例を詳細に説明する。なお、以下の実施例では、車載の撮像装置で画像内に撮像された物体を判別する場合について説明する。   Exemplary embodiments of an object discrimination device, an object discrimination method, and an object discrimination program according to the present invention will be described below in detail with reference to the accompanying drawings. In the following embodiments, a case will be described in which an in-vehicle imaging device discriminates an object imaged in an image.

以下の実施例1では、実施例1に係る物体判別装置の概要および特徴、物体判別装置の構成および処理の流れを順に説明し、最後に実施例1による効果を説明する。なお、以下の実施例1では、車載の撮像装置を用いて撮像された画像内の物体を判別する場合について説明する。   In the following first embodiment, the outline and features of the object discriminating apparatus according to the first embodiment, the configuration of the object discriminating apparatus, and the flow of processing will be described in order, and finally the effects of the first embodiment will be described. In the following first embodiment, a case will be described in which an object in an image captured using an in-vehicle imaging device is determined.

[概要および特徴(実施例1)]
まず最初に、図1を用いて、実施例1に係る物体判別装置の概要および特徴を説明する。図1は、実施例1に係る物体判別装置の概要を説明するための図である。同図に示すように、実施例1に係る物体判別装置は、画像内の物体を判別することを概要とするものであるが、複数の物体判別手法を用いて画像内の物体を判別する点に主たる特徴があり、これにより、画像内の物体を判別する際の精度低下を防止できるようにしている。
[Outline and Features (Example 1)]
First, the outline and features of the object discrimination device according to the first embodiment will be described with reference to FIG. FIG. 1 is a diagram for explaining the outline of the object determination device according to the first embodiment. As shown in the figure, the object discriminating apparatus according to the first embodiment has an outline of discriminating an object in an image. However, an object in an image is discriminated using a plurality of object discriminating methods. There is a main feature, and this makes it possible to prevent a decrease in accuracy when an object in an image is discriminated.

この主たる特徴について簡単に説明すると、この物体判別装置は、最終的な物体判別結果を導き出すための総合判別テーブルを所持する。そして、この総合判別テーブルを用いて最終的な物体判別結果を導き出すために、まず、画像内から判別の対象となる候補物体の検出を行う。この候補物体の検出は、背景差分法や顕著性算出法などを用いた画像処理により行う。   Briefly explaining the main features, the object discriminating apparatus possesses a comprehensive discrimination table for deriving a final object discrimination result. In order to derive a final object discrimination result using this comprehensive discrimination table, first, candidate objects to be discriminated are detected from the image. The candidate object is detected by image processing using a background difference method, a saliency calculation method, or the like.

次に、画像内から検出した候補物体の判別を行う。この判別は、パターンマッチング手法およびニューラルネットワーク手法を用いて行う。そして、各手法による各物体判別結果を総合判別テーブルに照らし合わせて最終的に一つの物体判別結果を導き出す。例えば、図1に示すように、パターンマッチング手法およびニューラルネットワーク手法による各判別結果がともに「歩行者」であるとするものであった場合には、総合判別テーブルに照らし合わせて最終的に「歩行者」とする判別結果を導き出す。その一方、パターンマッチング手法およびニューラルネットワーク手法による各判別結果がともに「歩行者ではない」とするものであった場合には、総合判別テーブルに照らし合わせて最終的に「歩行者ではない」とする判別結果を導き出す。   Next, the candidate object detected from within the image is determined. This discrimination is performed using a pattern matching method and a neural network method. Then, each object discrimination result by each method is checked against the comprehensive discrimination table to finally derive one object discrimination result. For example, as shown in FIG. 1, if each of the discrimination results by the pattern matching method and the neural network method is “pedestrian”, the final result is “walking” against the comprehensive discrimination table. The result of the determination of “person” is derived. On the other hand, if each of the discrimination results by the pattern matching method and the neural network method is “not a pedestrian”, it is finally judged as “not a pedestrian” in light of the comprehensive discrimination table. The discrimination result is derived.

このように、この物体判別装置は、複数の物体判別手法よる各物体判別結果から、一つの判別結果を導き出すことで画像内の物体を判別するので、一つの物体判別手法を用いて画像内の物体を判別するのに比べてその精度が低下するのを防止することが可能となる。   As described above, this object discrimination device discriminates an object in an image by deriving one discrimination result from each object discrimination result by a plurality of object discrimination methods. It is possible to prevent the accuracy from being lowered as compared with the case of discriminating an object.

[物体判別装置の構成(実施例1)]
次に、図2を用いて、図1に示した物体判別装置30の構成を説明する。図2は、物体判別装置30の構成を示すブロック図である。同図に示すように、この物体判別装置30は、ナビ部11、レーダ部12、前処理部13、物体検出装置14、衝突危険度判定部15に接続される。また、物体判別装置30は、記憶部31と、制御部32とから構成される。
[Configuration of Object Discriminating Device (Example 1)]
Next, the configuration of the object discrimination device 30 shown in FIG. 1 will be described with reference to FIG. FIG. 2 is a block diagram showing a configuration of the object discrimination device 30. As shown in the figure, the object determination device 30 is connected to a navigation unit 11, a radar unit 12, a preprocessing unit 13, an object detection device 14, and a collision risk determination unit 15. The object discrimination device 30 includes a storage unit 31 and a control unit 32.

このうち、ナビ(ナビゲーション)部11は、GPS(Global Positioning System)人工衛星と通信を行って、特定した自動車の位置と地図データとから走行経路の設定および誘導を行う手段である。また、ナビ部11は、自動車の位置情報や道路形状、路幅、傾斜など車両運転操作に有用な各種の情報を運転者に供給する。   Among them, the navigation (navigation) unit 11 is a means for setting and guiding a travel route from the specified vehicle position and map data by communicating with a GPS (Global Positioning System) artificial satellite. The navigation unit 11 also supplies the driver with various types of information useful for vehicle driving operations such as vehicle position information, road shape, road width, and inclination.

レーダ部12は、レーダ(例えば、76.5GHzのミリ波)を照射して、前方の車両や障害物との距離や速度、方向などを測定する手段である。前処理部13は、撮像装置10(例えば、可視光カメラ、単眼カメラ、ステレオカメラ)から送信されてくる画像に前処理を行う処理部であり、フィルタ部13aと輪郭抽出部13bとから構成される。このうち、フィルタ部13aは、画像内に映し出された物体の輪郭を強調するための前処理(例えば、シャープネス、コントラスト調整、彩度調整)を行う手段である。また、輪郭抽出部13bは、フィルタ部13aによって施されたフィルタリングに基づいて、画像内の物体の輪郭を抽出する手段である。   The radar unit 12 is means for irradiating a radar (for example, 76.5 GHz millimeter wave) and measuring a distance, speed, direction, and the like with a vehicle or an obstacle ahead. The preprocessing unit 13 is a processing unit that performs preprocessing on an image transmitted from the imaging device 10 (for example, a visible light camera, a monocular camera, or a stereo camera), and includes a filter unit 13a and a contour extraction unit 13b. The Among these, the filter unit 13a is means for performing preprocessing (for example, sharpness, contrast adjustment, and saturation adjustment) for enhancing the outline of an object displayed in the image. The contour extracting unit 13b is means for extracting the contour of the object in the image based on the filtering performed by the filter unit 13a.

物体検出装置14は、撮像装置10から前処理部13を介して受け付けた画像から物体を検出する(画像内の領域を絞り込む)装置である。例えば、背景差分法(フレーム間差分法)あるいは顕著性算出方法を用いた画像処理により画像内に映し出された物体が占める領域を検出する(テンプレートをあてはめる領域を絞り込む)。そして、この領域に対して、後述する物体判別装置30は、テンプレートマッチング手法およびニューラルネットワーク手法を用いた画像処理を行う。なお、物体検出装置14は、物体検出処理結果を物体判別装置30および衝突危険度判定部15に送信する。   The object detection device 14 is a device that detects an object from an image received from the imaging device 10 via the preprocessing unit 13 (restricts an area in the image). For example, an area occupied by an object projected in an image is detected by image processing using a background difference method (interframe difference method) or a saliency calculation method (a region to which a template is applied is narrowed down). Then, the object discriminating apparatus 30 described later performs image processing using a template matching method and a neural network method on this region. The object detection device 14 transmits the object detection processing result to the object determination device 30 and the collision risk determination unit 15.

衝突危険度判定部15は、物体検出装置14および物体判別装置30の総合判別部32cから受け付けた処理結果に基づいて、画像から検出された物体との衝突危険度を予測して判定する処理部である。例えば、物体判別装置30により検出された物体が歩行者であり、画像内の位置から車両の近くを移動中である場合や、物体判別装置30による判定結果が子供である場合には衝突危険度は高いと判定する。また、物体検出装置14によって画像内から検出された物体が歩行者であり、車両から離れた位置に静止中である場合には、衝突危険度は低いと判定する。なお、この衝突危険度判定部15による処理結果は、車両制御部16および報知制御部17に送信される。   The collision risk determination unit 15 is a processing unit that predicts and determines the collision risk with the object detected from the image based on the processing results received from the object detection device 14 and the general determination unit 32c of the object determination device 30. It is. For example, when the object detected by the object determination device 30 is a pedestrian and is moving near the vehicle from a position in the image, or when the determination result by the object determination device 30 is a child, the collision risk level Is determined to be high. Further, when the object detected from the image by the object detection device 14 is a pedestrian and is stationary at a position away from the vehicle, it is determined that the collision risk is low. The processing result by the collision risk determination unit 15 is transmitted to the vehicle control unit 16 and the notification control unit 17.

このうち、車両制御部16は、衝突危険度判定処理部15から受け付けた処理結果に基づいて、車両制御を行う処理部である。例えば、衝突危険度判定処理部15から、物体検出装置14によって画像内から検出された物体と衝突する危険度が高いという判定結果を受け付けた場合には、車両を停止する制御を行う(例えば、運転者がブレーキを踏まなくとも、自動的に車両制御に介入して安全に車両を停止させる)。また、衝突危険度判定処理部15から、物体検出装置30によって画像内から検出された物体と衝突する危険度が低いという判定結果を受け付けた場合には、車両を減速する制御または車両制御のアシスト(例えば、ブレーキのあそびを少なくして、車両の制動準備をする)を行う。   Among these, the vehicle control unit 16 is a processing unit that performs vehicle control based on the processing result received from the collision risk determination processing unit 15. For example, when the determination result that the risk of collision with an object detected from within the image by the object detection device 14 is high is received from the collision risk determination processing unit 15, control for stopping the vehicle is performed (for example, Even if the driver does not step on the brake, he / she automatically intervenes in the vehicle control to stop the vehicle safely). In addition, when the determination result that the risk of collision with the object detected from the image by the object detection device 30 is low is received from the collision risk determination processing unit 15, control for decelerating the vehicle or assistance for vehicle control is performed. (For example, reduce brake play and prepare the vehicle for braking).

報知制御部17は、衝突危険度判定処理部15から受け付けた処理結果に基づいて、警告の報知を行う処理部である。例えば、衝突危険度判定処理部15から、物体検出装置14によって画像内から検出された物体と衝突する危険度が高いという判定結果を受け付けた場合には、車内通知部18からアラーム音や音声などにより警告を報知する。また、衝突危険度判定部15から、物体検出装置30によって画像内から検出された物体と衝突する危険度が低いという判定結果を受け付けた場合には、車内通知部18から音声や画像によって注意を促す。   The notification control unit 17 is a processing unit that notifies a warning based on the processing result received from the collision risk determination processing unit 15. For example, when a determination result that the risk of collision with an object detected from within the image by the object detection device 14 is high is received from the collision risk determination processing unit 15, an alarm sound or a voice is transmitted from the in-vehicle notification unit 18. A warning is notified by. In addition, when the determination result that the risk of collision with an object detected from within the image by the object detection device 30 is low is received from the collision risk determination unit 15, attention is given by voice or image from the in-vehicle notification unit 18. Prompt.

車内通知部18は、ナビ部11や報知制御部17からの情報を通知する手段であり、ディスプレイやスピーカなどで構成される。例えば、ディスプレイの一部を点滅させて運転者の注意を促したり、スピーカからメッセージやアラーム音を流すことにより運転者に対して警告を行ったりする。   The in-vehicle notification unit 18 is a means for notifying information from the navigation unit 11 and the notification control unit 17 and includes a display, a speaker, and the like. For example, a part of the display is blinked to alert the driver, or a warning or warning is given to the driver by sending a message or an alarm sound from a speaker.

物体判別装置30の記憶部31は、制御部32による各種処理に必要なデータおよびプログラムを格納する格納手段(記憶手段)であり、例えば、後述するパターンマッチング実行部32aにおいて用いられるテンプレートなども記憶している。そして、特に本発明に密接に関連するものとしては、総合判別テーブル31aを備える。   The storage unit 31 of the object discrimination device 30 is a storage unit (storage unit) that stores data and programs necessary for various processes performed by the control unit 32. For example, a template used in a pattern matching execution unit 32a described later is also stored. is doing. In particular, as a component closely related to the present invention, a comprehensive discrimination table 31a is provided.

この総合判別テーブル31aは、最終的な物体判別に関する各種の情報を記憶する手段であり、具体的には、図3に例示するように、パターンマッチングおよびニューラルネットワークによる各判別結果の全てが所定の物体であるとするものである場合には、最終的な総合判別結果を「所定の物体である」とするように規定し、また、それ以外(各判別結果のいずれか一つまたは全てが所定の物体ではないとするもの)である場合には、最終的な総合判別結果を「所定の物体ではない」とするように規定して構成される。   The comprehensive discrimination table 31a is a means for storing various types of information related to final object discrimination. Specifically, as illustrated in FIG. 3, all discrimination results obtained by pattern matching and a neural network are predetermined. If the object is an object, the final comprehensive discrimination result is defined as “predetermined object”. Otherwise, any one or all of the discrimination results are predetermined. The final comprehensive discrimination result is defined as “not a predetermined object”.

物体判別装置30の制御部32は、所定の制御プログラム、各種の処理手順などを規定したプログラムおよび所要データを格納するための内部メモリを有し、これらによって種々の処理を実行する処理部であり、特に本発明に密接に関連するものとしては、パターンマッチング実行部32aと、ニューラルネットワーク実行部32bと、総合判別部32cとを備える。なお、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bは、特許請求の範囲に記載の「第一の物体判別手段」に対応し、総合判別部32cは同じく「第二の物体判別手段」に対応する。   The control unit 32 of the object discrimination device 30 is a processing unit that has a predetermined control program, a program that defines various processing procedures, and an internal memory for storing required data, and executes various processes using these. Particularly, those closely related to the present invention include a pattern matching execution unit 32a, a neural network execution unit 32b, and an overall determination unit 32c. The pattern matching execution unit 32a and the neural network execution unit 32b correspond to the “first object determination unit” described in the claims, and the comprehensive determination unit 32c also corresponds to the “second object determination unit”. To do.

このうち、パターンマッチング実行部32aは、画像内の物体を判別する処理部であり、具体的には、物体検出装置14によって画像内から検出された候補物体が、その画像内において位置する領域にテンプレートをあてはめることによって、候補物体の各画素とテンプレートの各画素とのマッチングの程度から、その候補物体を「所定の物体である」とする判別結果を導き出す。例えば、候補物体の各画素と歩行者用のテンプレートの画素と所定の程度マッチングが得られるならば、候補物体を「歩行者」とする判別結果を導き出す。   Among these, the pattern matching execution unit 32a is a processing unit that discriminates an object in the image. Specifically, the candidate object detected from the image by the object detection device 14 is located in an area located in the image. By applying the template, a determination result that the candidate object is “predetermined object” is derived from the degree of matching between each pixel of the candidate object and each pixel of the template. For example, if a predetermined degree of matching between each pixel of the candidate object and a pixel of the template for the pedestrian is obtained, a determination result that the candidate object is “pedestrian” is derived.

つまり、パターンマッチングでは、画像内に現れた候補物体に対し、その画像上の位置で歩行者の形に応じたいくつかのテンプレートを当てはめ、その候補物体の形と比較して、形の一致性(度)を見て歩行者か否かの判別結果を導き出すものである。そして、当てはめの結果、完全一致により「歩行者」判別してもよいが、相似比較で所定の以上の一致度で「歩行者」と判別してもよい。なお、パターンマッチング実行部32aは物体判別結果を総合判別部32cに送信する。   In other words, in pattern matching, for a candidate object that appears in the image, several templates corresponding to the shape of the pedestrian are applied at the position on the image, and compared with the shape of the candidate object, the matching of the shape The degree of determination as to whether or not the person is a pedestrian is derived by looking at (degree). Then, as a result of the fitting, “pedestrian” may be determined based on complete matching, but may be determined as “pedestrian” with a degree of matching equal to or higher than a predetermined level by similarity comparison. The pattern matching execution unit 32a transmits the object determination result to the comprehensive determination unit 32c.

ニューラルネットワーク実行部32bは、パターンマッチング実行部32aと同様に画像内の物体を判別する処理部であり、具体的には、物体検出装置14によって画像内から検出された候補物体を、あらかじめ学習して記憶している物体のパターンに照らし合わせて、「所定の物体である」とする判別結果を導き出す。例えば、あらかじめ学習して記憶している物体のパターンから候補物体を「歩行者」であるとする判別結果を導き出す。   Similar to the pattern matching execution unit 32a, the neural network execution unit 32b is a processing unit that discriminates objects in the image. Specifically, the neural network execution unit 32b previously learns candidate objects detected from the image by the object detection device 14. The discrimination result “determined to be a predetermined object” is derived in light of the stored object pattern. For example, a determination result that a candidate object is a “pedestrian” is derived from an object pattern that has been learned and stored in advance.

つまり、ニューラルネットワークは、歩行者の形や動きを学習しておき、その学習結果により画像内における実際の候補物体の形や動きを見ながら判別結果を導き出すものである。なお、ニューラルネットワーク実行部32bは、物体判別結果を総合判別部32cに送信する。   That is, the neural network learns the shape and movement of a pedestrian, and derives a discrimination result while viewing the shape and movement of an actual candidate object in the image based on the learning result. The neural network execution unit 32b transmits the object determination result to the comprehensive determination unit 32c.

総合判別部32cは、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bから送信されてくる各物体判別結果と総合判別テーブル31aとを照らし合わせて、最終的な物体判別結果を導き出す処理部である。   The overall discrimination unit 32c is a processing unit that derives a final object discrimination result by comparing each object discrimination result transmitted from the pattern matching execution unit 32a and the neural network execution unit 32b with the overall discrimination table 31a.

具体的には、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bからそれぞれ送信されてきた各判別結果がともに候補物体を「所定の物体である」とする判別結果であるか否かの判定を行う。その判定の結果、上記各判別結果がともに「所定の物体である」とするものである場合には、総合判別部32cは、総合判別テーブル31a(図3参照)に照らし合わせて、画像内の物体を「所定の物体である」とする最終的な総合判別結果を導き出す。   Specifically, it is determined whether or not each determination result transmitted from the pattern matching execution unit 32a and the neural network execution unit 32b is a determination result that makes the candidate object “predetermined object”. . As a result of the determination, if both of the determination results are “predetermined objects”, the comprehensive determination unit 32c checks the image in the image against the comprehensive determination table 31a (see FIG. 3). The final comprehensive discrimination result that the object is “predetermined object” is derived.

一方、上記判定の結果、上記各判別結果のいずれか一つまたはすべてが候補物体を「所定の物体ではない」とするものである場合には、総合判別部32cは、総合判別テーブル31a(図3参照)に照らし合わせて、画像内の物体を「所定の物体ではない」とする最終的な総合判別結果を導き出す。   On the other hand, as a result of the determination, if any one or all of the determination results indicate that the candidate object is not a “predetermined object”, the comprehensive determination unit 32c performs the comprehensive determination table 31a (FIG. 3), the final comprehensive discrimination result that the object in the image is “not a predetermined object” is derived.

例えば、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bからそれぞれ送信されてきた各判別結果がともに候補物体を「歩行者である」とするものである場合には、総合判別部32cは、総合判別テーブル31aに照らし合わせて、画像内の物体を「歩行者」とする最終的な総合判別結果を導き出す。一方、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bからそれぞれ送信されてきた各判別結果のいずれか一つまたはすべてが候補物体を「歩行者ではない」とするものである場合には、総合判別部32cは、総合判別テーブル31aに照らし合わせて、画像内の物体を「歩行者ではない」とする最終的な総合判別結果を導き出す。   For example, when each of the determination results transmitted from the pattern matching execution unit 32a and the neural network execution unit 32b is that the candidate object is “pedestrian”, the total determination unit 32c In light of the table 31a, a final comprehensive discrimination result is derived in which the object in the image is “pedestrian”. On the other hand, if any one or all of the determination results transmitted from the pattern matching execution unit 32a and the neural network execution unit 32b respectively make the candidate object “not a pedestrian”, the comprehensive determination The unit 32c derives a final comprehensive determination result that makes the object in the image “not a pedestrian” in light of the comprehensive determination table 31a.

[物体判別装置による処理(実施例1)]
次に、図4を用いて、実施例1に係る物体判別装置の処理の流れを説明する。図4は、実施例1に係る物体判別装置の処理の流れを示すフローチャートである。
[Processing by Object Discriminating Device (Example 1)]
Next, a processing flow of the object discrimination device according to the first embodiment will be described with reference to FIG. FIG. 4 is a flowchart illustrating a process flow of the object determination device according to the first embodiment.

同図に示すように、画像の入力を受け付けると(ステップS401)、物体検出装置14は、画像内から判別の対象となる候補物体の検出を行う(ステップS402)。その結果、物体検出装置14において画像内から判別の対象となる候補物体が検出された場合には(ステップS403肯定)、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bは、候補物体の判別を行って判別結果を導き出す(ステップS404)。   As shown in the figure, when an image input is received (step S401), the object detection device 14 detects a candidate object to be determined from within the image (step S402). As a result, when a candidate object to be discriminated is detected from the image in the object detection device 14 (Yes in step S403), the pattern matching execution unit 32a and the neural network execution unit 32b discriminate the candidate object. The determination result is derived (step S404).

具体的には、パターンマッチングは、画像内に現れた候補物体に対し、その画像上の位置で歩行者の形に応じたいくつかのテンプレートを当てはめ、その候補物体の形と比較して、形の一致性(度)を見て歩行者か否かの判別結果を導き出すものである。そして、当てはめの結果、完全一致により「歩行者」判別してもよいが、相似比較で所定の以上の一致度で「歩行者」と判別してもよい。また、ニューラルネットワークは、歩行者の形や動きを学習しておき、その学習結果により画像内における実際の候補物体の形や動きを見ながら判別結果を導き出すものである。   Specifically, pattern matching applies a number of templates according to the shape of the pedestrian to the candidate object appearing in the image at the position on the image, and compares it with the shape of the candidate object. The result of determination as to whether or not the person is a pedestrian is derived by looking at the coincidence (degree). Then, as a result of the fitting, “pedestrian” may be determined based on complete matching, but may be determined as “pedestrian” with a degree of matching equal to or higher than a predetermined level by similarity comparison. The neural network learns the shape and movement of a pedestrian, and derives a discrimination result from the learning result while observing the shape and movement of an actual candidate object in the image.

そして、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bは、各判別結果(例えば、候補物体を「歩行者である」または「歩行者ではない」とする判別結果)を総合判別部32cに対して送信する。ここで、ステップS403の説明に戻ると、物体検出装置14おいて画像内から候補物体を検出されなかった場合には(ステップS403否定)、物体判別装置30は、次の画像入力を待つ。   Then, the pattern matching execution unit 32a and the neural network execution unit 32b give each determination result (for example, a determination result indicating that the candidate object is “pedestrian” or “not pedestrian”) to the general determination unit 32c. Send. Here, returning to the description of step S403, if no candidate object is detected from the image in the object detection device 14 (No in step S403), the object determination device 30 waits for the next image input.

パターンマッチング実行部32aおよびニューラルネットワーク実行部32bから各判別結果の送信を受けて、総合判別部32cは、最終的な総合判別結果を導き出す(ステップS405〜S407)。具体的には、まず、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bから送信されてきた各判別結果がともに候補物体を「所定の物体である」とする判別結果であるか否かの判定を行う(ステップS405)。   Receiving the transmission of each discrimination result from the pattern matching execution unit 32a and the neural network execution unit 32b, the overall discrimination unit 32c derives a final overall discrimination result (steps S405 to S407). Specifically, first, it is determined whether or not each determination result transmitted from the pattern matching execution unit 32a and the neural network execution unit 32b is a determination result in which the candidate object is “predetermined object”. This is performed (step S405).

そして、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bからそれぞれ送信されてきた各判別結果がともに候補物体を「所定の物体である」(例えば、「歩行者である」)とするものである場合には(ステップS405肯定)、総合判別部32cは、総合判別テーブル31aに照らし合わせて、画像内の物体を「所定の物体である」(例えば、「歩行者である」)とする最終的な総合判別結果を導き出す(ステップS406)。   When each of the determination results transmitted from the pattern matching execution unit 32a and the neural network execution unit 32b both sets the candidate object as “predetermined object” (for example, “is a pedestrian”). In step S405, the comprehensive determination unit 32c determines that the object in the image is “predetermined object” (for example, “is a pedestrian”) against the comprehensive determination table 31a. A comprehensive discrimination result is derived (step S406).

また、ここで、ステップS405の説明に戻ると、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bからそれぞれ送信されてきた各判別結果のいずれか一つまたはすべてが候補物体を「所定の物体ではない」(例えば、「歩行者ではない」)とするものである場合には(ステップS405否定)、総合判別部32cは、総合判別テーブル31aに照らし合わせて、画像内の物体を「所定の物体ではない」(例えば、「歩行者ではない」)とする最終的な総合判別結果を導き出す(ステップS407)。   Here, returning to the description of step S405, any one or all of the discrimination results respectively transmitted from the pattern matching execution unit 32a and the neural network execution unit 32b are designated as “not a predetermined object”. (For example, “not a pedestrian”) (No in step S405), the comprehensive determination unit 32c compares the object in the image with the “predetermined object” according to the comprehensive determination table 31a. The final comprehensive discrimination result “No” (for example, “not a pedestrian”) is derived (step S407).

[実施例1の効果]
上述してきたように、実施例1によれば、この物体判別装置30は、複数の物体判別手法よる各物体判別結果から、一つの判別結果を導き出すことで画像内の物体を判別するので、一つの物体判別手法を用いて画像内の物体を判別するのに比べてその精度が低下するのを防止することが可能となる。
[Effect of Example 1]
As described above, according to the first embodiment, the object discrimination device 30 discriminates an object in an image by deriving one discrimination result from each object discrimination result by a plurality of object discrimination methods. It is possible to prevent the accuracy from deteriorating as compared with the case of discriminating an object in an image using two object discrimination methods.

また、実施例1によれば、この物体判別装置30は、複数の物体判別手法による各物体判別結果の全てが、画像内の物体を所定の物体であるとするものである場合には、画像内の物体を所定の物体であるとする判別結果を導き出すことで物体判別するので、一つの物体判別手法を用いて画像内の物体を判別するのに比べてその精度が低下するのを防止することが可能となる。   Further, according to the first embodiment, the object determination device 30 is configured to display an image when all of the object determination results obtained by the plurality of object determination methods indicate that the object in the image is a predetermined object. The object is discriminated by deriving the discrimination result that the inside object is a predetermined object, so that the accuracy is prevented from being lowered compared to the case where the object in the image is discriminated using one object discrimination method. It becomes possible.

また、実施例1によれば、この物体判別装置30は、複数の物体検出手法による各物体判別結果に応じて車両の制御を行うので、一つの物体判別手法による物体判別結果に応じて車両制御を行うのに比べて、より適切に車両制御を行うことが可能となる。   In addition, according to the first embodiment, the object determination device 30 controls the vehicle according to each object determination result obtained by a plurality of object detection methods, so that the vehicle control is performed according to the object determination result obtained by one object determination method. It is possible to perform vehicle control more appropriately than performing the above.

また、実施例1によれば、この物体判別装置30は、複数の物体検出手法による各物体判別結果に応じて警告の報知を行うので、一つの物体判別手法による物体判別結果に応じて警告の報知を行うのに比べて、より適切に警告の報知を行うことが可能となる。   In addition, according to the first embodiment, the object determination device 30 issues a warning according to each object determination result obtained by a plurality of object detection methods, so that a warning is generated according to the object determination result obtained by one object determination method. It is possible to notify the warning more appropriately than performing the notification.

ところで、上記の実施例では、複数の物体判別手法による各物体判別結果の全てが歩行者である場合には、歩行者と判別する場合について説明したが、本発明はこれに限定されるものではなく、複数の物体判別手法による各物体判別結果のうちいずれか一つでも画像内の物体を歩行者であるとするものである場合には、歩行者と判別するようにしてもよい。そこで、以下の実施例2では、図5および図6を用いて、この場合の物体判別装置の処理の流れについて説明し、最後に実施例2の効果を説明する。図5は、実施例2に係る物体判別装置の処理の流れを示すフローチャートである。図6は、実施例2に係る総合判別テーブルの構成例を示す図である。   By the way, in the above-described embodiment, the case where all the object discrimination results by the plurality of object discrimination methods are pedestrians has been described, but the present invention is not limited to this. Alternatively, if any one of the object discrimination results obtained by the plurality of object discrimination methods is to be an object in the image as a pedestrian, it may be determined as a pedestrian. Therefore, in the second embodiment below, the flow of processing of the object discrimination device in this case will be described using FIGS. 5 and 6, and finally the effects of the second embodiment will be described. FIG. 5 is a flowchart illustrating a process flow of the object determination device according to the second embodiment. FIG. 6 is a diagram illustrating a configuration example of a comprehensive discrimination table according to the second embodiment.

図5に示すように、画像の入力を受け付けると(ステップS501)、物体検出装置14は、画像内から判別の対象となる候補物体の検出を行う(ステップS502)。その結果、物体検出装置14において画像内から判別の対象となる候補物体が検出された場合には(ステップS503肯定)、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bは、候補物体の判別を行って判別結果を導き出す(ステップS504)。   As shown in FIG. 5, when an image input is received (step S501), the object detection device 14 detects a candidate object to be determined from within the image (step S502). As a result, when the object detection device 14 detects a candidate object to be determined from the image (Yes in step S503), the pattern matching execution unit 32a and the neural network execution unit 32b determine the candidate object. The determination result is derived (step S504).

そして、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bは各判別結果(例えば、候補物体を「歩行者である」または「歩行者ではない」とする判別結果)を総合判別部32cに対して送信する。ここで、ステップS503の説明に戻ると、物体検出装置14において画像内から候補物体を検出されなかった場合には(ステップS503否定)、この物体判別装置は、次の画像入力を待つ。   Then, the pattern matching execution unit 32a and the neural network execution unit 32b transmit each determination result (for example, a determination result indicating that the candidate object is “pedestrian” or “not pedestrian”) to the general determination unit 32c. To do. Here, returning to the description of step S503, if no candidate object is detected from the image in the object detection device 14 (No in step S503), the object determination device waits for the next image input.

パターンマッチング実行部32aおよびニューラルネットワーク実行部32bから各判別結果の送信を受けて、総合判別部32cは、最終的な総合判別結果を導き出す(ステップS505〜S507)。具体的には、まず、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bから送信されてきた各判別結果のいずれか一つまたはすべてが候補物体を「所定の物体である」とする判別結果であるか否かの判定を行う(ステップS505)。   Receiving the transmission of each discrimination result from the pattern matching execution unit 32a and the neural network execution unit 32b, the overall discrimination unit 32c derives a final overall discrimination result (steps S505 to S507). Specifically, first, any one or all of the determination results transmitted from the pattern matching execution unit 32a and the neural network execution unit 32b are determination results that make the candidate object “predetermined object”. Is determined (step S505).

そして、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bからそれぞれ送信されてきた各判別結果のいずれか一つまたはすべてが候補物体を「所定の物体である」(例えば、「歩行者である」)とするものである場合には(ステップS505肯定)、総合判別部32cは、総合判別テーブル31a(図6参照)に照らし合わせて、画像内の物体を「所定の物体である」(例えば、「歩行者である」)とする最終的な総合判別結果を導き出す(ステップS506)。   Then, any one or all of the determination results transmitted from the pattern matching execution unit 32a and the neural network execution unit 32b are “predetermined objects” as candidate objects (for example, “is a pedestrian”). (Yes in step S505), the comprehensive determination unit 32c refers to the comprehensive determination table 31a (see FIG. 6) to determine that the object in the image is “predetermined object” (for example, “ A final comprehensive discrimination result that indicates “is a pedestrian” is derived (step S506).

また、ここで、ステップS505の説明に戻ると、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bからそれぞれ送信されてきた各判別結果がともに候補物体を「所定の物体ではない」(例えば、「歩行者ではない」)とするものである場合には(ステップS505否定)、総合判別部32cは、総合判別テーブル31aに照らし合わせて、画像内の物体を「所定の物体ではない」(例えば、「歩行者ではない」)とする最終的な総合判別結果を導き出す(ステップS507)。   Here, returning to the description of step S505, the determination results transmitted from the pattern matching execution unit 32a and the neural network execution unit 32b are both “not predetermined objects” (for example, “walking”). If it is determined that the object in the image is not a “predetermined object” (for example, “ A final comprehensive discrimination result “not a pedestrian”) is derived (step S507).

[実施例2の効果]
上述してきたように、実施例2によれば、この物体判別装置は、複数の物体判別手法による各物体判別結果のうちいずれか一つでも画像内の物体を所定の物体であるとするものである場合には、画像内の物体を所定の物体であるとする判別結果を導き出すことで物体判別するので、一つの物体判別手法を用いて画像内の物体を判別するのに比べて、画像内の物体を判別できることが考えられ、結果的に物体判別の精度が低下するのを防止することが可能となる。
[Effect of Example 2]
As described above, according to the second embodiment, this object discriminating apparatus assumes that any one of the object discrimination results obtained by the plurality of object discrimination methods is a predetermined object. In some cases, the object is determined by deriving a determination result that the object in the image is a predetermined object, so that the object in the image is compared with the case where the object in the image is determined using one object determination method. Therefore, it is possible to prevent the object discrimination accuracy from being lowered as a result.

また、上記の実施例では、複数の物体判別手法による各判別結果をそのまま用いて画像内の物体を判別する場合について説明したが、本発明はこれに限定されるものではなく、複数の物体判別手法による各判別結果からそれぞれ所定の判別値を求めて、それらの判別値を足し合わせた値が所定の閾値を超えているか否かによって画像内の物体を判別するようにしてもよい。   Further, in the above-described embodiment, a case has been described in which an object in an image is determined by using each determination result obtained by a plurality of object determination methods as it is, but the present invention is not limited to this, and a plurality of object determinations are performed. A predetermined discriminant value may be obtained from each discriminant result by the technique, and an object in the image may be discriminated based on whether or not a value obtained by adding the discriminant values exceeds a predetermined threshold value.

そこで、以下の実施例3では、図7〜図10を用いて、この場合の物体判別装置の構成および処理の流れについて順に説明し、最後に実施例3の効果を説明する。図7は、実施例3に係る物体判別装置の構成を示すブロック図である。図8は、実施例3に係る重み規定テーブルの構成例を示す図である。図9は、実施例3に係る閾値テーブルの構成例を示す図である。図10は、実施例3に係る物体判別装置の処理の流れを示すフローチャートである。   Therefore, in the following third embodiment, the configuration of the object discriminating apparatus and the flow of processing in this case will be described in order with reference to FIGS. FIG. 7 is a block diagram illustrating the configuration of the object determination device according to the third embodiment. FIG. 8 is a diagram illustrating a configuration example of a weight regulation table according to the third embodiment. FIG. 9 is a diagram illustrating a configuration example of a threshold value table according to the third embodiment. FIG. 10 is a flowchart illustrating a process flow of the object determination device according to the third embodiment.

[物体判別装置の構成(実施例3)]
図7に示すように、この物体判別装置は、ナビ部11、レーダ部12、前処理部13、物体検出装置14、衝突危険度判定部15に接続される。また、物体判別装置40は、記憶部41と、制御部42とから構成される。ナビ部11、レーダ部12、前処理部13、物体検出装置14、衝突危険度判定部15、車両制御部16、報知制御部17および車内通知部18については、上記の実施例と同様であるので説明を割愛する。
[Configuration of Object Discriminating Device (Example 3)]
As shown in FIG. 7, the object determination device is connected to a navigation unit 11, a radar unit 12, a preprocessing unit 13, an object detection device 14, and a collision risk determination unit 15. The object discrimination device 40 includes a storage unit 41 and a control unit 42. The navigation unit 11, the radar unit 12, the preprocessing unit 13, the object detection device 14, the collision risk determination unit 15, the vehicle control unit 16, the notification control unit 17, and the in-vehicle notification unit 18 are the same as in the above-described embodiment. So I will omit the explanation.

物体検出装置40の記憶部41は、制御部42による各種処理に必要なデータおよびプログラムを格納する格納手段(記憶手段)であり、例えば、後述するパターンマッチング実行部42aにおいて用いられるテンプレートなども記憶している。そして、特に本発明に密接に関連するものとしては、重み規定テーブル41aおよび閾値規定テーブル41bを備える。   The storage unit 41 of the object detection device 40 is a storage unit (storage unit) that stores data and programs necessary for various processes performed by the control unit 42. For example, a template used in a pattern matching execution unit 42a described later is also stored. is doing. In particular, as closely related to the present invention, a weight defining table 41a and a threshold defining table 41b are provided.

このうち、重み規定テーブル41aは、後述するパターンマッチング実行部42aおよびニューラルネットワーク実行部42bにおいて画像内の物体を判別する際に求められる所定の値から、総合判別部42cにおいて判別値を算出するために必要な情報を記憶する記憶手段であり、具体的には、図8に例示するように、画像内の物体に対する判別値を算出する際に必要な重み(例えば、パターンマッチング0.8、ニューラルネットワーク0.6)を各物体判別手法ごとに規定して構成される。なお、この重みは、パターンマッチングおよびニューラルネットワークの判別実験データに基づいて規定するなど、ユーザーフレンドリーに適宜変更可能とするようにしてもよい。   Among these, the weight defining table 41a is used for calculating a discriminant value in the general discriminating unit 42c from a predetermined value obtained when discriminating an object in the image in the pattern matching executing unit 42a and the neural network executing unit 42b described later. Specifically, as shown in FIG. 8, the storage means for storing information necessary for calculating the discriminant value for the object in the image (for example, pattern matching 0.8, neural network) Network 0.6) is defined for each object discrimination method. The weight may be appropriately changed in a user-friendly manner, for example, by defining it based on pattern matching and neural network discrimination experiment data.

閾値規定テーブル41bは、後述する総合判別部42cにおいて最終的に画像内の物体を判別するために用いられる情報を記憶する記憶手段であり、具体的には、図9に例示するように、総合判別部42cにおいて算出された判別値から画像内の物体を最終的に判別するために必要な閾値(例えば、0.7)を記憶して構成される。なお、この閾値も適宜変更可能とするようにしてもよい。   The threshold value definition table 41b is storage means for storing information used for finally determining an object in the image in the overall determination unit 42c described later. Specifically, as illustrated in FIG. A threshold value (for example, 0.7) necessary for finally discriminating an object in the image from the discriminant value calculated by the discriminating unit 42c is stored. Note that this threshold may be changed as appropriate.

物体判別装置40の制御部42は、所定の制御プログラム、各種の処理手順などを規定したプログラムおよび所要データを格納するための内部メモリを有し、これらによって種々の処理を実行する処理部であり、特に本発明に密接に関連するものとしては、パターンマッチング実行部42aと、ニューラルネットワーク実行部42bと、総合判別部42cとを備える。   The control unit 42 of the object discrimination device 40 is a processing unit that has a predetermined control program, a program that defines various processing procedures, and an internal memory for storing required data, and executes various processes using these. Particularly, those closely related to the present invention include a pattern matching execution unit 42a, a neural network execution unit 42b, and an overall determination unit 42c.

このうち、パターンマッチング実行部42aおよびニューラルネットワーク42bは、画像内の物体を判別する処理部であり、画像内の物体の判別結果を所定の値として算出する。例えば、パターンマッチング実行部42aは、画像内に映し出された物体の画素値とテンプレートの画素値との適合数から、いわゆるマッチング数と呼ばれる所定の値を算出する。   Among these, the pattern matching execution unit 42a and the neural network 42b are processing units that determine an object in the image, and calculate the determination result of the object in the image as a predetermined value. For example, the pattern matching execution unit 42a calculates a predetermined value called a so-called matching number from the matching number between the pixel value of the object displayed in the image and the pixel value of the template.

総合判別部42cは、最終的な物体判別結果を導き出す処理部であり、具体的には、パターンマッチング実行部42aおよびニューラルネットワーク42bでそれぞれ算出された所定の値を0〜1の値に正規化(例えば、完全一致なら“1”、不一致なら“0”、近似しているなら“0.5”など)した後に、重み規定テーブル41aにそれぞれ規定されている重み(0.8)を掛け合わせて判別値を算出する。そして、これらの判別値を足し合わせた値が閾値規定テーブル41bに規定された総合判別閾値(例えば、0.7)を超えているか否かによって最終的な物体判別を行い、この閾値を超えていれば画像内の物体は所定の物体(例えば、歩行者)であると最終的に判別する。   The overall discrimination unit 42c is a processing unit that derives a final object discrimination result. Specifically, the predetermined value calculated by the pattern matching execution unit 42a and the neural network 42b is normalized to a value of 0 to 1, respectively. (For example, “1” for perfect match, “0” for mismatch, “0.5” for approximation, etc.) and then multiplying by the weight (0.8) defined in the weight definition table 41a. To calculate the discriminant value. Then, final object discrimination is performed based on whether the sum of these discrimination values exceeds the overall discrimination threshold (for example, 0.7) defined in the threshold definition table 41b, and exceeds this threshold. Then, it is finally determined that the object in the image is a predetermined object (for example, a pedestrian).

[物体判別装置による処理(実施例3)]
次に、図10を用いて、実施例3に係るこの物体判別装置40による処理の流れを詳細に説明する。
[Processing by Object Discriminating Device (Example 3)]
Next, the flow of processing by the object discrimination device 40 according to the third embodiment will be described in detail with reference to FIG.

同図に示すように、画像が入力を受け付けると(ステップS1001肯定)、物体検出装置14は、画像内から判別の対象となる候補物体の検出を行う(ステップS1002)。その結果、物体検出装置14において画像内から判別の対象となる候補物体が検出され場合には(ステップS1003肯定)、パターンマッチング実行部42aおよびニューラルネットワーク実行部42bは、候補物体の判別を行って判別結果を導き出す(ステップS1004)。   As shown in the figure, when the image receives an input (Yes at step S1001), the object detection device 14 detects a candidate object to be determined from within the image (step S1002). As a result, when a candidate object to be discriminated is detected from the image in the object detection device 14 (Yes in step S1003), the pattern matching execution unit 42a and the neural network execution unit 42b discriminate the candidate object. A discrimination result is derived (step S1004).

そして、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bは各判別結果として算出した所定の値を総合判別部32cに対してそれぞれ送信する。ここで、ステップS1003の説明に戻ると、物体検出装置14おいて画像内から候補物体を検出されなかった場合には(ステップS1003否定)、物体判別装置40は、次の画像入力を待つ。   Then, the pattern matching execution unit 32a and the neural network execution unit 32b respectively transmit predetermined values calculated as the determination results to the comprehensive determination unit 32c. Here, returning to the description of step S1003, if no candidate object is detected from the image in the object detection device 14 (No in step S1003), the object determination device 40 waits for the next image input.

パターンマッチング実行部42aおよびニューラルネットワーク実行部42bから各判別結果として算出された所定の値の送信を受けて、総合判別部32cは、判別値の算出を行う。ここで、判別値は、パターンマッチング実行部42aおよびニューラルネットワーク42bでそれぞれ算出された所定の値を0〜1の値に正規化した後に、重み規定テーブル41a(図8参照)にそれぞれ規定されている重み(パターンマッチング:0.8、ニューラルネットワーク:0.6)を掛け合わせて判別値を算出する。そして、これらの判別値を足し合わせる(ステップS1005)。   In response to the transmission of predetermined values calculated as the respective discrimination results from the pattern matching execution unit 42a and the neural network execution unit 42b, the total discrimination unit 32c calculates the discrimination value. Here, the discriminant values are defined in the weight definition table 41a (see FIG. 8) after normalizing the predetermined values calculated by the pattern matching execution unit 42a and the neural network 42b to values of 0 to 1, respectively. The discriminant value is calculated by multiplying the weights (pattern matching: 0.8, neural network: 0.6). Then, these discriminant values are added together (step S1005).

続いて、総合判別部32cは、これらの各判別値を足し合わせた和を閾値規定テーブル42bに照らし合わせて、最終的な判別結果を導き出すために判定を行う。具体的には、各判別値を足し合わせた和が所定の閾値(図9参照)を超えている場合には(ステップS1006肯定)、総合判別部42cは、画像内の物体を「所定の物体である」(例えば、「歩行者である」)とする最終的な総合判別結果を導き出す(ステップS1007)。   Subsequently, the overall determination unit 32c makes a determination to derive a final determination result by comparing the sum of these determination values with the threshold value definition table 42b. Specifically, when the sum obtained by adding the discriminant values exceeds a predetermined threshold (see FIG. 9) (Yes in step S1006), the comprehensive discriminating unit 42c determines that the object in the image is “predetermined object”. Is the final determination result (for example, “is a pedestrian”) (step S1007).

つまり、例えば、パターンマッチングでの一致度が高ければ、ニューラルネットワークによる判別値(精度)が多少低くても、総合的な判別値(精度)は高くなり、歩行者と判定される。従って、ニューラルネットワークで検出しにくくても、パターンマッチングにより補完することができる。   That is, for example, if the degree of coincidence in pattern matching is high, the overall discriminant value (accuracy) increases even if the discriminant value (accuracy) by the neural network is somewhat low, and it is determined as a pedestrian. Therefore, even if it is difficult to detect with a neural network, it can be complemented by pattern matching.

ここで、ステップS1006の説明に戻ると、各判別値を足し合わせた和が所定の閾値を超えていない場合には(ステップS1006否定)、総合判別部42cは、画像内の物体を「所定の物体ではない」(例えば、「歩行者ではない」)と判別する(ステップS1008)。   Here, returning to the description of step S1006, when the sum of the respective discriminant values does not exceed a predetermined threshold (No in step S1006), the comprehensive discriminating unit 42c determines that the object in the image is “predetermined. It is determined that the object is not an object (for example, “not a pedestrian”) (step S1008).

[実施例3の効果]
上述してきたように、実施例3によれば、この物体判別装置40は、複数の物体検出手法により算出された判別値を足し合わせて、その足し合わせた判別値が所定の閾値を超えていれば画像内の物体を所定の物体であるとする判別結果を導き出すことで物体判別を行うので、一つの物体判別手法を用いて画像内の物体を判別するのに比べてその精度が低下するのを防止することが可能となる。
[Effect of Example 3]
As described above, according to the third embodiment, the object discriminating apparatus 40 adds the discriminant values calculated by the plurality of object detection methods, and the sum of the discriminant values exceeds a predetermined threshold value. For example, object discrimination is performed by deriving a discrimination result that an object in the image is a predetermined object, so that the accuracy is reduced compared to discriminating an object in the image using one object discrimination method. Can be prevented.

また、上記の実施例では、画像内の物体までの距離に関係なく、複数の物体検出手法による各物体判別結果から画像内の物体を判別する場合について説明したが、本発明はこれに限定されるものではなく、画像内の物体までの距離を考慮した上で複数の物体検出手法による各物体判別結果から画像内の物体を判別するようにしてもよい。そこで、以下の実施例4では、図11を用いて、この場合の物体判別装置の処理の流れを説明し、最後に実施例4による効果を説明する。図11は、実施例4に係る物体判別装置の処理の流れを説明するフローチャートである。   Further, in the above-described embodiment, a case has been described in which an object in an image is discriminated from each object discrimination result by a plurality of object detection methods regardless of the distance to the object in the image, but the present invention is not limited to this. Instead, the object in the image may be determined from each object determination result by a plurality of object detection methods in consideration of the distance to the object in the image. Therefore, in the following fourth embodiment, the flow of processing of the object discriminating apparatus in this case will be described with reference to FIG. 11, and finally the effects of the fourth embodiment will be described. FIG. 11 is a flowchart illustrating a process flow of the object determination device according to the fourth embodiment.

同図に示すように、画像の入力を受け付けると(ステップS1101)、物体検出装置14は、画像内から判別の対象となる候補物体の検出を行う(ステップS1102)。その結果、物体検出装置14において画像内から判別の対象となる候補物体を検出された場合には(ステップS1103肯定)、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bは、候補物体の判別を行って判別結果を導き出す(ステップS1104)。   As shown in the figure, upon receiving an input of an image (step S1101), the object detection device 14 detects a candidate object to be determined from within the image (step S1102). As a result, when the object detection device 14 detects a candidate object to be determined from the image (Yes in step S1103), the pattern matching execution unit 32a and the neural network execution unit 32b determine the candidate object. The determination result is derived (step S1104).

そして、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bは各判別結果を総合判別部32cに対して送信する。ここで、ステップS1103の説明に戻ると、物体検出装置14において画像内から候補物体が検出されなかった場合には(ステップS1103否定)、この物体判別装置は、次の画像入力を待つ。   And the pattern matching execution part 32a and the neural network execution part 32b transmit each discrimination | determination result with respect to the comprehensive discrimination | determination part 32c. Here, returning to the description of step S1103, when the object detection device 14 does not detect a candidate object from the image (No in step S1103), the object determination device waits for the next image input.

パターンマッチング実行部32aおよびニューラルネットワーク実行部32bから各判別結果の送信を受けて、総合判別部32cは、まず、画像内の候補物体までの距離を測定する(ステップS1105)。ここで、候補物体までの距離は、例えば、物体検出装置14において検出された候補物体の画像内の縦位置(画素数)から測定する。   In response to the transmission of each discrimination result from the pattern matching execution unit 32a and the neural network execution unit 32b, the total discrimination unit 32c first measures the distance to the candidate object in the image (step S1105). Here, the distance to the candidate object is measured, for example, from the vertical position (number of pixels) in the image of the candidate object detected by the object detection device 14.

そして、候補物体までの距離が所定の距離範囲内であって(ステップS1106肯定)、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bからそれぞれ送信されてきた各判別結果がともに候補物体を「所定の物体である」(例えば、「歩行者である」)とするものである場合には(ステップS1107肯定)、総合判別部32cは、総合判別テーブル31a(図12参照)に照らし合わせて、画像内の物体を「所定の物体である」(例えば、「歩行者である」)とする最終的な総合判別結果を導き出す(ステップS1108)。   Then, the distance to the candidate object is within the predetermined distance range (Yes at step S1106), and the respective determination results transmitted from the pattern matching execution unit 32a and the neural network execution unit 32b are both “predetermined” If the object is “object” (for example, “is a pedestrian”) (Yes in step S1107), the comprehensive determination unit 32c checks the image in the image against the comprehensive determination table 31a (see FIG. 12). The final comprehensive discrimination result that “is a predetermined object” (for example, “is a pedestrian”) is derived (step S1108).

ここで、ステップS1107の説明の戻ると、候補物体までの距離が所定の距離範囲内であって(ステップS1106肯定)、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bからそれぞれ送信されてきた各判別結果のいずれか一つまたはすべてが候補物体を「所定の物体ではない」(例えば、「歩行者ではない」)とするものである場合には(ステップS1107否定)、総合判別部32cは、総合判別テーブル31aに照らし合わせて、画像内の物体を「所定の物体ではない」(例えば、「歩行者ではない」)とする最終的な総合判別結果を導き出す(ステップS1109)。   Here, returning to the description of step S1107, each of the determinations that the distance to the candidate object is within the predetermined distance range (Yes in step S1106) and is transmitted from the pattern matching execution unit 32a and the neural network execution unit 32b, respectively. When any one or all of the results indicate that the candidate object is “not a predetermined object” (for example, “not a pedestrian”) (No in step S1107), the comprehensive determination unit 32c In the light of the discrimination table 31a, a final comprehensive discrimination result is derived in which the object in the image is “not a predetermined object” (for example, “not a pedestrian”) (step S1109).

また、ここで、ステップS1106の説明に戻ると、候補物体までの距離が所定の距離範囲外であって(ステップS1106否定)、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bからそれぞれ送信されてきた各判別結果のいずれか一つまたはすべてが候補物体を「所定の物体ではある」(例えば、「歩行者である」)とするものである場合には(ステップS1110肯定)、総合判別部32cは、総合判別テーブル31aに照らし合わせて、画像内の物体を「所定の物体である」(例えば、「歩行者である」)とする最終的な総合判別結果を導き出す(ステップS1111)。   Here, returning to the description of step S1106, the distance to the candidate object is outside the predetermined distance range (No in step S1106), and transmitted from the pattern matching execution unit 32a and the neural network execution unit 32b, respectively. If any one or all of the determination results are those for which the candidate object is “predetermined object” (eg, “is a pedestrian”) (Yes in step S1110), the comprehensive determination unit 32c Then, in light of the comprehensive determination table 31a, a final comprehensive determination result is derived in which the object in the image is “predetermined object” (for example, “is a pedestrian”) (step S1111).

また、ここで、ステップS1110の説明に戻ると、候補物体までの距離が所定の距離範囲外であって(ステップS1106否定)、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bからそれぞれ送信されてきた各判別結果がともに候補物体を「所定の物体ではない」(例えば、「歩行者ではない」)とするものである場合には(ステップS1110否定)、総合判別部32cは、総合判別テーブル31aに照らし合わせて、画像内の物体を「所定の物体ではない」(例えば、「歩行者ではない」)とする最終的な総合判別結果を導き出す(ステップS1112)。   Here, returning to the description of step S1110, the distance to the candidate object is outside the predetermined distance range (No in step S1106) and has been transmitted from the pattern matching execution unit 32a and the neural network execution unit 32b, respectively. When both the determination results indicate that the candidate object is “not a predetermined object” (for example, “not a pedestrian”) (No in step S1110), the comprehensive determination unit 32c stores in the comprehensive determination table 31a. In comparison, a final comprehensive determination result that an object in the image is “not a predetermined object” (for example, “not a pedestrian”) is derived (step S1112).

[実施例4の効果]
上述してきたように、実施例4によれば、この物体検出装置は、画像内の所定の距離範囲内にある物体については、複数の物体判別手法による各物体判別結果の全てが、画像内の物体を所定の物体であるとするものである場合には、画像内の物体を所定の物体であるとする判別結果を導き出し、画像内の所定の距離範囲外にある物体については、複数の物体判別手法による各物体判別結果のうちいずれか一つでも画像内の物体を所定の物体であるとするものである場合には、画像内の物体を所定の物体であるとする判別結果を導き出すことで物体判別するので、物体判別の必要性の高い近距離に位置する物体の判別については、一つの物体判別手法を用いて画像内の物体を判別するのに比べてその精度が低下するのを防止することが可能となる。
[Effect of Example 4]
As described above, according to the fourth embodiment, this object detection device, for an object within a predetermined distance range in the image, all of the object discrimination results by the plurality of object discrimination methods are included in the image. If the object is a predetermined object, a determination result that the object in the image is the predetermined object is derived, and a plurality of objects are detected for objects outside the predetermined distance range in the image. If any one of the object discrimination results obtained by the discrimination method is to determine that the object in the image is a predetermined object, the determination result that the object in the image is a predetermined object is derived. Therefore, the accuracy of the identification of objects located at a short distance, which is highly necessary for object identification, is lower than that for identifying objects in an image using one object identification method. It becomes possible to prevent .

さて、これまで実施例1〜4にかかる物体判別装置について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では実施例5として、種々の異なる実施例を(1)〜(4)に区分けして説明する。   The object discriminating apparatus according to the first to fourth embodiments has been described so far, but the present invention may be implemented in various different forms other than the above-described embodiments. Therefore, in the following, as the fifth embodiment, various different embodiments will be described as divided into (1) to (4).

(1)天候に応じた物体判別
上記の実施例において、天候を考慮したうえで、複数の物体判別手法による物体判別結果から画像内の物体を判別するようにしてもよい。これにより、この物体判別装置は、天候に応じて、複数の物体検出手法による各物体判別結果から一つの判別結果を導き出すことで物体判別を行うので、一つの物体判別手法を用いて画像内の物体を判別するのに比べて、天候によりその精度が低下するのを防止することが可能となる。
(1) Object discrimination according to the weather In the above-described embodiment, an object in the image may be discriminated from the object discrimination results obtained by a plurality of object discrimination methods in consideration of the weather. As a result, this object discrimination device performs object discrimination by deriving one discrimination result from each object discrimination result by a plurality of object detection methods according to the weather. Compared to determining an object, it is possible to prevent the accuracy from decreasing due to the weather.

(2)処理負荷に応じた物体判別
上記の実施例において、処理負荷を考慮したうえで、複数の物体判別手法による物体判別結果から画像内の物体を判別するようにしてもよい。これにより、この物体判別装置は、処理負荷に応じて、複数の物体検出手法による各物体判別結果から一つの判別結果を導き出すことで物体判別を行うので、一つの物体判別手法を用いて画像内の物体を判別するのに比べて、処理負荷によりその精度が低下するのを防止することが可能となる。
(2) Object Discrimination According to Processing Load In the above embodiment, an object in an image may be discriminated from object discrimination results obtained by a plurality of object discrimination methods in consideration of the processing load. As a result, this object discriminating apparatus performs object discrimination by deriving one discrimination result from each object discrimination result by a plurality of object detection methods according to the processing load. As compared with the case of discriminating the object, it is possible to prevent the accuracy from being lowered due to the processing load.

(3)装置構成
図2に示した物体判別装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、物体判別装置30の分散・統合の具体的形態は図示のものに限られず、例えば、物体検出装置14と物体判別装置30を統合するなど、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、物体判別装置30にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
(3) Device Configuration Each component of the object discriminating device shown in FIG. 2 is functionally conceptual and does not necessarily need to be physically configured as illustrated. That is, the specific form of distribution / integration of the object discriminating apparatus 30 is not limited to the one shown in the figure. Depending on the situation, it can be configured to be functionally or physically distributed and integrated in arbitrary units. Further, all or a part of each processing function performed in the object discrimination device 30 is realized by a CPU and a program analyzed and executed by the CPU, or is realized as hardware by wired logic. obtain.

(4)物体判別プログラム
ところで、上記の実施例1で説明した各種の処理は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータシステムで実行することによって実現することができる。そこで、以下では、図13を用いて、上記の実施例1と同様の機能を有する物体判別プログラムを実行するコンピュータの一例を説明する。図13は、物体判別プログラムを実行するコンピュータを示す図である。
(4) Object Discriminating Program Various processes described in the first embodiment can be realized by executing a program prepared in advance on a computer system such as a personal computer or a workstation. In the following, an example of a computer that executes an object determination program having the same function as that of the first embodiment will be described with reference to FIG. FIG. 13 is a diagram illustrating a computer that executes an object determination program.

同図に示すように、物体判別装置としてのコンピュータ50は、HDD51、RAM52、ROM53およびCPU54をバス60で接続して構成される。   As shown in the figure, a computer 50 as an object discrimination device is configured by connecting an HDD 51, a RAM 52, a ROM 53, and a CPU 54 via a bus 60.

そして、ROM53には、上記の実施例1に示した物体判別装置30と同様の機能を発揮する物体判別プログラム、つまり、図13に示すように、パターンマッチング実行プログラム53a、ニューラルネットワーク実行プログラム53bおよび総合判別プログラム53cがあらかじめ記憶されている。なお、これらのプログラム53a、53bおよび53cは、図2に示した物体判別装置30の各構成要素と同様、適宜統合または分散してもよい。なお、ROM53は、不揮発性の「RAM」でもよい。   In the ROM 53, an object discrimination program that exhibits the same function as that of the object discrimination device 30 shown in the first embodiment, that is, as shown in FIG. 13, a pattern matching execution program 53a, a neural network execution program 53b, and A comprehensive discrimination program 53c is stored in advance. Note that these programs 53a, 53b, and 53c may be appropriately integrated or distributed in the same manner as each component of the object determination device 30 shown in FIG. The ROM 53 may be a nonvolatile “RAM”.

そして、CPU54が、これらのプログラム53a、53bおよび53cをROM53から読み出して実行することで、図13に示すように、これらのプログラム53a、53bおよび53cは、パターンマッチング実行プロセス54a、ニューラルネットワーク実行プロセス54bおよび総合判別プロセス54cとして機能するようになる。なお、これらのプロセス54a、54bおよび54cは、図2に示したパターンマッチング実行部32a、ニューラルネットワーク実行部32bおよび総合判別部32cにそれぞれ対応する。   The CPU 54 reads out these programs 53a, 53b and 53c from the ROM 53 and executes them. As shown in FIG. 13, these programs 53a, 53b and 53c are processed by a pattern matching execution process 54a and a neural network execution process. 54b and the overall discrimination process 54c. These processes 54a, 54b, and 54c correspond to the pattern matching execution unit 32a, the neural network execution unit 32b, and the overall determination unit 32c shown in FIG. 2, respectively.

また、HDD51には、図13に示すように、総合判別テーブル51aが設けられる。この総合判別テーブル51aは、図2に示した総合判別テーブル31aに対応する。そして、CPU54は総合判別テーブル51aから、総合判別データ52aを読み出してRAM52に格納し、RAM52に格納された総合判別データ52aに基づいて物体検出処理を実行する。   Further, as shown in FIG. 13, the HDD 51 is provided with a comprehensive discrimination table 51a. This comprehensive determination table 51a corresponds to the comprehensive determination table 31a shown in FIG. The CPU 54 reads the overall discrimination data 52 a from the overall discrimination table 51 a and stores it in the RAM 52, and executes the object detection process based on the overall discrimination data 52 a stored in the RAM 52.

なお、上記したプログラム53a、53bおよび53cについては、必ずしも最初からROM53に記憶させておく必要はなく、例えば、コンピュータ50に挿入されるフレキシブルディスク(FD)、CD−ROM、MOディスク、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」、または、コンピュータ50の内外に備えられるHDDなどの「固定用の物理媒体」、さらには、公衆回線、インターネット、LAN、WANなどを介してコンピュータ50に接続される「他のコンピュータ(またはサーバ)」などに各プログラムを記憶させておき、コンピュータ50がこれらから各プログラムを読み出して実行するようにしてもよい。   Note that the above-described programs 53a, 53b and 53c do not necessarily need to be stored in the ROM 53 from the beginning. For example, a flexible disk (FD), a CD-ROM, an MO disk, a DVD disk inserted into the computer 50, “Portable physical media” such as magneto-optical disks and IC cards, or “fixed physical media” such as HDDs provided inside and outside the computer 50, and further via public lines, the Internet, LAN, WAN, etc. Alternatively, each program may be stored in “another computer (or server)” connected to the computer 50, and the computer 50 may read and execute each program from these.

また、上記の実施例では、車載の撮像装置で撮像された画像内の物体を検出する場合について説明したが、本発明はこれに限定されるものではなく、固定式の撮像装置(例えば、交差点に取り付けられた交通流監視カメラ)で撮像された物体を画像内から検出するようにしてもよい。   In the above-described embodiment, the case where an object in an image captured by an in-vehicle imaging device is detected has been described. However, the present invention is not limited to this, and a fixed imaging device (for example, an intersection) An object imaged by a traffic flow monitoring camera attached to the camera may be detected from the image.

以上のように、本発明に係る物体判別装置、物体判別方法および物体判別プログラムは、画像内の物体を判別する場合に有用であり、特に、画像内の物体を判別する際の精度低下を防止することに適する。   As described above, the object discriminating apparatus, the object discriminating method, and the object discriminating program according to the present invention are useful for discriminating an object in an image, and in particular, prevent a decrease in accuracy when discriminating an object in an image. Suitable for doing.

実施例1に係る物体判別装置の概要を説明するための図である。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a diagram for explaining an overview of an object determination device according to a first embodiment. 実施例1に係る物体判別装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an object discrimination device according to Embodiment 1. FIG. 実施例1に係る総合判別テーブルの構成例を示す図である。It is a figure which shows the structural example of the comprehensive discrimination | determination table which concerns on Example 1. FIG. 実施例1に係る物体判別装置の処理の流れを示すフローチャートである。3 is a flowchart illustrating a processing flow of the object determination device according to the first embodiment. 実施例2に係る物体判別装置の処理の流れを示すフローチャートである。12 is a flowchart illustrating a process flow of the object determination device according to the second embodiment. 実施例2に係る総合判別テーブルの構成例を示す図である。FIG. 10 is a diagram illustrating a configuration example of a comprehensive discrimination table according to the second embodiment. 実施例3に係る物体判別装置の構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of an object determination device according to a third embodiment. 実施例3に係る重み規定テーブルの構成例を示す図である。It is a figure which shows the structural example of the weight prescription | regulation table concerning Example 3. FIG. 実施例3に係るし閾値テーブルの構成例を示す図である。It is a figure which shows the structural example of the threshold value table which concerns on Example 3. FIG. 実施例3に係る物体判別装置の処理の流れを示すフローチャートである。12 is a flowchart illustrating a process flow of the object determination device according to the third embodiment. 実施例4に係る物体判別装置の処理の流れを示すフローチャートである。12 is a flowchart illustrating a flow of processing of an object determination device according to a fourth embodiment. 実施例5に係る物体判別装置の処理の流れを示すフローチャートである。10 is a flowchart illustrating a process flow of an object determination device according to a fifth embodiment. 物体判別プログラムを実行するコンピュータを示す図である。It is a figure which shows the computer which performs an object discrimination | determination program.

符号の説明Explanation of symbols

10 撮像装置
11 ナビ(ナビゲーション)部
12 レーダ部
13 前処理部
13a フィルタ部
13b 輪郭抽出部
14 物体判別装置
15 衝突危険度判定部
16 車両制御部
17 報知制御部
18 車内通知部
30 物体判別装置
31 記憶部
31a 総合判別テーブル
32 制御部
32a パターンマッチング実行部
32b ニューラルネットワーク実行部
32c 総合判別部
40 物体判別装置
41 記憶部
41a 重み規定テーブル
41b 閾値規定テーブル
42 制御部
42a パターンマッチング実行部
42b ニューラルネットワーク実行部
42c 総合判別部
50 コンピュータ
51 HDD(Hard disk drive)
52 RAM(Random Access Memory)
53 ROM(Read Only Memory)
54 CPU(Central Processing Unit)
60 バス
DESCRIPTION OF SYMBOLS 10 Imaging device 11 Navigation (navigation) part 12 Radar part 13 Preprocessing part 13a Filter part 13b Contour extraction part 14 Object discrimination device 15 Collision risk judgment part 16 Vehicle control part 17 Notification control part 18 In-car notification part 30 Object discrimination apparatus 31 Storage unit 31a General determination table 32 Control unit 32a Pattern matching execution unit 32b Neural network execution unit 32c General determination unit 40 Object determination device 41 Storage unit 41a Weight definition table 41b Threshold definition table 42 Control unit 42a Pattern matching execution unit 42b Neural network execution Part 42c Total discriminating part 50 Computer 51 HDD (Hard disk drive)
52 RAM (Random Access Memory)
53 ROM (Read Only Memory)
54 CPU (Central Processing Unit)
60 bus

Claims (11)

画像内の物体を判別する物体判別装置において、
複数の物体判別手法を用いて前記画像内で検出された物体を各物体判別手法ごとに判別する第一の物体判別手段と、
前記第一の物体判別手段による各判別結果から前記画像上の物体について一つの判別結果を導き出す第二の物体判別手段と、
を備えたことを特徴とする物体判別装置。
In an object discriminating apparatus that discriminates an object in an image,
First object discriminating means for discriminating, for each object discrimination method, an object detected in the image using a plurality of object discrimination methods;
Second object discrimination means for deriving one discrimination result for the object on the image from each discrimination result by the first object discrimination means;
An object discrimination device comprising:
前記第二の物体判別手段は、前記第一の物体判別手段による各判別結果の全てが前記画像上の物体を所定の物体であると判別するものである場合には、前記画像上の物体は所定の物体であるとする一つの判別結果を導き出すことを特徴とする請求項1に記載の物体判別装置。   The second object discriminating unit determines that the object on the image is a predetermined object when all the discrimination results by the first object discriminating unit determine that the object on the image is a predetermined object. The object discrimination device according to claim 1, wherein one discrimination result indicating that the object is a predetermined object is derived. 前記第二の物体判別手段は、前記第一の物体判別手段による各判別結果のうち一つでも前記画像上の物体を所定の物体であると判別するものがある場合には、前記画像上の物体は所定の物体であるとする一つの判別結果を導き出すことを特徴とする請求項1に記載の物体判別装置。   The second object discriminating unit determines whether an object on the image is a predetermined object among at least one of the discrimination results by the first object discriminating unit. 2. The object discriminating apparatus according to claim 1, wherein one discrimination result indicating that the object is a predetermined object is derived. 前記第一の物体判別手段は、前記画像上の物体の判別値を算出するものであって、
前記第二の物体判別手段は、前記第一の物体判別手段による各判別値をそれぞれ所定の値に換算した後に、それぞれ足し合わせた判別値の合計値が所定の閾値を超えている場合には、前記画像上の物体を所定の物体であるとする一つの判別結果を導き出すことを特徴とする請求項1に記載の物体判別装置。
The first object discrimination means calculates a discrimination value of an object on the image,
The second object discriminating unit converts each discriminant value obtained by the first object discriminating unit into a predetermined value and then adds the discriminant value added to each other and exceeds a predetermined threshold value. 2. The object discriminating apparatus according to claim 1, wherein one discrimination result that the object on the image is a predetermined object is derived.
前記第二の物体判別手段は、前記画像上の所定の距離範囲内の物体については、前記第一物体判別手段による各判別結果の全てが前記画像上の物体を所定の物体であると判別するものである場合には、前記画像上の物体は所定の物体であるとする一つの判別結果を導き出し、また、前記画像上の所定の距離範囲外の物体については、前記第一物体判別手段による各判別結果のうち一つでも前記画像上の物体を所定の物体であると判別するものがある場合には、前記画像上の物体は所定の物体であるとする一つの判別結果を導き出すことを特徴とする請求項1に記載の物体判別装置。   The second object discriminating unit discriminates that all the discrimination results by the first object discriminating unit are objects on the image as the predetermined object for objects within a predetermined distance range on the image. If the object is a thing, a determination result that the object on the image is a predetermined object is derived, and the object outside the predetermined distance range on the image is determined by the first object determination means. If at least one of the determination results determines that the object on the image is a predetermined object, a determination result that the object on the image is a predetermined object is derived. The object discrimination device according to claim 1, wherein 前記第二の物体判別手段は、天候に応じて、前記第一物体判別手段による各判別結果から一つの判別結果を導き出すことを特徴とする請求項1に記載の物体判別装置。   The object discriminating apparatus according to claim 1, wherein the second object discriminating unit derives one discrimination result from each discrimination result by the first object discriminating unit according to the weather. 前記第二の物体判別手段は、処理負荷に応じて、前記第一物体判別手段による各判別結果から一つの判別結果を導き出すことを特徴とする請求項1に記載の物体判別装置。   The object discriminating apparatus according to claim 1, wherein the second object discriminating unit derives one discrimination result from each discrimination result by the first object discriminating unit according to a processing load. 前記第二の物体判別手段による各判別結果に応じて、車両を制御する車両制御手段をさらに備えたことを特徴とする請求項1に記載の物体判別装置。   The object discriminating apparatus according to claim 1, further comprising vehicle control means for controlling the vehicle according to each discrimination result by the second object discrimination means. 前記第二の判別手段による各判別結果に応じて、前記車両に対して警告を報知する警告報知手段をさらに備えたことを特徴とする請求項1に記載の物体判別装置。   The object discriminating apparatus according to claim 1, further comprising warning notifying means for notifying the vehicle of a warning according to each discrimination result by the second discriminating means. 画像内の物体を判別する物体判別方法において、
複数の物体判別手法を用いて前記画像内で検出された物体を各物体判別手法ごとに判別する第一の物体判別工程と、
前記第一の物体判別手段による各判別結果から前記画像上の物体について一つの判別結果を導き出す第二の物体判別工程と、
を含んだことを特徴とする物体判別方法。
In an object discrimination method for discriminating an object in an image,
A first object determination step of determining, for each object determination method, an object detected in the image using a plurality of object determination methods;
A second object discrimination step for deriving one discrimination result for the object on the image from each discrimination result by the first object discrimination means;
The object discrimination method characterized by including.
画像内の物体を判別する方法をコンピュータに実行させる物体判別プログラムにおいて、
複数の物体判別手法を用いて前記画像内で検出された物体を各物体判別手法ごとに判別する第一の物体判別手順と、
前記第一の物体判別手段による各判別結果から前記画像上の物体について一つの判別結果を導き出す第二の物体判別手順と、
をコンピュータに実行させることを特徴とする物体判別プログラム。
In an object discrimination program for causing a computer to execute a method for discriminating an object in an image,
A first object discrimination procedure for discriminating, for each object discrimination method, an object detected in the image using a plurality of object discrimination methods;
A second object discrimination procedure for deriving one discrimination result for the object on the image from each discrimination result by the first object discrimination means;
An object discrimination program for causing a computer to execute.
JP2005245950A 2005-08-26 2005-08-26 Apparatus, method, and program for discriminating object Pending JP2007058751A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005245950A JP2007058751A (en) 2005-08-26 2005-08-26 Apparatus, method, and program for discriminating object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005245950A JP2007058751A (en) 2005-08-26 2005-08-26 Apparatus, method, and program for discriminating object

Publications (1)

Publication Number Publication Date
JP2007058751A true JP2007058751A (en) 2007-03-08

Family

ID=37922162

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005245950A Pending JP2007058751A (en) 2005-08-26 2005-08-26 Apparatus, method, and program for discriminating object

Country Status (1)

Country Link
JP (1) JP2007058751A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011237884A (en) * 2010-05-06 2011-11-24 Nomura Research Institute Ltd Object detection size calculation system and object detection size calculation program
US8538902B2 (en) 2007-08-27 2013-09-17 Toyota Jidosha Kabushiki Kaisha Behavior predicting device that predicts the behavior of an object based on characteristic values of the object
CN104050620A (en) * 2013-03-13 2014-09-17 株式会社电装 Object detection apparatus
JP2019101549A (en) * 2017-11-29 2019-06-24 沖電気工業株式会社 Work site monitoring device and program
JP2021043774A (en) * 2019-09-12 2021-03-18 三菱電機インフォメーションシステムズ株式会社 Notification determination device, notification determination method, and notification determination program
JP7280426B1 (en) * 2022-11-01 2023-05-23 株式会社 日立産業制御ソリューションズ Object detection device and object detection method

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06309464A (en) * 1993-04-20 1994-11-04 Fujitsu Ltd Pattern recognizing device based upon multidiscriminator
JPH07160822A (en) * 1993-12-07 1995-06-23 Ricoh Co Ltd Pattern recognizing method
JPH07271956A (en) * 1994-03-31 1995-10-20 Babcock Hitachi Kk Method and device for automatic measurement of traffic flow
JPH0822592A (en) * 1994-07-11 1996-01-23 Matsushita Electric Ind Co Ltd Method and device for detecting unexpected event
JP2000105835A (en) * 1998-07-28 2000-04-11 Hitachi Denshi Ltd Object recognizing method and object tracking and monitoring device
JP2003237509A (en) * 2002-02-13 2003-08-27 Nissan Motor Co Ltd Outside acknowledging device for vehicle
JP2004192552A (en) * 2002-12-13 2004-07-08 Nissan Motor Co Ltd Eye opening/closing determining apparatus
JP2005044330A (en) * 2003-07-24 2005-02-17 Univ Of California San Diego Weak hypothesis generation device and method, learning device and method, detection device and method, expression learning device and method, expression recognition device and method, and robot device
JP2005157679A (en) * 2003-11-25 2005-06-16 Sony Corp Object detecting device and method and group learning device and method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06309464A (en) * 1993-04-20 1994-11-04 Fujitsu Ltd Pattern recognizing device based upon multidiscriminator
JPH07160822A (en) * 1993-12-07 1995-06-23 Ricoh Co Ltd Pattern recognizing method
JPH07271956A (en) * 1994-03-31 1995-10-20 Babcock Hitachi Kk Method and device for automatic measurement of traffic flow
JPH0822592A (en) * 1994-07-11 1996-01-23 Matsushita Electric Ind Co Ltd Method and device for detecting unexpected event
JP2000105835A (en) * 1998-07-28 2000-04-11 Hitachi Denshi Ltd Object recognizing method and object tracking and monitoring device
JP2003237509A (en) * 2002-02-13 2003-08-27 Nissan Motor Co Ltd Outside acknowledging device for vehicle
JP2004192552A (en) * 2002-12-13 2004-07-08 Nissan Motor Co Ltd Eye opening/closing determining apparatus
JP2005044330A (en) * 2003-07-24 2005-02-17 Univ Of California San Diego Weak hypothesis generation device and method, learning device and method, detection device and method, expression learning device and method, expression recognition device and method, and robot device
JP2005157679A (en) * 2003-11-25 2005-06-16 Sony Corp Object detecting device and method and group learning device and method

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8538902B2 (en) 2007-08-27 2013-09-17 Toyota Jidosha Kabushiki Kaisha Behavior predicting device that predicts the behavior of an object based on characteristic values of the object
JP2011237884A (en) * 2010-05-06 2011-11-24 Nomura Research Institute Ltd Object detection size calculation system and object detection size calculation program
CN104050620A (en) * 2013-03-13 2014-09-17 株式会社电装 Object detection apparatus
JP2014178736A (en) * 2013-03-13 2014-09-25 Denso Corp Object detection device
CN104050620B (en) * 2013-03-13 2018-02-13 株式会社电装 Body detection device
JP2019101549A (en) * 2017-11-29 2019-06-24 沖電気工業株式会社 Work site monitoring device and program
JP2022103189A (en) * 2017-11-29 2022-07-07 沖電気工業株式会社 Work site monitoring device, work site monitoring system, work site monitoring method, and program
JP7114885B2 (en) 2017-11-29 2022-08-09 沖電気工業株式会社 Worksite monitoring devices and programs
JP2021043774A (en) * 2019-09-12 2021-03-18 三菱電機インフォメーションシステムズ株式会社 Notification determination device, notification determination method, and notification determination program
JP7280426B1 (en) * 2022-11-01 2023-05-23 株式会社 日立産業制御ソリューションズ Object detection device and object detection method

Similar Documents

Publication Publication Date Title
US7817848B2 (en) Apparatus, method, and computer product for discriminating object
JP2007072665A (en) Object discrimination device, object discrimination method and object discrimination program
EP3755597A1 (en) Method for distress and road rage detection
US10336252B2 (en) Long term driving danger prediction system
US10817751B2 (en) Learning data creation method, learning method, risk prediction method, learning data creation device, learning device, risk prediction device, and recording medium
JP5127392B2 (en) Classification boundary determination method and classification boundary determination apparatus
JP6418574B2 (en) Risk estimation device, risk estimation method, and computer program for risk estimation
MX2014015331A (en) Affective user interface in an autonomous vehicle.
JP2007188417A (en) Image recognition device, image recognition method, and image recognition program
JP2008021034A (en) Image recognition device, image recognition method, pedestrian recognition device and vehicle controller
US11810373B2 (en) Cognitive function estimation device, learning device, and cognitive function estimation method
JP2008021035A (en) Image recognition device, image recognition method, and vehicle control device
EP3598071A1 (en) Information processing apparatus, information processing method and information processing program
CN108263324A (en) Pedestrian detection and pedestrian impact preventing mean and method based on pose information
JP2007058751A (en) Apparatus, method, and program for discriminating object
US11713046B2 (en) Driving assistance apparatus and data collection system
JP2022033805A (en) Method, device, apparatus, and storage medium for identifying passenger&#39;s status in unmanned vehicle
JP2007064894A (en) Object detector, object detecting method, and object detection program
CN112348845A (en) System and method for parking space detection and tracking
JP2009146153A (en) Moving object detection device, moving object detection method and moving object detection program
CN112561967A (en) Control method and device for vehicle door lock
JP2014219814A (en) Drive aiding device and program
KR20200133856A (en) Autonomous driving apparatus and method
US20230075659A1 (en) Object ranging apparatus, method, and computer readable medium
US10562450B2 (en) Enhanced lane negotiation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080821

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100921

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110125

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110719