JP2007058751A - Apparatus, method, and program for discriminating object - Google Patents
Apparatus, method, and program for discriminating object Download PDFInfo
- Publication number
- JP2007058751A JP2007058751A JP2005245950A JP2005245950A JP2007058751A JP 2007058751 A JP2007058751 A JP 2007058751A JP 2005245950 A JP2005245950 A JP 2005245950A JP 2005245950 A JP2005245950 A JP 2005245950A JP 2007058751 A JP2007058751 A JP 2007058751A
- Authority
- JP
- Japan
- Prior art keywords
- discrimination
- image
- determination
- discriminating
- result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
この発明は、物体判別装置、物体判別方法および物体判別プログラムに関する。 The present invention relates to an object discrimination device, an object discrimination method, and an object discrimination program.
従来より、例えば、車両走行の障害となりうる物体を検出し、その物体との衝突を回避する技術が開発されてきている。そこで、そのような車両周辺にある障害物となるような物体を検出するために、カメラなどを用いて車両周辺を撮影しておき、撮像した画像を処理する技術が存在する。その画像内に映し出された物体を検出方法として、例えば、背景差分法がある。このような、背景差分法では、現入力されている現画像とその直前に入力されていた直前画像との各画素を比較し、差分が抽出された領域に直前画像では見られなかった物体が存在するものとし、その物体を走行障害の候補になるものとして画像内から検出している。このような方法を用いれば、走行障害の候補となる物体は検出されるが、検出された物体がどのようなものであるかが未だ判明しない。 2. Description of the Related Art Conventionally, for example, a technique for detecting an object that can be an obstacle to vehicle travel and avoiding a collision with the object has been developed. Therefore, in order to detect such an object that is an obstacle around the vehicle, there is a technique for photographing the periphery of the vehicle using a camera or the like and processing the captured image. As a method for detecting an object displayed in the image, for example, there is a background subtraction method. In such a background difference method, each pixel of the current image currently input and the immediately preceding image input immediately before is compared, and an object that is not seen in the immediately preceding image is found in the region where the difference is extracted. It is assumed that the object exists, and the object is detected from the image as a candidate for a travel obstacle. If such a method is used, an object that is a candidate for a running obstacle is detected, but it is still unclear what the detected object is.
そこで、画像内から検出された走行障害の候補となる物体に対し、その物体が何であるかを判別する代表的な画像処理手法として、パターンマッチングやニューラルネットワーク(Neural Network:神経回路網)がある(例えば、特許文献1、2参照)。そして、一般的にこれらの物体判別手法のいずれか一つを用いて画像内の物体判別が行われている。
Therefore, pattern matching and neural network (Neural Network) are typical image processing methods for determining what is an object that is a candidate for a running obstacle detected from within an image. (For example, refer to
このうち、このパターンマッチング方法では、画像内から検出された走行障害の候補となる物体に全てのテンプレートをあてはめて、その物体が特定の物体(例えば、歩行者)であるか否かをテンプレートと候補物体との一致度合によって判別する画像処理を行っている。 Among these, in this pattern matching method, all templates are assigned to objects that are candidates for running obstacles detected from within an image, and whether or not the object is a specific object (for example, a pedestrian) is used as a template. Image processing is performed based on the degree of coincidence with the candidate object.
また、ニューラルネットワークとは、人間の脳の構造を真似て作成した情報処理機構であり、人間の脳の中に張り巡らされた「ニューロン」と呼ばれる神経細胞の複雑な組合せ構造を応用したネットワークを構成することで、人間の得意とする物体判別を情報処理機構に取り入れて実現する方法である。具体的には、あらかじめ学習して記憶している物体のパターンと画像内から検出された走行障害の候補となる物体と照らし合わせて、その物体が特定の物体(例えば、歩行者)であるか否か判別する画像処理を行っている。 A neural network is an information processing mechanism created by imitating the structure of the human brain. It is a network that applies a complex combination of neurons, called neurons, that stretches around the human brain. By configuring, it is a method of implementing object discrimination that humans are good at by incorporating it into an information processing mechanism. Specifically, whether the object is a specific object (for example, a pedestrian) by comparing the object pattern that has been learned and stored in advance with an object that is a candidate for a running obstacle detected from within the image Image processing is performed to determine whether or not.
ところで、上記した従来の技術は、以下に説明するように、物体判別の精度低下が考えられる場合があるという問題があった。 By the way, as described below, the above-described conventional technique has a problem that the accuracy of object discrimination may be reduced.
すなわち、画像内に映し出された物体を判別する手法としてパターンマッチングを用いた場合には、あらかじめ所持するテンプレートを画像の全領域にあてはめる処理を行っていたので、一定間隔で入力される画像に対して処理が間に合わずに、結果的に物体判別の精度の低下につながる場合もあることが考えられるという問題があった。 In other words, when pattern matching is used as a method for discriminating objects displayed in an image, a template that has been held in advance is applied to the entire area of the image. As a result, there is a problem that the processing may not be in time, and as a result, the accuracy of object discrimination may be reduced.
また、ニューラルネットワークを用いた場合は、物体判別を行う際の処理速度はテンプレートマッチングに比べ早いが、物体判別の精度が天候に左右されやすく、テンプレートマッチングと同様に物体判別の精度が低下する場合もあることが考えられるという問題があった。 In addition, when using a neural network, the processing speed when performing object discrimination is faster than template matching, but the accuracy of object discrimination is likely to be affected by the weather, and the accuracy of object discrimination is reduced as with template matching. There was also a problem that there could be.
したがって、これらの物体判別手法のいずれか一つを用いて画像内の物体判別を行っていたのでは、常に精度よく画像内の物体を判別できるわけではない。 Therefore, if an object in an image is determined using any one of these object determination methods, it is not always possible to accurately determine an object in the image.
なお、車載用の監視カメラなどにおいて物体判別を行う場合に、その判別の精度が低下する場合もあることが考えられるのでは、車両運転中に危険を予測し、いち早く危険を回避する上でも問題がある。 In addition, when performing object discrimination with an in-vehicle surveillance camera, etc., it is possible that the accuracy of the discrimination may be reduced, so it is also a problem in predicting danger while driving the vehicle and avoiding danger as soon as possible. There is.
そこで、この発明は、上述した従来技術の課題を解決するためになされたものであり、画像内の物体を判別する際の精度低下を防止することが可能な物体判別装置、物体判別方法および物体判別プログラムを提供することを目的とする。 Therefore, the present invention has been made to solve the above-described problems of the prior art, and an object discrimination device, an object discrimination method, and an object that can prevent a reduction in accuracy when discriminating an object in an image. An object is to provide a discrimination program.
上述した課題を解決し、目的を達成するため、請求項1に係る発明は、画像内の物体を判別する物体判別装置において、複数の物体判別手法を用いて前記画像内で検出された物体を各物体判別手法ごとに判別する第一の物体判別手段と、前記第一の物体判別手段による各判別結果から前記画像上の物体について一つの判別結果を導き出す第二の物体判別手段と、を備えたことを特徴とする。
In order to solve the above-described problems and achieve the object, the invention according to
また、請求項2に係る発明は、上記の発明において、前記第二の物体判別手段は、前記第一の物体判別手段による各判別結果の全てが前記画像上の物体を所定の物体であると判別するものである場合には、前記画像上の物体は所定の物体であるとする一つの判別結果を導き出すことを特徴とする。 In the invention according to claim 2, in the above invention, the second object discriminating unit may be configured such that all of the discrimination results by the first object discriminating unit are objects on the image as predetermined objects. In the case of discrimination, one discrimination result is derived that the object on the image is a predetermined object.
また、請求項3に係る発明は、上記の発明において、前記第二の物体判別手段は、前記第一の物体判別手段による各判別結果のうち一つでも前記画像上の物体を所定の物体であると判別するものがある場合には、前記画像上の物体は所定の物体であるとする一つの判別結果を導き出すことを特徴とする。 In the invention according to claim 3, in the above invention, the second object discriminating unit may use at least one of the discrimination results by the first object discriminating unit as an object on the image. If there is something that is determined to be present, one determination result that the object on the image is a predetermined object is derived.
また、請求項4に係る発明は、上記の発明において、前記第一の物体判別手段は、前記画像上の物体の判別値を算出するものであって、前記第二の物体判別手段は、前記第一の物体判別手段による各判別値をそれぞれ所定の値に換算した後に、それぞれ足し合わせた判別値の合計値が所定の閾値を超えている場合には、前記画像上の物体を所定の物体であるとする一つの判別結果を導き出すことを特徴とする。 According to a fourth aspect of the present invention, in the above invention, the first object discrimination means calculates a discrimination value of an object on the image, and the second object discrimination means After each discriminant value by the first object discriminating means is converted into a predetermined value, if the total sum of the discriminant values exceeds a predetermined threshold, the object on the image is It is characterized by deriving one discrimination result as.
また、請求項5に係る発明は、上記の発明において、前記第二の物体判別手段は、前記画像上の所定の距離範囲内の物体については、前記第一物体判別手段による各判別結果の全てが前記画像上の物体を所定の物体であると判別するものである場合には、前記画像上の物体は所定の物体であるとする一つの判別結果を導き出し、また、前記画像上の所定の距離範囲外の物体については、前記第一物体判別手段による各判別結果のうち一つでも前記画像上の物体を所定の物体であると判別するものがある場合には、前記画像上の物体は所定の物体であるとする一つの判別結果を導き出すことを特徴とする。 Further, in the invention according to claim 5, in the above invention, the second object discriminating unit may determine all the discrimination results by the first object discriminating unit for objects within a predetermined distance range on the image. When determining that the object on the image is a predetermined object, a determination result that the object on the image is a predetermined object is derived, and the predetermined object on the image As for an object outside the distance range, if there is one that determines that an object on the image is a predetermined object from among the determination results by the first object determination means, the object on the image is It is characterized by deriving one discrimination result indicating that the object is a predetermined object.
また、請求項6に係る発明は、上記の発明において、前記第二の物体判別手段は、天候に応じて、前記第一物体判別手段による各判別結果から一つの判別結果を導き出すことを特徴とする。 The invention according to claim 6 is characterized in that, in the above invention, the second object discrimination means derives one discrimination result from each discrimination result by the first object discrimination means according to the weather. To do.
また、請求項7に係る発明は、上記の発明において、前記第二の物体判別手段は、処理負荷に応じて、前記第一物体判別手段による各判別結果から一つの判別結果を導き出すことを特徴とする。 The invention according to claim 7 is characterized in that, in the above invention, the second object discrimination means derives one discrimination result from each discrimination result by the first object discrimination means in accordance with a processing load. And
また、請求項8に係る発明は、上記の発明において、前記第二の物体判別手段による各判別結果に応じて、車両を制御する車両制御手段をさらに備えたことを特徴とする。 Further, the invention according to claim 8 is characterized in that, in the above-mentioned invention, vehicle control means for controlling the vehicle is further provided according to each discrimination result by the second object discrimination means.
また、請求項9に係る発明は、上記の発明において、前記第二の判別手段による各判別結果に応じて、前記車両に対して警告を報知する警告報知手段をさらに備えたことを特徴とする。 The invention according to claim 9 is characterized in that, in the above-mentioned invention, the apparatus further comprises warning notifying means for notifying the vehicle according to each determination result by the second determining means. .
また、請求項10に係る発明は、上記の発明において、画像内の物体を判別する物体判別方法において、複数の物体判別手法を用いて前記画像内で検出された物体を各物体判別手法ごとに判別する第一の物体判別工程と、前記第一の物体判別手段による各判別結果から前記画像上の物体について一つの判別結果を導き出す第二の物体判別工程と、を含んだことを特徴とする。 According to a tenth aspect of the present invention, in the object discrimination method for discriminating an object in an image according to the above invention, an object detected in the image using a plurality of object discrimination methods is determined for each object discrimination method. A first object discrimination step for discrimination; and a second object discrimination step for deriving one discrimination result for the object on the image from each discrimination result by the first object discrimination means. .
また、請求項11に係る発明は、上記の発明において、画像内の物体を判別する方法をコンピュータに実行させる物体判別プログラムにおいて、複数の物体判別手法を用いて前記画像内で検出された物体を各物体判別手法ごとに判別する第一の物体判別手順と、前記第一の物体判別手段による各判別結果から前記画像上の物体について一つの判別結果を導き出す第二の物体判別手順と、をコンピュータに実行させることを特徴とする。 According to an eleventh aspect of the present invention, in the above-described invention, in an object determination program for causing a computer to execute a method for determining an object in an image, an object detected in the image using a plurality of object determination methods is detected. A first object discrimination procedure for discriminating each object discrimination method, and a second object discrimination procedure for deriving one discrimination result for the object on the image from each discrimination result by the first object discrimination means It is made to perform.
請求項1、10および11の発明によれば、この物体判別装置は、複数の物体判別手法よる各物体判別結果から、一つの判別結果を導き出すことで画像内の物体を判別するので、一つの物体判別手法を用いて画像内の物体を判別するのに比べてその精度が低下するのを防止することが可能となる。 According to the first, tenth, and eleventh aspects of the present invention, the object discriminating apparatus discriminates an object in the image by deriving one discrimination result from each object discrimination result by a plurality of object discrimination methods. It is possible to prevent the accuracy from being lowered as compared with the case where an object in an image is determined using an object determination method.
また、請求項2の発明によれば、この物体判別装置は、複数の物体判別手法による各物体判別結果の全てが、画像内の物体を所定の物体であるとするものである場合には、画像内の物体を所定の物体であるとする判別結果を導き出すことで物体判別するので、一つの物体判別手法を用いて画像内の物体を判別するのに比べてその精度が低下するのを防止することが可能となる。 According to the invention of claim 2, in the object discrimination device, when all of the object discrimination results by the plurality of object discrimination methods are such that the object in the image is a predetermined object, Since the object is determined by deriving the determination result that the object in the image is a predetermined object, the accuracy is prevented from being reduced compared to the case of determining the object in the image using one object determination method. It becomes possible to do.
また、請求項3の発明によれば、この物体判別装置は、複数の物体判別手法による各物体判別結果のうちいずれか一つでも画像内の物体を所定の物体であるとするものである場合には、画像内の物体を所定の物体であるとする判別結果を導き出すことで物体判別するので、一つの物体判別手法を用いて画像内の物体を判別するのに比べて、画像内の物体を判別できることが考えられ、結果的に物体判別の精度が低下するのを防止することが可能となる。 According to the invention of claim 3, the object discriminating apparatus assumes that any one of the object discrimination results obtained by the plurality of object discrimination methods is a predetermined object. Since the object is identified by deriving the determination result that the object in the image is the predetermined object, the object in the image is compared with the case where the object in the image is determined using one object determination method. Can be discriminated, and as a result, it is possible to prevent the accuracy of object discrimination from being lowered.
また、請求項4の発明によれば、この物体判別装置は、複数の物体検出手法により算出された判別値を足し合わせて、その足し合わせた判別値が所定の閾値を超えていれば画像内の物体を所定の物体であるとする判別結果を導き出すことで物体判別を行うので、一つの物体判別手法を用いて画像内の物体を判別するのに比べてその精度が低下するのを防止することが可能となる。 According to the invention of claim 4, the object discriminating apparatus adds the discriminant values calculated by a plurality of object detection methods, and if the sum of discriminant values exceeds a predetermined threshold, Since the object discrimination is performed by deriving the discrimination result that the object is a predetermined object, it is possible to prevent the accuracy from being lowered compared to the case where the object in the image is discriminated using one object discrimination method. It becomes possible.
また、請求項5の発明によれば、この物体判別装置は、画像内の所定の距離範囲内にある物体については、複数の物体判別手法による各物体判別結果の全てが、画像内の物体を所定の物体であるとするものである場合には、画像内の物体を所定の物体であるとする判別結果を導き出し、画像内の所定の距離範囲外にある物体については、複数の物体判別手法による各物体判別結果のうちいずれか一つでも画像内の物体を所定の物体であるとするものである場合には、画像内の物体を所定の物体であるとする判別結果を導き出すことで物体判別するので、物体判別の必要性の高い近距離に位置する物体の判別については、一つの物体判別手法を用いて画像内の物体を判別するのに比べてその精度が低下するのを防止することが可能となる。 According to the invention of claim 5, the object discriminating apparatus is configured such that, for an object within a predetermined distance range in the image, all the object discrimination results by the plurality of object discriminating methods are the objects in the image. If it is determined that the object is a predetermined object, a determination result that the object in the image is the predetermined object is derived, and a plurality of object determination methods are used for an object outside the predetermined distance range in the image. If any object in the image is determined to be a predetermined object, the object is obtained by deriving the determination result that the object in the image is a predetermined object. Since it is discriminated, the accuracy of discriminating an object located at a short distance, which is highly necessary for discriminating objects, is prevented compared to discriminating an object in an image using one object discriminating method. It becomes possible.
また、請求項6の発明によれば、この物体判別装置は、天候に応じて、複数の物体検出手法による各物体判別結果から一つの判別結果を導き出すことで物体判別を行うので、一つの物体判別手法を用いて画像内の物体を判別するのに比べて、天候によりその精度が低下するのを防止することが可能となる。 According to the invention of claim 6, this object discrimination device performs object discrimination by deriving one discrimination result from each object discrimination result by a plurality of object detection methods according to the weather. Compared to discriminating an object in an image using a discrimination method, it is possible to prevent the accuracy from being lowered due to the weather.
また、請求項7の発明によれば、この物体判別装置は、処理負荷に応じて、複数の物体検出手法による各物体判別結果から一つの判別結果を導き出すことで物体判別を行うので、一つの物体判別手法を用いて画像内の物体を判別するのに比べて、処理負荷によりその精度が低下するのを防止することが可能となる。 Further, according to the invention of claim 7, the object discrimination device performs object discrimination by deriving one discrimination result from each object discrimination result by a plurality of object detection methods according to the processing load. As compared with the case where an object in an image is discriminated using an object discriminating method, it is possible to prevent the accuracy from being lowered due to a processing load.
また、請求項8の発明によれば、この物体判別装置は、複数の物体検出手法による各物体判別結果に応じて車両の制御を行うので、一つの物体判別手法による物体判別結果に応じて車両制御を行うのに比べて、より適切に車両制御を行うことが可能となる。 In addition, according to the invention of claim 8, since the object discriminating apparatus controls the vehicle according to each object discriminating result by the plurality of object detecting methods, the object discriminating vehicle Compared with performing control, it becomes possible to perform vehicle control more appropriately.
また、請求項9の発明によれば、この物体判別装置は、複数の物体検出手法による各物体判別結果に応じて警告の報知を行うので、一つの物体判別手法による物体判別結果に応じて警告の報知を行うのに比べて、より適切に警告の報知を行うことが可能となる。 According to the invention of claim 9, since the object discriminating apparatus issues a warning in accordance with each object discrimination result obtained by a plurality of object detection methods, the object discrimination device warns according to the object discrimination result obtained by one object discrimination method. It is possible to more appropriately notify the warning as compared to the above notification.
以下に添付図面を参照して、この発明に係る物体判別装置、物体判別方法および物体判別プログラムの実施例を詳細に説明する。なお、以下の実施例では、車載の撮像装置で画像内に撮像された物体を判別する場合について説明する。 Exemplary embodiments of an object discrimination device, an object discrimination method, and an object discrimination program according to the present invention will be described below in detail with reference to the accompanying drawings. In the following embodiments, a case will be described in which an in-vehicle imaging device discriminates an object imaged in an image.
以下の実施例1では、実施例1に係る物体判別装置の概要および特徴、物体判別装置の構成および処理の流れを順に説明し、最後に実施例1による効果を説明する。なお、以下の実施例1では、車載の撮像装置を用いて撮像された画像内の物体を判別する場合について説明する。 In the following first embodiment, the outline and features of the object discriminating apparatus according to the first embodiment, the configuration of the object discriminating apparatus, and the flow of processing will be described in order, and finally the effects of the first embodiment will be described. In the following first embodiment, a case will be described in which an object in an image captured using an in-vehicle imaging device is determined.
[概要および特徴(実施例1)]
まず最初に、図1を用いて、実施例1に係る物体判別装置の概要および特徴を説明する。図1は、実施例1に係る物体判別装置の概要を説明するための図である。同図に示すように、実施例1に係る物体判別装置は、画像内の物体を判別することを概要とするものであるが、複数の物体判別手法を用いて画像内の物体を判別する点に主たる特徴があり、これにより、画像内の物体を判別する際の精度低下を防止できるようにしている。
[Outline and Features (Example 1)]
First, the outline and features of the object discrimination device according to the first embodiment will be described with reference to FIG. FIG. 1 is a diagram for explaining the outline of the object determination device according to the first embodiment. As shown in the figure, the object discriminating apparatus according to the first embodiment has an outline of discriminating an object in an image. However, an object in an image is discriminated using a plurality of object discriminating methods. There is a main feature, and this makes it possible to prevent a decrease in accuracy when an object in an image is discriminated.
この主たる特徴について簡単に説明すると、この物体判別装置は、最終的な物体判別結果を導き出すための総合判別テーブルを所持する。そして、この総合判別テーブルを用いて最終的な物体判別結果を導き出すために、まず、画像内から判別の対象となる候補物体の検出を行う。この候補物体の検出は、背景差分法や顕著性算出法などを用いた画像処理により行う。 Briefly explaining the main features, the object discriminating apparatus possesses a comprehensive discrimination table for deriving a final object discrimination result. In order to derive a final object discrimination result using this comprehensive discrimination table, first, candidate objects to be discriminated are detected from the image. The candidate object is detected by image processing using a background difference method, a saliency calculation method, or the like.
次に、画像内から検出した候補物体の判別を行う。この判別は、パターンマッチング手法およびニューラルネットワーク手法を用いて行う。そして、各手法による各物体判別結果を総合判別テーブルに照らし合わせて最終的に一つの物体判別結果を導き出す。例えば、図1に示すように、パターンマッチング手法およびニューラルネットワーク手法による各判別結果がともに「歩行者」であるとするものであった場合には、総合判別テーブルに照らし合わせて最終的に「歩行者」とする判別結果を導き出す。その一方、パターンマッチング手法およびニューラルネットワーク手法による各判別結果がともに「歩行者ではない」とするものであった場合には、総合判別テーブルに照らし合わせて最終的に「歩行者ではない」とする判別結果を導き出す。 Next, the candidate object detected from within the image is determined. This discrimination is performed using a pattern matching method and a neural network method. Then, each object discrimination result by each method is checked against the comprehensive discrimination table to finally derive one object discrimination result. For example, as shown in FIG. 1, if each of the discrimination results by the pattern matching method and the neural network method is “pedestrian”, the final result is “walking” against the comprehensive discrimination table. The result of the determination of “person” is derived. On the other hand, if each of the discrimination results by the pattern matching method and the neural network method is “not a pedestrian”, it is finally judged as “not a pedestrian” in light of the comprehensive discrimination table. The discrimination result is derived.
このように、この物体判別装置は、複数の物体判別手法よる各物体判別結果から、一つの判別結果を導き出すことで画像内の物体を判別するので、一つの物体判別手法を用いて画像内の物体を判別するのに比べてその精度が低下するのを防止することが可能となる。 As described above, this object discrimination device discriminates an object in an image by deriving one discrimination result from each object discrimination result by a plurality of object discrimination methods. It is possible to prevent the accuracy from being lowered as compared with the case of discriminating an object.
[物体判別装置の構成(実施例1)]
次に、図2を用いて、図1に示した物体判別装置30の構成を説明する。図2は、物体判別装置30の構成を示すブロック図である。同図に示すように、この物体判別装置30は、ナビ部11、レーダ部12、前処理部13、物体検出装置14、衝突危険度判定部15に接続される。また、物体判別装置30は、記憶部31と、制御部32とから構成される。
[Configuration of Object Discriminating Device (Example 1)]
Next, the configuration of the
このうち、ナビ(ナビゲーション)部11は、GPS(Global Positioning System)人工衛星と通信を行って、特定した自動車の位置と地図データとから走行経路の設定および誘導を行う手段である。また、ナビ部11は、自動車の位置情報や道路形状、路幅、傾斜など車両運転操作に有用な各種の情報を運転者に供給する。
Among them, the navigation (navigation)
レーダ部12は、レーダ(例えば、76.5GHzのミリ波)を照射して、前方の車両や障害物との距離や速度、方向などを測定する手段である。前処理部13は、撮像装置10(例えば、可視光カメラ、単眼カメラ、ステレオカメラ)から送信されてくる画像に前処理を行う処理部であり、フィルタ部13aと輪郭抽出部13bとから構成される。このうち、フィルタ部13aは、画像内に映し出された物体の輪郭を強調するための前処理(例えば、シャープネス、コントラスト調整、彩度調整)を行う手段である。また、輪郭抽出部13bは、フィルタ部13aによって施されたフィルタリングに基づいて、画像内の物体の輪郭を抽出する手段である。
The
物体検出装置14は、撮像装置10から前処理部13を介して受け付けた画像から物体を検出する(画像内の領域を絞り込む)装置である。例えば、背景差分法(フレーム間差分法)あるいは顕著性算出方法を用いた画像処理により画像内に映し出された物体が占める領域を検出する(テンプレートをあてはめる領域を絞り込む)。そして、この領域に対して、後述する物体判別装置30は、テンプレートマッチング手法およびニューラルネットワーク手法を用いた画像処理を行う。なお、物体検出装置14は、物体検出処理結果を物体判別装置30および衝突危険度判定部15に送信する。
The
衝突危険度判定部15は、物体検出装置14および物体判別装置30の総合判別部32cから受け付けた処理結果に基づいて、画像から検出された物体との衝突危険度を予測して判定する処理部である。例えば、物体判別装置30により検出された物体が歩行者であり、画像内の位置から車両の近くを移動中である場合や、物体判別装置30による判定結果が子供である場合には衝突危険度は高いと判定する。また、物体検出装置14によって画像内から検出された物体が歩行者であり、車両から離れた位置に静止中である場合には、衝突危険度は低いと判定する。なお、この衝突危険度判定部15による処理結果は、車両制御部16および報知制御部17に送信される。
The collision
このうち、車両制御部16は、衝突危険度判定処理部15から受け付けた処理結果に基づいて、車両制御を行う処理部である。例えば、衝突危険度判定処理部15から、物体検出装置14によって画像内から検出された物体と衝突する危険度が高いという判定結果を受け付けた場合には、車両を停止する制御を行う(例えば、運転者がブレーキを踏まなくとも、自動的に車両制御に介入して安全に車両を停止させる)。また、衝突危険度判定処理部15から、物体検出装置30によって画像内から検出された物体と衝突する危険度が低いという判定結果を受け付けた場合には、車両を減速する制御または車両制御のアシスト(例えば、ブレーキのあそびを少なくして、車両の制動準備をする)を行う。
Among these, the
報知制御部17は、衝突危険度判定処理部15から受け付けた処理結果に基づいて、警告の報知を行う処理部である。例えば、衝突危険度判定処理部15から、物体検出装置14によって画像内から検出された物体と衝突する危険度が高いという判定結果を受け付けた場合には、車内通知部18からアラーム音や音声などにより警告を報知する。また、衝突危険度判定部15から、物体検出装置30によって画像内から検出された物体と衝突する危険度が低いという判定結果を受け付けた場合には、車内通知部18から音声や画像によって注意を促す。
The
車内通知部18は、ナビ部11や報知制御部17からの情報を通知する手段であり、ディスプレイやスピーカなどで構成される。例えば、ディスプレイの一部を点滅させて運転者の注意を促したり、スピーカからメッセージやアラーム音を流すことにより運転者に対して警告を行ったりする。
The in-
物体判別装置30の記憶部31は、制御部32による各種処理に必要なデータおよびプログラムを格納する格納手段(記憶手段)であり、例えば、後述するパターンマッチング実行部32aにおいて用いられるテンプレートなども記憶している。そして、特に本発明に密接に関連するものとしては、総合判別テーブル31aを備える。
The
この総合判別テーブル31aは、最終的な物体判別に関する各種の情報を記憶する手段であり、具体的には、図3に例示するように、パターンマッチングおよびニューラルネットワークによる各判別結果の全てが所定の物体であるとするものである場合には、最終的な総合判別結果を「所定の物体である」とするように規定し、また、それ以外(各判別結果のいずれか一つまたは全てが所定の物体ではないとするもの)である場合には、最終的な総合判別結果を「所定の物体ではない」とするように規定して構成される。 The comprehensive discrimination table 31a is a means for storing various types of information related to final object discrimination. Specifically, as illustrated in FIG. 3, all discrimination results obtained by pattern matching and a neural network are predetermined. If the object is an object, the final comprehensive discrimination result is defined as “predetermined object”. Otherwise, any one or all of the discrimination results are predetermined. The final comprehensive discrimination result is defined as “not a predetermined object”.
物体判別装置30の制御部32は、所定の制御プログラム、各種の処理手順などを規定したプログラムおよび所要データを格納するための内部メモリを有し、これらによって種々の処理を実行する処理部であり、特に本発明に密接に関連するものとしては、パターンマッチング実行部32aと、ニューラルネットワーク実行部32bと、総合判別部32cとを備える。なお、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bは、特許請求の範囲に記載の「第一の物体判別手段」に対応し、総合判別部32cは同じく「第二の物体判別手段」に対応する。
The
このうち、パターンマッチング実行部32aは、画像内の物体を判別する処理部であり、具体的には、物体検出装置14によって画像内から検出された候補物体が、その画像内において位置する領域にテンプレートをあてはめることによって、候補物体の各画素とテンプレートの各画素とのマッチングの程度から、その候補物体を「所定の物体である」とする判別結果を導き出す。例えば、候補物体の各画素と歩行者用のテンプレートの画素と所定の程度マッチングが得られるならば、候補物体を「歩行者」とする判別結果を導き出す。
Among these, the pattern
つまり、パターンマッチングでは、画像内に現れた候補物体に対し、その画像上の位置で歩行者の形に応じたいくつかのテンプレートを当てはめ、その候補物体の形と比較して、形の一致性(度)を見て歩行者か否かの判別結果を導き出すものである。そして、当てはめの結果、完全一致により「歩行者」判別してもよいが、相似比較で所定の以上の一致度で「歩行者」と判別してもよい。なお、パターンマッチング実行部32aは物体判別結果を総合判別部32cに送信する。
In other words, in pattern matching, for a candidate object that appears in the image, several templates corresponding to the shape of the pedestrian are applied at the position on the image, and compared with the shape of the candidate object, the matching of the shape The degree of determination as to whether or not the person is a pedestrian is derived by looking at (degree). Then, as a result of the fitting, “pedestrian” may be determined based on complete matching, but may be determined as “pedestrian” with a degree of matching equal to or higher than a predetermined level by similarity comparison. The pattern
ニューラルネットワーク実行部32bは、パターンマッチング実行部32aと同様に画像内の物体を判別する処理部であり、具体的には、物体検出装置14によって画像内から検出された候補物体を、あらかじめ学習して記憶している物体のパターンに照らし合わせて、「所定の物体である」とする判別結果を導き出す。例えば、あらかじめ学習して記憶している物体のパターンから候補物体を「歩行者」であるとする判別結果を導き出す。
Similar to the pattern
つまり、ニューラルネットワークは、歩行者の形や動きを学習しておき、その学習結果により画像内における実際の候補物体の形や動きを見ながら判別結果を導き出すものである。なお、ニューラルネットワーク実行部32bは、物体判別結果を総合判別部32cに送信する。
That is, the neural network learns the shape and movement of a pedestrian, and derives a discrimination result while viewing the shape and movement of an actual candidate object in the image based on the learning result. The neural
総合判別部32cは、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bから送信されてくる各物体判別結果と総合判別テーブル31aとを照らし合わせて、最終的な物体判別結果を導き出す処理部である。
The
具体的には、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bからそれぞれ送信されてきた各判別結果がともに候補物体を「所定の物体である」とする判別結果であるか否かの判定を行う。その判定の結果、上記各判別結果がともに「所定の物体である」とするものである場合には、総合判別部32cは、総合判別テーブル31a(図3参照)に照らし合わせて、画像内の物体を「所定の物体である」とする最終的な総合判別結果を導き出す。
Specifically, it is determined whether or not each determination result transmitted from the pattern
一方、上記判定の結果、上記各判別結果のいずれか一つまたはすべてが候補物体を「所定の物体ではない」とするものである場合には、総合判別部32cは、総合判別テーブル31a(図3参照)に照らし合わせて、画像内の物体を「所定の物体ではない」とする最終的な総合判別結果を導き出す。
On the other hand, as a result of the determination, if any one or all of the determination results indicate that the candidate object is not a “predetermined object”, the
例えば、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bからそれぞれ送信されてきた各判別結果がともに候補物体を「歩行者である」とするものである場合には、総合判別部32cは、総合判別テーブル31aに照らし合わせて、画像内の物体を「歩行者」とする最終的な総合判別結果を導き出す。一方、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bからそれぞれ送信されてきた各判別結果のいずれか一つまたはすべてが候補物体を「歩行者ではない」とするものである場合には、総合判別部32cは、総合判別テーブル31aに照らし合わせて、画像内の物体を「歩行者ではない」とする最終的な総合判別結果を導き出す。
For example, when each of the determination results transmitted from the pattern
[物体判別装置による処理(実施例1)]
次に、図4を用いて、実施例1に係る物体判別装置の処理の流れを説明する。図4は、実施例1に係る物体判別装置の処理の流れを示すフローチャートである。
[Processing by Object Discriminating Device (Example 1)]
Next, a processing flow of the object discrimination device according to the first embodiment will be described with reference to FIG. FIG. 4 is a flowchart illustrating a process flow of the object determination device according to the first embodiment.
同図に示すように、画像の入力を受け付けると(ステップS401)、物体検出装置14は、画像内から判別の対象となる候補物体の検出を行う(ステップS402)。その結果、物体検出装置14において画像内から判別の対象となる候補物体が検出された場合には(ステップS403肯定)、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bは、候補物体の判別を行って判別結果を導き出す(ステップS404)。
As shown in the figure, when an image input is received (step S401), the
具体的には、パターンマッチングは、画像内に現れた候補物体に対し、その画像上の位置で歩行者の形に応じたいくつかのテンプレートを当てはめ、その候補物体の形と比較して、形の一致性(度)を見て歩行者か否かの判別結果を導き出すものである。そして、当てはめの結果、完全一致により「歩行者」判別してもよいが、相似比較で所定の以上の一致度で「歩行者」と判別してもよい。また、ニューラルネットワークは、歩行者の形や動きを学習しておき、その学習結果により画像内における実際の候補物体の形や動きを見ながら判別結果を導き出すものである。 Specifically, pattern matching applies a number of templates according to the shape of the pedestrian to the candidate object appearing in the image at the position on the image, and compares it with the shape of the candidate object. The result of determination as to whether or not the person is a pedestrian is derived by looking at the coincidence (degree). Then, as a result of the fitting, “pedestrian” may be determined based on complete matching, but may be determined as “pedestrian” with a degree of matching equal to or higher than a predetermined level by similarity comparison. The neural network learns the shape and movement of a pedestrian, and derives a discrimination result from the learning result while observing the shape and movement of an actual candidate object in the image.
そして、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bは、各判別結果(例えば、候補物体を「歩行者である」または「歩行者ではない」とする判別結果)を総合判別部32cに対して送信する。ここで、ステップS403の説明に戻ると、物体検出装置14おいて画像内から候補物体を検出されなかった場合には(ステップS403否定)、物体判別装置30は、次の画像入力を待つ。
Then, the pattern
パターンマッチング実行部32aおよびニューラルネットワーク実行部32bから各判別結果の送信を受けて、総合判別部32cは、最終的な総合判別結果を導き出す(ステップS405〜S407)。具体的には、まず、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bから送信されてきた各判別結果がともに候補物体を「所定の物体である」とする判別結果であるか否かの判定を行う(ステップS405)。
Receiving the transmission of each discrimination result from the pattern
そして、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bからそれぞれ送信されてきた各判別結果がともに候補物体を「所定の物体である」(例えば、「歩行者である」)とするものである場合には(ステップS405肯定)、総合判別部32cは、総合判別テーブル31aに照らし合わせて、画像内の物体を「所定の物体である」(例えば、「歩行者である」)とする最終的な総合判別結果を導き出す(ステップS406)。
When each of the determination results transmitted from the pattern
また、ここで、ステップS405の説明に戻ると、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bからそれぞれ送信されてきた各判別結果のいずれか一つまたはすべてが候補物体を「所定の物体ではない」(例えば、「歩行者ではない」)とするものである場合には(ステップS405否定)、総合判別部32cは、総合判別テーブル31aに照らし合わせて、画像内の物体を「所定の物体ではない」(例えば、「歩行者ではない」)とする最終的な総合判別結果を導き出す(ステップS407)。
Here, returning to the description of step S405, any one or all of the discrimination results respectively transmitted from the pattern
[実施例1の効果]
上述してきたように、実施例1によれば、この物体判別装置30は、複数の物体判別手法よる各物体判別結果から、一つの判別結果を導き出すことで画像内の物体を判別するので、一つの物体判別手法を用いて画像内の物体を判別するのに比べてその精度が低下するのを防止することが可能となる。
[Effect of Example 1]
As described above, according to the first embodiment, the
また、実施例1によれば、この物体判別装置30は、複数の物体判別手法による各物体判別結果の全てが、画像内の物体を所定の物体であるとするものである場合には、画像内の物体を所定の物体であるとする判別結果を導き出すことで物体判別するので、一つの物体判別手法を用いて画像内の物体を判別するのに比べてその精度が低下するのを防止することが可能となる。
Further, according to the first embodiment, the
また、実施例1によれば、この物体判別装置30は、複数の物体検出手法による各物体判別結果に応じて車両の制御を行うので、一つの物体判別手法による物体判別結果に応じて車両制御を行うのに比べて、より適切に車両制御を行うことが可能となる。
In addition, according to the first embodiment, the
また、実施例1によれば、この物体判別装置30は、複数の物体検出手法による各物体判別結果に応じて警告の報知を行うので、一つの物体判別手法による物体判別結果に応じて警告の報知を行うのに比べて、より適切に警告の報知を行うことが可能となる。
In addition, according to the first embodiment, the
ところで、上記の実施例では、複数の物体判別手法による各物体判別結果の全てが歩行者である場合には、歩行者と判別する場合について説明したが、本発明はこれに限定されるものではなく、複数の物体判別手法による各物体判別結果のうちいずれか一つでも画像内の物体を歩行者であるとするものである場合には、歩行者と判別するようにしてもよい。そこで、以下の実施例2では、図5および図6を用いて、この場合の物体判別装置の処理の流れについて説明し、最後に実施例2の効果を説明する。図5は、実施例2に係る物体判別装置の処理の流れを示すフローチャートである。図6は、実施例2に係る総合判別テーブルの構成例を示す図である。 By the way, in the above-described embodiment, the case where all the object discrimination results by the plurality of object discrimination methods are pedestrians has been described, but the present invention is not limited to this. Alternatively, if any one of the object discrimination results obtained by the plurality of object discrimination methods is to be an object in the image as a pedestrian, it may be determined as a pedestrian. Therefore, in the second embodiment below, the flow of processing of the object discrimination device in this case will be described using FIGS. 5 and 6, and finally the effects of the second embodiment will be described. FIG. 5 is a flowchart illustrating a process flow of the object determination device according to the second embodiment. FIG. 6 is a diagram illustrating a configuration example of a comprehensive discrimination table according to the second embodiment.
図5に示すように、画像の入力を受け付けると(ステップS501)、物体検出装置14は、画像内から判別の対象となる候補物体の検出を行う(ステップS502)。その結果、物体検出装置14において画像内から判別の対象となる候補物体が検出された場合には(ステップS503肯定)、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bは、候補物体の判別を行って判別結果を導き出す(ステップS504)。
As shown in FIG. 5, when an image input is received (step S501), the
そして、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bは各判別結果(例えば、候補物体を「歩行者である」または「歩行者ではない」とする判別結果)を総合判別部32cに対して送信する。ここで、ステップS503の説明に戻ると、物体検出装置14において画像内から候補物体を検出されなかった場合には(ステップS503否定)、この物体判別装置は、次の画像入力を待つ。
Then, the pattern
パターンマッチング実行部32aおよびニューラルネットワーク実行部32bから各判別結果の送信を受けて、総合判別部32cは、最終的な総合判別結果を導き出す(ステップS505〜S507)。具体的には、まず、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bから送信されてきた各判別結果のいずれか一つまたはすべてが候補物体を「所定の物体である」とする判別結果であるか否かの判定を行う(ステップS505)。
Receiving the transmission of each discrimination result from the pattern
そして、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bからそれぞれ送信されてきた各判別結果のいずれか一つまたはすべてが候補物体を「所定の物体である」(例えば、「歩行者である」)とするものである場合には(ステップS505肯定)、総合判別部32cは、総合判別テーブル31a(図6参照)に照らし合わせて、画像内の物体を「所定の物体である」(例えば、「歩行者である」)とする最終的な総合判別結果を導き出す(ステップS506)。
Then, any one or all of the determination results transmitted from the pattern
また、ここで、ステップS505の説明に戻ると、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bからそれぞれ送信されてきた各判別結果がともに候補物体を「所定の物体ではない」(例えば、「歩行者ではない」)とするものである場合には(ステップS505否定)、総合判別部32cは、総合判別テーブル31aに照らし合わせて、画像内の物体を「所定の物体ではない」(例えば、「歩行者ではない」)とする最終的な総合判別結果を導き出す(ステップS507)。
Here, returning to the description of step S505, the determination results transmitted from the pattern
[実施例2の効果]
上述してきたように、実施例2によれば、この物体判別装置は、複数の物体判別手法による各物体判別結果のうちいずれか一つでも画像内の物体を所定の物体であるとするものである場合には、画像内の物体を所定の物体であるとする判別結果を導き出すことで物体判別するので、一つの物体判別手法を用いて画像内の物体を判別するのに比べて、画像内の物体を判別できることが考えられ、結果的に物体判別の精度が低下するのを防止することが可能となる。
[Effect of Example 2]
As described above, according to the second embodiment, this object discriminating apparatus assumes that any one of the object discrimination results obtained by the plurality of object discrimination methods is a predetermined object. In some cases, the object is determined by deriving a determination result that the object in the image is a predetermined object, so that the object in the image is compared with the case where the object in the image is determined using one object determination method. Therefore, it is possible to prevent the object discrimination accuracy from being lowered as a result.
また、上記の実施例では、複数の物体判別手法による各判別結果をそのまま用いて画像内の物体を判別する場合について説明したが、本発明はこれに限定されるものではなく、複数の物体判別手法による各判別結果からそれぞれ所定の判別値を求めて、それらの判別値を足し合わせた値が所定の閾値を超えているか否かによって画像内の物体を判別するようにしてもよい。 Further, in the above-described embodiment, a case has been described in which an object in an image is determined by using each determination result obtained by a plurality of object determination methods as it is, but the present invention is not limited to this, and a plurality of object determinations are performed. A predetermined discriminant value may be obtained from each discriminant result by the technique, and an object in the image may be discriminated based on whether or not a value obtained by adding the discriminant values exceeds a predetermined threshold value.
そこで、以下の実施例3では、図7〜図10を用いて、この場合の物体判別装置の構成および処理の流れについて順に説明し、最後に実施例3の効果を説明する。図7は、実施例3に係る物体判別装置の構成を示すブロック図である。図8は、実施例3に係る重み規定テーブルの構成例を示す図である。図9は、実施例3に係る閾値テーブルの構成例を示す図である。図10は、実施例3に係る物体判別装置の処理の流れを示すフローチャートである。 Therefore, in the following third embodiment, the configuration of the object discriminating apparatus and the flow of processing in this case will be described in order with reference to FIGS. FIG. 7 is a block diagram illustrating the configuration of the object determination device according to the third embodiment. FIG. 8 is a diagram illustrating a configuration example of a weight regulation table according to the third embodiment. FIG. 9 is a diagram illustrating a configuration example of a threshold value table according to the third embodiment. FIG. 10 is a flowchart illustrating a process flow of the object determination device according to the third embodiment.
[物体判別装置の構成(実施例3)]
図7に示すように、この物体判別装置は、ナビ部11、レーダ部12、前処理部13、物体検出装置14、衝突危険度判定部15に接続される。また、物体判別装置40は、記憶部41と、制御部42とから構成される。ナビ部11、レーダ部12、前処理部13、物体検出装置14、衝突危険度判定部15、車両制御部16、報知制御部17および車内通知部18については、上記の実施例と同様であるので説明を割愛する。
[Configuration of Object Discriminating Device (Example 3)]
As shown in FIG. 7, the object determination device is connected to a
物体検出装置40の記憶部41は、制御部42による各種処理に必要なデータおよびプログラムを格納する格納手段(記憶手段)であり、例えば、後述するパターンマッチング実行部42aにおいて用いられるテンプレートなども記憶している。そして、特に本発明に密接に関連するものとしては、重み規定テーブル41aおよび閾値規定テーブル41bを備える。
The
このうち、重み規定テーブル41aは、後述するパターンマッチング実行部42aおよびニューラルネットワーク実行部42bにおいて画像内の物体を判別する際に求められる所定の値から、総合判別部42cにおいて判別値を算出するために必要な情報を記憶する記憶手段であり、具体的には、図8に例示するように、画像内の物体に対する判別値を算出する際に必要な重み(例えば、パターンマッチング0.8、ニューラルネットワーク0.6)を各物体判別手法ごとに規定して構成される。なお、この重みは、パターンマッチングおよびニューラルネットワークの判別実験データに基づいて規定するなど、ユーザーフレンドリーに適宜変更可能とするようにしてもよい。
Among these, the weight defining table 41a is used for calculating a discriminant value in the general discriminating
閾値規定テーブル41bは、後述する総合判別部42cにおいて最終的に画像内の物体を判別するために用いられる情報を記憶する記憶手段であり、具体的には、図9に例示するように、総合判別部42cにおいて算出された判別値から画像内の物体を最終的に判別するために必要な閾値(例えば、0.7)を記憶して構成される。なお、この閾値も適宜変更可能とするようにしてもよい。
The threshold value definition table 41b is storage means for storing information used for finally determining an object in the image in the
物体判別装置40の制御部42は、所定の制御プログラム、各種の処理手順などを規定したプログラムおよび所要データを格納するための内部メモリを有し、これらによって種々の処理を実行する処理部であり、特に本発明に密接に関連するものとしては、パターンマッチング実行部42aと、ニューラルネットワーク実行部42bと、総合判別部42cとを備える。
The
このうち、パターンマッチング実行部42aおよびニューラルネットワーク42bは、画像内の物体を判別する処理部であり、画像内の物体の判別結果を所定の値として算出する。例えば、パターンマッチング実行部42aは、画像内に映し出された物体の画素値とテンプレートの画素値との適合数から、いわゆるマッチング数と呼ばれる所定の値を算出する。
Among these, the pattern
総合判別部42cは、最終的な物体判別結果を導き出す処理部であり、具体的には、パターンマッチング実行部42aおよびニューラルネットワーク42bでそれぞれ算出された所定の値を0〜1の値に正規化(例えば、完全一致なら“1”、不一致なら“0”、近似しているなら“0.5”など)した後に、重み規定テーブル41aにそれぞれ規定されている重み(0.8)を掛け合わせて判別値を算出する。そして、これらの判別値を足し合わせた値が閾値規定テーブル41bに規定された総合判別閾値(例えば、0.7)を超えているか否かによって最終的な物体判別を行い、この閾値を超えていれば画像内の物体は所定の物体(例えば、歩行者)であると最終的に判別する。
The
[物体判別装置による処理(実施例3)]
次に、図10を用いて、実施例3に係るこの物体判別装置40による処理の流れを詳細に説明する。
[Processing by Object Discriminating Device (Example 3)]
Next, the flow of processing by the
同図に示すように、画像が入力を受け付けると(ステップS1001肯定)、物体検出装置14は、画像内から判別の対象となる候補物体の検出を行う(ステップS1002)。その結果、物体検出装置14において画像内から判別の対象となる候補物体が検出され場合には(ステップS1003肯定)、パターンマッチング実行部42aおよびニューラルネットワーク実行部42bは、候補物体の判別を行って判別結果を導き出す(ステップS1004)。
As shown in the figure, when the image receives an input (Yes at step S1001), the
そして、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bは各判別結果として算出した所定の値を総合判別部32cに対してそれぞれ送信する。ここで、ステップS1003の説明に戻ると、物体検出装置14おいて画像内から候補物体を検出されなかった場合には(ステップS1003否定)、物体判別装置40は、次の画像入力を待つ。
Then, the pattern
パターンマッチング実行部42aおよびニューラルネットワーク実行部42bから各判別結果として算出された所定の値の送信を受けて、総合判別部32cは、判別値の算出を行う。ここで、判別値は、パターンマッチング実行部42aおよびニューラルネットワーク42bでそれぞれ算出された所定の値を0〜1の値に正規化した後に、重み規定テーブル41a(図8参照)にそれぞれ規定されている重み(パターンマッチング:0.8、ニューラルネットワーク:0.6)を掛け合わせて判別値を算出する。そして、これらの判別値を足し合わせる(ステップS1005)。
In response to the transmission of predetermined values calculated as the respective discrimination results from the pattern
続いて、総合判別部32cは、これらの各判別値を足し合わせた和を閾値規定テーブル42bに照らし合わせて、最終的な判別結果を導き出すために判定を行う。具体的には、各判別値を足し合わせた和が所定の閾値(図9参照)を超えている場合には(ステップS1006肯定)、総合判別部42cは、画像内の物体を「所定の物体である」(例えば、「歩行者である」)とする最終的な総合判別結果を導き出す(ステップS1007)。
Subsequently, the
つまり、例えば、パターンマッチングでの一致度が高ければ、ニューラルネットワークによる判別値(精度)が多少低くても、総合的な判別値(精度)は高くなり、歩行者と判定される。従って、ニューラルネットワークで検出しにくくても、パターンマッチングにより補完することができる。 That is, for example, if the degree of coincidence in pattern matching is high, the overall discriminant value (accuracy) increases even if the discriminant value (accuracy) by the neural network is somewhat low, and it is determined as a pedestrian. Therefore, even if it is difficult to detect with a neural network, it can be complemented by pattern matching.
ここで、ステップS1006の説明に戻ると、各判別値を足し合わせた和が所定の閾値を超えていない場合には(ステップS1006否定)、総合判別部42cは、画像内の物体を「所定の物体ではない」(例えば、「歩行者ではない」)と判別する(ステップS1008)。
Here, returning to the description of step S1006, when the sum of the respective discriminant values does not exceed a predetermined threshold (No in step S1006), the
[実施例3の効果]
上述してきたように、実施例3によれば、この物体判別装置40は、複数の物体検出手法により算出された判別値を足し合わせて、その足し合わせた判別値が所定の閾値を超えていれば画像内の物体を所定の物体であるとする判別結果を導き出すことで物体判別を行うので、一つの物体判別手法を用いて画像内の物体を判別するのに比べてその精度が低下するのを防止することが可能となる。
[Effect of Example 3]
As described above, according to the third embodiment, the
また、上記の実施例では、画像内の物体までの距離に関係なく、複数の物体検出手法による各物体判別結果から画像内の物体を判別する場合について説明したが、本発明はこれに限定されるものではなく、画像内の物体までの距離を考慮した上で複数の物体検出手法による各物体判別結果から画像内の物体を判別するようにしてもよい。そこで、以下の実施例4では、図11を用いて、この場合の物体判別装置の処理の流れを説明し、最後に実施例4による効果を説明する。図11は、実施例4に係る物体判別装置の処理の流れを説明するフローチャートである。 Further, in the above-described embodiment, a case has been described in which an object in an image is discriminated from each object discrimination result by a plurality of object detection methods regardless of the distance to the object in the image, but the present invention is not limited to this. Instead, the object in the image may be determined from each object determination result by a plurality of object detection methods in consideration of the distance to the object in the image. Therefore, in the following fourth embodiment, the flow of processing of the object discriminating apparatus in this case will be described with reference to FIG. 11, and finally the effects of the fourth embodiment will be described. FIG. 11 is a flowchart illustrating a process flow of the object determination device according to the fourth embodiment.
同図に示すように、画像の入力を受け付けると(ステップS1101)、物体検出装置14は、画像内から判別の対象となる候補物体の検出を行う(ステップS1102)。その結果、物体検出装置14において画像内から判別の対象となる候補物体を検出された場合には(ステップS1103肯定)、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bは、候補物体の判別を行って判別結果を導き出す(ステップS1104)。
As shown in the figure, upon receiving an input of an image (step S1101), the
そして、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bは各判別結果を総合判別部32cに対して送信する。ここで、ステップS1103の説明に戻ると、物体検出装置14において画像内から候補物体が検出されなかった場合には(ステップS1103否定)、この物体判別装置は、次の画像入力を待つ。
And the pattern
パターンマッチング実行部32aおよびニューラルネットワーク実行部32bから各判別結果の送信を受けて、総合判別部32cは、まず、画像内の候補物体までの距離を測定する(ステップS1105)。ここで、候補物体までの距離は、例えば、物体検出装置14において検出された候補物体の画像内の縦位置(画素数)から測定する。
In response to the transmission of each discrimination result from the pattern
そして、候補物体までの距離が所定の距離範囲内であって(ステップS1106肯定)、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bからそれぞれ送信されてきた各判別結果がともに候補物体を「所定の物体である」(例えば、「歩行者である」)とするものである場合には(ステップS1107肯定)、総合判別部32cは、総合判別テーブル31a(図12参照)に照らし合わせて、画像内の物体を「所定の物体である」(例えば、「歩行者である」)とする最終的な総合判別結果を導き出す(ステップS1108)。
Then, the distance to the candidate object is within the predetermined distance range (Yes at step S1106), and the respective determination results transmitted from the pattern
ここで、ステップS1107の説明の戻ると、候補物体までの距離が所定の距離範囲内であって(ステップS1106肯定)、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bからそれぞれ送信されてきた各判別結果のいずれか一つまたはすべてが候補物体を「所定の物体ではない」(例えば、「歩行者ではない」)とするものである場合には(ステップS1107否定)、総合判別部32cは、総合判別テーブル31aに照らし合わせて、画像内の物体を「所定の物体ではない」(例えば、「歩行者ではない」)とする最終的な総合判別結果を導き出す(ステップS1109)。
Here, returning to the description of step S1107, each of the determinations that the distance to the candidate object is within the predetermined distance range (Yes in step S1106) and is transmitted from the pattern
また、ここで、ステップS1106の説明に戻ると、候補物体までの距離が所定の距離範囲外であって(ステップS1106否定)、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bからそれぞれ送信されてきた各判別結果のいずれか一つまたはすべてが候補物体を「所定の物体ではある」(例えば、「歩行者である」)とするものである場合には(ステップS1110肯定)、総合判別部32cは、総合判別テーブル31aに照らし合わせて、画像内の物体を「所定の物体である」(例えば、「歩行者である」)とする最終的な総合判別結果を導き出す(ステップS1111)。
Here, returning to the description of step S1106, the distance to the candidate object is outside the predetermined distance range (No in step S1106), and transmitted from the pattern
また、ここで、ステップS1110の説明に戻ると、候補物体までの距離が所定の距離範囲外であって(ステップS1106否定)、パターンマッチング実行部32aおよびニューラルネットワーク実行部32bからそれぞれ送信されてきた各判別結果がともに候補物体を「所定の物体ではない」(例えば、「歩行者ではない」)とするものである場合には(ステップS1110否定)、総合判別部32cは、総合判別テーブル31aに照らし合わせて、画像内の物体を「所定の物体ではない」(例えば、「歩行者ではない」)とする最終的な総合判別結果を導き出す(ステップS1112)。
Here, returning to the description of step S1110, the distance to the candidate object is outside the predetermined distance range (No in step S1106) and has been transmitted from the pattern
[実施例4の効果]
上述してきたように、実施例4によれば、この物体検出装置は、画像内の所定の距離範囲内にある物体については、複数の物体判別手法による各物体判別結果の全てが、画像内の物体を所定の物体であるとするものである場合には、画像内の物体を所定の物体であるとする判別結果を導き出し、画像内の所定の距離範囲外にある物体については、複数の物体判別手法による各物体判別結果のうちいずれか一つでも画像内の物体を所定の物体であるとするものである場合には、画像内の物体を所定の物体であるとする判別結果を導き出すことで物体判別するので、物体判別の必要性の高い近距離に位置する物体の判別については、一つの物体判別手法を用いて画像内の物体を判別するのに比べてその精度が低下するのを防止することが可能となる。
[Effect of Example 4]
As described above, according to the fourth embodiment, this object detection device, for an object within a predetermined distance range in the image, all of the object discrimination results by the plurality of object discrimination methods are included in the image. If the object is a predetermined object, a determination result that the object in the image is the predetermined object is derived, and a plurality of objects are detected for objects outside the predetermined distance range in the image. If any one of the object discrimination results obtained by the discrimination method is to determine that the object in the image is a predetermined object, the determination result that the object in the image is a predetermined object is derived. Therefore, the accuracy of the identification of objects located at a short distance, which is highly necessary for object identification, is lower than that for identifying objects in an image using one object identification method. It becomes possible to prevent .
さて、これまで実施例1〜4にかかる物体判別装置について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下では実施例5として、種々の異なる実施例を(1)〜(4)に区分けして説明する。 The object discriminating apparatus according to the first to fourth embodiments has been described so far, but the present invention may be implemented in various different forms other than the above-described embodiments. Therefore, in the following, as the fifth embodiment, various different embodiments will be described as divided into (1) to (4).
(1)天候に応じた物体判別
上記の実施例において、天候を考慮したうえで、複数の物体判別手法による物体判別結果から画像内の物体を判別するようにしてもよい。これにより、この物体判別装置は、天候に応じて、複数の物体検出手法による各物体判別結果から一つの判別結果を導き出すことで物体判別を行うので、一つの物体判別手法を用いて画像内の物体を判別するのに比べて、天候によりその精度が低下するのを防止することが可能となる。
(1) Object discrimination according to the weather In the above-described embodiment, an object in the image may be discriminated from the object discrimination results obtained by a plurality of object discrimination methods in consideration of the weather. As a result, this object discrimination device performs object discrimination by deriving one discrimination result from each object discrimination result by a plurality of object detection methods according to the weather. Compared to determining an object, it is possible to prevent the accuracy from decreasing due to the weather.
(2)処理負荷に応じた物体判別
上記の実施例において、処理負荷を考慮したうえで、複数の物体判別手法による物体判別結果から画像内の物体を判別するようにしてもよい。これにより、この物体判別装置は、処理負荷に応じて、複数の物体検出手法による各物体判別結果から一つの判別結果を導き出すことで物体判別を行うので、一つの物体判別手法を用いて画像内の物体を判別するのに比べて、処理負荷によりその精度が低下するのを防止することが可能となる。
(2) Object Discrimination According to Processing Load In the above embodiment, an object in an image may be discriminated from object discrimination results obtained by a plurality of object discrimination methods in consideration of the processing load. As a result, this object discriminating apparatus performs object discrimination by deriving one discrimination result from each object discrimination result by a plurality of object detection methods according to the processing load. As compared with the case of discriminating the object, it is possible to prevent the accuracy from being lowered due to the processing load.
(3)装置構成
図2に示した物体判別装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、物体判別装置30の分散・統合の具体的形態は図示のものに限られず、例えば、物体検出装置14と物体判別装置30を統合するなど、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、物体判別装置30にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
(3) Device Configuration Each component of the object discriminating device shown in FIG. 2 is functionally conceptual and does not necessarily need to be physically configured as illustrated. That is, the specific form of distribution / integration of the
(4)物体判別プログラム
ところで、上記の実施例1で説明した各種の処理は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータシステムで実行することによって実現することができる。そこで、以下では、図13を用いて、上記の実施例1と同様の機能を有する物体判別プログラムを実行するコンピュータの一例を説明する。図13は、物体判別プログラムを実行するコンピュータを示す図である。
(4) Object Discriminating Program Various processes described in the first embodiment can be realized by executing a program prepared in advance on a computer system such as a personal computer or a workstation. In the following, an example of a computer that executes an object determination program having the same function as that of the first embodiment will be described with reference to FIG. FIG. 13 is a diagram illustrating a computer that executes an object determination program.
同図に示すように、物体判別装置としてのコンピュータ50は、HDD51、RAM52、ROM53およびCPU54をバス60で接続して構成される。
As shown in the figure, a computer 50 as an object discrimination device is configured by connecting an
そして、ROM53には、上記の実施例1に示した物体判別装置30と同様の機能を発揮する物体判別プログラム、つまり、図13に示すように、パターンマッチング実行プログラム53a、ニューラルネットワーク実行プログラム53bおよび総合判別プログラム53cがあらかじめ記憶されている。なお、これらのプログラム53a、53bおよび53cは、図2に示した物体判別装置30の各構成要素と同様、適宜統合または分散してもよい。なお、ROM53は、不揮発性の「RAM」でもよい。
In the
そして、CPU54が、これらのプログラム53a、53bおよび53cをROM53から読み出して実行することで、図13に示すように、これらのプログラム53a、53bおよび53cは、パターンマッチング実行プロセス54a、ニューラルネットワーク実行プロセス54bおよび総合判別プロセス54cとして機能するようになる。なお、これらのプロセス54a、54bおよび54cは、図2に示したパターンマッチング実行部32a、ニューラルネットワーク実行部32bおよび総合判別部32cにそれぞれ対応する。
The
また、HDD51には、図13に示すように、総合判別テーブル51aが設けられる。この総合判別テーブル51aは、図2に示した総合判別テーブル31aに対応する。そして、CPU54は総合判別テーブル51aから、総合判別データ52aを読み出してRAM52に格納し、RAM52に格納された総合判別データ52aに基づいて物体検出処理を実行する。
Further, as shown in FIG. 13, the
なお、上記したプログラム53a、53bおよび53cについては、必ずしも最初からROM53に記憶させておく必要はなく、例えば、コンピュータ50に挿入されるフレキシブルディスク(FD)、CD−ROM、MOディスク、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」、または、コンピュータ50の内外に備えられるHDDなどの「固定用の物理媒体」、さらには、公衆回線、インターネット、LAN、WANなどを介してコンピュータ50に接続される「他のコンピュータ(またはサーバ)」などに各プログラムを記憶させておき、コンピュータ50がこれらから各プログラムを読み出して実行するようにしてもよい。
Note that the above-described
また、上記の実施例では、車載の撮像装置で撮像された画像内の物体を検出する場合について説明したが、本発明はこれに限定されるものではなく、固定式の撮像装置(例えば、交差点に取り付けられた交通流監視カメラ)で撮像された物体を画像内から検出するようにしてもよい。 In the above-described embodiment, the case where an object in an image captured by an in-vehicle imaging device is detected has been described. However, the present invention is not limited to this, and a fixed imaging device (for example, an intersection) An object imaged by a traffic flow monitoring camera attached to the camera may be detected from the image.
以上のように、本発明に係る物体判別装置、物体判別方法および物体判別プログラムは、画像内の物体を判別する場合に有用であり、特に、画像内の物体を判別する際の精度低下を防止することに適する。 As described above, the object discriminating apparatus, the object discriminating method, and the object discriminating program according to the present invention are useful for discriminating an object in an image, and in particular, prevent a decrease in accuracy when discriminating an object in an image. Suitable for doing.
10 撮像装置
11 ナビ(ナビゲーション)部
12 レーダ部
13 前処理部
13a フィルタ部
13b 輪郭抽出部
14 物体判別装置
15 衝突危険度判定部
16 車両制御部
17 報知制御部
18 車内通知部
30 物体判別装置
31 記憶部
31a 総合判別テーブル
32 制御部
32a パターンマッチング実行部
32b ニューラルネットワーク実行部
32c 総合判別部
40 物体判別装置
41 記憶部
41a 重み規定テーブル
41b 閾値規定テーブル
42 制御部
42a パターンマッチング実行部
42b ニューラルネットワーク実行部
42c 総合判別部
50 コンピュータ
51 HDD(Hard disk drive)
52 RAM(Random Access Memory)
53 ROM(Read Only Memory)
54 CPU(Central Processing Unit)
60 バス
DESCRIPTION OF
52 RAM (Random Access Memory)
53 ROM (Read Only Memory)
54 CPU (Central Processing Unit)
60 bus
Claims (11)
複数の物体判別手法を用いて前記画像内で検出された物体を各物体判別手法ごとに判別する第一の物体判別手段と、
前記第一の物体判別手段による各判別結果から前記画像上の物体について一つの判別結果を導き出す第二の物体判別手段と、
を備えたことを特徴とする物体判別装置。 In an object discriminating apparatus that discriminates an object in an image,
First object discriminating means for discriminating, for each object discrimination method, an object detected in the image using a plurality of object discrimination methods;
Second object discrimination means for deriving one discrimination result for the object on the image from each discrimination result by the first object discrimination means;
An object discrimination device comprising:
前記第二の物体判別手段は、前記第一の物体判別手段による各判別値をそれぞれ所定の値に換算した後に、それぞれ足し合わせた判別値の合計値が所定の閾値を超えている場合には、前記画像上の物体を所定の物体であるとする一つの判別結果を導き出すことを特徴とする請求項1に記載の物体判別装置。 The first object discrimination means calculates a discrimination value of an object on the image,
The second object discriminating unit converts each discriminant value obtained by the first object discriminating unit into a predetermined value and then adds the discriminant value added to each other and exceeds a predetermined threshold value. 2. The object discriminating apparatus according to claim 1, wherein one discrimination result that the object on the image is a predetermined object is derived.
複数の物体判別手法を用いて前記画像内で検出された物体を各物体判別手法ごとに判別する第一の物体判別工程と、
前記第一の物体判別手段による各判別結果から前記画像上の物体について一つの判別結果を導き出す第二の物体判別工程と、
を含んだことを特徴とする物体判別方法。 In an object discrimination method for discriminating an object in an image,
A first object determination step of determining, for each object determination method, an object detected in the image using a plurality of object determination methods;
A second object discrimination step for deriving one discrimination result for the object on the image from each discrimination result by the first object discrimination means;
The object discrimination method characterized by including.
複数の物体判別手法を用いて前記画像内で検出された物体を各物体判別手法ごとに判別する第一の物体判別手順と、
前記第一の物体判別手段による各判別結果から前記画像上の物体について一つの判別結果を導き出す第二の物体判別手順と、
をコンピュータに実行させることを特徴とする物体判別プログラム。 In an object discrimination program for causing a computer to execute a method for discriminating an object in an image,
A first object discrimination procedure for discriminating, for each object discrimination method, an object detected in the image using a plurality of object discrimination methods;
A second object discrimination procedure for deriving one discrimination result for the object on the image from each discrimination result by the first object discrimination means;
An object discrimination program for causing a computer to execute.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005245950A JP2007058751A (en) | 2005-08-26 | 2005-08-26 | Apparatus, method, and program for discriminating object |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005245950A JP2007058751A (en) | 2005-08-26 | 2005-08-26 | Apparatus, method, and program for discriminating object |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007058751A true JP2007058751A (en) | 2007-03-08 |
Family
ID=37922162
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005245950A Pending JP2007058751A (en) | 2005-08-26 | 2005-08-26 | Apparatus, method, and program for discriminating object |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007058751A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011237884A (en) * | 2010-05-06 | 2011-11-24 | Nomura Research Institute Ltd | Object detection size calculation system and object detection size calculation program |
US8538902B2 (en) | 2007-08-27 | 2013-09-17 | Toyota Jidosha Kabushiki Kaisha | Behavior predicting device that predicts the behavior of an object based on characteristic values of the object |
CN104050620A (en) * | 2013-03-13 | 2014-09-17 | 株式会社电装 | Object detection apparatus |
JP2019101549A (en) * | 2017-11-29 | 2019-06-24 | 沖電気工業株式会社 | Work site monitoring device and program |
JP2021043774A (en) * | 2019-09-12 | 2021-03-18 | 三菱電機インフォメーションシステムズ株式会社 | Notification determination device, notification determination method, and notification determination program |
JP7280426B1 (en) * | 2022-11-01 | 2023-05-23 | 株式会社 日立産業制御ソリューションズ | Object detection device and object detection method |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06309464A (en) * | 1993-04-20 | 1994-11-04 | Fujitsu Ltd | Pattern recognizing device based upon multidiscriminator |
JPH07160822A (en) * | 1993-12-07 | 1995-06-23 | Ricoh Co Ltd | Pattern recognizing method |
JPH07271956A (en) * | 1994-03-31 | 1995-10-20 | Babcock Hitachi Kk | Method and device for automatic measurement of traffic flow |
JPH0822592A (en) * | 1994-07-11 | 1996-01-23 | Matsushita Electric Ind Co Ltd | Method and device for detecting unexpected event |
JP2000105835A (en) * | 1998-07-28 | 2000-04-11 | Hitachi Denshi Ltd | Object recognizing method and object tracking and monitoring device |
JP2003237509A (en) * | 2002-02-13 | 2003-08-27 | Nissan Motor Co Ltd | Outside acknowledging device for vehicle |
JP2004192552A (en) * | 2002-12-13 | 2004-07-08 | Nissan Motor Co Ltd | Eye opening/closing determining apparatus |
JP2005044330A (en) * | 2003-07-24 | 2005-02-17 | Univ Of California San Diego | Weak hypothesis generation device and method, learning device and method, detection device and method, expression learning device and method, expression recognition device and method, and robot device |
JP2005157679A (en) * | 2003-11-25 | 2005-06-16 | Sony Corp | Object detecting device and method and group learning device and method |
-
2005
- 2005-08-26 JP JP2005245950A patent/JP2007058751A/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06309464A (en) * | 1993-04-20 | 1994-11-04 | Fujitsu Ltd | Pattern recognizing device based upon multidiscriminator |
JPH07160822A (en) * | 1993-12-07 | 1995-06-23 | Ricoh Co Ltd | Pattern recognizing method |
JPH07271956A (en) * | 1994-03-31 | 1995-10-20 | Babcock Hitachi Kk | Method and device for automatic measurement of traffic flow |
JPH0822592A (en) * | 1994-07-11 | 1996-01-23 | Matsushita Electric Ind Co Ltd | Method and device for detecting unexpected event |
JP2000105835A (en) * | 1998-07-28 | 2000-04-11 | Hitachi Denshi Ltd | Object recognizing method and object tracking and monitoring device |
JP2003237509A (en) * | 2002-02-13 | 2003-08-27 | Nissan Motor Co Ltd | Outside acknowledging device for vehicle |
JP2004192552A (en) * | 2002-12-13 | 2004-07-08 | Nissan Motor Co Ltd | Eye opening/closing determining apparatus |
JP2005044330A (en) * | 2003-07-24 | 2005-02-17 | Univ Of California San Diego | Weak hypothesis generation device and method, learning device and method, detection device and method, expression learning device and method, expression recognition device and method, and robot device |
JP2005157679A (en) * | 2003-11-25 | 2005-06-16 | Sony Corp | Object detecting device and method and group learning device and method |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8538902B2 (en) | 2007-08-27 | 2013-09-17 | Toyota Jidosha Kabushiki Kaisha | Behavior predicting device that predicts the behavior of an object based on characteristic values of the object |
JP2011237884A (en) * | 2010-05-06 | 2011-11-24 | Nomura Research Institute Ltd | Object detection size calculation system and object detection size calculation program |
CN104050620A (en) * | 2013-03-13 | 2014-09-17 | 株式会社电装 | Object detection apparatus |
JP2014178736A (en) * | 2013-03-13 | 2014-09-25 | Denso Corp | Object detection device |
CN104050620B (en) * | 2013-03-13 | 2018-02-13 | 株式会社电装 | Body detection device |
JP2019101549A (en) * | 2017-11-29 | 2019-06-24 | 沖電気工業株式会社 | Work site monitoring device and program |
JP2022103189A (en) * | 2017-11-29 | 2022-07-07 | 沖電気工業株式会社 | Work site monitoring device, work site monitoring system, work site monitoring method, and program |
JP7114885B2 (en) | 2017-11-29 | 2022-08-09 | 沖電気工業株式会社 | Worksite monitoring devices and programs |
JP2021043774A (en) * | 2019-09-12 | 2021-03-18 | 三菱電機インフォメーションシステムズ株式会社 | Notification determination device, notification determination method, and notification determination program |
JP7280426B1 (en) * | 2022-11-01 | 2023-05-23 | 株式会社 日立産業制御ソリューションズ | Object detection device and object detection method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7817848B2 (en) | Apparatus, method, and computer product for discriminating object | |
JP2007072665A (en) | Object discrimination device, object discrimination method and object discrimination program | |
EP3755597A1 (en) | Method for distress and road rage detection | |
US10336252B2 (en) | Long term driving danger prediction system | |
US10817751B2 (en) | Learning data creation method, learning method, risk prediction method, learning data creation device, learning device, risk prediction device, and recording medium | |
JP5127392B2 (en) | Classification boundary determination method and classification boundary determination apparatus | |
JP6418574B2 (en) | Risk estimation device, risk estimation method, and computer program for risk estimation | |
MX2014015331A (en) | Affective user interface in an autonomous vehicle. | |
JP2007188417A (en) | Image recognition device, image recognition method, and image recognition program | |
JP2008021034A (en) | Image recognition device, image recognition method, pedestrian recognition device and vehicle controller | |
US11810373B2 (en) | Cognitive function estimation device, learning device, and cognitive function estimation method | |
JP2008021035A (en) | Image recognition device, image recognition method, and vehicle control device | |
EP3598071A1 (en) | Information processing apparatus, information processing method and information processing program | |
CN108263324A (en) | Pedestrian detection and pedestrian impact preventing mean and method based on pose information | |
JP2007058751A (en) | Apparatus, method, and program for discriminating object | |
US11713046B2 (en) | Driving assistance apparatus and data collection system | |
JP2022033805A (en) | Method, device, apparatus, and storage medium for identifying passenger's status in unmanned vehicle | |
JP2007064894A (en) | Object detector, object detecting method, and object detection program | |
CN112348845A (en) | System and method for parking space detection and tracking | |
JP2009146153A (en) | Moving object detection device, moving object detection method and moving object detection program | |
CN112561967A (en) | Control method and device for vehicle door lock | |
JP2014219814A (en) | Drive aiding device and program | |
KR20200133856A (en) | Autonomous driving apparatus and method | |
US20230075659A1 (en) | Object ranging apparatus, method, and computer readable medium | |
US10562450B2 (en) | Enhanced lane negotiation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080821 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100909 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100921 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101104 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110125 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110719 |