JP2010185824A - Vehicle detection device, and method and program of the same - Google Patents
Vehicle detection device, and method and program of the same Download PDFInfo
- Publication number
- JP2010185824A JP2010185824A JP2009031124A JP2009031124A JP2010185824A JP 2010185824 A JP2010185824 A JP 2010185824A JP 2009031124 A JP2009031124 A JP 2009031124A JP 2009031124 A JP2009031124 A JP 2009031124A JP 2010185824 A JP2010185824 A JP 2010185824A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- detection
- rejection
- unit
- result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、道路上や道路側面に設置して車両等の物体の検出を行う物体検出技術に関する。 The present invention relates to an object detection technique for detecting an object such as a vehicle installed on a road or a side surface of a road.
従来、複数のセンサの活用によって物体の検出確度を向上させるフュージョンセンサの取り組みが行われてきた。特許文献1では、それぞれのセンサの車両の存在予測領域とセンサの検出情報から存在確率密度を算出して、車両の位置を決定する方法が提案されている。 Conventionally, a fusion sensor that improves the detection accuracy of an object by utilizing a plurality of sensors has been performed. Patent Document 1 proposes a method of calculating the existence probability density from the vehicle presence prediction area of each sensor and the detection information of the sensor, and determining the position of the vehicle.
しかしながら、上記方法では、複数の検出情報の相関処理に関し、分解能や測定範囲の特徴を考慮した方式については開示されているものの、個々のセンサの誤検出のパターン等への考慮はなされていなかった。現実のセンサで発生する未検出や誤検出は、分解能等の単純な空間的な特性だけでなく、未検出は少ないが誤検出は多い、未検出は多いが誤検出は少ない等のように、センサの検出特性の違いにも起因している。 However, in the above method, although a method that takes into account the characteristics of the resolution and measurement range is disclosed regarding the correlation processing of a plurality of detection information, no consideration has been given to erroneous detection patterns of individual sensors. . Undetected and false detections that occur in real sensors are not only simple spatial characteristics such as resolution, but also low undetected but many false detections, many undetected but few false detections, etc. This is also caused by the difference in the detection characteristics of the sensors.
このように、未検出や誤検出の特性が大きく異なるセンサを用いて、その検出結果を融合(フュージョン)させた場合には、その融合効果を得ることが難しいという問題を抱えている。 As described above, when sensors having greatly different characteristics of undetected and erroneous detection are used and the detection results are fused, there is a problem that it is difficult to obtain the fusion effect.
上述してきた問題を解決するため、本発明では、未検出が少ないが誤検出の多い第1の検出部と誤検出は少ないが未検出の多い第2の検出部の2つの検出部を組合せ、第2の検出部による検出位置の周囲に、第1の検出部による検出結果を否定するエリアを設定することによって、高精度な車両検出を実現する。 In order to solve the above-described problem, the present invention combines the two detection units of the first detection unit with few undetections but many false detections and the second detection unit with few false detections but many undetections, By setting an area in which the detection result by the first detection unit is negated around the detection position by the second detection unit, highly accurate vehicle detection is realized.
発明の一つの態様は、複数のセンサを用いて車両の検出を行う車両検出装置であって、物体の形状を測定するのに適した第1のセンサによって取得したデータから車両の有無を検出する第1の検出部と、物体との距離を測定するのに適した第2のセンサによって取得したデータから車両の有無を検出する第2の検出部と、前記第2の検出部で検出された車両位置を基準として、その前後における車両の検出結果を無効とする棄却範囲が予め設定された棄却範囲テーブルを参照し、前記第1の検出部による検出結果の採用の可否を判定する棄却判定部と、前記判定部の判定結果に基づいて前記第1の検出部の検出結果と前記第2の検出部の検出結果とを融合して出力する融合処理部と、を有することを特徴とする車両検出装置に関する。 One aspect of the invention is a vehicle detection device that detects a vehicle using a plurality of sensors, and detects the presence or absence of the vehicle from data acquired by a first sensor suitable for measuring the shape of an object. A first detection unit, a second detection unit that detects the presence or absence of a vehicle from data acquired by a second sensor suitable for measuring the distance from the object, and the second detection unit Rejection determination unit that refers to a rejection range table in which a rejection range that invalidates vehicle detection results before and after the vehicle position is set as a reference and determines whether or not the detection result by the first detection unit can be adopted. And a fusion processing unit that fuses and outputs the detection result of the first detection unit and the detection result of the second detection unit based on the determination result of the determination unit. The present invention relates to a detection device.
すなわち、本発明になる車両検出装置は、物体の形状を測定するのに適した、例えば、可視カメラのようなセンサを利用して車両を検出する(未検出が少ないが誤検出の多い)第1の検出部と、物体との距離を測定するのに適した、例えば、ミリ波レーダのようなセンサを使って車両を検出する(誤検出は少ないが未検出の多い)第2の検出部とを備え、第2の検出部で検出した車両位置を基準として、その前後に設定した棄却範囲にしたがって、第1の検出部による検出結果の誤検出を除去した後に、第1の検出部による検出結果と第2の検出部による検索結果とを融合させる構成とすることによって、精度の高い車両検出が可能となる。 That is, the vehicle detection apparatus according to the present invention detects a vehicle using a sensor such as a visible camera, which is suitable for measuring the shape of an object (for example, there are few undetected but many false detections). A second detection unit suitable for measuring the distance between one detection unit and an object, for example, using a sensor such as a millimeter wave radar to detect a vehicle (few false detections but many undetections) With the vehicle position detected by the second detection unit as a reference, according to the rejection range set before and after the vehicle position, the first detection unit By adopting a configuration in which the detection result and the search result by the second detection unit are fused, vehicle detection with high accuracy is possible.
以上、物体の形状を測定するのに適する可視カメラなどのセンサを使った第1の検出部と、物体との距離を測定するのに適したミリ波レーダなどのセンサを使った第2の検出部を組合せて車両を検出する本発明の車両検出装置は、第2の検出部による車両の検出位置を基準としてその前方及び後方に車両が存在しないエリアを設定し、当該エリアに存在する第1の検出部の検出結果をフィルタリングする構成とすることによって、従来の複数のセンサを用いる融合センサに比べて、検出精度を大きく向上させることが可能となる。 As described above, the first detection unit using a sensor such as a visible camera suitable for measuring the shape of an object and the second detection using a sensor such as a millimeter wave radar suitable for measuring a distance from the object. The vehicle detection apparatus according to the present invention for detecting a vehicle by combining parts sets an area in which no vehicle is present in front and rear with reference to the detection position of the vehicle by the second detection unit, and the first existing in the area. By adopting a configuration for filtering the detection result of the detection unit, it is possible to greatly improve the detection accuracy compared to a conventional fusion sensor using a plurality of sensors.
以下、図面にもとづいて本発明の実施形態を説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
以下の実施例では、例えば、交差点の数メートルの高さに設置され、車両が走行する道路を撮影範囲に含める可視カメラと該可視カメラと同一の領域を検出範囲に含めるミリ波レーダを用い、可視カメラで取得した画像による車両の検出結果とミリ波を照射した物体からの反射波による車両の検出結果とを融合して最終的な検出結果を得る車両検出装置を想定している。 In the following embodiment, for example, a visible camera that is installed at a height of several meters at an intersection and includes a road on which the vehicle travels is included in the imaging range and a millimeter wave radar that includes the same area as the visible camera in the detection range, A vehicle detection apparatus is assumed that obtains a final detection result by fusing a vehicle detection result from an image acquired by a visible camera and a vehicle detection result from a reflected wave from an object irradiated with millimeter waves.
図1は、本発明の実施の形態になる複数の検出部からなる車両検出装置の基本構成を示す。本例は、車両検出装置の機能ブロック図を示している。 FIG. 1 shows a basic configuration of a vehicle detection apparatus including a plurality of detection units according to an embodiment of the present invention. This example shows a functional block diagram of the vehicle detection device.
車両検出装置は、可視カメラにより取得されたデータの入力を受け付ける入力部11と可視カメラで取得した画像を処理して車両の有無を検出する車両判定部12とからなる第1の検出部1、ミリ波レーダにより取得されたデータの入力を受け付ける入力部21と測定対象物からの反射信号を受信し車両の有無を検出する車両判定部22とからなる第2の検出部2、検出部1及び検出部2の検出結果1及び検出結果2の検出位置を比較する検出結果位置比較部3、検出部1の検出結果を検出部2の検出結果を使って誤検出を削除する棄却判定部4、および誤検出が除去された検出部1の検出結果と検出部2の検出結果を合わせて融合する融合処理部5から構成されている。
The vehicle detection device includes a first detection unit 1 including an
さらに、車両判定部12では、入力部11からの可視カメラの画像データを受け、該画像データに対し、フレーム間差分、または背景差分の処理を行うことによって車両画像を抽出し、検出結果を出力する。また、車両判定部22では、入力部21からの測定対象物の反射信号を受け、該反射信号の強度及び反射点数から車両の有無を判定し、検出結果を出力する。
Further, the
また、検出結果位置比較部3では、車両判定部12で得られた検出結果による車両の検出位置と、車両判定部22で得られた検出結果による車両の検出位置とを同一の座標系に変換し、変換後の位置を比較し、2つの検出位置が近傍であれば融合させて1つの結果とする。この処理により、検出結果に含まれる検出位置に関するデータは、検出部1のみで検出されたもの、検出部2のみで検出されたもの、およびその両方で検出されたものに分類される。
The detection result
棄却判定部4では、このうち、検出部1でのみ検出されたものを、検出部2で検出した結果を含む残りの2つの検出結果を用いて、棄却判定部4で予め定義された棄却範囲(後述)を参照して誤検出か否かを判定し、誤検出と判定されたものを削除する。
以上、物体の形状を測定するのに適した可視カメラなどのセンサを用いた第1の検出部と、物体との距離を測定するのに適したミリ波レーダなどのセンサを用いた第2の検出部を有する本発明の車両検出装置では、第2の検出部で検出された車両の検出位置を基準に、その前方及び後方に車両が存在しないエリアを設定することによって、第1の検出部の誤検出を抑制することを可能としている。 As described above, the first detector using a sensor such as a visible camera suitable for measuring the shape of an object and the second detector using a sensor such as a millimeter wave radar suitable for measuring the distance from the object. In the vehicle detection device of the present invention having the detection unit, the first detection unit is set by setting an area in which no vehicle exists in front and rear of the detection position of the vehicle detected by the second detection unit. It is possible to suppress false detection.
なお、車両検出装置は、図には示していないが、CPU(Central Processing Unit )、メモリを備えたコンピュータであり、車両検出装置を動作させる車両検出プログラムは、図示していない補助記憶装置に格納され、起動時にメモリに展開されてCPUによって実行処理されるものとなっている。 Although not shown in the figure, the vehicle detection device is a computer having a CPU (Central Processing Unit) and a memory, and a vehicle detection program for operating the vehicle detection device is stored in an auxiliary storage device (not shown). At the time of startup, it is expanded in the memory and executed by the CPU.
図2は、本発明の実施の形態になる車両の検出結果の棄却を判定する棄却判定部の構成例を示す。図2は、図1の棄却判定部4の詳細構成を示したものである。
FIG. 2 shows a configuration example of a rejection determination unit that determines rejection of a vehicle detection result according to the embodiment of the present invention. FIG. 2 shows a detailed configuration of the
棄却判定部4は、検出部2のみの検出結果及び検出部1、2の両方で検出された検出結果から車種を判別する車種判別部41、該車種判別部41から得られた車両位置、速度、車種等の車両情報と予め棄却範囲が設定されている棄却範囲テーブル100から取得した前方棄却範囲に基づいて検出部2による車両検出位置の前方の棄却を判定する前方棄却判定部42、および車種判別部41の車両情報と棄却範囲テーブル100の後方棄却範囲に基づいて後方の棄却を判定する後方棄却判定部43から構成されている。
前方棄却判定部42は、検出部1による検出結果1(車両と判定された画像データ)に対し、予め定義された棄却範囲テーブル100(詳細は後述)を参照し、車種判定部41の車両情報による前方棄却範囲から判定し、該棄却範囲に該当した場合に検出結果1を削除し、棄却範囲外であれば後方棄却判定部43にデータを出力する処理を行う。 そして、後方棄却判定部43は、前方棄却判定部42で範囲外と判定された検出結果1について、棄却範囲テーブル100を参照し、車種判定部41の車両情報に基づく後方棄却範囲を判定し、該棄却範囲に該当した場合に検出結果1を削除し、棄却範囲外であれば棄却後の検出結果として出力処理する。
The forward rejection determination unit 42 refers to a predefined rejection range table 100 (details will be described later) for the detection result 1 (image data determined to be a vehicle) by the detection unit 1, and the vehicle information of the vehicle type determination unit 41. If the result falls within the rejection range, the detection result 1 is deleted, and if it falls outside the rejection range, data is output to the backward
つまり、前方棄却判定部42及び後方棄却判定部43において、検出部1による検出結果は、棄却範囲内にあれば削除され、削除された後の検出結果だけが出力されることとなる。
That is, in the front rejection determination unit 42 and the rear
以上、本発明は、検出部2による検出結果2を含んだ検出結果の情報(車両位置/速度/車種)を用いて、検出結果1に対する棄却判定部4が棄却範囲テーブル100に定義したルールにしたがって検出部1のみの検出結果1の棄却を行う構成としている。
As described above, the present invention uses the detection result information (vehicle position / speed / vehicle type) including the detection result 2 by the detection unit 2 as a rule defined by the
図3は、本発明の実施の形態になる車両検出位置と前方車両との関係を説明する図である。図では、検出部1の入力部11にデータを入力する可視カメラ、および検出部2の入力部21にデータを入力するミリ波レーダの2つのセンサが道路上に設置されている例を示している。このミリ波レーダのデータから車両を検出する検出部2による検出結果位置を基準とした場合、その前方における検出部1による車両の検出結果の棄却範囲を表している。
FIG. 3 is a diagram illustrating the relationship between the vehicle detection position and the preceding vehicle according to the embodiment of the present invention. The figure shows an example in which two sensors, a visible camera that inputs data to the
なお、これまでにも説明してきたように、第1の検出部1は、道路に設置された可視カメラから取得したデータを受け付ける入力部11と、該入力部11が受け付けたデータから車両の検出処理を行う車両判定部12を含み、また、第2の検出部2は、同様に、道路の同一位置に設置されたミリ波レーダから取得したデータを受け付ける入力部21と、該入力部21が受け付けたデータから車両の検出処理を行う車両判定部22を含んでいる。
As described above, the first detection unit 1 includes an
検出部2による検出結果の車両位置が道路上のある位置に存在し、かつその場所での車両の速度に対する安全な車間距離を考慮すると、その前方では、車両一台分と車間距離の範囲に別の車両は存在しないはずである。そこで、検出部2による検出結果の車両位置を基準にして、前方は、「車長+車間距離」を棄却範囲とする。 When the vehicle position as a result of detection by the detection unit 2 exists at a certain position on the road and the safe inter-vehicle distance with respect to the vehicle speed at that location is taken into consideration, the distance between the vehicle and the inter-vehicle distance is in front of the vehicle position. There should be no other vehicles. Therefore, with reference to the vehicle position of the detection result by the detection unit 2, “vehicle length + inter-vehicle distance” is set as the rejection range for the front.
前方車長+車間距離範囲に関し、車長は、一般的な車両(車両CO)の全長とし、車間距離は、検出部2で検出した検出結果(車両C1、その検出位置はC1前面の○印)の速度から求めた値で、ともに、事前に定義した値が格納された棄却範囲テーブル(後述)から取得する。 Regarding the front vehicle length + inter-vehicle distance range, the vehicle length is the total length of a general vehicle (vehicle CO), and the inter-vehicle distance is the detection result detected by the detection unit 2 (vehicle C1, its detection position is a circle on the front of C1. ) And a value obtained from the speed range (1), both of which are obtained from a rejection range table (described later) in which pre-defined values are stored.
図4は、本発明の実施の形態になる車両検出位置と車両の死角範囲との関係を説明する図である。図中、検出部2で検出された車両C2、C3の検出位置(ミリ波の反射面)は、各車両の先端部(バンパー等)に相当し、○印で表されている。 FIG. 4 is a diagram illustrating the relationship between the vehicle detection position and the vehicle blind spot range according to the embodiment of the present invention. In the figure, the detection positions (millimeter wave reflection surfaces) of the vehicles C2 and C3 detected by the detection unit 2 correspond to the front end portions (bumpers and the like) of each vehicle, and are represented by ◯ marks.
可視カメラの車両後部に対する路面への投影位置からミリ波レーダによって検出される車両検出位置(○印)までの範囲が後方死角範囲として表わされる。後方死角範囲に関しても、同様に、後述する棄却範囲テーブルから取得する。 A range from the projection position of the visible camera on the road surface to the rear of the vehicle to the vehicle detection position (circle) detected by the millimeter wave radar is represented as a rear dead angle range. Similarly, the rear dead angle range is acquired from a later-described rejection range table.
図5は、本発明の実施の形態になる車両検出位置と大きさの異なる車両の死角範囲との関係を説明する図である。図5では、普通車C4と大型車C5等大きさの違う車両についての車両の後方死角範囲を示したものである。大型車C5による後方死角範囲は、普通車C4による死角範囲より広くなることを示している。 FIG. 5 is a diagram for explaining the relationship between the vehicle detection position and the blind spot range of vehicles having different sizes according to the embodiment of the present invention. FIG. 5 shows the vehicle's rear dead angle range for vehicles having different sizes, such as a normal vehicle C4 and a large vehicle C5. This shows that the rear blind spot range by the large vehicle C5 is wider than the blind spot range by the ordinary vehicle C4.
以上、図4,5に述べてきたように、可視カメラには、車両の大きさ、高さに対する死角が存在し、車両の先頭位置(正解の検出位置)よりも後方の死角範囲内に、可視カメラを用いた検出部1の検出結果があった場合には、正解位置からずれていることを示し、誤検出であると言える。また、この死角範囲は、車両の位置が遠方になるほど広く、車両の大きさ、高さが、大きいほど広くなる。 As described above with reference to FIGS. 4 and 5, the visible camera has a blind spot with respect to the size and height of the vehicle, and within the blind spot range behind the leading position (correct detection position) of the vehicle, If there is a detection result of the detection unit 1 using a visible camera, it indicates that it is shifted from the correct position, and it can be said that it is a false detection. Further, this blind spot range becomes wider as the position of the vehicle becomes farther, and becomes wider as the size and height of the vehicle become larger.
図6は、本発明の実施の形態になる棄却範囲テーブルのデータ構成例を示す。予め定義された棄却範囲が格納される棄却範囲テーブル100として、(a)は前方棄却範囲テーブルのデータ構成を示し、(b)は後方棄却範囲テーブルのデータ構成を示している。なお、棄却範囲テーブル100は、車両検出装置の記憶領域に保持されている。 FIG. 6 shows a data configuration example of the rejection range table according to the embodiment of the present invention. As a rejection range table 100 in which a predefined rejection range is stored, (a) shows the data configuration of the forward rejection range table, and (b) shows the data configuration of the backward rejection range table. Rejection range table 100 is held in the storage area of the vehicle detection device.
前方棄却範囲テーブル(a)は、車両の速度に対する前方棄却範囲(車長+車間距離)の項目からなる複数のレコードから構成されている。車長は、一般的な車両の全長とし、また、車間距離は、ミリ波レーダの検出結果である車両の速度から求めたものである。例えば、車両速度40km/hに対する前方棄却範囲「車長+車間距離」は、45mと設定されている。 The forward rejection range table (a) includes a plurality of records including items of a forward rejection range (vehicle length + inter-vehicle distance) with respect to the vehicle speed. The vehicle length is the total length of a general vehicle, and the inter-vehicle distance is obtained from the vehicle speed, which is the detection result of the millimeter wave radar. For example, the forward rejection range “vehicle length + inter-vehicle distance” for a vehicle speed of 40 km / h is set to 45 m.
また、後方棄却範囲テーブル(b)は、可視カメラの取付位置から車両の検出位置までの距離に対する普通、大型、特殊等の後方棄却範囲(車種別死角範囲)の項目で構成されている。例えば、可視カメラからの距離が40mの場合、普通車は5.0m、大型車は10.0m、特殊車は15.0mと後方棄却範囲が設定されている。 In addition, the rear rejection range table (b) is configured with items of normal, large, special, etc. rear rejection ranges (car type blind spot ranges) with respect to the distance from the mounting position of the visible camera to the detection position of the vehicle. For example, when the distance from the visible camera is 40 m, the rear rejection range is set to 5.0 m for ordinary vehicles, 10.0 m for large vehicles, and 15.0 m for special vehicles.
図7は、本発明の実施の形態になる車両検出装置における車両検出の動作フローを示す。まず、ステップS11において、可視カメラをセンサとする検出部1及びミリ波レーダをセンサとする検出部2から車両検出データを取得する。つぎに、ステップS12において、各センサによって得られた検出結果1及び2の検出位置を同一座標系に変換する。 FIG. 7 shows an operation flow of vehicle detection in the vehicle detection device according to the embodiment of the present invention. First, in step S11, vehicle detection data is acquired from the detection unit 1 using a visible camera as a sensor and the detection unit 2 using a millimeter wave radar as a sensor. Next, in step S12, the detection positions of detection results 1 and 2 obtained by the sensors are converted to the same coordinate system.
そして、ステップS13において、ミリ波データと異なる画像データがあるか否かを判定する。判定の結果、異なる画像データが存在すれば、ステップS14において、検出部2による検出結果位置と異なる位置の画像データを抽出する。 In step S13, it is determined whether there is image data different from the millimeter wave data. If there is different image data as a result of the determination, in step S14, image data at a position different from the detection result position by the detection unit 2 is extracted.
つぎに、ステップS15において、棄却範囲テーブル100を参照し、前方は、「車長+車間距離」から、また、後方は、死角範囲から画像データの真偽を判定する。 Next, in step S15, the rejection range table 100 is referenced, and whether the image data is true or false is determined from “vehicle length + inter-vehicle distance” in the front and from the blind spot range in the rear.
まず、ステップS16において、前方棄却範テーブル(a)の定義にしたがって棄却範囲にあるか否かを判定する。判定の結果、範囲内にあれば、ステップS20において、当該検出結果は削除される。一方、範囲外であれば、ステップS17において、後方棄却範囲テーブル(b)を参照して、当該画像データが棄却範囲にあるか否かを判定する。範囲内にあれば、ステップS20において、当該検出結果は削除され、範囲外であれば、ステップS18において、車両有りと判定し処理結果を融合する。 First, in step S16, it is determined whether or not the vehicle is in the rejection range according to the definition of the forward rejection table (a). If the result of determination is within the range, the detection result is deleted in step S20. On the other hand, if it is out of range, it is determined in step S17 whether or not the image data is in the rejection range with reference to the rear rejection range table (b). If it is within the range, the detection result is deleted in step S20. If it is out of the range, it is determined in step S18 that the vehicle is present, and the processing results are merged.
そして、ステップS19において、融合させた車両位置の情報を出力する。 In step S19, information on the merged vehicle position is output.
図8は、本発明の実施の形態になる車両検出装置における車両検出のデータ例を示す。(a)は、可視カメラを用いた検出部1による車両の画像データを示し、また、(b)は、ミリ波レーダを用いた検出部2による車両からの反射信号を示している。これら(a)、(b)のデータは、図7のステップS11で得られるデータに相当する。 FIG. 8 shows an example of vehicle detection data in the vehicle detection apparatus according to the embodiment of the present invention. (A) shows the image data of the vehicle by the detection part 1 using a visible camera, and (b) shows the reflected signal from the vehicle by the detection part 2 using a millimeter wave radar. These data (a) and (b) correspond to the data obtained in step S11 of FIG.
(a)では、I1、I2、I3、I4の4つポイントが車両として捕えられている。また、(b)では、M1、M2、M3の3つのポイントにおいて車両からのミリ波反射信号が得られている。 In (a), four points I1, I2, I3, and I4 are captured as vehicles. In (b), millimeter wave reflected signals from the vehicle are obtained at three points M1, M2 and M3.
図9は、本発明の実施の形態になる図8の車両検出データを同一座標系に変換させた場合の検出結果位置例を示す。(a)、(b)は、図8の各センサによる車両検出データが、図7のステップS12において、同一座標系に変換処理された場合の検出結果位置の例を示している。 FIG. 9 shows an example of a detection result position when the vehicle detection data of FIG. 8 according to the embodiment of the present invention is converted into the same coordinate system. (A), (b) has shown the example of the detection result position when the vehicle detection data by each sensor of FIG. 8 is converted into the same coordinate system in step S12 of FIG.
そして、車両判定部12及び車両判定部22によって、それぞれの車両検出データは、以下のように判定される(図7のステップS15〜S17に相当)。
And each vehicle detection data is determined as follows by the
(a)の各画像データに関し、I1は、車両の影を誤認したものと判断、I2及び13は、車両と判断、I4は、車両の天井部と判断される。 Regarding each image data of (a), I1 is determined to be a misperception of the shadow of the vehicle, I2 and 13 are determined to be a vehicle, and I4 is determined to be a ceiling portion of the vehicle.
また、(b)のミリ波レーダ反射信号による検出結果では、M1とM2は、車両と判断されるが、M3は、信号強度が弱く、ノイズと判断される。 Further, in the detection result by the millimeter wave radar reflected signal of (b), M1 and M2 are determined to be vehicles, but M3 is determined to be noise because the signal intensity is weak.
図10は、本発明の実施の形態になる複数の検出部の出力結果から融合処理によって得られた車両検出例を示す。図10は、図9(a)、(b)の各センサによる車両検出結果が融合処理された出力結果を示している(図7のステップS19に相当)。ミリ波レーダで検出された車両位置を基準に、可視カメラによる検出結果を、予め設定された前方棄却範囲(前方車長+車間距離)と後方棄却範囲(後方死角範囲)でフィルタリングすることによって、図10のように誤検出が除去された融合出力が得られる。 FIG. 10 shows a vehicle detection example obtained by the fusion process from the output results of the plurality of detection units according to the embodiment of the present invention. FIG. 10 shows an output result obtained by fusing the vehicle detection results by the sensors of FIGS. 9A and 9B (corresponding to step S19 in FIG. 7). By filtering the detection result by the visible camera based on the vehicle position detected by the millimeter wave radar with a preset front rejection range (front vehicle length + inter-vehicle distance) and rear rejection range (rear dead angle range), As shown in FIG. 10, a fusion output from which erroneous detection is removed is obtained.
以上述べてきた本発明の実施の態様は、以下の付記に示す通りである。
(付記1) 複数のセンサを用いて車両を検出する車両検出装置であって、
物体の形状を測定するのに適した第1のセンサによって取得したデータから車両の有無を検出する第1の検出部と、
物体との距離を測定するのに適した第2のセンサによって取得したデータから車両の有無を検出する第2の検出部と、
前記第2の検出部で検出された車両位置を基準として、その前後における車両の検出結果を無効とする棄却範囲が予め設定された棄却範囲テーブルを参照し、前記第1の検出部による検出結果の採用の可否を判定する棄却判定部と、
前記判定部の判定結果に基づいて前記第1の検出部の検出結果と前記第2の検出部の検出結果とを融合して出力する融合処理部と、
を有することを特徴とする車両検出装置。
(付記2) 前記第2の検出部による車両検出位置より前方における前記棄却範囲は、車両の長さと物体距離との合計長とすることを特徴とする付記1に記載の車両検出装置。
(付記3) 前記第2の検出部による車両検出位置より後方における前記棄却範囲は、前記第1の検出部における車両の死角範囲とすることを特徴とする付記1または2に記載の車両検出装置。
(付記4) 前記第2の検出部による車両検出位置より後方の棄却範囲は、前記第2の検出部が検出した車両の大きさにより、前記第1の検出部の検出結果の棄却範囲を可変とすることを特徴とする付記1及至3のいずれかに記載の車両検出装置。
(付記5) 前記第2の検出部による車両検出位置より後方の棄却範囲は、遠方になるほど前記第1の検出部の検出結果の棄却範囲を広くすることを特徴とする付記1乃至4のいずれかに記載の車両検出装置。
(付記6) 複数のセンサを用いて車両を検出する車両検出装置における車両検出方法であって、
物体の形状を測定するのに適した第1のセンサによって取得したデータから車両の有無を検出する第1の検出ステップと、
物体との距離を測定するのに適した第2のセンサによって取得したデータから車両の有無を検出する第2の検出ステップと、
前記第2の検出部で検出された車両位置を基準として、その前後における車両の検出結果を無効とする棄却範囲が予め設定された棄却範囲テーブルを参照し、前記第1の検出部による検出結果の採用の可否を判定する棄却判定ステップと、
前記判定部の判定結果に基づいて前記第1の検出部の検出結果と前記第2の検出部の検出結果とを融合して出力する融合処理ステップと、
を有することを特徴とする車両検出方法。
(付記7) 複数のセンサを用いて車両を検出する車両検出装置における車両検出プログラムであって、
コンピュータに、
物体の形状を測定するのに適した第1のセンサによって取得したデータから車両の有無を検出する第1の検出ステップと、
物体との距離を測定するのに適した第2のセンサによって取得したデータから車両の有無を検出する第2の検出ステップと、
前記第2の検出部で検出された車両位置を基準として、その前後における車両の検出結果を無効とする棄却範囲が予め設定された棄却範囲テーブルを参照し、前記第1の検出部による検出結果の採用の可否を判定する棄却判定ステップと、
前記判定部の判定結果に基づいて前記第1の検出部の検出結果と前記第2の検出部の検出結果とを融合して出力する融合処理ステップと、
を実行させる車両検出プログラム。
The embodiments of the present invention described above are as shown in the following supplementary notes.
(Appendix 1) A vehicle detection device that detects a vehicle using a plurality of sensors,
A first detector for detecting the presence or absence of a vehicle from data acquired by a first sensor suitable for measuring the shape of the object;
A second detector for detecting the presence or absence of a vehicle from data acquired by a second sensor suitable for measuring the distance to the object;
Based on the vehicle position detected by the second detection unit, with reference to a rejection range table in which a rejection range that invalidates the detection result of the vehicle before and after the vehicle position is referenced, the detection result by the first detection unit A rejection determination unit that determines whether or not to adopt,
A fusion processing unit that fuses and outputs the detection result of the first detection unit and the detection result of the second detection unit based on the determination result of the determination unit;
A vehicle detection device comprising:
(Additional remark 2) The said detection range ahead of the vehicle detection position by a said 2nd detection part is made into the total length of the length of a vehicle, and an object distance, The vehicle detection apparatus of Additional remark 1 characterized by the above-mentioned.
(Supplementary Note 3) The vehicle detection apparatus according to Supplementary Note 1 or 2, wherein the rejection range behind the vehicle detection position by the second detection unit is a blind spot range of the vehicle in the first detection unit. .
(Additional remark 4) The rejection range behind the vehicle detection position by the said 2nd detection part can change the rejection range of the detection result of the said 1st detection part by the magnitude | size of the vehicle which the said 2nd detection part detected. The vehicle detection device according to any one of appendices 1 to 3, characterized in that:
(Supplementary Note 5) Any one of Supplementary Notes 1 to 4, wherein the rejection range behind the vehicle detection position by the second detection unit widens the rejection range of the detection result of the first detection unit as it is farther away. The vehicle detection device according to claim 1.
(Supplementary Note 6) A vehicle detection method in a vehicle detection device that detects a vehicle using a plurality of sensors,
A first detection step of detecting the presence or absence of a vehicle from data acquired by a first sensor suitable for measuring the shape of an object;
A second detection step of detecting the presence or absence of a vehicle from data acquired by a second sensor suitable for measuring the distance to the object;
Based on the vehicle position detected by the second detection unit, with reference to a rejection range table in which a rejection range that invalidates the detection result of the vehicle before and after the vehicle position is referenced, the detection result by the first detection unit Rejection determination step for determining whether or not to adopt,
A fusion processing step of fusing and outputting the detection result of the first detection unit and the detection result of the second detection unit based on the determination result of the determination unit;
A vehicle detection method comprising:
(Supplementary note 7) A vehicle detection program in a vehicle detection device for detecting a vehicle using a plurality of sensors,
On the computer,
A first detection step of detecting the presence or absence of a vehicle from data acquired by a first sensor suitable for measuring the shape of an object;
A second detection step of detecting the presence or absence of a vehicle from data acquired by a second sensor suitable for measuring the distance to the object;
Based on the vehicle position detected by the second detection unit, with reference to a rejection range table in which a rejection range that invalidates the detection result of the vehicle before and after the vehicle position is referenced, the detection result by the first detection unit Rejection determination step for determining whether or not to adopt,
A fusion processing step of fusing and outputting the detection result of the first detection unit and the detection result of the second detection unit based on the determination result of the determination unit;
Vehicle detection program for executing
道路上の車両検出などを始めとする高精度な移動物体の検出装置。 A highly accurate moving object detection device including vehicle detection on roads.
1 第1の検出部
2 第2の検出部
3 検出結果位置比較部
4 棄却判定部
5 融合処理部
11 第1の入力部
12 車両判定部
21 第2の入力部
22 車両判定部
41 車種判別部
42 前方棄却判定部
43 後方棄却判定部
100 棄却範囲テーブル
DESCRIPTION OF SYMBOLS 1 1st detection part 2
Claims (5)
物体の形状を測定するのに適した第1のセンサによって取得したデータから車両の有無を検出する第1の検出部と、
物体との距離を測定するのに適した第2のセンサによって取得したデータから車両の有無を検出する第2の検出部と、
前記第2の検出部で検出された車両位置を基準として、その前後における車両の検出結果を無効とする棄却範囲が予め設定された棄却範囲テーブルを参照し、前記第1の検出部による検出結果の採用の可否を判定する棄却判定部と、
前記判定部の判定結果に基づいて前記第1の検出部の検出結果と前記第2の検出部の検出結果とを融合して出力する融合処理部と、
を有することを特徴とする車両検出装置。 A vehicle detection device that detects a vehicle using a plurality of sensors,
A first detector for detecting the presence or absence of a vehicle from data acquired by a first sensor suitable for measuring the shape of the object;
A second detector for detecting the presence or absence of a vehicle from data acquired by a second sensor suitable for measuring the distance to the object;
Based on the vehicle position detected by the second detection unit, with reference to a rejection range table in which a rejection range that invalidates the detection result of the vehicle before and after the vehicle position is referenced, the detection result by the first detection unit A rejection determination unit that determines whether or not to adopt,
A fusion processing unit that fuses and outputs the detection result of the first detection unit and the detection result of the second detection unit based on the determination result of the determination unit;
A vehicle detection device comprising:
物体の形状を測定するのに適した第1のセンサによって取得したデータから車両の有無を検出する第1の検出ステップと、
物体との距離を測定するのに適した第2のセンサによって取得したデータから車両の有無を検出する第2の検出ステップと、
前記第2の検出部で検出された車両位置を基準として、その前後における車両の検出結果を無効とする棄却範囲が予め設定された棄却範囲テーブルを参照し、前記第1の検出部による検出結果の採用の可否を判定する棄却判定ステップと、
前記判定部の判定結果に基づいて前記第1の検出部の検出結果と前記第2の検出部の検出結果とを融合して出力する融合処理ステップと、
を有することを特徴とする車両検出方法。 A vehicle detection method in a vehicle detection device that detects a vehicle using a plurality of sensors,
A first detection step of detecting the presence or absence of a vehicle from data acquired by a first sensor suitable for measuring the shape of an object;
A second detection step of detecting the presence or absence of a vehicle from data acquired by a second sensor suitable for measuring the distance to the object;
Based on the vehicle position detected by the second detection unit, with reference to a rejection range table in which a rejection range that invalidates the detection result of the vehicle before and after the vehicle position is referenced, the detection result by the first detection unit Rejection determination step for determining whether or not to adopt,
A fusion processing step of fusing and outputting the detection result of the first detection unit and the detection result of the second detection unit based on the determination result of the determination unit;
A vehicle detection method comprising:
コンピュータに、
物体の形状を測定するのに適した第1のセンサによって取得したデータから車両の有無を検出する第1の検出ステップと、
物体との距離を測定するのに適した第2のセンサによって取得したデータから車両の有無を検出する第2の検出ステップと、
前記第2の検出部で検出された車両位置を基準として、その前後における車両の検出結果を無効とする棄却範囲が予め設定された棄却範囲テーブルを参照し、前記第1の検出部による検出結果の採用の可否を判定する棄却判定ステップと、
前記判定部の判定結果に基づいて前記第1の検出部の検出結果と前記第2の検出部の検出結果とを融合して出力する融合処理ステップと、
を実行させる車両検出プログラム。 A vehicle detection program in a vehicle detection device that detects a vehicle using a plurality of sensors,
On the computer,
A first detection step of detecting the presence or absence of a vehicle from data acquired by a first sensor suitable for measuring the shape of an object;
A second detection step of detecting the presence or absence of a vehicle from data acquired by a second sensor suitable for measuring the distance to the object;
Based on the vehicle position detected by the second detection unit, with reference to a rejection range table in which a rejection range that invalidates the detection result of the vehicle before and after the vehicle position is referenced, the detection result by the first detection unit Rejection determination step for determining whether or not to adopt,
A fusion processing step of fusing and outputting the detection result of the first detection unit and the detection result of the second detection unit based on the determination result of the determination unit;
Vehicle detection program for executing
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009031124A JP5509615B2 (en) | 2009-02-13 | 2009-02-13 | Vehicle detection device, vehicle detection method, and vehicle detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009031124A JP5509615B2 (en) | 2009-02-13 | 2009-02-13 | Vehicle detection device, vehicle detection method, and vehicle detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010185824A true JP2010185824A (en) | 2010-08-26 |
JP5509615B2 JP5509615B2 (en) | 2014-06-04 |
Family
ID=42766562
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009031124A Expired - Fee Related JP5509615B2 (en) | 2009-02-13 | 2009-02-13 | Vehicle detection device, vehicle detection method, and vehicle detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5509615B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120188068A1 (en) * | 2011-01-20 | 2012-07-26 | GM Global Technology Operations LLC | Vehicle Gauge for Displaying Electric Mode Status and Method of Doing the Same |
JP2012194784A (en) * | 2011-03-16 | 2012-10-11 | Fujitsu Ltd | Mobile body information measuring device and mobile body information measuring method |
JP2012216022A (en) * | 2011-03-31 | 2012-11-08 | Mitsubishi Heavy Ind Ltd | Feature area extraction device, feature area extraction method, and program |
JP2014215718A (en) * | 2013-04-23 | 2014-11-17 | 株式会社東芝 | Vehicle detection device, and vehicle detection system |
JPWO2016136616A1 (en) * | 2015-02-23 | 2017-12-07 | 住友電気工業株式会社 | Traffic index generation device, traffic index generation method, and computer program |
CN113222968A (en) * | 2021-05-28 | 2021-08-06 | 上海西井信息科技有限公司 | Detection method, system, equipment and storage medium fusing millimeter waves and images |
WO2022113478A1 (en) * | 2020-11-24 | 2022-06-02 | 日立Astemo株式会社 | Object detection device and object detection method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000099875A (en) * | 1998-09-24 | 2000-04-07 | Mitsubishi Electric Corp | Vehicle detector |
JP2008008870A (en) * | 2006-06-30 | 2008-01-17 | Toyota Motor Corp | Object detector |
JP2008059260A (en) * | 2006-08-31 | 2008-03-13 | Fujitsu Ltd | Movement detection image creating device |
-
2009
- 2009-02-13 JP JP2009031124A patent/JP5509615B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000099875A (en) * | 1998-09-24 | 2000-04-07 | Mitsubishi Electric Corp | Vehicle detector |
JP2008008870A (en) * | 2006-06-30 | 2008-01-17 | Toyota Motor Corp | Object detector |
JP2008059260A (en) * | 2006-08-31 | 2008-03-13 | Fujitsu Ltd | Movement detection image creating device |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120188068A1 (en) * | 2011-01-20 | 2012-07-26 | GM Global Technology Operations LLC | Vehicle Gauge for Displaying Electric Mode Status and Method of Doing the Same |
US8653960B2 (en) * | 2011-01-20 | 2014-02-18 | GM Global Technology Operations LLC | Vehicle gauge for displaying electric mode status and method of doing the same |
JP2012194784A (en) * | 2011-03-16 | 2012-10-11 | Fujitsu Ltd | Mobile body information measuring device and mobile body information measuring method |
JP2012216022A (en) * | 2011-03-31 | 2012-11-08 | Mitsubishi Heavy Ind Ltd | Feature area extraction device, feature area extraction method, and program |
JP2014215718A (en) * | 2013-04-23 | 2014-11-17 | 株式会社東芝 | Vehicle detection device, and vehicle detection system |
JPWO2016136616A1 (en) * | 2015-02-23 | 2017-12-07 | 住友電気工業株式会社 | Traffic index generation device, traffic index generation method, and computer program |
WO2022113478A1 (en) * | 2020-11-24 | 2022-06-02 | 日立Astemo株式会社 | Object detection device and object detection method |
CN113222968A (en) * | 2021-05-28 | 2021-08-06 | 上海西井信息科技有限公司 | Detection method, system, equipment and storage medium fusing millimeter waves and images |
CN113222968B (en) * | 2021-05-28 | 2023-04-18 | 上海西井信息科技有限公司 | Detection method, system, equipment and storage medium fusing millimeter waves and images |
Also Published As
Publication number | Publication date |
---|---|
JP5509615B2 (en) | 2014-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5509615B2 (en) | Vehicle detection device, vehicle detection method, and vehicle detection program | |
JP6533040B2 (en) | Object identification method using radar sensor | |
JP5689907B2 (en) | Method for improving the detection of a moving object in a vehicle | |
US9478139B2 (en) | Driving safety system and barrier screening method thereof | |
JP6450294B2 (en) | Object detection apparatus, object detection method, and program | |
JP2017521745A (en) | In-vehicle device that informs vehicle navigation module of presence of object | |
CN105128836A (en) | Autonomous emergency braking system and method for recognizing pedestrian therein | |
JPH06293236A (en) | Travel environment monitoring device | |
JP2006031162A (en) | Moving obstacle detection device | |
JP2014142202A (en) | Vehicle-mounted target detection device | |
JP2008304344A (en) | Target detector | |
WO2015025673A1 (en) | Axle detection device | |
JP2009146153A (en) | Moving object detection device, moving object detection method and moving object detection program | |
JP2016189084A (en) | Vehicle state determination device | |
JP2008299787A (en) | Vehicle detector | |
CN109270523B (en) | Multi-sensor data fusion method and device and vehicle | |
JP6962365B2 (en) | Object detection system and program | |
TWI541152B (en) | Traffic safety system and its obstacle screening method | |
JP2011149856A (en) | Object discrimination method and object discrimination device | |
JP7074593B2 (en) | Object detector | |
JP2019516078A (en) | Method for capturing at least one object, device of sensor device, driver assistance system comprising sensor device and at least one sensor device | |
WO2020013057A1 (en) | Crossroad estimation device | |
US11768920B2 (en) | Apparatus and method for performing heterogeneous sensor fusion | |
JP2006078261A (en) | Object detector | |
JP6834020B2 (en) | Object recognition device and object recognition method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111006 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130402 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130531 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140225 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140310 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5509615 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |