JP2002099986A - Travel vehicle detecting method by millimeter-wave radar - Google Patents
Travel vehicle detecting method by millimeter-wave radarInfo
- Publication number
- JP2002099986A JP2002099986A JP2000287944A JP2000287944A JP2002099986A JP 2002099986 A JP2002099986 A JP 2002099986A JP 2000287944 A JP2000287944 A JP 2000287944A JP 2000287944 A JP2000287944 A JP 2000287944A JP 2002099986 A JP2002099986 A JP 2002099986A
- Authority
- JP
- Japan
- Prior art keywords
- wave radar
- millimeter
- scan
- vehicle
- data obtained
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Traffic Control Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
Description
【0001】[0001]
【発明が属する技術分野】本発明は、道路上を車両が走
行していること、道路上に車両が一時停車しているこ
と、または、道路上で車両が事故等のため長時間停車し
て交通の障害となっていることなど、道路上における車
両の種々の状態を検出して、道路の使用状態を管理し、
また、掲示等を使用して後続車などに道路状態を知ら
せ、事故の発生を未然に防ぐための、ミリ波レーダによ
る走行車両検出方法に関し、特に、他の車両との出合頭
や見通しが不良の交差点などでの追突を防止することの
できるミリ波レーダによる走行車両検出方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to the fact that a vehicle is traveling on a road, that the vehicle is temporarily stopped on the road, or that the vehicle has been stopped for a long time due to an accident or the like on the road. Detects various conditions of vehicles on the road, such as obstacles to traffic, manages the use of roads,
In addition, regarding the method of detecting traveling vehicles using millimeter-wave radar to notify road conditions to subsequent vehicles using notices and the like to prevent the occurrence of accidents, in particular, encounters with other vehicles and poor visibility The present invention relates to a running vehicle detection method using a millimeter-wave radar that can prevent a rear-end collision at an intersection or the like.
【0002】[0002]
【従来の技術】道路が車両の走行に使用されることは当
然であるが、低速で走行し、道路上に一時停車し、また
は、道路上で事故等のため長時間停車するなどの理由で
交通の障害となる場合がある。このため、従来では画像
センサを道路上に設置して、交通状態をモニタすること
が提案されている。しかし、可視光を使用すると、夜間
など照明が十分でない場合、激しい降雨の場合、濃霧の
場合などにおいては、車両を正確に検出できないなどの
欠点があり、また赤外線を使用しても、激しい降雨の場
合、濃霧の場合などでは、やはり、車両を正確に検出で
きないため、全天候下では有効に車両検出が機能しない
という問題がある。そこで、例えば「特開2000−172980
号公報」においては悪天候条件に対する対応力に優れた
ミリ波レーダ(30GHz〜300GHz)を使用して、低
速で走行する車両や停車、駐車車両などの「交通障害
物」を検出するものが提案されている。2. Description of the Related Art It is natural that a road is used for running a vehicle. However, the road travels at a low speed, temporarily stops on the road, or stops for a long time due to an accident or the like on the road. May be an obstacle to traffic. For this reason, conventionally, it has been proposed to install an image sensor on a road to monitor a traffic condition. However, the use of visible light has disadvantages such as inadequate lighting such as at night, heavy rainfall, dense fog, etc., which makes it impossible to accurately detect vehicles. In the case of (1), since the vehicle cannot be accurately detected in the case of dense fog, the vehicle detection does not function effectively in all weather. Therefore, for example, Japanese Patent Application Laid-Open No. 2000-172980
In Japanese Patent Laid-Open Publication No. H10-260, there is proposed a device which detects a "traffic obstacle" such as a vehicle traveling at a low speed, a stop, and a parked vehicle using a millimeter-wave radar (30 GHz to 300 GHz) excellent in responsiveness to bad weather conditions. ing.
【0003】[0003]
【発明が解決しようとする課題】ところが、前記従来技
術の場合にはミリ波レーダにより道路上の障害物を広域
にわたり検出することは可能であったが、走行車両を追
跡し検出することができなかった。また、他の車両との
出合頭や見通しが不良の交差点などでの追突を防止する
ことができるものではないため、安全性の面で問題があ
る。However, in the case of the above-mentioned prior art, it was possible to detect obstacles on a road over a wide area using a millimeter wave radar, but it was possible to track and detect a running vehicle. Did not. In addition, there is a problem in terms of safety because it cannot prevent a collision at an intersection where the vehicle encounters another vehicle or has poor visibility.
【0004】そこでこの発明の目的は、前記のような従
来のミリ波レーダによる障害物検出装置のもつ問題点を
解消し、ミリ波レーダを用いることにより全天候下で走
行車両の追跡検出が確実に行えるうえ、出合頭や見通し
が不良の交差点などでの追突を防止することのできるミ
リ波レーダによる走行車両検出方法を提供するにある。Accordingly, an object of the present invention is to solve the above-mentioned problems of the conventional obstacle detecting device using a millimeter wave radar, and to use a millimeter wave radar to reliably track and detect a traveling vehicle under all weather conditions. An object of the present invention is to provide a traveling vehicle detection method using a millimeter-wave radar that can perform a collision at an intersection with a poor heading or poor visibility, and the like.
【0005】[0005]
【課題を解決するための手段】本発明は、上記の目的を
達成するため、請求項1に記載の発明は道路に設置した
ミリ波レーダを用いることを特徴とするものである。ま
た、請求項2に記載の発明は請求項1に記載の発明にお
いてミリ波レーダによるファンビームの走査毎に車両を
追跡し、得られた追跡データを用いて、低速で走行する
車両或は停止車両を認識することを特徴とするものであ
る。この発明では、事前にどこに低速車両や停止車両が
あるかを後続車に知らせることができ、車両認識の向上
が図れ、より未然に追突事故などを防止することができ
る。また、請求項3に記載の発明はミリ波レーダを使用
し、走査毎に車両を追跡するときには第1回目の走査に
より得られた追跡データを用いて位置・速度を予測し、
これにより得られたデータと、次の第2回目の走査によ
り得られた位置・速度データとを、セグメンテーション
処理、属性生成処理し、その結果を照合することを特徴
とするものである。この発明では、予測を用いているの
で、照合範囲がかなり限定的になって、間違った追跡を
行うことがなくなることから、追跡精度が高くなるとい
う利点がある。また、請求項4に記載の発明はミリ波レ
ーダを使用し、走査毎に車両を追跡するときには第1回
目の走査により得られた追跡データを用いて位置・速度
を予測し、これにより得られたデータと、次の第2回目
の走査により得られた位置・速度データとを、セグメン
テーション処理、属性生成処理し、その結果をそれぞれ
照合し、この照合を行うときには、同じセグメントに属
する計測点数と前記第1回目の走査により得られた追跡
データの計測点数を重みとする処理を行うことを特徴と
するものである。この発明では、車両間などの干渉によ
る誤計測(点数は少ない)を車両と誤認し、間違った追
跡を行うことを防止するという利点がある。According to the present invention, in order to achieve the above object, the present invention is characterized in that a millimeter wave radar installed on a road is used. According to a second aspect of the present invention, in the first aspect of the present invention, the vehicle is tracked every time the fan beam is scanned by the millimeter-wave radar, and the vehicle traveling at a low speed or stopping using the obtained tracking data. It is characterized by recognizing a vehicle. According to the present invention, the location of a low-speed vehicle or a stopped vehicle can be notified in advance to a following vehicle, vehicle recognition can be improved, and a rear-end collision or the like can be further prevented. Further, the invention according to claim 3 uses a millimeter wave radar, and when tracking a vehicle for each scan, predicts a position / velocity using tracking data obtained by a first scan,
The data obtained thereby and the position / velocity data obtained by the next second scan are subjected to a segmentation process and an attribute generation process, and the results are collated. According to the present invention, since the prediction is used, the matching range is considerably limited, and erroneous tracking is not performed. Therefore, there is an advantage that the tracking accuracy is improved. Further, the invention according to claim 4 uses a millimeter-wave radar, and when tracking a vehicle for each scan, predicts a position / velocity by using tracking data obtained by the first scan, and obtains the position / speed. Data and the position / velocity data obtained by the next second scan are subjected to a segmentation process and an attribute generation process, and the results are collated. When the collation is performed, the number of measurement points belonging to the same segment and The method is characterized in that a process is performed in which the number of measurement points of the tracking data obtained by the first scan is weighted. According to the present invention, there is an advantage that erroneous measurement (small score) due to interference between vehicles or the like is erroneously recognized as a vehicle, and that incorrect tracking is prevented.
【0006】また、請求項5に記載の発明はミリ波レー
ダを使用し、走査毎に車両を追跡するときには第1回目
の走査により得られた追跡データを用いて位置・速度を
予測し、これにより得られたデータと、次の第2回目の
走査により得られた位置・速度データとを、セグメンテ
ーション処理、属性生成処理し、その結果をそれぞれ照
合し、前記第1回目の走査により得られた追跡データと
前記第2回目の走査により得られた位置・速度データと
にマッチングするものがないとき、前記第2回目の走査
により得られた計測点数が少ないセグメントはノイズと
判断し、計測点数が多いセグメントは、新たに追跡デー
タに付け加えることを特徴とするものである。この発明
では、車両間などの干渉ノイズが除去されると共に、落
下した障害物や計測範囲に新たに入った車両の検出が自
律的に検出可能になるという利点がある。また、新たに
入った車両の検出が自律的に行えることから、他の車両
との出合頭や見通しが不良の交差点などでの追突を防止
することが可能となる。According to a fifth aspect of the present invention, a millimeter-wave radar is used, and when a vehicle is tracked for each scan, the position and speed are predicted using tracking data obtained by the first scan. The data obtained by the above and the position / velocity data obtained by the next second scan are subjected to a segmentation process and an attribute generation process, the results are collated, and the data are obtained by the first scan. When there is no matching between the tracking data and the position / velocity data obtained by the second scan, a segment having a small number of measurement points obtained by the second scan is determined to be noise, and the number of measurement points is reduced. Many segments are characterized in that they are newly added to the tracking data. According to the present invention, there is an advantage that interference noise between vehicles and the like is removed, and that a falling obstacle or a vehicle newly entering a measurement range can be detected autonomously. Further, since a newly entered vehicle can be autonomously detected, it is possible to prevent a collision with another vehicle or a collision at an intersection with poor visibility.
【0007】また、請求項6に記載の発明はミリ波レー
ダを使用し、走査毎に車両を追跡するときには第1回目
の走査により得られた追跡データを用いて位置・速度を
予測し、これにより得られたデータと、次の第2回目の
走査により得られた位置・速度データとを、セグメンテ
ーション処理、属性生成処理し、その結果をそれぞれ照
合し、ミリ波レーダにより観測不能なシャドウイングの
影響などにより、前記第1回目の走査により得られた追
跡データにマッチングするものがないときには、追跡デ
ータに予測した位置・速度データとシャドウイングした
回数を蓄え、且つ、その追跡データを保持することを特
徴とするものである。この発明では、計測範囲内でシャ
ドウイングを起こして追跡できなくなり、その後シャド
ウイングが解消され、再び検出された場合、突然車両が
道路に表れたと誤認識しないという利点がある。請求項
7に記載の発明は請求項2〜6のいずれかに記載の発明
においてシャドウイングなどにより生じる追跡データの
観測ノイズは車両の走行方向、車幅方向に分離処理し、
次いで、フィルタリングすることを特徴とするものであ
る。この発明では、観測ノイズが有効に除去されるた
め、得られる位置、速度の精度が向上するという利点が
ある。請求項8に記載の発明は道路にミリ波レーダを設
置し、このミリ波レーダによる走行車両検出方法を実現
するための装置を備えたことを特徴とするものである。According to a sixth aspect of the present invention, a millimeter wave radar is used, and when a vehicle is tracked for each scan, the position and speed are predicted using tracking data obtained by the first scan. The data obtained by the above and the position / velocity data obtained by the next second scan are subjected to a segmentation process and an attribute generation process, and the results are compared, and shadowing that cannot be observed by the millimeter wave radar is performed. When there is no matching data with the tracking data obtained by the first scan due to an influence or the like, the predicted position / speed data and the number of times of shadowing are stored in the tracking data, and the tracking data is retained. It is characterized by the following. According to the present invention, there is an advantage that, when shadowing occurs within the measurement range and tracking cannot be performed, the shadowing is subsequently resolved, and when the shadowing is detected again, the vehicle is not erroneously recognized as suddenly appearing on the road. According to a seventh aspect of the present invention, in the invention according to any one of the second to sixth aspects, the observation noise of the tracking data caused by shadowing or the like is separated in the vehicle traveling direction and the vehicle width direction,
Next, filtering is performed. According to the present invention, since the observation noise is effectively removed, there is an advantage that the accuracy of the obtained position and speed is improved. The invention according to claim 8 is characterized in that a millimeter-wave radar is installed on a road and an apparatus for realizing a traveling vehicle detection method using the millimeter-wave radar is provided.
【0008】[0008]
【発明の実施の形態】以下、図面を参照して、本発明の
実施形態について詳細に説明する。図1,2は本発明の
ミリ波レーダによる走行車両検出方法に係る装置全体を
示す構成図である(FM−CW方式)。すなわち、ミリ
波レーダ1は道路に設けられた支柱などの高所に設置さ
れており、このミリ波レーダ1からは道路上を走行する
車両に対してファン状(長円状)のビームを走査(スキ
ャニング)させることができる。この場合、ミリ波レー
ダ1から発せられるファンビームの走査は所定の角度
(アジマス角度)をもって行われる。尚、このミリ波レ
ーダ1による走査方式は機械方式でも電気方式でもよ
い。また、図2に示すようにミリ波レーダ1はミリ波の
送受信と信号処理により車両(対象物)の位置・速度を
得ることのできるミリ波センサ2と、このミリ波センサ
2からの車両データを検出する車両検出用コンピュータ
3とを有しており、このように構成されるミリ波レーダ
1は道路の全域をカバーするために、複数設けられてお
り、さらに、これらミリ波レーダ1はデータ通信用のL
ANなどによって互いに接続されている。また、4はL
ANに接続される上位コンピュータで、この上位コンピ
ュータ4により全体制御及び各ミリ波レーダ1により得
られたデータに対しての管理が行われる。ここで、LA
Nの型式はリング型でもよい。Embodiments of the present invention will be described below in detail with reference to the drawings. 1 and 2 are block diagrams showing the entire apparatus according to the running vehicle detection method using the millimeter wave radar according to the present invention (FM-CW method). That is, the millimeter-wave radar 1 is installed at a high place such as a support provided on the road, and the millimeter-wave radar 1 scans a vehicle traveling on the road with a fan-shaped (oval) beam. (Scanning). In this case, the scanning of the fan beam emitted from the millimeter wave radar 1 is performed at a predetermined angle (azimuth angle). The scanning method using the millimeter wave radar 1 may be a mechanical method or an electric method. As shown in FIG. 2, the millimeter-wave radar 1 has a millimeter-wave sensor 2 that can obtain the position and speed of a vehicle (object) by transmitting and receiving millimeter waves and signal processing. And a plurality of millimeter-wave radars 1 configured as described above are provided so as to cover the entire area of the road. L for communication
They are connected to each other by an AN or the like. 4 is L
The host computer connected to the AN performs overall control and management of data obtained by each millimeter wave radar 1 by the host computer 4. Where LA
The type of N may be a ring type.
【0009】図3及び図4は、本発明に係るミリ波レー
ダによる走行車両検出方法のソフト処理を説明するため
のフローチャートを示している。このうち図3は、追跡
処理の結果、停止・低速車両が発見された場合のみを判
断し、その得られた結果(停止・低速車両があると云う
情報データ)を外部I/Fに出力する場合を示し、図4
は追跡処理の結果の如何に拘わらず(停止・低速車両が
発見されてもされなくても)、得られた全ての結果を外
部I/Fに出力する場合をそれぞれ示すものである。そ
して、これら図3,4のフローチャートに示すように本
発明のミリ波レーダによる走行車両検出方法ではデータ
入力、背景差分、セグメンテーション、属性生成、追跡
処理、停止・低速車両認識、外部I/F伝送と背景更新
処理(図17,18参照)との8つの処理(S1〜S8)を
行うことに特徴がある。尚、フローチャートのスタート
時には属性データと追跡データとを格納する領域を確保
する。FIG. 3 and FIG. 4 are flowcharts for explaining software processing of a traveling vehicle detection method using a millimeter wave radar according to the present invention. Among them, FIG. 3 judges only when a stopped / low-speed vehicle is found as a result of the tracking process, and outputs the obtained result (information data indicating that there is a stopped / low-speed vehicle) to an external I / F. FIG. 4 shows the case.
Indicates a case where all the obtained results are output to the external I / F irrespective of the result of the tracking processing (whether a stopped or low-speed vehicle is detected or not). As shown in the flowcharts of FIGS. 3 and 4, in the traveling vehicle detection method using the millimeter wave radar according to the present invention, data input, background difference, segmentation, attribute generation, tracking processing, stop / low speed vehicle recognition, external I / F transmission And a background update process (see FIGS. 17 and 18). At the start of the flowchart, an area for storing attribute data and tracking data is secured.
【0010】図5は本発明のミリ波レーダによる走行車
両検出方法を説明するための模試図である。ここで、設
定したシーンとしては道路の路肩側(図5で左端側)に
本発明によるミリ波レーダ1が設置され、道路上(3車
線)を3台の車両5,6,7が図5の左側から右側に向
かって走行するものとしている。従って、この場合ミリ
波レーダ1から発せられるファンビームの走査は各車両
5,6,7の後方から行われる。また、8はガードレー
ルで、9は道路上に落下している障害物を示している。
また、図6,図7は車両5,6,7の走行に伴う時系列
的なシーン(状況変化)を示す模試図であり、図6はミ
リ波レーダ1による第1回目のスキャンが行われた時
(N−1)を、図7は追跡時のイメージであり第2回目
のスキャンが行われた時(N)をそれぞれ示す模試図で
ある。また、これら図6,7では計測結果を示すイメー
ジとして、太線で距離計測結果を示し、太矢印で速度計
測結果をそれぞれ表している。以下、本発明の詳細を図
6,7及び前記8つの処理(S1〜S8)の機能を参照
して説明する。FIG. 5 is a schematic diagram for explaining a method of detecting a running vehicle by the millimeter wave radar according to the present invention. Here, as the set scene, the millimeter wave radar 1 according to the present invention is installed on the shoulder side of the road (the left end side in FIG. 5), and three vehicles 5, 6, and 7 on the road (three lanes) are shown in FIG. It is assumed that the vehicle travels from the left side to the right side. Therefore, in this case, the scanning of the fan beam emitted from the millimeter wave radar 1 is performed from behind the vehicles 5, 6, and 7. Reference numeral 8 denotes a guardrail, and 9 denotes an obstacle falling on the road.
FIGS. 6 and 7 are schematic diagrams showing time-series scenes (situation changes) accompanying the traveling of the vehicles 5, 6, and 7. FIG. 6 shows the first scan performed by the millimeter-wave radar 1. FIG. 7 is an image at the time of tracking, and FIG. 7 is a schematic diagram showing the time (N) when the second scan is performed. In FIGS. 6 and 7, as an image showing the measurement result, a thick line indicates the distance measurement result, and a thick arrow indicates the speed measurement result. Hereinafter, the details of the present invention will be described with reference to FIGS. 6 and 7 and the functions of the eight processes (S1 to S8).
【0011】先ず、データ入力(S1)はミリ波センサ
1から送られてくる極座標系のデータを受信する処理で
ある。図8は送られるデータの一例を示している。そし
て、データ入力後には背景差分(S2)による処理工程
が行われる。この背景差分は入力されたデータと背景と
を差分する工程であり、この処理を施すことにより、図
6に示されている背景(ガードレール)の測定結果が削
除されて、車両5,6と障害物9のデータのみを残すこ
とができる。次いで、図9はセグメンテーション(S
3)における処理工程の概念図を示している。ここで
は、先ず距離とアジマス方向(走査方向)との2次元メ
モリープレーンを3個用意し、前記図8に示す計測デー
タ(一例)を使用して、有無プレーンに対しては有無情
報(存在の有無)を、速度プレーンに対しては速度情報
をそれぞれ書き込む。そして、次に連結又はほぼ一致す
るものであって、その速度情報がほぼ一致するものを同
じセグメントとしてラベルを付与する(同一グループ
化)。First, the data input (S1) is a process of receiving the data of the polar coordinate system sent from the millimeter wave sensor 1. FIG. 8 shows an example of data to be sent. Then, after the data input, a processing step based on the background difference (S2) is performed. The background difference is a step of subtracting the input data from the background. By performing this processing, the measurement result of the background (guard rail) shown in FIG. Only the data of the object 9 can be left. Next, FIG. 9 shows the segmentation (S
FIG. 3 shows a conceptual diagram of a processing step in 3). Here, first, three two-dimensional memory planes for the distance and the azimuth direction (scanning direction) are prepared, and the presence / absence information (existence information) is provided for the presence / absence plane using the measurement data (example) shown in FIG. ) Is written in the speed plane. Then, labels that are connected or substantially coincide with each other and whose speed information is substantially identical are labeled as the same segment (same grouping).
【0012】そして、図9に示す状態でこの処理を行う
と、速度プレーンにおいて3つの速度データ(29,30,
32)は近似(連結)しているため、これらはラベル1が
付与され、これら3つの速度データと相違する異なる速
度データ(10)には違うラベルであるラベル2が付与さ
れる。前記図6のシーンの場合には、ラベル1,2,3
がそれぞれ車両5,6と障害物9に付与されるものとす
る。尚、本実施例ではメモリープレーンを3個用意した
が、有無情報と速度情報とをマージンするなどして、図
9で示す3個より少ないメモリープレーンで前記の処理
を行ってもよく、また他の属性に合わせてメモリープレ
ーンを増やしても良い。さらに、デカルト座標系のメモ
リープレーンで前記の処理を行ってもよい。When this processing is performed in the state shown in FIG. 9, three speed data (29, 30, and
32) are approximated (concatenated), so that they are assigned a label 1, and different speed data (10) different from these three speed data is assigned a different label, label 2. In the case of the scene of FIG. 6, the labels 1, 2, 3
Are given to the vehicles 5, 6 and the obstacle 9, respectively. Although three memory planes are prepared in the present embodiment, the above processing may be performed with less than three memory planes shown in FIG. 9 by margining the presence / absence information and speed information. The memory planes may be increased in accordance with the attribute of (1). Further, the above processing may be performed in a memory plane of a Cartesian coordinate system.
【0013】図10は属性生成(S4)における属性デー
タの構造の概念図を示す。この属性生成とはセグメンテ
ーションでグループ化された計測データより、それぞれ
のグループの重心位置・幅・計測点数・速度を生成する
処理である(重心位置・幅・計測点数・速度をそれぞれ
『属性』と呼んでいる。)。すなわち、この属性生成で
は、それぞれのセグメントの重心位置・幅・計測点数・
速度などを求め、ここで極座標をデカルト座標系のワー
ルド座標に変換する(これら生成された属性データは図
10の構造表に格納される。)。尚、この座標変換は前記
データ入力(S1)後すぐに実行してもよい。次に、追
跡処理(S5)について前記図6,7及び図11〜14を参
照して説明する。尚、重心は平均でもよい。FIG. 10 shows a conceptual diagram of the structure of attribute data in attribute generation (S4). This attribute generation is the process of generating the center of gravity position, width, number of measurement points, and speed of each group from the measurement data grouped by segmentation. I'm calling.) In other words, in this attribute generation, the position of the center of gravity, width, number of measurement points,
Find the speed, etc., and convert the polar coordinates to world coordinates in the Cartesian coordinate system.
Stored in 10 structure tables. ). This coordinate conversion may be executed immediately after the data input (S1). Next, the tracking process (S5) will be described with reference to FIGS. The center of gravity may be an average.
【0014】ここで、図11には追跡データの構造、図12
にはミリ波レーダ1による第1回目(N−1)でのデー
タの一例を示している。尚、この図では(N)以降はま
だ代入されていないためアスタリスク「*」で示してい
る。また、図13には追跡処理のデータフロー、図14には
追跡による予測の概念図をそれぞれ示している。すなわ
ち、図6の車両6を例に説明すると、ミリ波レーダ1に
よる第1回目のスキャンが行われた時(N−1)の追跡
データは図7では「べたの星印」で示しており、本発明
ではこの追跡データにより、この図7では位置・速度(星
印と太点矢印)を予測し、図7における第2回目の走査
により得られたデータから、その予測位置の近傍で属性
データ(例えば、速度と位置)が一致するものを探索す
る。FIG. 11 shows the structure of the tracking data, and FIG.
2 shows an example of data at the first time (N-1) by the millimeter wave radar 1. In this figure, since (N) and after are not yet substituted, they are indicated by an asterisk “*”. FIG. 13 shows a data flow of tracking processing, and FIG. 14 shows a conceptual diagram of prediction by tracking. That is, taking the vehicle 6 of FIG. 6 as an example, the tracking data at the time when the first scan by the millimeter wave radar 1 is performed (N-1) is indicated by "solid star" in FIG. In the present invention, the position / speed (star and thick arrow) in FIG. 7 is predicted from the tracking data, and the attribute obtained in the vicinity of the predicted position is obtained from the data obtained by the second scan in FIG. Search for data (eg, speed and position) that match.
【0015】また、ミリ波レーダ1による第2回目のス
キャンが行われた時(N)に進入した車両7は新規の追
跡データに追加される。さらに、第2回目のスキャン時
の追加データには新規データが格納される(「白星
印」)。When the second scan by the millimeter wave radar 1 is performed (N), the vehicle 7 that has entered is added to new tracking data. Further, new data is stored as additional data at the time of the second scan (“white star”).
【0016】そして、上述した追跡処理は、図13に示す
ように位置・速度予測処理、マッチング処理、シャドウ
イング処理、追跡継続判断、追跡データ更新処理、新規
追跡データ追加処理、登録抹消処理、フィルタ処理、追
跡データ出力の9つ(a)〜(i)の処理を行うもので
ある。これら各処理について以下に詳細に説明する。The tracking processing described above includes position / velocity prediction processing, matching processing, shadowing processing, tracking continuation determination, tracking data update processing, new tracking data addition processing, registration deletion processing, and filtering as shown in FIG. It performs nine (a) to (i) processes of processing and tracking data output. Each of these processes will be described in detail below.
【0017】(a)位置・速度予測処理 図14は位置・速度予測処理における予測の概念図を示し
ている。すなわち、図14に示すように、追跡データには
今までの軌跡が蓄えられており、この近似曲線により得
られたデータを使用して予測することができる。例え
ば、点Pは前記第1回目の走査により得られた追跡位置
であるとすると、その後の推定値を予測することができ
る。このデータを用いて予測する予測方法の例を以下、
2つの例として示す。 (a-1)カルマン予測型アルゴリズム 図14に示すように、車両の走行方向をX方向とし、車幅
方向をY方向とすると、ミリ波レーダ1で車両を観測す
るときの離散モデルを3次元としたとき、以下の「数
1」「数2」のように書き表わすことができる。ここ
で、次元はn次元でもかまわない。(A) Position / Speed Prediction Process FIG. 14 is a conceptual diagram of the prediction in the position / speed prediction process. That is, as shown in FIG. 14, the trajectory up to now is stored in the tracking data, and prediction can be performed using data obtained from this approximate curve. For example, assuming that the point P is a tracking position obtained by the first scan, a subsequent estimated value can be predicted. An example of a prediction method for predicting using this data is as follows.
Shown as two examples. (A-1) Kalman prediction algorithm As shown in FIG. 14, when the traveling direction of the vehicle is set to the X direction and the vehicle width direction is set to the Y direction, a three-dimensional discrete model for observing the vehicle with the millimeter wave radar 1 is used. Then, it can be written as the following “Equation 1” and “Equation 2”. Here, the dimension may be n-dimensional.
【0018】[0018]
【数1】 (Equation 1)
【0019】[0019]
【数2】 但し、tは最新(例えば、第1回目のスキャン時)のサ
ンプリングが行われた時の時間、Tはサンプリング時
間、「’」は1次微分、「’’」は2次微分、「v*」
はシステムノイズ、「w*」は観測ノイズ、「xo」、
[xo’]、「yo」はミリ波による計測データであ
る。このモデルを使用して、カルマンフィルタを施し、
その結果を下記の「数3」式に代入すれば、速度・位置
を推定することができる。(Equation 2) Here, t is the time when the latest sampling (for example, at the time of the first scan) is performed, T is the sampling time, “′” is the first derivative, “″” is the second derivative, “v *” "
Is system noise, "w *" is observation noise, "xo",
[Xo ′] and “yo” are measurement data using millimeter waves. Using this model, Kalman filter is applied,
By substituting the result into the following “Equation 3”, the speed / position can be estimated.
【0020】[0020]
【数3】 但し、「xf」、「yf」はカルマンフィルタによる処
理結果であり、「xfp」、「yfp」は予測結果であ
る。 (a-2)接線アルゴリズム 追跡データ(第1回目の走査により得られた追跡デー
タ)と、あるサンプリング回数分の過去のデータとで、
位置と速度とを、n次元の関数で近似し、最新となる位
置での接線方向を求める。位置の場合は、その方向にミ
リ波レーダ1で得られた速度でサンプリング時間T進ん
だ位置を予測位置とする。また、速度の場合は近似した
関数で、サンプリング時間T進んだ速度を算出し、これ
を予測速度とする。(Equation 3) Here, “xf” and “yf” are processing results by the Kalman filter, and “xfp” and “yfp” are prediction results. (A-2) Tangent algorithm Tracking data (tracking data obtained by the first scan) and past data for a certain number of samplings
The position and speed are approximated by an n-dimensional function, and the tangent direction at the latest position is determined. In the case of the position, the position advanced by the sampling time T in that direction at the speed obtained by the millimeter wave radar 1 is set as the predicted position. In the case of the speed, an approximate function is used to calculate the speed at which the sampling time T has advanced, and this is set as the predicted speed.
【0021】(b)マッチング処理 すなわち、このマッチング処理とは追跡データから得ら
れた予測データの全てと属性データの全てとを照合する
ことであり、この場合の照合方法は、速度がある範囲で
一致した場合、位置の差(距離)をどちらの(第1回目
の追跡データと第2回目の属性データ)計測点数で割っ
た値のものを蓄えることである。そして、この貯蓄デー
タより、互いに小さくなり、1対1の対応関係を有する
ことになるように操作し、マッチング処理を行う。そし
て、追跡データから得られた予測データでマッチングで
きなかったものは、シャドウイング処理へ、また、マッ
チングできたものは、前記図11に示したヘッダー部のシ
ャドウイング連続回数を「0」に設定して、追跡データ
更新処理へ、また、属性データでマッチングできなかっ
た場合は新規追跡データ追加処理に進む。(B) Matching process In other words, the matching process is to match all of the prediction data obtained from the tracking data with all of the attribute data, and the matching method in this case is that the speed is within a certain range. If they match, a value obtained by dividing the difference (distance) between the positions by the number of measurement points (the first tracking data and the second attribute data) is stored. Then, an operation is performed so that the stored data becomes smaller than each other and has a one-to-one correspondence, and a matching process is performed. If the predicted data obtained from the tracking data cannot be matched, the shadowing process is performed. If the predicted data is matched, the continuous shadowing count of the header portion shown in FIG. 11 is set to “0”. Then, the process proceeds to the tracking data updating process, and to the new tracking data adding process when matching cannot be performed with the attribute data.
【0022】(c)シャドウイング処理 シャドウイングとは追跡データから得られた予測データ
とマッチングしなかったのは、図7の車両5のように計
測物体が計測範囲外に出たか、物陰(シャドウイング)
により邪魔されて計測できなかった状況をあらわしてい
る。そこで、このようなシャドウイング時でも当然車両
などは走行しているため、ある時間が経過すれば、再び
ミリ波レーダ1を使用して計測することができるもので
あるから、この場合には図11に示すヘッダー部のシャド
ウイング連続回数・シャドウイング総回数を「1」にす
る処理を行う。(C) Shadowing processing The shadowing did not match with the prediction data obtained from the tracking data because the measurement object came out of the measurement range as in the vehicle 5 in FIG. Ing)
This indicates a situation where measurement could not be performed because it was disturbed. Therefore, since the vehicle or the like naturally travels even during such shadowing, the measurement can be performed again using the millimeter-wave radar 1 after a certain time elapses. A process for setting the number of continuous shadowing and the total number of shadowing of the header portion shown in 11 to “1” is performed.
【0023】(d)追跡継続判断処理 シャドウイング連続回数を、あるしきい値で判断する。
そして、このシャドウイング連続回数がそのしきい値以
下であれば、シャドウイングされていると判断し、追跡
データ更新処理に進む。一方、シャドウイング連続回数
がそのしきい値以上の場合は、ある時間が経過しても計
測することができないことであり、計測範囲外に出たか
(図7の車両5)、又は、この追跡データがノイズであ
るかであったと判断し、次の登録抹消処理(g)に進
む。(D) Tracking continuation determination processing The number of continuous shadowing is determined by a certain threshold value.
If the number of times of continuous shadowing is equal to or less than the threshold value, it is determined that shadowing has been performed, and the process proceeds to tracking data update processing. On the other hand, if the number of times of continuous shadowing is equal to or more than the threshold value, it means that measurement cannot be performed even after a certain period of time, and the vehicle has gone out of the measurement range (vehicle 5 in FIG. 7) or It is determined that the data is noise, and the process proceeds to the next registration deletion processing (g).
【0024】(e)追跡データ更新処理 マッチング処理によりマッチングしたものは、図11に示
すデータ部(配列)の位置・速度・計測点数に属性デー
タの値を代入し、時間はデータを受け取った時のタイマ
ーの値等を代入する。また、ヘッダー部の追跡状況に追
跡状態を示す値を代入し、追跡回数を「1」にする。そ
して、例えばシャドウイングと判断された場合は、前記
データ部の位置・速度に予測データを代入し、計測点数
には一つ前の計測数を代入し、時間はデータを受け取っ
た時のタイマーの値などを代入する。また、図11に示す
ヘッダー部の追跡状況にシャドウイング状態を示す値を
代入し、追跡回数・シャドウイング連続回数・シャドウ
イング総回数をインクリメントにする。(E) Tracking data update processing For the data matched by the matching processing, the value of the attribute data is substituted for the position, speed, and number of measurement points in the data section (array) shown in FIG. Substitute the value of the timer. Further, a value indicating the tracking state is substituted into the tracking state of the header part, and the number of times of tracking is set to “1”. Then, for example, when it is determined that the shadowing is performed, the prediction data is substituted for the position / velocity of the data section, the previous measurement number is substituted for the number of measurement points, and the time is set by the timer when the data is received. Substitute values. Further, a value indicating the shadowing state is substituted into the tracking state of the header portion shown in FIG. 11, and the number of tracking times, the number of continuous shadowing times, and the total number of shadowing times are incremented.
【0025】(f)新規追跡データ追加処理 属性データの計測点数を、あるしきい値で判断し、しき
い値以下であればノイズと判断し、しきい値以上であれ
ば車両などが新たに出現したものと判断し、図11に示す
データ部の位置・速度に属性データを代入する。また追
跡状況に追跡状態を示す値を代入し、追跡回数を「1」
にする。(F) New tracking data addition processing The number of measurement points of attribute data is determined by a certain threshold value. If it is less than the threshold value, it is determined that noise is present. It is determined that it has appeared, and the attribute data is substituted for the position and speed of the data section shown in FIG. Also, a value indicating the tracking state is substituted for the tracking state, and the number of times of tracking is set to “1”.
To
【0026】(g)登録抹消処理 この登録抹消処理とは、図11に示すデータ部を初期化す
ることである。また、この登録抹消処理ではヘッダー部
の追跡状況に未使用状態を示す値を代入し、追跡回数な
どを初期化することが行われる。(G) Registration Deletion Processing The registration deletion processing is to initialize the data section shown in FIG. In this registration deletion processing, a value indicating an unused state is substituted for the tracking status of the header part, and the number of times of tracking is initialized.
【0027】(h)フィルタ処理 追跡データには、観測ノイズが含まれているので、フィ
ルタリングを行う。フィルタリング方法には、移動平均
法、カルマンフィルタ法などを使用する。尚、カルマン
フィルタのモデルや手法は、マッチング処理の予測の場
合と同様である。このフィルタ処理により観測ノイズが
有効に除去されるため、得られる位置、速度の精度を向
上させることができる。(H) Filtering process Since tracking data contains observation noise, filtering is performed. As a filtering method, a moving average method, a Kalman filter method, or the like is used. The model and method of the Kalman filter are the same as in the case of the prediction of the matching processing. Observation noise is effectively removed by this filter processing, so that the accuracy of the obtained position and speed can be improved.
【0028】(i)追跡データ出力処理 以上のような各処理による処理結果を他の関数に渡す出
力処理である。(I) Tracking data output processing This is an output processing in which the processing result of each processing as described above is passed to another function.
【0029】(j)低速・停止車両認識 この低速・停止車両認識における処理工程は、図15,図
16にその概略が示されている。このうち、図15は危険と
認識される低速・停止車両情報のみを上位などに伝える
場合のフローチャートであり、図16は全ての車両情報を
伝える場合のフローチャートである。その手順として
は、追跡データ入力、速度による低速・停止車両認識、
正味出現回数算出処理、出現回数のしきい値処理、計測
点数のしきい値処理、データ出力からなっている。ここ
で、正味出現回数算出処理においてはシャドウイングに
よる処理で正味データが得られるものである。(J) Recognition of low-speed / stop vehicle The processing steps in low-speed / stop vehicle recognition are shown in FIGS.
The outline is shown in FIG. Among them, FIG. 15 is a flowchart in the case of transmitting only low-speed / stopped vehicle information recognized as dangerous to a host, etc., and FIG. 16 is a flowchart in the case of transmitting all vehicle information. The steps include tracking data input, low speed / stopped vehicle recognition by speed,
It consists of a net appearance frequency calculation process, a threshold process for the number of appearances, a threshold process for the number of measurement points, and data output. Here, in the net appearance number calculation process, net data is obtained by a process based on shadowing.
【0030】すなわち、追跡データの速度と、過去の速
度とが、低速・停止と認識できるしきい値(例えば、5
Km/h)であるならば、図11の追跡データ構造におけるヘ
ッダー部の認識結果に低速・停止状況を表すものを代入
する。次いで、位置・速度の関数であるしきい値で、出
現回数と計測点数とをしきい値処理し、これを満たすも
の(計測点数>Th2(x,y,VX,VY))をデータ出力に
より出力する。このため、ここでの計測点数のしきい値
処理ではノイズの削減(ノイズ落とし)が行われるもの
となる。That is, the speed of the tracking data and the past speed are set to a threshold value (for example, 5
If it is Km / h), the result of the recognition of the header part in the tracking data structure of FIG. Then, in a function of the position and speed threshold, the number of occurrences and the number of measurement points to thresholding, which satisfy this (measuring points> Th2 (x, y, V X, V Y)) data Output by output. For this reason, in the threshold processing of the number of measurement points, noise reduction (noise reduction) is performed.
【0031】(k)外部出力 この外部出力処理はLAN(図2参照)などの外部イン
ターフェースからデータを出力する処理である。(K) External output This external output process is a process of outputting data from an external interface such as a LAN (see FIG. 2).
【0032】(l)背景更新処理 この背景更新処理については、図17、図18にその概略が
示されている。この処理方法については従来例である前
記「特開2000−172980号公報」に記載されているものと
同一である。尚、ここでの背景更新処理は設定により、
ある間隔をもって更新されるものであり、ミリ波レーダ
による走行毎にその都度行われるとは限らない。(L) Background Update Processing The background update processing is schematically shown in FIGS. 17 and 18. This processing method is the same as that described in the above-mentioned "JP-A-2000-172980" which is a conventional example. The background update process here depends on the setting.
It is updated at certain intervals, and is not always performed every time the vehicle travels with the millimeter wave radar.
【0033】[0033]
【発明の効果】この発明は、前記のようであって本発明
に係るミリ波レーダによる走行車両検出方法は、ミリ波
レーダを使用し、走査毎に車両を追跡するときには第1
回目の走査により得られた追跡データを用いて位置・速
度を予測し、これにより得られたデータと、次の第2回
目の走査により得られた位置・速度データとを、セグメ
ンテーション処理、属性生成処理し、その結果をそれぞ
れ照合するので、全天候下において、追跡データによ
り、低速で走行する車両或は停止車両の追跡検出及び認
識を確実に行うことができるうえ、出合頭や見通不良の
交差点などでの追突を防止することができるという効果
がある。As described above, the present invention is directed to a method for detecting a traveling vehicle using a millimeter-wave radar according to the present invention.
The position / velocity is predicted using the tracking data obtained by the second scan, and the obtained data and the position / velocity data obtained by the next second scan are subjected to segmentation processing and attribute generation. Processes and compares the results, so that in all weather conditions, tracking data can be used to reliably detect and recognize vehicles traveling at low speed or stop at low speeds, as well as intersections where encounters or poor visibility occur. This has the effect of preventing rear-end collisions in the vehicle.
【図1】本発明に係るミリ波レーダが適用された状態を
示す想定図である。FIG. 1 is an assumption diagram showing a state where a millimeter wave radar according to the present invention is applied.
【図2】同ミリ波レーダの装置全体構成を示す概略図で
ある。FIG. 2 is a schematic diagram showing an entire configuration of the millimeter wave radar.
【図3】本発明の構成手順を示すフローチャートである
(その1)。FIG. 3 is a flowchart showing a configuration procedure of the present invention (part 1).
【図4】本同発明の構成手順を示すフローチャートであ
る(その2)。FIG. 4 is a flowchart showing a configuration procedure of the present invention (part 2).
【図5】本発明に係るミリ波レーダによる走行車両検出
方法を説明する模試図である。FIG. 5 is a schematic diagram illustrating a traveling vehicle detection method using a millimeter wave radar according to the present invention.
【図6】同ミリ波レーダによる走行車両検出方法を説明
するための模試図である(N−1)。FIG. 6 is a schematic test diagram for explaining a traveling vehicle detection method using the millimeter wave radar (N-1).
【図7】同ミリ波レーダによる走行車両検出方法を説明
するための模試図である(N)。FIG. 7 is a schematic diagram (N) illustrating a traveling vehicle detection method using the millimeter wave radar.
【図8】同計測データの一例を示す概念図である。FIG. 8 is a conceptual diagram showing an example of the measurement data.
【図9】同セグメンテーションの概念図である。FIG. 9 is a conceptual diagram of the segmentation.
【図10】同属性生成時における属性データ構造の概念図
である。FIG. 10 is a conceptual diagram of an attribute data structure when the attribute is generated.
【図11】同追跡データの構造図である。FIG. 11 is a structural diagram of the tracking data.
【図12】同ミリ波レーダによる計測結果の一例を示す概
念図である。FIG. 12 is a conceptual diagram showing an example of a measurement result by the millimeter wave radar.
【図13】同追跡処理の詳細フローチャートである。FIG. 13 is a detailed flowchart of the tracking process.
【図14】同追跡による予測の概念図である。FIG. 14 is a conceptual diagram of prediction by the tracking.
【図15】同停止・低速車両認識のフローチャートである
(その1)。FIG. 15 is a flowchart of the stop / low-speed vehicle recognition (part 1).
【図16】同停止・低速車両認識のフローチャートである
(その2)。FIG. 16 is a flowchart of the stop / low-speed vehicle recognition (part 2).
【図17】同背景データ生成処理の概念図である。FIG. 17 is a conceptual diagram of the background data generation process.
【図18】同背景データ更新部の詳細図である。FIG. 18 is a detailed diagram of the background data updating unit.
1 ミリ波レーダ 2 ミリ波センサ 3 車両検出用コンピュータ 4 上位コンピュータ 5,6,7 車両 8 ガードレール 9 障害物 DESCRIPTION OF SYMBOLS 1 Millimeter wave radar 2 Millimeter wave sensor 3 Vehicle detection computer 4 Host computer 5, 6, 7 Vehicle 8 Guard rail 9 Obstacle
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5H180 AA01 CC12 CC14 DD03 LL04 LL15 5J070 AB17 AB24 AC01 AC02 AC06 AE01 AF01 AK22 ──────────────────────────────────────────────────続 き Continued on the front page F term (reference) 5H180 AA01 CC12 CC14 DD03 LL04 LL15 5J070 AB17 AB24 AC01 AC02 AC06 AE01 AF01 AK22
Claims (8)
とを特徴とするミリ波レーダによる走行車両検出方法。1. A traveling vehicle detection method using a millimeter wave radar, wherein a millimeter wave radar installed on a road is used.
毎に車両を追跡し、得られた追跡データを用いて、低速
で走行する車両或は停止車両を認識することを特徴とす
る請求項1に記載のミリ波レーダによる走行車両検出方
法。2. The vehicle according to claim 1, wherein the vehicle is tracked every time the fan beam is scanned by the millimeter-wave radar, and a vehicle traveling at a low speed or a stopped vehicle is recognized using the obtained tracking data. A traveling vehicle detection method using the millimeter-wave radar described in the above.
追跡するときには第1回目の走査により得られた追跡デ
ータを用いて位置・速度を予測し、これにより得られた
データと、次の第2回目の走査により得られた位置・速
度データとを、セグメンテーション処理、属性生成処理
し、その結果を照合することを特徴とするミリ波レーダ
による走行車両検出方法。3. When a vehicle is tracked for each scan using a millimeter-wave radar, a position and a speed are predicted by using tracking data obtained by a first scan, and the data obtained thereby and the next A segmentation process and an attribute generation process with the position / velocity data obtained by the second scan, and collating the results with each other.
追跡するときには第1回目の走査により得られた追跡デ
ータを用いて位置・速度を予測し、これにより得られた
データと、次の第2回目の走査により得られた位置・速
度データとを、セグメンテーション処理、属性生成処理
し、その結果をそれぞれ照合し、この照合を行うときに
は、同じセグメントに属する計測点数と前記第1回目の
走査により得られた追跡データの計測点数を重みとする
処理を行うことを特徴とするミリ波レーダによる走行車
両検出方法。4. When a vehicle is tracked for each scan using a millimeter-wave radar, a position and a speed are predicted using tracking data obtained by a first scan. Performs segmentation processing and attribute generation processing with the position / velocity data obtained by the second scan, and checks the results. When the check is performed, the number of measurement points belonging to the same segment and the first A traveling vehicle detection method using a millimeter-wave radar, wherein a process is performed in which the number of measurement points of tracking data obtained by scanning is weighted.
追跡するときには第1回目の走査により得られた追跡デ
ータを用いて位置・速度を予測し、これにより得られた
データと、次の第2回目の走査により得られた位置・速
度データとを、セグメンテーション処理、属性生成処理
し、その結果をそれぞれ照合し、前記第1回目の走査に
より得られた追跡データと前記第2回目の走査により得
られた位置・速度データとにマッチングするものがない
とき、前記第2回目の走査により得られた計測点数が少
ないセグメントはノイズと判断し、計測点数が多いセグ
メントは、新たに追跡データに付け加えることを特徴と
するミリ波レーダによる走行車両検出方法。5. When a vehicle is tracked for each scan using a millimeter-wave radar, a position and a speed are predicted using tracking data obtained by a first scan. The position / velocity data obtained by the second scan is subjected to a segmentation process and an attribute generation process, and the results are collated. The tracking data obtained by the first scan is compared with the tracking data obtained by the second scan. When there is no matching with the position / velocity data obtained by the scanning, the segment having a small number of measurement points obtained by the second scan is determined to be noise, and the segment having a large number of measurement points is newly added to the tracking data. A traveling vehicle detection method using a millimeter wave radar.
追跡するときには第1回目の走査により得られた追跡デ
ータを用いて位置・速度を予測し、これにより得られた
データと、次の第2回目の走査により得られた位置・速
度データとを、セグメンテーション処理、属性生成処理
し、その結果をそれぞれ照合し、ミリ波レーダにより観
測不能なシャドウイングの影響などにより、前記第1回
目の走査により得られた追跡データにマッチングするも
のがないときには、追跡データに予測した位置・速度デ
ータとシャドウイングした回数を蓄え、且つ、その追跡
データを保持することを特徴とするミリ波レーダによる
走行車両検出方法。6. When a vehicle is tracked for each scan using a millimeter-wave radar, a position and a speed are predicted by using tracking data obtained by a first scan, and the data obtained thereby and the next Performs segmentation processing and attribute generation processing with the position / velocity data obtained by the second scan, and compares the results with each other. Due to the effects of shadowing that cannot be observed by the millimeter wave radar, the first time When there is no matching data with the tracking data obtained by the scanning, the millimeter wave radar is characterized by storing the predicted position / speed data and the number of times of shadowing in the tracking data, and retaining the tracking data. Traveling vehicle detection method.
ータの観測ノイズは車両の走行方向、車幅方向に分離処
理し、次いで、フィルタリングすることを特徴とする請
求項2〜6のいずれかに記載のミリ波レーダによる走行
車両検出方法。7. The millimeter according to claim 2, wherein observation noise of tracking data generated by shadowing or the like is separated in a traveling direction and a vehicle width direction of the vehicle, and then filtered. A traveling vehicle detection method using wave radar.
波レーダによる走行車両検出方法を実現するための装置
を備えたことを特徴とするミリ波レーダによる走行車両
検出方法。8. A traveling vehicle detection method using a millimeter wave radar, comprising a millimeter wave radar installed on a road and a device for implementing the traveling vehicle detection method using the millimeter wave radar.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000287944A JP3520326B2 (en) | 2000-09-22 | 2000-09-22 | Running vehicle detection method using millimeter wave radar |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000287944A JP3520326B2 (en) | 2000-09-22 | 2000-09-22 | Running vehicle detection method using millimeter wave radar |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002099986A true JP2002099986A (en) | 2002-04-05 |
JP3520326B2 JP3520326B2 (en) | 2004-04-19 |
Family
ID=18771609
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000287944A Expired - Lifetime JP3520326B2 (en) | 2000-09-22 | 2000-09-22 | Running vehicle detection method using millimeter wave radar |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3520326B2 (en) |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004012186A (en) * | 2002-06-04 | 2004-01-15 | Fujitsu Ten Ltd | Method for storing data in on-vehicle radar |
DE102008037014A1 (en) | 2007-08-10 | 2009-03-12 | Denso Corp., Kariya-shi | Apparatus for estimating a vehicle condition located in a forward field |
DE102009014104A1 (en) | 2008-03-21 | 2009-09-24 | Denso Corporation, Kariya-City | Detection system for a vehicle |
DE102009014105A1 (en) | 2008-03-21 | 2009-09-24 | Denso Corporation, Kariya-City | Detection system for a vehicle |
JP2010044496A (en) * | 2008-08-11 | 2010-02-25 | Ihi Corp | Method and device for detecting vehicle |
JP2012008021A (en) * | 2010-06-25 | 2012-01-12 | Japan Weather Association | Monitoring device, method and program, and monitoring system |
EP2565671A1 (en) | 2011-08-30 | 2013-03-06 | Fujitsu Limited | Moving object detecting apparatus, moving object detecting method, and computer program |
WO2013080570A1 (en) * | 2011-12-02 | 2013-06-06 | パナソニック株式会社 | Radar device |
EP2631673A1 (en) | 2012-02-27 | 2013-08-28 | Fujitsu Limited | Moving object tracking apparatus, moving object tracking method, and program |
EP2674778A2 (en) | 2012-06-14 | 2013-12-18 | Fujitsu Limited | Monitoring device, monitoring method, and program |
CN103985255A (en) * | 2014-06-10 | 2014-08-13 | 北京易华录信息技术股份有限公司 | System and method for precisely judging abnormal parking on running lane by utilizing radar tracking technology |
CN104008649A (en) * | 2014-06-17 | 2014-08-27 | 北京易华录信息技术股份有限公司 | System and method for quickly finding abnormal parking reason on carriageway through radar tracking |
KR101620239B1 (en) * | 2011-09-16 | 2016-05-12 | 후지쯔 가부시끼가이샤 | Driving lane evaluation apparatus, driving lane evaluation method, and computer-readable storage medium recording driving lane evaluation computer program |
JP2017101969A (en) * | 2015-11-30 | 2017-06-08 | 古河電気工業株式会社 | Radar device and radar device detection method |
JP2017203751A (en) * | 2016-05-13 | 2017-11-16 | パナソニックIpマネジメント株式会社 | Radio wave sensor and facility apparatus equipped with radio wave sensor |
JP2019159648A (en) * | 2018-03-12 | 2019-09-19 | オムロン株式会社 | Vehicle counting device, vehicle counting method, and vehicle counting program |
CN111679259A (en) * | 2020-06-18 | 2020-09-18 | 成都纳雷科技有限公司 | Method and system for improving signal-to-noise ratio of millimeter wave radar moving target detection |
CN112034445A (en) * | 2020-08-17 | 2020-12-04 | 东南大学 | Vehicle motion trail tracking method and system based on millimeter wave radar |
JP2022504685A (en) * | 2019-05-06 | 2022-01-13 | エス・エム・エス・スマート・マイクロウェーブ・センサーズ・ゲーエムベーハー | How to detect road users |
WO2022024471A1 (en) * | 2020-07-31 | 2022-02-03 | 株式会社日立製作所 | External environment recognition system and external environment recognition method |
WO2022054465A1 (en) * | 2020-09-11 | 2022-03-17 | 住友電気工業株式会社 | Detection processing device and detection method |
CN117970306A (en) * | 2023-12-22 | 2024-05-03 | 中电信数字城市科技有限公司 | Millimeter wave radar-based target identification system and method |
-
2000
- 2000-09-22 JP JP2000287944A patent/JP3520326B2/en not_active Expired - Lifetime
Cited By (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004012186A (en) * | 2002-06-04 | 2004-01-15 | Fujitsu Ten Ltd | Method for storing data in on-vehicle radar |
US7920087B2 (en) | 2007-08-10 | 2011-04-05 | Denso Corporation | Apparatus for estimating state of vehicle located in frontward field |
DE102008037014A1 (en) | 2007-08-10 | 2009-03-12 | Denso Corp., Kariya-shi | Apparatus for estimating a vehicle condition located in a forward field |
US8077077B2 (en) | 2008-03-21 | 2011-12-13 | Denso Corporation | Recognition system for vehicle |
DE102009014105A1 (en) | 2008-03-21 | 2009-09-24 | Denso Corporation, Kariya-City | Detection system for a vehicle |
DE102009014104A1 (en) | 2008-03-21 | 2009-09-24 | Denso Corporation, Kariya-City | Detection system for a vehicle |
DE102009014105B4 (en) | 2008-03-21 | 2018-08-09 | Denso Corporation | Detection system for a vehicle |
JP2010044496A (en) * | 2008-08-11 | 2010-02-25 | Ihi Corp | Method and device for detecting vehicle |
JP2012008021A (en) * | 2010-06-25 | 2012-01-12 | Japan Weather Association | Monitoring device, method and program, and monitoring system |
KR101374502B1 (en) * | 2011-08-30 | 2014-03-13 | 후지쯔 가부시끼가이샤 | Moving object detecting apparatus, moving object detecting method, and computer readable storage medium having computer program for detecting moving object |
EP2565671A1 (en) | 2011-08-30 | 2013-03-06 | Fujitsu Limited | Moving object detecting apparatus, moving object detecting method, and computer program |
JP2013050322A (en) * | 2011-08-30 | 2013-03-14 | Fujitsu Ltd | Moving object detection device, moving object detection method, and computer program for detecting moving object |
US20140253363A1 (en) * | 2011-08-30 | 2014-09-11 | Fujitsu Limited | Moving object detecting apparatus, moving object detecting method, and computer readable recording medium |
US9188667B2 (en) | 2011-08-30 | 2015-11-17 | Fujitsu Limited | Moving object detecting apparatus, moving object detecting method, and computer readable recording medium |
KR101620239B1 (en) * | 2011-09-16 | 2016-05-12 | 후지쯔 가부시끼가이샤 | Driving lane evaluation apparatus, driving lane evaluation method, and computer-readable storage medium recording driving lane evaluation computer program |
US9470784B2 (en) | 2011-12-02 | 2016-10-18 | Panasonic Corporation | Radar device |
WO2013080570A1 (en) * | 2011-12-02 | 2013-06-06 | パナソニック株式会社 | Radar device |
JPWO2013080570A1 (en) * | 2011-12-02 | 2015-04-27 | パナソニック株式会社 | Radar equipment |
US9151835B2 (en) | 2012-02-27 | 2015-10-06 | Fujitsu Limited | Moving object tracking apparatus, and moving object tracking method |
EP2631673A1 (en) | 2012-02-27 | 2013-08-28 | Fujitsu Limited | Moving object tracking apparatus, moving object tracking method, and program |
EP2674778A3 (en) * | 2012-06-14 | 2015-01-21 | Fujitsu Limited | Monitoring device, monitoring method, and program |
US9316730B2 (en) | 2012-06-14 | 2016-04-19 | Fujitsu Limited | Monitoring device and monitoring method |
JP2013257288A (en) * | 2012-06-14 | 2013-12-26 | Fujitsu Ltd | Monitoring device, monitoring method, and program |
EP2674778A2 (en) | 2012-06-14 | 2013-12-18 | Fujitsu Limited | Monitoring device, monitoring method, and program |
CN103985255A (en) * | 2014-06-10 | 2014-08-13 | 北京易华录信息技术股份有限公司 | System and method for precisely judging abnormal parking on running lane by utilizing radar tracking technology |
CN104008649A (en) * | 2014-06-17 | 2014-08-27 | 北京易华录信息技术股份有限公司 | System and method for quickly finding abnormal parking reason on carriageway through radar tracking |
CN104008649B (en) * | 2014-06-17 | 2016-07-27 | 北京易华录信息技术股份有限公司 | Radar tracking is utilized quickly to find the system and method for runway exception parking reason |
JP2017101969A (en) * | 2015-11-30 | 2017-06-08 | 古河電気工業株式会社 | Radar device and radar device detection method |
JP2017203751A (en) * | 2016-05-13 | 2017-11-16 | パナソニックIpマネジメント株式会社 | Radio wave sensor and facility apparatus equipped with radio wave sensor |
JP2019159648A (en) * | 2018-03-12 | 2019-09-19 | オムロン株式会社 | Vehicle counting device, vehicle counting method, and vehicle counting program |
JP7047486B2 (en) | 2018-03-12 | 2022-04-05 | オムロン株式会社 | Vehicle counting device, vehicle counting method, and vehicle counting program |
JP2022504685A (en) * | 2019-05-06 | 2022-01-13 | エス・エム・エス・スマート・マイクロウェーブ・センサーズ・ゲーエムベーハー | How to detect road users |
JP7382659B2 (en) | 2019-05-06 | 2023-11-17 | エス・エム・エス・スマート・マイクロウェーブ・センサーズ・ゲーエムベーハー | How to detect road users |
CN111679259A (en) * | 2020-06-18 | 2020-09-18 | 成都纳雷科技有限公司 | Method and system for improving signal-to-noise ratio of millimeter wave radar moving target detection |
CN111679259B (en) * | 2020-06-18 | 2023-07-14 | 成都纳雷科技有限公司 | Method and system for improving millimeter wave radar moving target detection signal to noise ratio |
WO2022024471A1 (en) * | 2020-07-31 | 2022-02-03 | 株式会社日立製作所 | External environment recognition system and external environment recognition method |
CN112034445A (en) * | 2020-08-17 | 2020-12-04 | 东南大学 | Vehicle motion trail tracking method and system based on millimeter wave radar |
WO2022054465A1 (en) * | 2020-09-11 | 2022-03-17 | 住友電気工業株式会社 | Detection processing device and detection method |
CN117970306A (en) * | 2023-12-22 | 2024-05-03 | 中电信数字城市科技有限公司 | Millimeter wave radar-based target identification system and method |
Also Published As
Publication number | Publication date |
---|---|
JP3520326B2 (en) | 2004-04-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3520326B2 (en) | Running vehicle detection method using millimeter wave radar | |
US12044776B2 (en) | Multisensor data fusion method and apparatus to obtain static and dynamic environment features | |
Mendes et al. | Multi-target detection and tracking with a laser scanner | |
Darms et al. | Obstacle detection and tracking for the urban challenge | |
JP2000090243A (en) | Periphery monitoring device and method therefor | |
CN111856507B (en) | Environment sensing implementation method, intelligent mobile device and storage medium | |
JP2017129410A (en) | Object detection device and object detection method | |
CN111252066A (en) | Emergency braking control method and device, vehicle and storage medium | |
JP3044522B2 (en) | Recognition method of objects in vehicles | |
CN110632617A (en) | Laser radar point cloud data processing method and device | |
CN112764034A (en) | Method for identifying obstacle at low speed by vehicle-mounted BSD millimeter wave radar | |
CN114063061A (en) | Method for monitoring a vehicle by means of a plurality of sensors | |
CN114093165A (en) | Roadside laser radar-based vehicle-pedestrian conflict automatic identification method | |
Yang et al. | On-road collision warning based on multiple FOE segmentation using a dashboard camera | |
JP3341186B2 (en) | Object discriminating apparatus and method, and vehicle equipped with object discriminating apparatus | |
Fuerstenberg et al. | Pedestrian detection and classification by laserscanners | |
EP3845926A1 (en) | Multi-spectral lidar object tracking method and system | |
KR101878427B1 (en) | Traffic radar device, traffic management server, traffic management system, and method of tracking object move traces | |
KR20170138842A (en) | System and Method for Tracking Vehicle on the basis on Template Matching | |
JP2004347489A (en) | Object recognition device and recognition means | |
KR101944348B1 (en) | Method of recognizing object by microwave frequency analysis and closed-circuit television image analysis | |
JP7083768B2 (en) | Recognition device, vehicle control device, recognition method, and program | |
CN115909806A (en) | Collision early warning method and device and road side equipment | |
Mukhtar et al. | On-road approaching motorcycle detection and tracking techniques: A survey | |
Thiem et al. | Datafusion of two driver assistance system sensors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
R150 | Certificate of patent or registration of utility model |
Ref document number: 3520326 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
EXPY | Cancellation because of completion of term |