JP3520326B2 - Running vehicle detection method using millimeter wave radar - Google Patents

Running vehicle detection method using millimeter wave radar

Info

Publication number
JP3520326B2
JP3520326B2 JP2000287944A JP2000287944A JP3520326B2 JP 3520326 B2 JP3520326 B2 JP 3520326B2 JP 2000287944 A JP2000287944 A JP 2000287944A JP 2000287944 A JP2000287944 A JP 2000287944A JP 3520326 B2 JP3520326 B2 JP 3520326B2
Authority
JP
Japan
Prior art keywords
data
wave radar
tracking
millimeter wave
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2000287944A
Other languages
Japanese (ja)
Other versions
JP2002099986A (en
Inventor
聡 石井
淳子 梶木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute for Land and Infrastructure Management
Original Assignee
National Institute for Land and Infrastructure Management
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute for Land and Infrastructure Management filed Critical National Institute for Land and Infrastructure Management
Priority to JP2000287944A priority Critical patent/JP3520326B2/en
Publication of JP2002099986A publication Critical patent/JP2002099986A/en
Application granted granted Critical
Publication of JP3520326B2 publication Critical patent/JP3520326B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明が属する技術分野】本発明は、道路上を車両が走
行していること、道路上に車両が一時停車しているこ
と、または、道路上で車両が事故等のため長時間停車し
て交通の障害となっていることなど、道路上における車
両の種々の状態を検出して、道路の使用状態を管理し、
また、掲示等を使用して後続車などに道路状態を知ら
せ、事故の発生を未然に防ぐための、ミリ波レーダによ
る走行車両検出方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to the fact that a vehicle is traveling on a road, the vehicle is temporarily stopped on the road, or the vehicle is stopped for a long time due to an accident or the like. Detects various states of vehicles on the road, such as obstacles to traffic, and manages the road use state,
Further, the present invention relates to a traveling vehicle detection method using a millimeter-wave radar for notifying the following vehicle or the like of a road condition by using a bulletin board or the like and preventing an accident from occurring.

【0002】[0002]

【従来の技術】道路が車両の走行に使用されることは当
然であるが、低速で走行し、道路上に一時停車し、また
は、道路上で事故等のため長時間停車するなどの理由で
交通の障害となる場合がある。このため、従来では画像
センサを道路上に設置して、交通状態をモニタすること
が提案されている。しかし、可視光を使用すると、夜間
など照明が十分でない場合、激しい降雨の場合、濃霧の
場合などにおいては、車両を正確に検出できないなどの
欠点があり、また赤外線を使用しても、激しい降雨の場
合、濃霧の場合などでは、やはり、車両を正確に検出で
きないため、全天候下では有効に車両検出が機能しない
という問題がある。そこで、例えば「特開2000−172980
号公報」においては悪天候条件に対する対応力に優れた
ミリ波レーダ(30GHz〜300GHz)を使用して、低
速で走行する車両や停車、駐車車両などの「交通障害
物」を検出するものが提案されている。
2. Description of the Related Art Naturally, roads are used to drive vehicles, but they are used at low speeds, temporarily stopped on the roads, or stopped on the roads for a long time due to an accident or the like. It may hinder traffic. Therefore, conventionally, it has been proposed to install an image sensor on the road to monitor the traffic condition. However, when using visible light, there are drawbacks such as not being able to accurately detect the vehicle in the case of insufficient lighting such as at night, heavy rain, heavy fog, etc. In the case of, the vehicle cannot be detected accurately in the case of heavy fog, so that there is a problem that the vehicle detection does not function effectively under all weather conditions. Therefore, for example, "Japanese Patent Laid-Open No. 2000-172980"
In Japanese Patent Laid-Open Publication ", a millimeter wave radar (30 GHz to 300 GHz) excellent in response to bad weather conditions is used to detect" traffic obstacles "such as low-speed running vehicles, stopped vehicles, and parked vehicles. ing.

【0003】[0003]

【発明が解決しようとする課題】ところが、前記従来技
術の場合にはミリ波レーダにより道路上の障害物を広域
にわたり検出することは可能であったが、走行車両を追
跡し検出することができなかった。また、他の車両との
出合頭や見通しが不良の交差点などでの追突を防止する
ことができるものではないため、安全性の面で問題があ
る。
However, in the case of the above-mentioned prior art, although it was possible to detect an obstacle on a road over a wide area by a millimeter wave radar, it is possible to track and detect a traveling vehicle. There wasn't. In addition, it is not possible to prevent a rear-end collision with another vehicle at an intersection or an intersection with a poor visibility, so that there is a problem in safety.

【0004】そこでこの発明の目的は、前記のような従
来のミリ波レーダによる障害物検出装置のもつ問題点を
解消し、ミリ波レーダによって走行車両の検出を確実に
行えるミリ波レーダによる走行車両検出方法を提供する
にある。
SUMMARY OF THE INVENTION Therefore, an object of the present invention is to eliminate the above-mentioned problems of the conventional obstacle detection device using the millimeter wave radar, and to reliably detect the traveling vehicle by the millimeter wave radar.
A method of detecting a traveling vehicle by a millimeter wave radar is provided.

【0005】[0005]

【課題を解決するための手段】上記の目的を達成するた
め、請求項1に記載の発明は、道路に設置したミリ波レ
ーダを使用し、走査毎に車両を追跡するときには第1回
目以前の走査により得られた追跡データを用いて位置・
速度を予測し、これにより得られた位置・速度データと
次の第2回目の走査により得られた位置・速度データと
をセグメンテーション処理、属性生成処理し、その結果
得られたそれぞれのセグメントの位置・速度データとの
距離を第1回目の計測点数と第2回目の計測点数で割っ
た値で第2回目のそれぞれの候補と比較して小さいほう
を選択するマッチング処理を行うことを特徴とする。請
求項2に記載の発明は、請求項1において、マッチング
処理に際しては、同じセグメントに属する計測点数と第
2回目の走査により得られた追跡データに重点を置いて
行うことを特徴とする。
In order to achieve the above object, the invention according to claim 1 uses a millimeter wave radar installed on a road, and when a vehicle is tracked for each scanning, the first time is used.
Using tracking data obtained by scanning in front of the eye,
Predict the speed, and use the position / speed data obtained from this
Position / velocity data obtained by the second scan below
Segmentation processing, attribute generation processing, and the result
With the obtained position and velocity data of each segment
Divide the distance by the first and second measurement points
The smaller value compared to each of the 2nd candidates
It is characterized in that a matching process for selecting is performed . The invention according to claim 2 provides the matching according to claim 1,
The number of measurement points belonging to the same segment and the
Focusing on the tracking data obtained from the second scan
It is characterized by performing .

【0006】請求項に記載の発明は、請求項1におい
て、第1回目の走査により得られた追跡データと第2回
目の走査により得られた追跡データにマッチングするも
のがないとき、第2回目の走査により得られた計測点数
が少ないセグメントはノイズと判断し、計測点数が多い
セグメントは新たに追跡データに付け加えることを特徴
とする。
The invention described in claim 3 is the same as in claim 1.
Thus, when there is no match between the tracking data obtained by the first scanning and the tracking data obtained by the second scanning, a segment with a small number of measurement points obtained by the second scanning is noisy. It is characterized in that a segment having a large number of measurement points is newly added to the tracking data.

【0007】請求項に記載の発明は、請求項1におい
て、ミリ波レーダにより観測不能なシャドウイングの影
響などにより、第1回目の走査により得られた追跡デー
タにマッチングするものがないとき、追跡データに予測
した位置・速度データとシャドウイングした回数を蓄
え、且つその追跡データを保持することを特徴とする。
請求項に記載の発明は、請求項おいて、シャドウイ
ングなどにより生じる追跡データの観測ノイズは、車両
の走行方向、車幅方向に分離処理し、次いでフィルタリ
ングすることを特徴とする。
The invention according to claim 4 is the same as in claim 1.
If there is no match for the tracking data obtained by the first scan due to the effect of shadowing that cannot be observed by the millimeter-wave radar, the predicted position / velocity data in the tracking data and the number of shadows It is characterized by accumulating and holding the tracking data.
The invention according to claim 5 is characterized in that, in claim 4 , the observation noise of the tracking data caused by shadowing or the like is separated in the traveling direction of the vehicle and the vehicle width direction, and then filtered.

【0008】[0008]

【発明の実施の形態】以下、図面を参照して、本発明の
実施形態について詳細に説明する。図1,2は本発明の
ミリ波レーダによる走行車両検出方法に係る装置全体を
示す構成図である(FM−CW方式)。すなわち、ミリ
波レーダ1は道路に設けられた支柱などの高所に設置さ
れており、このミリ波レーダ1からは道路上を走行する
車両に対してファン状(長円状)のビームを走査(スキ
ャニング)させることができる。この場合、ミリ波レー
ダ1から発せられるファンビームの走査は所定の角度
(アジマス角度)をもって行われる。尚、このミリ波レ
ーダ1による走査方式は機械方式でも電気方式でもよ
い。また、図2に示すようにミリ波レーダ1はミリ波の
送受信と信号処理により車両(対象物)の位置・速度を
得ることのできるミリ波センサ2と、このミリ波センサ
2からの車両データを検出する車両検出用コンピュータ
3とを有しており、このように構成されるミリ波レーダ
1は道路の全域をカバーするために、複数設けられてお
り、さらに、これらミリ波レーダ1はデータ通信用のL
ANなどによって互いに接続されている。また、4はL
ANに接続される上位コンピュータで、この上位コンピ
ュータ4により全体制御及び各ミリ波レーダ1により得
られたデータに対しての管理が行われる。ここで、LA
Nの型式はリング型でもよい。
DETAILED DESCRIPTION OF THE INVENTION Embodiments of the present invention will be described in detail below with reference to the drawings. 1 and 2 are configuration diagrams showing an entire apparatus according to a traveling vehicle detection method by a millimeter wave radar of the present invention (FM-CW method). That is, the millimeter wave radar 1 is installed at a high place such as a pillar provided on the road, and the millimeter wave radar 1 scans a vehicle traveling on the road with a fan-shaped (elliptical) beam. (Scanning). In this case, the scanning of the fan beam emitted from the millimeter wave radar 1 is performed at a predetermined angle (azimuth angle). The scanning method by the millimeter wave radar 1 may be a mechanical method or an electric method. As shown in FIG. 2, the millimeter wave radar 1 is a millimeter wave sensor 2 that can obtain the position and speed of a vehicle (object) by transmitting and receiving millimeter waves and processing signals, and vehicle data from the millimeter wave sensor 2. A millimeter-wave radar 1 configured as described above, and a plurality of millimeter-wave radars 1 are provided in order to cover the entire area of the road. L for communication
They are connected to each other by AN or the like. 4 is L
A host computer connected to the AN performs overall control by the host computer 4 and management of data obtained by each millimeter wave radar 1. Where LA
The type of N may be a ring type.

【0009】図3及び図4は、本発明に係るミリ波レー
ダによる走行車両検出方法のソフト処理を説明するため
のフローチャートを示している。このうち図3は、追跡
処理の結果、停止・低速車両が発見された場合のみを判
断し、その得られた結果(停止・低速車両があると云う
情報データ)を外部I/Fに出力する場合を示し、図4
は追跡処理の結果の如何に拘わらず(停止・低速車両が
発見されてもされなくても)、得られた全ての結果を外
部I/Fに出力する場合をそれぞれ示すものである。そ
して、これら図3,4のフローチャートに示すように本
発明のミリ波レーダによる走行車両検出方法ではデータ
入力、背景差分、セグメンテーション、属性生成、追跡
処理、停止・低速車両認識、外部I/F伝送と背景更新
処理(図17,18参照)との8つの処理(S1〜S8)を
行うことに特徴がある。尚、フローチャートのスタート
時には属性データと追跡データとを格納する領域を確保
する。
FIGS. 3 and 4 show a flowchart for explaining the software processing of the traveling vehicle detection method by the millimeter wave radar according to the present invention. Of these, FIG. 3 determines only when a stopped / low-speed vehicle is found as a result of the tracking process, and outputs the obtained result (information data indicating that there is a stopped / low-speed vehicle) to the external I / F. Figure 4 shows the case
Shows the case where all the obtained results are output to the external I / F regardless of the result of the tracking process (whether the stopped / low-speed vehicle is detected or not). As shown in the flow charts of FIGS. 3 and 4, in the traveling vehicle detection method by the millimeter wave radar of the present invention, data input, background difference, segmentation, attribute generation, tracking processing, stop / low speed vehicle recognition, external I / F transmission. And the background update processing (see FIGS. 17 and 18) are the eight processings (S1 to S8). An area for storing the attribute data and the tracking data is secured at the start of the flowchart.

【0010】図5は本発明のミリ波レーダによる走行車
両検出方法を説明するための模試図である。ここで、設
定したシーンとしては道路の路肩側(図5で左端側)に
本発明によるミリ波レーダ1が設置され、道路上(3車
線)を3台の車両5,6,7が図5の左側から右側に向
かって走行するものとしている。従って、この場合ミリ
波レーダ1から発せられるファンビームの走査は各車両
5,6,7の後方から行われる。また、8はガードレー
ルで、9は道路上に落下している障害物を示している。
また、図6,図7は車両5,6,7の走行に伴う時系列
的なシーン(状況変化)を示す模試図であり、図6はミ
リ波レーダ1による第1回目のスキャンが行われた時
(N−1)を、図7は追跡時のイメージであり第2回目
のスキャンが行われた時(N)をそれぞれ示す模試図で
ある。また、これら図6,7では計測結果を示すイメー
ジとして、太線で距離計測結果を示し、太矢印で速度計
測結果をそれぞれ表している。以下、本発明の詳細を図
6,7及び前記8つの処理(S1〜S8)の機能を参照
して説明する。
FIG. 5 is a schematic diagram for explaining a traveling vehicle detection method by the millimeter wave radar of the present invention. Here, as the set scene, the millimeter wave radar 1 according to the present invention is installed on the shoulder side of the road (the left end side in FIG. 5), and three vehicles 5, 6, and 7 are on the road (3 lanes). It is supposed to drive from the left side to the right side. Therefore, in this case, the scanning of the fan beam emitted from the millimeter wave radar 1 is performed from the rear of each vehicle 5, 6, 7. Further, 8 is a guard rail, and 9 is an obstacle falling on the road.
6 and 7 are schematic diagrams showing time-series scenes (changes in situation) accompanying the traveling of the vehicles 5, 6 and 7, and FIG. 6 shows the first scan by the millimeter wave radar 1. FIG. 7 is a schematic diagram showing an image at the time of tracking (N-1), and FIG. 7 is an image at the time of performing the second scan (N). Further, in these FIGS. 6 and 7, as an image showing the measurement result, a thick line shows the distance measurement result, and a thick arrow shows the speed measurement result. Hereinafter, the details of the present invention will be described with reference to FIGS. 6 and 7 and the functions of the eight processes (S1 to S8).

【0011】先ず、データ入力(S1)はミリ波センサ
1から送られてくる極座標系のデータを受信する処理で
ある。図8は送られるデータの一例を示している。そし
て、データ入力後には背景差分(S2)による処理工程
が行われる。この背景差分は入力されたデータと背景と
を差分する工程であり、この処理を施すことにより、図
6に示されている背景(ガードレール)の測定結果が削
除されて、車両5,6と障害物9のデータのみを残すこ
とができる。次いで、図9はセグメンテーション(S
3)における処理工程の概念図を示している。ここで
は、先ず距離とアジマス方向(走査方向)との2次元メ
モリープレーンを3個用意し、前記図8に示す計測デー
タ(一例)を使用して、有無プレーンに対しては有無情
報(存在の有無)を、速度プレーンに対しては速度情報
をそれぞれ書き込む。そして、次に連結又はほぼ一致す
るものであって、その速度情報がほぼ一致するものを同
じセグメントとしてラベルを付与する(同一グループ
化)。
First, data input (S1) is a process of receiving polar coordinate system data sent from the millimeter wave sensor 1. FIG. 8 shows an example of the transmitted data. Then, after the data is input, a processing step based on the background difference (S2) is performed. This background difference is a step of subtracting the input data from the background, and by performing this processing, the measurement result of the background (guardrail) shown in FIG. Only the data of the object 9 can be left. Then, FIG. 9 shows the segmentation (S
The conceptual diagram of the process in 3) is shown. Here, first, three three-dimensional memory planes of the distance and the azimuth direction (scanning direction) are prepared, and the presence / absence information (presence of presence) is present for the presence / absence plane using the measurement data (one example) shown in FIG. (Presence / absence) and speed information are written in the speed plane. Then, labels that are connected or substantially match and whose speed information substantially match are labeled as the same segment (same grouping).

【0012】そして、図9に示す状態でこの処理を行う
と、速度プレーンにおいて3つの速度データ(29,30,
32)は近似(連結)しているため、これらはラベル1が
付与され、これら3つの速度データと相違する異なる速
度データ(10)には違うラベルであるラベル2が付与さ
れる。前記図6のシーンの場合には、ラベル1,2,3
がそれぞれ車両5,6と障害物9に付与されるものとす
る。尚、本実施例ではメモリープレーンを3個用意した
が、有無情報と速度情報とをマージンするなどして、図
9で示す3個より少ないメモリープレーンで前記の処理
を行ってもよく、また他の属性に合わせてメモリープレ
ーンを増やしても良い。さらに、デカルト座標系のメモ
リープレーンで前記の処理を行ってもよい。
When this processing is performed in the state shown in FIG. 9, three speed data (29, 30,
Since 32) are approximated (connected), a label 1 is given to them, and a different label, label 2, is given to different speed data (10) different from these three speed data. In the case of the scene shown in FIG. 6, labels 1, 2, 3
Are given to the vehicles 5, 6 and the obstacle 9, respectively. Although three memory planes are prepared in the present embodiment, the above processing may be performed with less than three memory planes shown in FIG. 9 by margining the presence information and the speed information. You may increase the memory plane according to the attribute of. Further, the above processing may be performed by a memory plane having a Cartesian coordinate system.

【0013】図10は属性生成(S4)における属性デー
タの構造の概念図を示す。この属性生成とはセグメンテ
ーションでグループ化された計測データより、それぞれ
のグループの重心位置・幅・計測点数・速度を生成する
処理である(重心位置・幅・計測点数・速度をそれぞれ
『属性』と呼んでいる。)。すなわち、この属性生成で
は、それぞれのセグメントの重心位置・幅・計測点数・
速度などを求め、ここで極座標をデカルト座標系のワー
ルド座標に変換する(これら生成された属性データは図
10の構造表に格納される。)。尚、この座標変換は前記
データ入力(S1)後すぐに実行してもよい。次に、追
跡処理(S5)について前記図6,7及び図11〜14を参
照して説明する。尚、重心は平均でもよい。
FIG. 10 is a conceptual diagram of the structure of attribute data in the attribute generation (S4). This attribute generation is the process of generating the center of gravity position, width, number of measurement points, and velocity of each group from the measurement data grouped by segmentation (the center of gravity position, width, number of measurement points, and velocity are referred to as "attribute", respectively). I'm calling it.) That is, in this attribute generation, the center of gravity position, width, number of measurement points, and
Calculate the velocity, etc., and convert the polar coordinates to world coordinates in the Cartesian coordinate system (the generated attribute data is
Stored in 10 structure tables. ). The coordinate conversion may be executed immediately after the data input (S1). Next, the tracking process (S5) will be described with reference to FIGS. 6 and 7 and FIGS. The center of gravity may be the average.

【0014】ここで、図11には追跡データの構造、図12
にはミリ波レーダ1による第1回目(N−1)でのデー
タの一例を示している。尚、この図では(N)以降はま
だ代入されていないためアスタリスク「*」で示してい
る。また、図13には追跡処理のデータフロー、図14には
追跡による予測の概念図をそれぞれ示している。すなわ
ち、図6の車両6を例に説明すると、ミリ波レーダ1に
よる第1回目のスキャンが行われた時(N−1)の追跡
データは図7では「べたの星印」で示しており、本発明
ではこの追跡データにより、この図7では位置・速度(星
印と太点矢印)を予測し、図7における第2回目の走査
により得られたデータから、その予測位置の近傍で属性
データ(例えば、速度と位置)が一致するものを探索す
る。
Here, FIG. 11 shows the structure of tracking data, and FIG.
Shows an example of data at the first time (N-1) by the millimeter wave radar 1. Incidentally, in this figure, since (N) and subsequent ones have not been substituted yet, they are indicated by an asterisk "*". Further, FIG. 13 shows a data flow of tracking processing, and FIG. 14 shows a conceptual diagram of prediction by tracking. That is, when the vehicle 6 of FIG. 6 is taken as an example, the tracking data when the first scan by the millimeter wave radar 1 is performed (N−1) is shown by “a solid star mark” in FIG. 7. According to the present invention, the tracking data is used to predict the position / velocity (star mark and thick arrow) in FIG. 7, and the attribute obtained in the vicinity of the predicted position is obtained from the data obtained by the second scan in FIG. Search for matching data (eg velocity and position).

【0015】また、ミリ波レーダ1による第2回目のス
キャンが行われた時(N)に進入した車両7は新規の追
跡データに追加される。さらに、第2回目のスキャン時
の追加データには新規データが格納される(「白星
印」)。
Further, the vehicle 7 that has entered when the second scan by the millimeter wave radar 1 is performed (N) is added to the new tracking data. Further, new data is stored in the additional data at the time of the second scan (“white star”).

【0016】そして、上述した追跡処理は、図13に示す
ように位置・速度予測処理、マッチング処理、シャドウ
イング処理、追跡継続判断、追跡データ更新処理、新規
追跡データ追加処理、登録抹消処理、フィルタ処理、追
跡データ出力の9つ(a)〜(i)の処理を行うもので
ある。これら各処理について以下に詳細に説明する。
As shown in FIG. 13, the tracking processing described above includes position / velocity prediction processing, matching processing, shadowing processing, tracking continuation determination, tracking data update processing, new tracking data addition processing, registration deletion processing, and filter processing. The nine processings (a) to (i) of processing and tracking data output are performed. Each of these processes will be described in detail below.

【0017】(a)位置・速度予測処理 図14は位置・速度予測処理における予測の概念図を示し
ている。すなわち、図14に示すように、追跡データには
今までの軌跡が蓄えられており、この近似曲線により得
られたデータを使用して予測することができる。例え
ば、点Pは前記第1回目の走査により得られた追跡位置
であるとすると、その後の推定値を予測することができ
る。このデータを用いて予測する予測方法の例を以下、
2つの例として示す。 (a-1)カルマン予測型アルゴリズム 図14に示すように、車両の走行方向をX方向とし、車幅
方向をY方向とすると、ミリ波レーダ1で車両を観測す
るときの離散モデルを3次元としたとき、以下の「数
1」「数2」のように書き表わすことができる。ここ
で、次元はn次元でもかまわない。
(A) Position / velocity prediction processing FIG. 14 shows a conceptual diagram of prediction in the position / velocity prediction processing. That is, as shown in FIG. 14, the tracking data stores the loci up to now, and it is possible to make a prediction using the data obtained from this approximate curve. For example, assuming that the point P is the tracking position obtained by the first scan, the subsequent estimated value can be predicted. Below is an example of a prediction method using this data
Two examples are given. (A-1) Kalman prediction algorithm As shown in FIG. 14, assuming that the traveling direction of the vehicle is the X direction and the vehicle width direction is the Y direction, the discrete model for observing the vehicle with the millimeter wave radar 1 is a three-dimensional model. Then, it can be expressed as the following "Equation 1" and "Equation 2". Here, the dimension may be n-dimensional.

【0018】[0018]

【数1】 [Equation 1]

【0019】[0019]

【数2】 但し、tは最新(例えば、第1回目のスキャン時)のサ
ンプリングが行われた時の時間、Tはサンプリング時
間、「’」は1次微分、「’’」は2次微分、「v*」
はシステムノイズ、「w*」は観測ノイズ、「xo」、
[xo’]、「yo」はミリ波による計測データであ
る。このモデルを使用して、カルマンフィルタを施し、
その結果を下記の「数3」式に代入すれば、速度・位置
を推定することができる。
[Equation 2] However, t is the time when the latest (for example, the first scan) is sampled, T is the sampling time, “′” is the first derivative, “″” is the second derivative, and “v *”. "
Is system noise, “w *” is observation noise, “xo”,
[Xo '] and "yo" are millimeter-wave measurement data. We use this model to apply a Kalman filter,
By substituting the result into the following “Equation 3”, the velocity / position can be estimated.

【0020】[0020]

【数3】 但し、「xf」、「yf」はカルマンフィルタによる処
理結果であり、「xfp」、「yfp」は予測結果であ
る。 (a-2)接線アルゴリズム 追跡データ(第1回目の走査により得られた追跡デー
タ)と、あるサンプリング回数分の過去のデータとで、
位置と速度とを、n次元の関数で近似し、最新となる位
置での接線方向を求める。位置の場合は、その方向にミ
リ波レーダ1で得られた速度でサンプリング時間T進ん
だ位置を予測位置とする。また、速度の場合は近似した
関数で、サンプリング時間T進んだ速度を算出し、これ
を予測速度とする。
[Equation 3] However, “xf” and “yf” are processing results by the Kalman filter, and “xfp” and “yfp” are prediction results. (A-2) Tangent algorithm tracking data (tracking data obtained by the first scan) and past data for a certain number of samplings,
The position and the velocity are approximated by an n-dimensional function, and the tangential direction at the latest position is obtained. In the case of the position, the position advanced by the sampling time T at the speed obtained by the millimeter wave radar 1 in that direction is set as the predicted position. In the case of speed, an approximated function is used to calculate the speed advanced by the sampling time T, and this is used as the predicted speed.

【0021】(b)マッチング処理 すなわち、このマッチング処理とは追跡データから得ら
れた予測データの全てと属性データの全てとを照合する
ことであり、この場合の照合方法は、速度がある範囲で
一致した場合、位置の差(距離)をどちらの(第1回目
の追跡データと第2回目の属性データ)計測点数で割っ
た値のものを蓄えることである。そして、この貯蓄デー
タより、互いに小さくなり、1対1の対応関係を有する
ことになるように操作し、マッチング処理を行う。そし
て、追跡データから得られた予測データでマッチングで
きなかったものは、シャドウイング処理へ、また、マッ
チングできたものは、前記図11に示したヘッダー部のシ
ャドウイング連続回数を「0」に設定して、追跡データ
更新処理へ、また、属性データでマッチングできなかっ
た場合は新規追跡データ追加処理に進む。
(B) Matching process, that is, this matching process is to match all of the prediction data obtained from the tracking data with all of the attribute data, and the matching method in this case is within a certain speed range. If they match, the difference (distance) between the positions is divided by either (first tracking data and second attribute data) measurement points, and the value is stored. Then, the matching processing is performed by operating the savings data so that the savings data becomes smaller and has a one-to-one correspondence. Then, if the prediction data obtained from the tracking data that cannot be matched is set to the shadowing process, and if the matching data is able to be matched, the continuous shadowing count of the header shown in FIG. 11 is set to "0". Then, the process proceeds to the tracking data update process, or to the new tracking data addition process if the attribute data cannot be matched.

【0022】(c)シャドウイング処理 シャドウイングとは追跡データから得られた予測データ
とマッチングしなかったのは、図7の車両5のように計
測物体が計測範囲外に出たか、物陰(シャドウイング)
により邪魔されて計測できなかった状況をあらわしてい
る。そこで、このようなシャドウイング時でも当然車両
などは走行しているため、ある時間が経過すれば、再び
ミリ波レーダ1を使用して計測することができるもので
あるから、この場合には図11に示すヘッダー部のシャド
ウイング連続回数・シャドウイング総回数を「1」にす
る処理を行う。
(C) Shadowing processing Shadowing does not match the prediction data obtained from the tracking data because the measured object is out of the measurement range like the vehicle 5 in FIG. Ing)
It shows the situation that was disturbed by and could not be measured. Therefore, since the vehicle and the like are naturally traveling even during such shadowing, the millimeter wave radar 1 can be used again for measurement after a certain time elapses. The processing for setting the number of consecutive shadowing times / total number of shadowing times of the header portion shown in 11 to "1" is performed.

【0023】(d)追跡継続判断処理 シャドウイング連続回数を、あるしきい値で判断する。
そして、このシャドウイング連続回数がそのしきい値以
下であれば、シャドウイングされていると判断し、追跡
データ更新処理に進む。一方、シャドウイング連続回数
がそのしきい値以上の場合は、ある時間が経過しても計
測することができないことであり、計測範囲外に出たか
(図7の車両5)、又は、この追跡データがノイズであ
ったと判断し、次の登録抹消処理(g)に進む。
(D) Tracking continuation judgment processing The number of continuous shadowing is judged by a certain threshold value.
Then, if the number of continuous shadowing is less than or equal to the threshold value, it is determined that the shadowing is performed, and the tracking data updating process is performed. On the other hand, if the number of consecutive shadowing is equal to or more than the threshold value, it means that the measurement cannot be performed even after a certain time has passed, and whether the vehicle is out of the measurement range (vehicle 5 in FIG. 7) or this tracking is performed. It is determined that the data is noise, and the process proceeds to the next registration deletion process (g).

【0024】(e)追跡データ更新処理 マッチング処理によりマッチングしたものは、図11に示
すデータ部(配列)の位置・速度・計測点数に属性デー
タの値を代入し、時間はデータを受け取った時のタイマ
ーの値等を代入する。また、ヘッダー部の追跡状況に追
跡状態を示す値を代入し、追跡回数を「1」にする。そ
して、例えばシャドウイングと判断された場合は、前記
データ部の位置・速度に予測データを代入し、計測点数
には一つ前の計測数を代入し、時間はデータを受け取っ
た時のタイマーの値などを代入する。また、図11に示す
ヘッダー部の追跡状況にシャドウイング状態を示す値を
代入し、追跡回数・シャドウイング連続回数・シャドウ
イング総回数をインクリメントにする。
(E) Tracking data update processing When the matching is performed by the matching processing, the value of the attribute data is substituted for the position / speed / measurement points of the data section (array) shown in FIG. 11, and the time is when the data is received. Substitute the value of the timer of. Also, a value indicating the tracking state is substituted into the tracking status of the header section to set the tracking count to "1". If, for example, shadowing is determined, the predicted data is substituted for the position / velocity of the data section, the previous number of measurements is substituted for the number of measurement points, and the time is the time of the timer when the data is received. Substitute the value etc. Further, a value indicating the shadowing state is substituted for the tracking status of the header portion shown in FIG. 11, and the tracking count, the continuous shadowing count, and the total shadowing count are incremented.

【0025】(f)新規追跡データ追加処理 属性データの計測点数を、あるしきい値で判断し、しき
い値以下であればノイズと判断し、しきい値以上であれ
ば車両などが新たに出現したものと判断し、図11に示す
データ部の位置・速度に属性データを代入する。また追
跡状況に追跡状態を示す値を代入し、追跡回数を「1」
にする。
(F) New Tracking Data Addition Process The number of measurement points of the attribute data is judged by a certain threshold value. If it is less than the threshold value, it is judged as noise. It is judged that it has appeared, and the attribute data is substituted for the position / velocity of the data part shown in FIG. Also, the value indicating the tracking status is substituted into the tracking status, and the tracking count is set to "1".
To

【0026】(g)登録抹消処理 この登録抹消処理とは、図11に示すデータ部を初期化す
ることである。また、この登録抹消処理ではヘッダー部
の追跡状況に未使用状態を示す値を代入し、追跡回数な
どを初期化することが行われる。
(G) Registration Deletion Processing This registration deletion processing is initialization of the data section shown in FIG. Further, in this registration deletion processing, a value indicating an unused state is substituted for the tracking status of the header part to initialize the tracking count and the like.

【0027】(h)フィルタ処理 追跡データには、観測ノイズが含まれているので、フィ
ルタリングを行う。フィルタリング方法には、移動平均
法、カルマンフィルタ法などを使用する。尚、カルマン
フィルタのモデルや手法は、マッチング処理の予測の場
合と同様である。このフィルタ処理により観測ノイズが
有効に除去されるため、得られる位置、速度の精度を向
上させることができる。
(H) Filtering Since the tracking data includes observation noise, filtering is performed. The moving average method, the Kalman filter method, or the like is used as the filtering method. The Kalman filter model and method are the same as those in the case of the matching process prediction. Since the observation noise is effectively removed by this filter processing, the accuracy of the obtained position and speed can be improved.

【0028】(i)追跡データ出力処理 以上のような各処理による処理結果を他の関数に渡す出
力処理である。
(I) Tracking data output process This is an output process of passing the processing result of each processing described above to another function.

【0029】(j)低速・停止車両認識 この低速・停止車両認識における処理工程は、図15,図
16にその概略が示されている。このうち、図15は危険と
認識される低速・停止車両情報のみを上位などに伝える
場合のフローチャートであり、図16は全ての車両情報を
伝える場合のフローチャートである。その手順として
は、追跡データ入力、速度による低速・停止車両認識、
正味出現回数算出処理、出現回数のしきい値処理、計測
点数のしきい値処理、データ出力からなっている。ここ
で、正味出現回数算出処理においてはシャドウイングに
よる処理で正味データが得られるものである。
(J) Low speed / stopped vehicle recognition The processing steps in this low speed / stopped vehicle recognition are shown in FIGS.
Its outline is shown in 16. Of these, FIG. 15 is a flowchart in the case of transmitting only low speed / stopped vehicle information recognized as dangerous to a higher rank, and FIG. 16 is a flowchart in the case of transmitting all vehicle information. The procedure is as follows: Tracking data input, low speed / stopped vehicle recognition by speed,
It consists of a net appearance frequency calculation process, an appearance frequency threshold process, a measurement point threshold process, and data output. Here, in the net appearance number calculation process, net data is obtained by a process by shadowing.

【0030】すなわち、追跡データの速度と、過去の速
度とが、低速・停止と認識できるしきい値(例えば、5
Km/h)であるならば、図11の追跡データ構造におけるヘ
ッダー部の認識結果に低速・停止状況を表すものを代入
する。次いで、位置・速度の関数であるしきい値で、出
現回数と計測点数とをしきい値処理し、これを満たすも
の(計測点数>Th2(x,y,VX,VY))をデータ出力に
より出力する。このため、ここでの計測点数のしきい値
処理ではノイズの削減(ノイズ落とし)が行われるもの
となる。
That is, the speed of the tracking data and the past speed are threshold values at which it can be recognized as low speed / stop (for example, 5).
If it is Km / h), the one indicating the low speed / stop condition is substituted into the recognition result of the header part in the tracking data structure of FIG. Next, the number of appearances and the number of measurement points are thresholded with a threshold value that is a function of position / velocity, and data satisfying these values (measurement point> Th2 (x, y, V X , V Y )) are data. Output by output. Therefore, noise reduction (noise reduction) is performed in the threshold processing of the number of measurement points here.

【0031】(k)外部出力 この外部出力処理はLAN(図2参照)などの外部イン
ターフェースからデータを出力する処理である。
(K) External Output This external output processing is processing for outputting data from an external interface such as a LAN (see FIG. 2).

【0032】(l)背景更新処理 この背景更新処理については、図17、図18にその概略が
示されている。この処理方法については従来例である前
記「特開2000−172980号公報」に記載されているものと
同一である。尚、ここでの背景更新処理は設定により、
ある間隔をもって更新されるものであり、ミリ波レーダ
による走行毎にその都度行われるとは限らない。
(L) Background update processing This background update processing is outlined in FIGS. 17 and 18. This processing method is the same as that described in the above-mentioned "JP-A-2000-172980" which is a conventional example. In addition, the background update process here is set by
It is updated at a certain interval, and is not necessarily performed each time the millimeter-wave radar travels.

【0033】[0033]

【発明の効果】この発明は、前記のようであって道路に
設置したミリ波レーダを使用し、走査毎に車両を追跡す
るときには第1回目以前の走査により得られた追跡デー
タを用いて位置・速度を予測し、これにより得られた
置・速度データと次の第2回目の走査により得られた位
置・速度データとをセグメンテーション処理、属性生成
処理し、その結果得られたそれぞれのセグメントの位置
速度データとの距離を第1回目の計測点数と第2回目
の計測点数で割った値で第2回目のそれぞれの候補と比
較して小さいほうを選択するマッチング処理を行うの
、全天候下において、追跡データにより、低速で走行
する車両或は停止車両の追跡検出及び認識を確実に行う
ことができるうえ、出合頭や見通不良の交差点などでの
追突を防止することができる効果も期待できるなど優れ
た効果がある。
As described above, the present invention can be applied to roads.
Using the installation the millimeter-wave radar, predicts the position and speed by using the tracking data obtained by the first previous scan when the tracking vehicle for each scanning, thereby resulting position
Segmentation process and the position and speed data obtained by the second scanning of the location and speed data and the next, and attribute generation process, the position of each segment resulting
A matching process is performed in which the distance from the speed data is divided by the first measurement point and the second measurement point and compared with each second candidate, and the smaller one is selected .
Thus , under all weather conditions, tracking data can be used to reliably detect and recognize a vehicle running at a low speed or a stopped vehicle, and it is possible to prevent a rear-end collision at a meeting point or an intersection with poor visibility. It has excellent effects such as expected effects.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係るミリ波レーダが適用された状態を
示す想定図である。
FIG. 1 is an assumed view showing a state in which a millimeter wave radar according to the present invention is applied.

【図2】同ミリ波レーダの装置全体構成を示す概略図で
ある。
FIG. 2 is a schematic diagram showing the overall configuration of the millimeter-wave radar device.

【図3】本発明の構成手順を示すフローチャートである
(その1)。
FIG. 3 is a flowchart showing a configuration procedure of the present invention (No. 1).

【図4】本同発明の構成手順を示すフローチャートであ
る(その2)。
FIG. 4 is a flowchart showing a configuration procedure of the present invention (No. 2).

【図5】本発明に係るミリ波レーダによる走行車両検出
方法を説明する模試図である。
FIG. 5 is a schematic diagram illustrating a traveling vehicle detection method by the millimeter wave radar according to the present invention.

【図6】同ミリ波レーダによる走行車両検出方法を説明
するための模試図である(N−1)。
FIG. 6 is a schematic diagram for explaining a traveling vehicle detection method by the millimeter wave radar (N-1).

【図7】同ミリ波レーダによる走行車両検出方法を説明
するための模試図である(N)。
FIG. 7 is a schematic diagram for explaining a traveling vehicle detection method by the millimeter wave radar (N).

【図8】同計測データの一例を示す概念図である。FIG. 8 is a conceptual diagram showing an example of the measurement data.

【図9】同セグメンテーションの概念図である。FIG. 9 is a conceptual diagram of the same segmentation.

【図10】同属性生成時における属性データ構造の概念図
である。
FIG. 10 is a conceptual diagram of an attribute data structure when the same attribute is generated.

【図11】同追跡データの構造図である。FIG. 11 is a structural diagram of the tracking data.

【図12】同ミリ波レーダによる計測結果の一例を示す概
念図である。
FIG. 12 is a conceptual diagram showing an example of a measurement result by the millimeter wave radar.

【図13】同追跡処理の詳細フローチャートである。FIG. 13 is a detailed flowchart of the tracking process.

【図14】同追跡による予測の概念図である。FIG. 14 is a conceptual diagram of prediction by the tracking.

【図15】同停止・低速車両認識のフローチャートである
(その1)。
FIG. 15 is a flowchart for recognizing the stopped / low-speed vehicle (part 1).

【図16】同停止・低速車両認識のフローチャートである
(その2)。
FIG. 16 is a flowchart of the same stop / low-speed vehicle recognition (part 2).

【図17】同背景データ生成処理の概念図である。FIG. 17 is a conceptual diagram of the background data generation process.

【図18】同背景データ更新部の詳細図である。FIG. 18 is a detailed diagram of the background data updating unit.

【符号の説明】[Explanation of symbols]

1 ミリ波レーダ 2 ミリ波センサ 3 車両検出用コンピュータ 4 上位コンピュータ 5,6,7 車両 8 ガードレール 9 障害物 1 Millimeter wave radar 2 millimeter wave sensor 3 Vehicle detection computer 4 Upper computer 5,6,7 vehicle 8 guardrails 9 obstacles

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G08G 1/00 - 1/16 G01S 13/34 G01S 13/91 ─────────────────────────────────────────────────── ─── Continuation of the front page (58) Fields surveyed (Int.Cl. 7 , DB name) G08G 1/00-1/16 G01S 13/34 G01S 13/91

Claims (5)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 道路に設置したミリ波レーダを使用し、
走査毎に車両を追跡するときには第1回目以前の走査に
より得られた追跡データを用いて位置・速度を予測し、
これにより得られた位置・速度データと次の第2回目の
走査により得られた位置・速度データをセグメンテー
ション処理、属性生成処理し、その結果得られたそれぞ
れのセグメントの位置・速度データとの距離を第1回目
の計測点数と第2回目の計測点数で割った値で第2回目
のそれぞれの候補と比較して小さいほうを選択するマッ
チング処理を行うことを特徴とするミリ波レーダによる
走行車両検出方法。
1. A millimeter-wave radar installed on a road is used,
When tracking the vehicle for each scan, the position and speed are predicted using the tracking data obtained from the scans before the first scan,
Thus resulting position and velocity data and segmentation processes the resulting position and velocity data for the following second time scanning, and attribute generation process, and the resulting position and velocity data of each segment Traveling with a millimeter-wave radar characterized by performing a matching process of selecting a smaller one by comparing a distance with each of the candidates of the second time by a value obtained by dividing the distance by the number of measurement points of the first time and the number of measurement points of the second time. Vehicle detection method.
【請求項2】 マッチング処理に際しては、同じセグメ
ントに属する計測点数と第2回目の走査により得られた
追跡データに重点を置いて行う請求項1に記載のミリ波
レーダによる走行車両検出方法。
2. The traveling vehicle detection method by the millimeter wave radar according to claim 1, wherein the matching process is performed by focusing on the number of measurement points belonging to the same segment and the tracking data obtained by the second scanning.
【請求項3】 第1回目の走査により得られた追跡デー
タと第2回目の走査により得られた追跡データにマッチ
ングするものがないとき、第2回目の走査により得られ
た計測点数が少ないセグメントはノイズと判断し、計測
点数が多いセグメントは新たに追跡データに付け加える
請求項1に記載のミリ波レーダによる走行車両検出方
法。
3. A segment having a small number of measurement points obtained by the second scan when there is no match between the trace data obtained by the first scan and the trace data obtained by the second scan. Is judged as noise, and a segment with many measurement points is newly added to the tracking data.
A traveling vehicle detection method using the millimeter wave radar according to claim 1 .
【請求項4】 ミリ波レーダにより観測不能なシャドウ
イングの影響などにより、第1回目の走査により得られ
た追跡データにマッチングするものがないとき、追跡デ
ータに予測した位置・速度データとシャドウイングした
回数を蓄え、且つその追跡データを保持する請求項1に
記載のミリ波レーダによる走行車両検出方法。
4. When there is no match with the tracking data obtained by the first scanning due to the effect of shadowing that cannot be observed by the millimeter wave radar, etc., the position / velocity data and shadowing predicted in the tracking data are obtained. the number of times stored, and to claim 1 for holding the tracking data
A traveling vehicle detection method using the described millimeter wave radar.
【請求項5】 シャドウイングなどにより生じる追跡デ
ータの観測ノイズは、車両の走行方向、車幅方向に分離
処理し、次いでフィルタリングする請求項に記載のミ
リ波レーダによる走行車両検出方法。
5. The method for detecting a traveling vehicle by a millimeter wave radar according to claim 4 , wherein the observation noise of the tracking data caused by shadowing or the like is separated in the traveling direction and the vehicle width direction of the vehicle and then filtered.
JP2000287944A 2000-09-22 2000-09-22 Running vehicle detection method using millimeter wave radar Expired - Lifetime JP3520326B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000287944A JP3520326B2 (en) 2000-09-22 2000-09-22 Running vehicle detection method using millimeter wave radar

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000287944A JP3520326B2 (en) 2000-09-22 2000-09-22 Running vehicle detection method using millimeter wave radar

Publications (2)

Publication Number Publication Date
JP2002099986A JP2002099986A (en) 2002-04-05
JP3520326B2 true JP3520326B2 (en) 2004-04-19

Family

ID=18771609

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000287944A Expired - Lifetime JP3520326B2 (en) 2000-09-22 2000-09-22 Running vehicle detection method using millimeter wave radar

Country Status (1)

Country Link
JP (1) JP3520326B2 (en)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4107882B2 (en) * 2002-06-04 2008-06-25 富士通テン株式会社 Data storage method for radar apparatus, radar apparatus and program therefor
JP2009042181A (en) 2007-08-10 2009-02-26 Denso Corp Estimating apparatus
JP4650508B2 (en) 2008-03-21 2011-03-16 株式会社デンソー Recognition system
JP4569652B2 (en) 2008-03-21 2010-10-27 株式会社デンソー Recognition system
JP2010044496A (en) * 2008-08-11 2010-02-25 Ihi Corp Method and device for detecting vehicle
JP2012008021A (en) * 2010-06-25 2012-01-12 Japan Weather Association Monitoring device, method and program, and monitoring system
JP5821419B2 (en) * 2011-08-30 2015-11-24 富士通株式会社 Moving object detection apparatus, moving object detection method, and computer program for moving object detection
KR101620239B1 (en) * 2011-09-16 2016-05-12 후지쯔 가부시끼가이샤 Driving lane evaluation apparatus, driving lane evaluation method, and computer-readable storage medium recording driving lane evaluation computer program
WO2013080570A1 (en) * 2011-12-02 2013-06-06 パナソニック株式会社 Radar device
JP2013174568A (en) 2012-02-27 2013-09-05 Fujitsu Ltd Moving body tracking device, moving body tracking method, and program
JP6024229B2 (en) * 2012-06-14 2016-11-09 富士通株式会社 Monitoring device, monitoring method, and program
CN103985255B (en) * 2014-06-10 2016-08-24 北京易华录信息技术股份有限公司 Radar tracking technology is utilized precisely to judge the system and method for runway exception parking
CN104008649B (en) * 2014-06-17 2016-07-27 北京易华录信息技术股份有限公司 Radar tracking is utilized quickly to find the system and method for runway exception parking reason
JP6452596B2 (en) * 2015-11-30 2019-01-16 古河電気工業株式会社 Radar device and radar device detection method
JP6771178B2 (en) * 2016-05-13 2020-10-21 パナソニックIpマネジメント株式会社 Radio wave sensor and equipment equipped with radio wave sensor
JP7047486B2 (en) * 2018-03-12 2022-04-05 オムロン株式会社 Vehicle counting device, vehicle counting method, and vehicle counting program
DE102019111679A1 (en) * 2019-05-06 2020-11-12 S.M.S Smart Microwave Sensors Gmbh Procedure for recording road users
CN111679259B (en) * 2020-06-18 2023-07-14 成都纳雷科技有限公司 Method and system for improving millimeter wave radar moving target detection signal to noise ratio
JP7440367B2 (en) * 2020-07-31 2024-02-28 株式会社日立製作所 External world recognition system and external world recognition method
CN112034445B (en) * 2020-08-17 2022-04-12 东南大学 Vehicle motion trail tracking method and system based on millimeter wave radar
JP2023156543A (en) * 2020-09-11 2023-10-25 住友電気工業株式会社 Detection processor and method for detection

Also Published As

Publication number Publication date
JP2002099986A (en) 2002-04-05

Similar Documents

Publication Publication Date Title
JP3520326B2 (en) Running vehicle detection method using millimeter wave radar
US11353553B2 (en) Multisensor data fusion method and apparatus to obtain static and dynamic environment features
JP6571545B2 (en) Object detection apparatus and object detection method
CN109634282A (en) Automatic driving vehicle, method and apparatus
US10132919B2 (en) Object detecting device, radar device, and object detection method
CN111252066A (en) Emergency braking control method and device, vehicle and storage medium
JPH07318652A (en) Obstacle recognition unit for vehicle
CN112562314A (en) Road end sensing method and device based on deep fusion, road end equipment and system
JP2007257536A (en) Road traffic monitoring device by means of millimeter-wave radar
EP3806062A1 (en) Detection device and detection system
JP6557923B2 (en) On-vehicle radar device and area detection method
CN113721262B (en) Bridge anti-collision early warning method for detecting ship course and height based on laser radar
CN112764034B (en) Method for identifying obstacle at low speed by vehicle-mounted BSD millimeter wave radar
CN111332288A (en) Vehicle and pedestrian collision avoidance method based on vision system
US20220035022A1 (en) Process for monitoring vehicles by a plurality of sensors
CN114093165A (en) Roadside laser radar-based vehicle-pedestrian conflict automatic identification method
Yang et al. On-road collision warning based on multiple FOE segmentation using a dashboard camera
Cao et al. Lane determination of vehicles based on a novel clustering algorithm for intelligent traffic monitoring
CN113625232B (en) Method, device, medium and equipment for restraining multipath false target in radar detection
KR102206223B1 (en) Method for processing data, apparatus thereof and vehicle control system
CN106405539B (en) Vehicle radar system and method for removing a non-interesting object
KR101878427B1 (en) Traffic radar device, traffic management server, traffic management system, and method of tracking object move traces
Argüello et al. Radar classification for traffic intersection surveillance based on micro-Doppler signatures
Li et al. Composition and application of current advanced driving assistance system: A review
JP3954053B2 (en) Vehicle periphery monitoring device

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
R150 Certificate of patent or registration of utility model

Ref document number: 3520326

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

EXPY Cancellation because of completion of term