JP2021060245A - Traveling direction estimation device and object tracking device - Google Patents
Traveling direction estimation device and object tracking device Download PDFInfo
- Publication number
- JP2021060245A JP2021060245A JP2019183839A JP2019183839A JP2021060245A JP 2021060245 A JP2021060245 A JP 2021060245A JP 2019183839 A JP2019183839 A JP 2019183839A JP 2019183839 A JP2019183839 A JP 2019183839A JP 2021060245 A JP2021060245 A JP 2021060245A
- Authority
- JP
- Japan
- Prior art keywords
- traveling direction
- shape
- traveling
- unit
- direction estimation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004364 calculation method Methods 0.000 claims abstract description 44
- 238000001514 detection method Methods 0.000 claims abstract description 25
- 238000000034 method Methods 0.000 claims description 48
- 230000002194 synthesizing effect Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 description 9
- 238000001914 filtration Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Landscapes
- Radar Systems Or Details Thereof (AREA)
Abstract
Description
本開示は進行方向推定装置及び物体追跡装置に関する。 The present disclosure relates to a traveling direction estimation device and an object tracking device.
特許文献1に物体追跡装置が開示されている。物体追跡装置は車両に搭載される。物体追跡装置は、車載レーダを用いて物体を検出する処理サイクルを繰り返す。物体追跡装置は、N回目の処理サイクルで検出した物体の位置や速度から、(N+1)回目の処理サイクルで検出される、同じ物体の位置(以下では予測位置とする)を予測する。Nは自然数である。物体追跡装置は、予測位置を中心とする接続範囲を設定する。(N+1)回目の処理サイクルで検出した物体が接続範囲内にある場合、物体追跡装置は、(N+1)回目の処理サイクルで検出した物体が、N回目の処理サイクルで検出された物体であると判断する。 Patent Document 1 discloses an object tracking device. The object tracking device is mounted on the vehicle. The object tracking device repeats a processing cycle of detecting an object using an in-vehicle radar. The object tracking device predicts the position of the same object (hereinafter referred to as the predicted position) detected in the (N + 1) th processing cycle from the position and speed of the object detected in the Nth processing cycle. N is a natural number. The object tracking device sets a connection range centered on the predicted position. When the object detected in the (N + 1) th processing cycle is within the connection range, the object tracking device determines that the object detected in the (N + 1) th processing cycle is the object detected in the Nth processing cycle. to decide.
予測位置を予測するためには、N回目の処理サイクルで検出した物体の速度を推定することが必要になる。物体の速度を推定するためには、物体の進行方向を推定することが必要になる。従来は、物体の進行方向を、自車の進行方向と同じであると想定していた。 In order to predict the predicted position, it is necessary to estimate the velocity of the object detected in the Nth processing cycle. In order to estimate the velocity of an object, it is necessary to estimate the traveling direction of the object. Conventionally, it has been assumed that the traveling direction of an object is the same as the traveling direction of the own vehicle.
しかしながら、例えば、物体が先行車であり、その先行車がカーブ路を走行している場合、先行車の進行方向は、自車の進行方向とは大きく異なる。そのため、先行車の進行方向が自車の進行方向と同じであると想定すると、先行車の進行方向を正確に推定できない。また、先行車の進行方向を正確に推定できないと、先行車を追跡することが困難になる。 However, for example, when the object is a preceding vehicle and the preceding vehicle is traveling on a curved road, the traveling direction of the preceding vehicle is significantly different from the traveling direction of the own vehicle. Therefore, assuming that the traveling direction of the preceding vehicle is the same as the traveling direction of the own vehicle, the traveling direction of the preceding vehicle cannot be accurately estimated. Further, if the traveling direction of the preceding vehicle cannot be estimated accurately, it becomes difficult to track the preceding vehicle.
本開示の1つの局面は、物体の進行方向を正確に推定できる進行方向推定装置及び追跡装置を提供することを目的とする。 One aspect of the present disclosure is to provide a traveling direction estimation device and a tracking device capable of accurately estimating the traveling direction of an object.
本開示の1つの局面は、移動体に搭載されたセンサを用いて、前記移動体の周辺に存在する物体を検出するように構成された物体検出ユニットと、前記物体検出ユニットにより検出された前記物体の位置を算出するように構成された位置算出ユニットと、前記物体検出ユニットにより検出された前記物体が存在する走行路の形状を推定するように構成された形状推定ユニットと、前記形状推定ユニットが推定した前記走行路の形状と、前記位置算出ユニットが算出した前記物体の位置とに基づき、前記物体の位置における前記走行路の接線方向を算出するように構成された接線方向算出ユニットと、前記接線方向算出ユニットが算出した前記接線方向に基づき、前記物体検出ユニットにより検出された前記物体の進行方向を推定するように構成された進行方向推定ユニットと、を備える進行方向推定装置である。 One aspect of the present disclosure is an object detection unit configured to detect an object existing around the moving body using a sensor mounted on the moving body, and the object detection unit detected by the object detection unit. A position calculation unit configured to calculate the position of an object, a shape estimation unit configured to estimate the shape of a traveling path on which the object exists detected by the object detection unit, and the shape estimation unit. A tangential direction calculation unit configured to calculate the tangential direction of the travel path at the position of the object based on the shape of the travel path estimated by the above and the position of the object calculated by the position calculation unit. It is a traveling direction estimation device including a traveling direction estimation unit configured to estimate the traveling direction of the object detected by the object detecting unit based on the tangential direction calculated by the tangent direction calculating unit.
本開示の1つの局面である進行方向推定装置は、物体の位置における走行路の接線方向に基づき、物体の進行方向を推定する。物体の位置における走行路の接線方向は、物体の進行方向に近い可能性が高い。そのため、本開示の1つの局面である進行方向推定装置は、物体の進行方向を正確に推定できる。 The traveling direction estimation device, which is one aspect of the present disclosure, estimates the traveling direction of an object based on the tangential direction of the traveling path at the position of the object. The tangential direction of the travel path at the position of the object is likely to be close to the traveling direction of the object. Therefore, the traveling direction estimation device, which is one aspect of the present disclosure, can accurately estimate the traveling direction of the object.
本開示の例示的な実施形態について図面を参照しながら説明する。
<第1実施形態>
1.物体追跡装置1の構成
物体追跡装置1の構成を、図1〜図4に基づき説明する。図1に示すように、物体追跡装置1は車両3に搭載される。車両3は移動体に対応する。物体追跡装置1は、CPU5と、例えば、RAM又はROM等の半導体メモリ(以下、メモリ7とする)と、を有するマイクロコンピュータを備える。
An exemplary embodiment of the present disclosure will be described with reference to the drawings.
<First Embodiment>
1. 1. Configuration of Object Tracking Device 1 The configuration of the object tracking device 1 will be described with reference to FIGS. 1 to 4. As shown in FIG. 1, the object tracking device 1 is mounted on the
物体追跡装置1の各機能は、CPU5が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ7が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、物体追跡装置1は、1つのマイクロコンピュータを備えてもよいし、複数のマイクロコンピュータを備えてもよい。 Each function of the object tracking device 1 is realized by the CPU 5 executing a program stored in a non-transitional substantive recording medium. In this example, the memory 7 corresponds to a non-transitional substantive recording medium in which a program is stored. Moreover, when this program is executed, the method corresponding to the program is executed. The object tracking device 1 may include one microcomputer or a plurality of microcomputers.
物体追跡装置1は、図2に示すように、物体検出ユニット9と、位置算出ユニット11と、形状推定ユニット13と、接線方向算出ユニット15と、進行方向推定ユニット17と、移動体進行方向算出ユニット19と、信頼度算出ユニット21と、ヨーレート算出ユニット23と、対地速度推定ユニット25と、追跡ユニット27と、を備える。物体追跡装置1のうち、追跡ユニット27を除く部分は、進行方向推定装置29である。
As shown in FIG. 2, the object tracking device 1 includes an
図1に示すように、物体追跡装置1は、ミリ波レーダ装置31と、カメラ33と、情報記憶部35と、センサ群37と、接続している。
ミリ波レーダ装置31は、車両3の周辺に存在する物体を検出する。ミリ波レーダ装置31は、検出結果を物体追跡装置1に送る。例えば、図3に示すように、1つのミリ波レーダ装置31が、車両3の前端における中央に取り付けられている。ミリ波レーダ装置31は、車両3の前方に物体検出領域39を有する。物体検出領域39とは、物体を検出可能な領域である。
As shown in FIG. 1, the object tracking device 1 is connected to a millimeter-
The millimeter
また、例えば、図4に示すように、車両3の四隅、及び前端における中央に、それぞれミリ波レーダ装置31が取り付けられている。5つのミリ波レーダ装置31は、それぞれ、物体検出領域39を有する。ミリ波レーダ装置31は、移動体に搭載されたセンサに対応する。
Further, for example, as shown in FIG. 4, millimeter-
カメラ33は車両3の周辺を撮影し、画像を生成する。カメラ33は、生成した画像を物体追跡装置1に送る。情報記憶部35は地図情報を記憶している。地図情報は、走行路の位置、形状等を含む情報である。センサ群37は、車両3に関する情報を検出するセンサを含む。センサ群37は、例えば、車速センサ、操舵角センサ等を含む。
The
2.物体追跡装置1が実行する処理
物体追跡装置1が実行する処理を、図5〜図10に基づき説明する。物体追跡装置1は、図5に示す処理を所定時間ごとに繰り返し実行する。図5に示す処理を1回実行することは、1回の処理サイクルである。
2. Processing executed by the object tracking device 1 The processing executed by the object tracking device 1 will be described with reference to FIGS. 5 to 10. The object tracking device 1 repeatedly executes the process shown in FIG. 5 at predetermined time intervals. Executing the process shown in FIG. 5 once is one process cycle.
図5のステップ1では、物体検出ユニット9が、ミリ波レーダ装置31を用いて、車両3の周辺に存在する物体を検出する処理を行う。その結果、物体検出ユニット9は観測情報を取得する。観測情報は、物体の位置、物体の速度等を表す情報である。検出された1つの物体ごとに1つの観測情報が存在する。
In step 1 of FIG. 5, the
物体追跡装置1は、前回の処理サイクルまで追跡してきた物体に関する物体情報をメモリ7に登録している。物体情報とは、追跡している物体の位置、物体の速度、物体の進行方向、物体のヨーレート等を表す情報である。1つの物体ごとに1つの物体情報が存在する。物体追跡装置1は、前回の処理サイクルで登録された物体情報のそれぞれについて、後述するステップ2〜6の処理を行う。 The object tracking device 1 registers the object information related to the object tracked up to the previous processing cycle in the memory 7. The object information is information indicating the position of the tracked object, the velocity of the object, the traveling direction of the object, the yaw rate of the object, and the like. There is one object information for each object. The object tracking device 1 performs the processes of steps 2 to 6 described later for each of the object information registered in the previous processing cycle.
ステップ2では、前回の処理サイクルで登録された物体情報のうち、今回の処理サイクルでステップ3〜6の処理を未だ行っていない物体情報(以下では未処理の物体情報とする)が存在するか否かを追跡ユニット27が判断する。未処理の物体情報が存在する場合、本処理はステップ3に進む。未処理の物体情報が存在しない場合、本処理はステップ7に進む。
In step 2, among the object information registered in the previous processing cycle, is there any object information (hereinafter referred to as unprocessed object information) that has not yet been processed in
ステップ3では、追跡ユニット27が、未処理の物体情報のうち、1つの物体情報を選択する。選択した物体情報を、以下では処理中の物体情報とする。追跡ユニット27は、処理中の物体情報について、現時点における予測情報を算出する。予測情報は、現時点における物体の位置の予測値、現時点における物体の速度の予測値等を含む情報である。
In
追跡ユニット27は、現時点における物体の位置の予測値を以下のように推測する。処理中の物体情報は、物体の位置、物体の速度、及び物体の進行方向を表す。追跡ユニット27は、処理中の物体情報に基づき、物体の進行方向における速度(以下では進行方向速度とする)を算出する。追跡ユニット27は、処理中の物体情報における物体の位置から、物体の進行方向に、進行方向速度で、サイクル周期の時間だけ進んだ位置を、現時点における物体の位置の予測値とする。サイクル周期とは、処理サイクルの周期である。また、追跡ユニット27は、現時点における物体の速度の予測値を、処理中の物体情報に基づき推測する。
The
ステップ4では、追跡ユニット27が、前記ステップ3で算出した予測情報と、前記ステップ1で取得した観測情報のそれぞれとを対比する。追跡ユニット27は、観測情報のうち、予測情報を中心とする接続範囲内にあるものを、処理中の物体情報と関連付ける。接続範囲は、例えば、物体の位置に関する範囲であってもよいし、物体の位置及び速度に関する範囲であってもよい。関連付けられた観測情報を、以下では関連観測情報とする。
In step 4, the
ステップ5では、位置算出ユニット11が、以下のようにしてフィルタ処理を行う。位置算出ユニット11は、関連観測情報に含まれる物体の位置と、予測情報に含まれる物体の位置の予測値とを、それぞれに所定の重みを付けた上で合成し、フィルタ処理後の物体の位置を算出する。また、位置算出ユニット11は、関連観測情報に含まれる物体の速度と、予測情報に含まれる物体の速度の予測値とを、それぞれに所定の重みを付けた上で合成し、フィルタ処理後の物体の速度を算出する。
In step 5, the
位置算出ユニット11は、処理中物体情報により表される物体について、物体情報を新たに登録する。新たに登録された物体情報(以下では最新の処理中物体情報とする)は、フィルタ処理後の物体の位置と、フィルタ処理後の物体の速度とを含む。なお、前記ステップ4において処理中の物体情報と観測情報とを関連付け、ステップ5において最新の処理中物体情報を新たに登録することは、処理中の物体情報により表される物体を追跡することに対応する。
The
ステップ6は進行方向算出処理である。この処理を図6に基づき説明する。図6のステップ11では、経過サイクルが所定値以下であるか否かを追跡ユニット27が判断する。経過サイクルとは、処理中物体情報により表される物体が、現時点まで追跡されている処理サイクルの数である。
Step 6 is a traveling direction calculation process. This process will be described with reference to FIG. In
経過サイクルが所定値以下である場合、本処理はステップ12に進む。経過サイクルが所定値を超える場合、本処理はステップ19に進む。
ステップ12では、移動体進行方向算出ユニット19が、センサ群37を用いて、車両3の進行方向を算出する。
If the elapsed cycle is less than or equal to a predetermined value, this process proceeds to step 12. If the elapsed cycle exceeds a predetermined value, the process proceeds to step 19.
In step 12, the moving body traveling
ステップ13では、対地速度推定ユニット25が、処理中の物体情報により表される物体の対地速度を算出する。対地速度とは、地面を基準とする速度である。対地速度推定ユニット25は、ミリ波レーダ装置31を用いて、車両3を基準とする物体の相対速度を算出する。また、対地速度推定ユニット25は、センサ群37を用いて、地面に対する車両3の速度を算出する。対地速度推定ユニット25は、車両3を基準とする物体の相対速度と、地面に対する車両3の速度とに基づき、物体の対地速度を算出する。物体の対地速度が所定値以上である場合、本処理はステップ14に進む。物体の対地速度が所定値未満である場合、本処理はステップ18に進む。
In
ステップ14は走行路の形状推定処理である。この処理を図7に基づき説明する。図7のステップ21では、形状推定ユニット13が、車両3の走行軌跡の曲率を用いて、物体が存在する走行路の形状を推定する。例えば、形状推定ユニット13は、車両3の操舵角を継続的に測定することで、図8に示すように、車両3の走行軌跡41の曲率を算出する。形状推定ユニット13は、物体43と車両3とが同じ走行路45を走行しているとの仮定の下で、物体43の走行路45の曲率は、車両3の走行軌跡41の曲率と等しいと推定する。図8に示す事例では、物体43は先行車である。
Step 14 is a process of estimating the shape of the traveling path. This process will be described with reference to FIG. In
ステップ22では、形状推定ユニット13が、物体が存在する走行路に沿って並ぶ路側物の配列を用いて、走行路の形状を推定する。例えば、形状推定ユニット13は、ミリ波レーダ装置31又はカメラ33を用いて、走行路に沿って並ぶ路側物を認識する。路側物として、例えば、ガードレール、縁石等が挙げられる。形状推定ユニット13は、路側物の配列の形状を認識する。路側物の配列の形状は、一般的に、走行路の形状と一致する。形状推定ユニット13は、路側物の配列の形状を、走行路の形状とする。
In step 22, the
ステップ23では、形状推定ユニット13が、地図情報を用いて、物体が存在する走行路の形状を推定する。例えば、形状推定ユニット13は、ミリ波レーダ装置31又はカメラ33を用いて、車両3を基準とする物体の相対位置を取得する。また、形状推定ユニット13は、車両3の絶対位置を取得する。形状推定ユニット13は、車両3を基準とする物体の相対位置と、車両3の絶対位置とを用いて、物体の絶対位置を取得する。形状推定ユニット13は、物体の絶対位置と地図情報とを照合して、物体が存在する走行路の形状を推定する。
In step 23, the
ステップ24では、形状推定ユニット13が、物体が存在する走行路における走行区画線の形状を用いて、走行路の形状を推定する。例えば、形状推定ユニット13は、カメラ33を用いて、走行路における走行区画線を認識する。走行区画線として、例えば、白線等が挙げられる。走行区画線の形状は、一般的に、走行路の形状と一致する。形状推定ユニット13は、走行区画線の形状を、走行路の形状とする。
In step 24, the
ステップ25では、形状推定ユニット13が、前記ステップ21〜24でそれぞれ推定した走行路の形状を統合して、走行路の形状を最終的に推定する。例えば、形状推定ユニット13は、前記ステップ21〜24でそれぞれ推定した走行路の形状を平均化したものを、最終的な走行路の形状とする。
In
ステップ26では、信頼度算出ユニット21が、前記ステップ25で推定した走行路の形状の信頼度を算出する。信頼度算出ユニット21が信頼度を算出する方法として、例えば、以下の方法(a)〜(c)がある。
In step 26, the
(a)信頼度算出ユニット21は、走行路の形状を表す指標を継続的に取得する。指標として、例えば、曲率、曲率半径等が挙げられる。信頼度算出ユニット21は、指標が所定の範囲外となってからの経過時間が長いほど、信頼度を高く算出する。例えば、指標が曲率である場合、所定の範囲は、予め設定された下限値以上、予め設定された上限値以下の範囲である。
(A) The
(b)信頼度算出ユニット21は、前記(a)と同様に、走行路の形状を表す指標を継続的に取得する。信頼度算出ユニット21は、時間の経過にともなう指標の変化量が大きいほど、信頼度を低く算出する。
(B) The
(c)形状推定ユニット13は、複数の方法で走行路の形状を推定する。複数の方法として、例えば、前記ステップ21〜24の方法がある。信頼度算出ユニット21は、複数の方法でそれぞれ推定された走行路の形状の一致度が高いほど、信頼度を高く算出する。例えば、第1の方法で推定された走行路の形状を第1の推定形状とする。また、第2の方法で推定された、同じ走行路の形状を第2の推定形状とする。第1の推定形状と第2の推定形状との一致度が高いほど、信頼度算出ユニット21は信頼度を高く算出する。
(C) The
図6に戻り、ステップ15では、接線方向算出ユニット15が、物体の位置における走行路の接線方向を算出する。物体の位置とは、最新の処理中物体情報により表される物体の位置である。走行路とは、前記ステップ14において形状を推定した走行路である。接線方向とは、物体の位置における走行路の走行方向である。
Returning to FIG. 6, in
ステップ16では、進行方向推定ユニット17が、前記ステップ15で算出した接線方向に基づき、物体の進行方向を推定する。進行方向推定ユニット17は、例えば、前記ステップ15で算出した接線方向と、前記ステップ12で算出した車両3の進行方向とを、それぞれに所定の重みをつけて合成することで、物体の進行方向を推定する。
In step 16, the traveling
前記ステップ26で推定した信頼度が高いほど、接線方向につける重みが大きくなり、車両3の進行方向につける重みが小さくなる。例えば、信頼度が低い場合は、図9に示すように、物体43の進行方向D1は、接線方向D2よりも、車両3の進行方向D3に近くなる。
The higher the reliability estimated in step 26, the larger the weight given in the tangential direction and the smaller the weight given in the traveling direction of the
信頼度が高い場合は、図10に示すように、物体43の進行方向D1は、車両3の進行方向D3よりも、接線方向D2に近くなる。
進行方向推定ユニット17は、推定した物体の進行方向を、最新の処理中物体情報に追加する。よって、最新の処理中物体情報は、物体の進行方向を含むようになる。
When the reliability is high, as shown in FIG. 10, the traveling direction D1 of the
The traveling
ステップ27では、ヨーレート算出ユニット23が、物体のヨーレートを算出する。物体とは、最新の処理中物体情報により表される物体である。ヨーレート算出ユニット23は、前記ステップ14で推定した走行路の形状と、前記ステップ16で推定した物体の進行方向と、最新の処理中物体情報に含まれる物体の位置及び速度とに基づき、物体のヨーレートを算出する。
In
ヨーレート算出ユニット23は、算出した物体のヨーレートを最新の処理中物体情報に追加する。よって、最新の処理中物体情報は、物体のヨーレートを含むようになる。
ステップ18では、進行方向推定ユニット17が、前記ステップ12で算出した車両3の進行方向が、物体の進行方向であると推定する。進行方向推定ユニット17は、推定した物体の進行方向を、最新の処理中物体情報に追加する。よって、最新の処理中物体情報は、物体の進行方向を含むようになる。
The yaw rate calculation unit 23 adds the calculated yaw rate of the object to the latest processing object information. Therefore, the latest processing object information includes the yaw rate of the object.
In step 18, the traveling
ステップ19では、進行方向推定ユニット17が、フィルタ処理の結果を利用して物体の進行方向を推定する。進行方向推定ユニット17は、推定した物体の進行方向を、最新の処理中物体情報に追加する。よって、最新の処理中物体情報は、物体の進行方向を含むようになる。
In
図5に戻り、ステップ7では、未使用の観測情報が存在するか否かを追跡ユニット27が判断する。未使用の観測情報とは、いずれの物体情報とも関連付けられなかった観測情報である。未使用の観測情報が存在する場合、本処理はステップ8に進む。未使用の観測情報が存在しない場合、今回の処理サイクルを終了する。
Returning to FIG. 5, in step 7, the
ステップ8の処理は、未使用の観測情報により表される物体について、進行方向を算出する処理である。この処理は、前記ステップ6の処理と同様である。
ステップ9では、追跡ユニット27が、新規の物体情報を登録する。新規の物体情報は、未使用の観測情報に前記ステップ8で推定した物体の進行方向を追加した情報である。
The process of step 8 is a process of calculating the traveling direction of an object represented by unused observation information. This process is the same as the process of step 6.
In
3.進行方向推定装置29及び物体追跡装置1が奏する効果
(1A)進行方向推定装置29は、物体の位置における走行路の接線方向に基づき、物体の進行方向を推定する。物体の位置における走行路の接線方向は、物体の進行方向に近い可能性が高い。そのため、進行方向推定装置29は、物体の進行方向を正確に推定できる。
3. 3. Effects of the
(1B)進行方向推定装置29は、車両3の走行軌跡の曲率、走行路に沿って並ぶ路側物の配列、地図情報、及び、走行路における走行区画線の形状を用いて、走行路の形状を推定する。そのため、進行方向推定装置29は、物体の進行方向を一層正確に推定できる。
(1B) The traveling
(1C)進行方向推定装置29は、車両3の進行方向を算出することができる。進行方向推定装置29は、走行路の接線方向と、車両3の進行方向とを、それぞれに所定の重みをつけて合成することで、物体の進行方向を推定する。
(1C) The traveling
そのため、進行方向推定装置29は、仮に、走行路の接線方向の推定結果が不正確である場合でも、走行路の接線方向のみを用いる場合に比べて、物体の進行方向を正確に推定することができる。
(1D)進行方向推定装置29は、走行路の形状の信頼度を算出する。進行方向推定装置29は、信頼度が高いほど、走行路の接線方向につける重みを大きくする。そのため、進行方向推定装置29は、物体の進行方向を一層正確に推定することができる。
Therefore, even if the estimation result of the tangential direction of the traveling path is inaccurate, the traveling
(1D) The traveling
(1E)進行方向推定装置29は、(a)走行路の形状を表す指標が所定の範囲外となってからの経過時間、(b)時間の経過にともなう指標の変化量、及び(c)複数の方法でそれぞれ推定された、走行路の形状の一致度、から成る群から選択される1以上を用いて信頼度を算出する。そのため、進行方向推定装置29は、信頼度を一層正確に算出することができる。
(1E) The traveling
(1F)進行方向推定装置29は、物体の進行方向と、走行路の形状とに基づき、物体のヨーレートを算出することができる。
(1G)進行方向推定装置29は、物体の対地速度を推定する。進行方向推定装置29は、対地速度が予め設定された閾値以上であることを必要条件として、前記ステップ14〜16の処理によって物体の進行方向を推定する。
(1F) The traveling
(1G) The traveling
進行方向推定装置29は、対地速度が小さい物体については、前記ステップ18の処理で物体の進行方向を推定する。そのため、進行方向推定装置29は、処理負担を軽減できる。なお、対地速度が小さい物体については、進行方向を正確に推定する必要性が低い。対地速度が小さい物体として、例えば、車両以外の物体がある。
The traveling
(1H)物体追跡装置1は、経過サイクルが所定値以下である物体に限って、前記ステップ12〜16の処理で推定した物体の進行方向を用いて物体の追跡を行う。そのため、常に、前記ステップ12〜16の処理で推定した物体の進行方向を用いて物体の追跡を行う場合に比べて、物体追跡装置1の処理負担を軽減できる。 (1H) The object tracking device 1 tracks an object using the traveling direction of the object estimated in the processes of steps 12 to 16 only for the object whose elapsed cycle is equal to or less than a predetermined value. Therefore, the processing load of the object tracking device 1 can be reduced as compared with the case where the object is always tracked using the traveling direction of the object estimated in the processes of steps 12 to 16.
なお、経過サイクルが所定値を超える物体の場合、前記ステップ19の処理によって物体の進行方向を推定できるので、前記ステップ12〜16の処理を行わなくてもよい。
経過サイクルが所定値以下であることは、物体が初めて検出された時点からの経過時間が所定値以下であることに対応する。
In the case of an object whose elapsed cycle exceeds a predetermined value, the traveling direction of the object can be estimated by the process of
The fact that the elapsed cycle is less than or equal to a predetermined value corresponds to the fact that the elapsed time from the time when the object is first detected is less than or equal to the predetermined value.
物体追跡装置1は、初めて検出された物体に限って、前記ステップ12〜16の処理で推定した物体の進行方向を用いて物体の追跡を行ってもよい。
<他の実施形態>
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
The object tracking device 1 may track an object using the traveling direction of the object estimated in the processes of steps 12 to 16 only for the object detected for the first time.
<Other Embodiments>
Although the embodiments of the present disclosure have been described above, the present disclosure is not limited to the above-described embodiments, and can be implemented in various modifications.
(1)ミリ波レーダ装置31の代わりに、他のセンサを用いて物体を検出してもよい。
(2)車両3の代わりに他の移動体を用いてもよい。他の移動体として、例えば、船舶、航空機、鉄道車両等が挙げられる。
(1) An object may be detected by using another sensor instead of the millimeter
(2) Another moving body may be used instead of the
(3)ステップ21〜24のうち、任意に選択した1〜3のステップを実行し、残りのステップは実行しなくてもよい。例えば、ステップ21は実行し、ステップ22〜24は実行しなくてもよい。この場合、ステップ25で得られる走行路の形状は、ステップ21で推定した走行路の形状になる。
(3) Of
また、例えば、ステップ22は実行し、ステップ21、23〜24は実行しなくてもよい。この場合、ステップ25で得られる走行路の形状は、ステップ22で推定した走行路の形状になる。
また、例えば、ステップ23は実行し、ステップ21〜22、24は実行しなくてもよい。この場合、ステップ25で得られる走行路の形状は、ステップ23で推定した走行路の形状になる。
Further, for example, step 22 may be executed and
Further, for example, steps 23 may be executed and
また、例えば、ステップ24は実行し、ステップ21〜23は実行しなくてもよい。この場合、ステップ25で得られる走行路の形状は、ステップ24で推定した走行路の形状になる。
(4)ステップ16では、ステップ15で算出した接線方向を物体の進行方向としてもよい。
Further, for example, steps 24 may be executed and
(4) In step 16, the tangential direction calculated in
(5)ステップ16において、接線方向と、車両3の進行方向とにつける重みは、信頼度以外の基準に基づき設定してもよい。また、接線方向と、車両3の進行方向とにつける重みは、固定値であってもよい。
(5) In step 16, the weights given to the tangential direction and the traveling direction of the
(6)本開示に記載の物体追跡装置1及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の物体追跡装置1及びその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の物体追跡装置1及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されてもよい。物体追跡装置1に含まれる各部の機能を実現する手法には、必ずしもソフトウェアが含まれている必要はなく、その全部の機能が、一つあるいは複数のハードウェアを用いて実現されてもよい。
(7)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。
(6) The object tracking device 1 and its method described in the present disclosure are provided by configuring a processor and memory programmed to perform one or more functions embodied by a computer program. It may be realized by a dedicated computer. Alternatively, the object tracking device 1 and its method described in the present disclosure may be realized by a dedicated computer provided by configuring a processor with one or more dedicated hardware logic circuits. Alternatively, the object tracking device 1 and its method described in the present disclosure comprises a processor and memory programmed to perform one or more functions and a processor composed of one or more hardware logic circuits. It may be realized by one or more dedicated computers configured by a combination. The computer program may also be stored on a computer-readable non-transitional tangible recording medium as an instruction executed by the computer. The method for realizing the functions of each part included in the object tracking device 1 does not necessarily include software, and all the functions may be realized by using one or a plurality of hardware.
(7) A plurality of functions possessed by one component in the above embodiment may be realized by a plurality of components, or one function possessed by one component may be realized by a plurality of components. .. Further, a plurality of functions possessed by the plurality of components may be realized by one component, or one function realized by the plurality of components may be realized by one component. Further, a part of the configuration of the above embodiment may be omitted. In addition, at least a part of the configuration of the above embodiment may be added or replaced with the configuration of the other above embodiment.
(8)上述した物体追跡装置1の他、当該物体追跡装置1を構成要素とするシステム、当該物体追跡装置1としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、物体追跡方法等、種々の形態で本開示を実現することもできる。 (8) In addition to the above-mentioned object tracking device 1, a system having the object tracking device 1 as a component, a program for operating a computer as the object tracking device 1, a non-transitional non-transitional memory such as a semiconductor memory in which this program is recorded. The present disclosure can also be realized in various forms such as an actual recording medium and an object tracking method.
1…物体追跡装置、3…車両、5…CPU、7…メモリ、9…物体検出ユニット、11…位置算出ユニット、13…形状推定ユニット、15…接線方向算出ユニット、17…進行方向推定ユニット、19…移動体進行方向算出ユニット、21…信頼度算出ユニット、23…ヨーレート算出ユニット、25…対地速度推定ユニット、27…追跡ユニット、29…進行方向推定装置、31…ミリ波レーダ装置、33…カメラ、35…情報記憶部、37…センサ群、39…物体検出領域、41…走行軌跡、43…物体、45…走行路 1 ... Object tracking device, 3 ... Vehicle, 5 ... CPU, 7 ... Memory, 9 ... Object detection unit, 11 ... Position calculation unit, 13 ... Shape estimation unit, 15 ... Tangent direction calculation unit, 17 ... Travel direction estimation unit, 19 ... Moving object traveling direction calculation unit, 21 ... Reliability calculation unit, 23 ... Yaw rate calculation unit, 25 ... Ground speed estimation unit, 27 ... Tracking unit, 29 ... Travel direction estimation device, 31 ... Millimeter wave radar device, 33 ... Camera, 35 ... Information storage unit, 37 ... Sensor group, 39 ... Object detection area, 41 ... Travel locus, 43 ... Object, 45 ... Travel path
Claims (9)
前記物体検出ユニットにより検出された前記物体の位置を算出するように構成された位置算出ユニットと、
前記物体検出ユニットにより検出された前記物体が存在する走行路の形状を推定するように構成された形状推定ユニットと、
前記形状推定ユニットが推定した前記走行路の形状と、前記位置算出ユニットが算出した前記物体の位置とに基づき、前記物体の位置における前記走行路の接線方向を算出するように構成された接線方向算出ユニットと、
前記接線方向算出ユニットが算出した前記接線方向に基づき、前記物体検出ユニットにより検出された前記物体の進行方向を推定するように構成された進行方向推定ユニットと、
を備える進行方向推定装置。 An object detection unit configured to detect an object existing around the moving body using a sensor mounted on the moving body, and an object detection unit.
A position calculation unit configured to calculate the position of the object detected by the object detection unit, and a position calculation unit.
A shape estimation unit configured to estimate the shape of the traveling path on which the object exists, which is detected by the object detection unit, and a shape estimation unit.
The tangential direction configured to calculate the tangential direction of the travel path at the position of the object based on the shape of the travel path estimated by the shape estimation unit and the position of the object calculated by the position calculation unit. Calculation unit and
A traveling direction estimation unit configured to estimate the traveling direction of the object detected by the object detection unit based on the tangential direction calculated by the tangential direction calculating unit.
A traveling direction estimator comprising.
前記形状推定ユニットは、前記移動体の走行軌跡の曲率、前記走行路に沿って並ぶ路側物の配列、地図情報、及び、前記走行路における走行区画線の形状から成る群から選択される1以上を用いて、前記走行路の形状を推定するように構成された進行方向推定装置。 The traveling direction estimation device according to claim 1.
The shape estimation unit is one or more selected from a group consisting of the curvature of the traveling locus of the moving body, the arrangement of roadside objects lined up along the traveling path, map information, and the shape of the traveling marking line on the traveling path. A traveling direction estimation device configured to estimate the shape of the traveling path using the above.
前記移動体の進行方向を算出するように構成された移動体進行方向算出ユニットをさらに備え、
前記進行方向推定ユニットは、前記接線方向と、前記移動体の進行方向とを、それぞれに所定の重みをつけて合成することで、前記物体の進行方向を推定するように構成された進行方向推定装置。 The traveling direction estimation device according to claim 1 or 2.
A mobile body traveling direction calculation unit configured to calculate the traveling direction of the moving body is further provided.
The traveling direction estimation unit is configured to estimate the traveling direction of the object by synthesizing the tangential direction and the traveling direction of the moving body with predetermined weights. apparatus.
前記走行路の形状の信頼度を算出するように構成された信頼度算出ユニットをさらに備え、
前記進行方向推定ユニットは、前記信頼度が高いほど、前記接線方向につける前記重みを大きくするように構成された進行方向推定装置。 The traveling direction estimation device according to claim 3.
A reliability calculation unit configured to calculate the reliability of the shape of the traveling path is further provided.
The traveling direction estimation unit is a traveling direction estimation device configured so that the higher the reliability, the greater the weight attached to the tangential direction.
前記信頼度算出ユニットは、(a)前記形状推定ユニットが推定した前記走行路の形状を表す指標が所定の範囲外となってからの経過時間、(b)時間の経過にともなう前記指標の変化量、及び(c)複数の方法でそれぞれ推定された、前記走行路の形状の一致度、から成る群から選択される1以上を用いて前記信頼度を算出するように構成された進行方向推定装置。 The traveling direction estimation device according to claim 4.
The reliability calculation unit includes (a) the elapsed time since the index representing the shape of the traveling path estimated by the shape estimation unit is out of the predetermined range, and (b) the change of the index with the passage of time. The traveling direction estimation configured to calculate the reliability using one or more selected from the group consisting of the quantity and (c) the degree of coincidence of the shape of the traveling path estimated by each of a plurality of methods. apparatus.
前記進行方向推定ユニットが推定した前記物体の進行方向と、前記形状推定ユニットが推定した前記走行路の形状とに基づき、前記物体のヨーレートを算出するように構成されたヨーレート算出ユニットをさらに備える進行方向推定装置。 The traveling direction estimation device according to any one of claims 1 to 5.
A progress further comprising a yaw rate calculation unit configured to calculate the yaw rate of the object based on the traveling direction of the object estimated by the traveling direction estimation unit and the shape of the traveling path estimated by the shape estimating unit. Direction estimator.
前記物体検出ユニットにより検出された前記物体の対地速度を推定するように構成された対地速度推定ユニットをさらに備え、
前記進行方向推定ユニットは、前記対地速度推定ユニットが推定した前記対地速度が予め設定された閾値以上であることを必要条件として、前記物体の進行方向を推定するように構成された進行方向推定装置。 The traveling direction estimation device according to any one of claims 1 to 6.
Further comprising a ground speed estimation unit configured to estimate the ground speed of the object detected by the object detection unit.
The traveling direction estimation unit is a traveling direction estimation device configured to estimate the traveling direction of the object on the condition that the ground speed estimated by the ground speed estimation unit is equal to or higher than a preset threshold value. ..
請求項1〜7のいずれか1項に記載の進行方向推定装置と、
前記物体検出ユニットが検出した前記物体の追跡を行うように構成された追跡ユニットと、
を備え、
前記追跡ユニットは、前記物体検出ユニットによって初めて検出された時点からの経過時間が所定値以下である前記物体に限って、前記進行方向推定装置が推定した前記物体の進行方向を用いて前記物体の追跡を行うように構成された物体追跡装置。 An object tracking device
The traveling direction estimation device according to any one of claims 1 to 7,
A tracking unit configured to track the object detected by the object detection unit, and
With
The tracking unit is limited to the object whose elapsed time from the time when it is first detected by the object detection unit is equal to or less than a predetermined value, and uses the traveling direction of the object estimated by the traveling direction estimation device to obtain the object. An object tracking device configured to perform tracking.
前記追跡ユニットは、前記物体検出ユニットによって初めて検出された前記物体に限って、前記進行方向推定装置が推定した前記物体の進行方向を用いて前記物体の追跡を行うように構成された物体追跡装置。 The object tracking device according to claim 8.
The tracking unit is an object tracking device configured to track the object using the traveling direction of the object estimated by the traveling direction estimation device only for the object detected for the first time by the object detecting unit. ..
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019183839A JP7294978B2 (en) | 2019-10-04 | 2019-10-04 | Traveling direction estimation device and object tracking device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019183839A JP7294978B2 (en) | 2019-10-04 | 2019-10-04 | Traveling direction estimation device and object tracking device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021060245A true JP2021060245A (en) | 2021-04-15 |
JP7294978B2 JP7294978B2 (en) | 2023-06-20 |
Family
ID=75379944
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019183839A Active JP7294978B2 (en) | 2019-10-04 | 2019-10-04 | Traveling direction estimation device and object tracking device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7294978B2 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005140749A (en) * | 2003-11-10 | 2005-06-02 | Toyota Motor Corp | Curve-estimating apparatus and travel control apparatus using the same |
JP2008268013A (en) * | 2007-04-20 | 2008-11-06 | Funai Electric Co Ltd | Navigation system |
JPWO2012104918A1 (en) * | 2011-02-03 | 2014-07-03 | トヨタ自動車株式会社 | Road shape estimation device |
JP2014151853A (en) * | 2013-02-13 | 2014-08-25 | Nissan Motor Co Ltd | Road profile prediction unit |
JP2017187843A (en) * | 2016-04-01 | 2017-10-12 | 株式会社デンソー | Drive assist system |
JP2019021202A (en) * | 2017-07-20 | 2019-02-07 | 株式会社Ihi | Control device and control method for mobile robot |
JP2019074466A (en) * | 2017-10-18 | 2019-05-16 | 株式会社Soken | Moving object recognition device |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012104918A (en) | 2010-11-08 | 2012-05-31 | Canon Inc | Imaging device and method of driving the same |
-
2019
- 2019-10-04 JP JP2019183839A patent/JP7294978B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005140749A (en) * | 2003-11-10 | 2005-06-02 | Toyota Motor Corp | Curve-estimating apparatus and travel control apparatus using the same |
JP2008268013A (en) * | 2007-04-20 | 2008-11-06 | Funai Electric Co Ltd | Navigation system |
JPWO2012104918A1 (en) * | 2011-02-03 | 2014-07-03 | トヨタ自動車株式会社 | Road shape estimation device |
JP2014151853A (en) * | 2013-02-13 | 2014-08-25 | Nissan Motor Co Ltd | Road profile prediction unit |
JP2017187843A (en) * | 2016-04-01 | 2017-10-12 | 株式会社デンソー | Drive assist system |
JP2019021202A (en) * | 2017-07-20 | 2019-02-07 | 株式会社Ihi | Control device and control method for mobile robot |
JP2019074466A (en) * | 2017-10-18 | 2019-05-16 | 株式会社Soken | Moving object recognition device |
Also Published As
Publication number | Publication date |
---|---|
JP7294978B2 (en) | 2023-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107851392B (en) | Route generation device, route generation method, and medium storing route generation program | |
JP6207723B2 (en) | Collision prevention device | |
US10102761B2 (en) | Route prediction device | |
WO2018209997A1 (en) | Filter estimation method and device for vehicle-mounted millimeter wave radar for use in target tracking, and storage medium | |
US11440541B2 (en) | Apparatus and method for predicting concurrent lane change and vehicle including the same | |
JP2018036067A (en) | Own vehicle position recognition device | |
RU2770230C1 (en) | Method and device for predicting the movement of another vehicle | |
CN106203381A (en) | Obstacle detection method and device in a kind of driving | |
JP6643215B2 (en) | Other lane monitoring device | |
JP7125286B2 (en) | Behavior prediction device and automatic driving device | |
JP7260416B2 (en) | tracking device | |
CN109887321B (en) | Unmanned vehicle lane change safety judgment method and device and storage medium | |
US11841419B2 (en) | Stationary and moving object recognition apparatus | |
CN109885943B (en) | Prediction method and device for driving decision, storage medium and terminal equipment | |
JP2021060245A (en) | Traveling direction estimation device and object tracking device | |
EP4209854A1 (en) | Overtaking planning method and apparatus, and electronic device and storage medium | |
KR20200133122A (en) | Apparatus and method for preventing vehicle collision | |
JP2019202663A (en) | Runway setting device | |
CN117523914A (en) | Collision early warning method, device, equipment, readable storage medium and program product | |
JP6834020B2 (en) | Object recognition device and object recognition method | |
JP2020053069A (en) | On-vehicle electronic control device | |
WO2022024947A1 (en) | Path generating device, path generating method, and path generating program | |
JP7154470B2 (en) | Information processing system, information processing device, program and information processing method | |
JP2019059274A (en) | Vehicular control device and method for controlling vehicle | |
JP2018018215A (en) | Object feature point detector |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220216 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230224 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230516 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230608 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7294978 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |