JP2021060245A - Traveling direction estimation device and object tracking device - Google Patents

Traveling direction estimation device and object tracking device Download PDF

Info

Publication number
JP2021060245A
JP2021060245A JP2019183839A JP2019183839A JP2021060245A JP 2021060245 A JP2021060245 A JP 2021060245A JP 2019183839 A JP2019183839 A JP 2019183839A JP 2019183839 A JP2019183839 A JP 2019183839A JP 2021060245 A JP2021060245 A JP 2021060245A
Authority
JP
Japan
Prior art keywords
traveling direction
shape
traveling
unit
direction estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019183839A
Other languages
Japanese (ja)
Other versions
JP7294978B2 (en
Inventor
悠介 赤峰
Yusuke Akamine
悠介 赤峰
卓也 ▲高▼山
卓也 ▲高▼山
Takuya Takayama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Original Assignee
Denso Corp
Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Soken Inc filed Critical Denso Corp
Priority to JP2019183839A priority Critical patent/JP7294978B2/en
Publication of JP2021060245A publication Critical patent/JP2021060245A/en
Application granted granted Critical
Publication of JP7294978B2 publication Critical patent/JP7294978B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)

Abstract

To provide a traveling direction estimation device and a tracking device capable of accurately estimating a traveling direction of an object.SOLUTION: A traveling direction estimation device includes an object detection unit, a position calculation unit, a shape estimation unit, a tangential direction calculation unit, and a traveling direction estimation unit. The object detection unit detects an object using a sensor mounted on a moving body. The position calculation unit calculates a position of the object. The shape estimation unit estimates a shape of a track on which the object is present. The tangential direction calculation unit calculates the tangential direction of the track at the position of the object on the basis of the shape of the track and the position of the object. The traveling direction estimation unit estimates the traveling direction of the object on the basis of the tangential direction.SELECTED DRAWING: Figure 1

Description

本開示は進行方向推定装置及び物体追跡装置に関する。 The present disclosure relates to a traveling direction estimation device and an object tracking device.

特許文献1に物体追跡装置が開示されている。物体追跡装置は車両に搭載される。物体追跡装置は、車載レーダを用いて物体を検出する処理サイクルを繰り返す。物体追跡装置は、N回目の処理サイクルで検出した物体の位置や速度から、(N+1)回目の処理サイクルで検出される、同じ物体の位置(以下では予測位置とする)を予測する。Nは自然数である。物体追跡装置は、予測位置を中心とする接続範囲を設定する。(N+1)回目の処理サイクルで検出した物体が接続範囲内にある場合、物体追跡装置は、(N+1)回目の処理サイクルで検出した物体が、N回目の処理サイクルで検出された物体であると判断する。 Patent Document 1 discloses an object tracking device. The object tracking device is mounted on the vehicle. The object tracking device repeats a processing cycle of detecting an object using an in-vehicle radar. The object tracking device predicts the position of the same object (hereinafter referred to as the predicted position) detected in the (N + 1) th processing cycle from the position and speed of the object detected in the Nth processing cycle. N is a natural number. The object tracking device sets a connection range centered on the predicted position. When the object detected in the (N + 1) th processing cycle is within the connection range, the object tracking device determines that the object detected in the (N + 1) th processing cycle is the object detected in the Nth processing cycle. to decide.

特開2018−25492号公報Japanese Unexamined Patent Publication No. 2018-25492

予測位置を予測するためには、N回目の処理サイクルで検出した物体の速度を推定することが必要になる。物体の速度を推定するためには、物体の進行方向を推定することが必要になる。従来は、物体の進行方向を、自車の進行方向と同じであると想定していた。 In order to predict the predicted position, it is necessary to estimate the velocity of the object detected in the Nth processing cycle. In order to estimate the velocity of an object, it is necessary to estimate the traveling direction of the object. Conventionally, it has been assumed that the traveling direction of an object is the same as the traveling direction of the own vehicle.

しかしながら、例えば、物体が先行車であり、その先行車がカーブ路を走行している場合、先行車の進行方向は、自車の進行方向とは大きく異なる。そのため、先行車の進行方向が自車の進行方向と同じであると想定すると、先行車の進行方向を正確に推定できない。また、先行車の進行方向を正確に推定できないと、先行車を追跡することが困難になる。 However, for example, when the object is a preceding vehicle and the preceding vehicle is traveling on a curved road, the traveling direction of the preceding vehicle is significantly different from the traveling direction of the own vehicle. Therefore, assuming that the traveling direction of the preceding vehicle is the same as the traveling direction of the own vehicle, the traveling direction of the preceding vehicle cannot be accurately estimated. Further, if the traveling direction of the preceding vehicle cannot be estimated accurately, it becomes difficult to track the preceding vehicle.

本開示の1つの局面は、物体の進行方向を正確に推定できる進行方向推定装置及び追跡装置を提供することを目的とする。 One aspect of the present disclosure is to provide a traveling direction estimation device and a tracking device capable of accurately estimating the traveling direction of an object.

本開示の1つの局面は、移動体に搭載されたセンサを用いて、前記移動体の周辺に存在する物体を検出するように構成された物体検出ユニットと、前記物体検出ユニットにより検出された前記物体の位置を算出するように構成された位置算出ユニットと、前記物体検出ユニットにより検出された前記物体が存在する走行路の形状を推定するように構成された形状推定ユニットと、前記形状推定ユニットが推定した前記走行路の形状と、前記位置算出ユニットが算出した前記物体の位置とに基づき、前記物体の位置における前記走行路の接線方向を算出するように構成された接線方向算出ユニットと、前記接線方向算出ユニットが算出した前記接線方向に基づき、前記物体検出ユニットにより検出された前記物体の進行方向を推定するように構成された進行方向推定ユニットと、を備える進行方向推定装置である。 One aspect of the present disclosure is an object detection unit configured to detect an object existing around the moving body using a sensor mounted on the moving body, and the object detection unit detected by the object detection unit. A position calculation unit configured to calculate the position of an object, a shape estimation unit configured to estimate the shape of a traveling path on which the object exists detected by the object detection unit, and the shape estimation unit. A tangential direction calculation unit configured to calculate the tangential direction of the travel path at the position of the object based on the shape of the travel path estimated by the above and the position of the object calculated by the position calculation unit. It is a traveling direction estimation device including a traveling direction estimation unit configured to estimate the traveling direction of the object detected by the object detecting unit based on the tangential direction calculated by the tangent direction calculating unit.

本開示の1つの局面である進行方向推定装置は、物体の位置における走行路の接線方向に基づき、物体の進行方向を推定する。物体の位置における走行路の接線方向は、物体の進行方向に近い可能性が高い。そのため、本開示の1つの局面である進行方向推定装置は、物体の進行方向を正確に推定できる。 The traveling direction estimation device, which is one aspect of the present disclosure, estimates the traveling direction of an object based on the tangential direction of the traveling path at the position of the object. The tangential direction of the travel path at the position of the object is likely to be close to the traveling direction of the object. Therefore, the traveling direction estimation device, which is one aspect of the present disclosure, can accurately estimate the traveling direction of the object.

物体追跡装置1の構成を表すブロック図である。It is a block diagram which shows the structure of the object tracking apparatus 1. 物体追跡装置1の機能的構成を表すブロック図である。It is a block diagram which shows the functional structure of the object tracking apparatus 1. 1つのミリ波レーダ装置31と、その物体検出領域39とを表す説明図である。It is explanatory drawing which shows one millimeter wave radar apparatus 31 and its object detection area 39. 5つのミリ波レーダ装置31と、それぞれの物体検出領域39とを表す説明図である。It is explanatory drawing which shows 5 millimeter wave radar apparatus 31 and each object detection area 39. 物体追跡装置1が実行する処理の全体を表すフローチャートである。It is a flowchart which shows the whole process which the object tracking apparatus 1 executes. 物体追跡装置1が実行する進行方向算出処理を表すフローチャートである。It is a flowchart which shows the traveling direction calculation process which the object tracking apparatus 1 executes. 物体追跡装置1が実行する走行路の形状推定処理を表すフローチャートである。It is a flowchart which shows the shape estimation process of the traveling path executed by the object tracking apparatus 1. 車両3の走行軌跡41の曲率を用いて、物体43が存在する走行路45の形状を推定する方法を表す説明図である。It is explanatory drawing which shows the method of estimating the shape of the traveling path 45 in which an object 43 exists by using the curvature of the traveling locus 41 of a vehicle 3. 信頼度が低い場合の物体43の進行方向D1を表す説明図である。It is explanatory drawing which shows the traveling direction D1 of the object 43 when the reliability is low. 信頼度が高い場合の物体43の進行方向D1を表す説明図である。It is explanatory drawing which shows the traveling direction D1 of the object 43 when the reliability is high.

本開示の例示的な実施形態について図面を参照しながら説明する。
<第1実施形態>
1.物体追跡装置1の構成
物体追跡装置1の構成を、図1〜図4に基づき説明する。図1に示すように、物体追跡装置1は車両3に搭載される。車両3は移動体に対応する。物体追跡装置1は、CPU5と、例えば、RAM又はROM等の半導体メモリ(以下、メモリ7とする)と、を有するマイクロコンピュータを備える。
An exemplary embodiment of the present disclosure will be described with reference to the drawings.
<First Embodiment>
1. 1. Configuration of Object Tracking Device 1 The configuration of the object tracking device 1 will be described with reference to FIGS. 1 to 4. As shown in FIG. 1, the object tracking device 1 is mounted on the vehicle 3. The vehicle 3 corresponds to a moving body. The object tracking device 1 includes a microcomputer having a CPU 5 and, for example, a semiconductor memory such as a RAM or a ROM (hereinafter referred to as a memory 7).

物体追跡装置1の各機能は、CPU5が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ7が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、物体追跡装置1は、1つのマイクロコンピュータを備えてもよいし、複数のマイクロコンピュータを備えてもよい。 Each function of the object tracking device 1 is realized by the CPU 5 executing a program stored in a non-transitional substantive recording medium. In this example, the memory 7 corresponds to a non-transitional substantive recording medium in which a program is stored. Moreover, when this program is executed, the method corresponding to the program is executed. The object tracking device 1 may include one microcomputer or a plurality of microcomputers.

物体追跡装置1は、図2に示すように、物体検出ユニット9と、位置算出ユニット11と、形状推定ユニット13と、接線方向算出ユニット15と、進行方向推定ユニット17と、移動体進行方向算出ユニット19と、信頼度算出ユニット21と、ヨーレート算出ユニット23と、対地速度推定ユニット25と、追跡ユニット27と、を備える。物体追跡装置1のうち、追跡ユニット27を除く部分は、進行方向推定装置29である。 As shown in FIG. 2, the object tracking device 1 includes an object detection unit 9, a position calculation unit 11, a shape estimation unit 13, a tangential direction calculation unit 15, a traveling direction estimation unit 17, and a moving body traveling direction calculation. It includes a unit 19, a reliability calculation unit 21, a yaw rate calculation unit 23, a ground speed estimation unit 25, and a tracking unit 27. The portion of the object tracking device 1 excluding the tracking unit 27 is the traveling direction estimation device 29.

図1に示すように、物体追跡装置1は、ミリ波レーダ装置31と、カメラ33と、情報記憶部35と、センサ群37と、接続している。
ミリ波レーダ装置31は、車両3の周辺に存在する物体を検出する。ミリ波レーダ装置31は、検出結果を物体追跡装置1に送る。例えば、図3に示すように、1つのミリ波レーダ装置31が、車両3の前端における中央に取り付けられている。ミリ波レーダ装置31は、車両3の前方に物体検出領域39を有する。物体検出領域39とは、物体を検出可能な領域である。
As shown in FIG. 1, the object tracking device 1 is connected to a millimeter-wave radar device 31, a camera 33, an information storage unit 35, and a sensor group 37.
The millimeter wave radar device 31 detects an object existing around the vehicle 3. The millimeter wave radar device 31 sends the detection result to the object tracking device 1. For example, as shown in FIG. 3, one millimeter-wave radar device 31 is attached to the center at the front end of the vehicle 3. The millimeter wave radar device 31 has an object detection region 39 in front of the vehicle 3. The object detection area 39 is an area in which an object can be detected.

また、例えば、図4に示すように、車両3の四隅、及び前端における中央に、それぞれミリ波レーダ装置31が取り付けられている。5つのミリ波レーダ装置31は、それぞれ、物体検出領域39を有する。ミリ波レーダ装置31は、移動体に搭載されたセンサに対応する。 Further, for example, as shown in FIG. 4, millimeter-wave radar devices 31 are attached to the four corners of the vehicle 3 and the center at the front end, respectively. Each of the five millimeter-wave radar devices 31 has an object detection area 39. The millimeter wave radar device 31 corresponds to a sensor mounted on a moving body.

カメラ33は車両3の周辺を撮影し、画像を生成する。カメラ33は、生成した画像を物体追跡装置1に送る。情報記憶部35は地図情報を記憶している。地図情報は、走行路の位置、形状等を含む情報である。センサ群37は、車両3に関する情報を検出するセンサを含む。センサ群37は、例えば、車速センサ、操舵角センサ等を含む。 The camera 33 photographs the periphery of the vehicle 3 and generates an image. The camera 33 sends the generated image to the object tracking device 1. The information storage unit 35 stores map information. The map information is information including the position, shape, and the like of the traveling path. The sensor group 37 includes a sensor that detects information about the vehicle 3. The sensor group 37 includes, for example, a vehicle speed sensor, a steering angle sensor, and the like.

2.物体追跡装置1が実行する処理
物体追跡装置1が実行する処理を、図5〜図10に基づき説明する。物体追跡装置1は、図5に示す処理を所定時間ごとに繰り返し実行する。図5に示す処理を1回実行することは、1回の処理サイクルである。
2. Processing executed by the object tracking device 1 The processing executed by the object tracking device 1 will be described with reference to FIGS. 5 to 10. The object tracking device 1 repeatedly executes the process shown in FIG. 5 at predetermined time intervals. Executing the process shown in FIG. 5 once is one process cycle.

図5のステップ1では、物体検出ユニット9が、ミリ波レーダ装置31を用いて、車両3の周辺に存在する物体を検出する処理を行う。その結果、物体検出ユニット9は観測情報を取得する。観測情報は、物体の位置、物体の速度等を表す情報である。検出された1つの物体ごとに1つの観測情報が存在する。 In step 1 of FIG. 5, the object detection unit 9 uses the millimeter-wave radar device 31 to perform a process of detecting an object existing in the vicinity of the vehicle 3. As a result, the object detection unit 9 acquires the observation information. The observation information is information representing the position of the object, the velocity of the object, and the like. There is one observation information for each detected object.

物体追跡装置1は、前回の処理サイクルまで追跡してきた物体に関する物体情報をメモリ7に登録している。物体情報とは、追跡している物体の位置、物体の速度、物体の進行方向、物体のヨーレート等を表す情報である。1つの物体ごとに1つの物体情報が存在する。物体追跡装置1は、前回の処理サイクルで登録された物体情報のそれぞれについて、後述するステップ2〜6の処理を行う。 The object tracking device 1 registers the object information related to the object tracked up to the previous processing cycle in the memory 7. The object information is information indicating the position of the tracked object, the velocity of the object, the traveling direction of the object, the yaw rate of the object, and the like. There is one object information for each object. The object tracking device 1 performs the processes of steps 2 to 6 described later for each of the object information registered in the previous processing cycle.

ステップ2では、前回の処理サイクルで登録された物体情報のうち、今回の処理サイクルでステップ3〜6の処理を未だ行っていない物体情報(以下では未処理の物体情報とする)が存在するか否かを追跡ユニット27が判断する。未処理の物体情報が存在する場合、本処理はステップ3に進む。未処理の物体情報が存在しない場合、本処理はステップ7に進む。 In step 2, among the object information registered in the previous processing cycle, is there any object information (hereinafter referred to as unprocessed object information) that has not yet been processed in steps 3 to 6 in this processing cycle? The tracking unit 27 determines whether or not it is. If there is unprocessed object information, this process proceeds to step 3. If there is no unprocessed object information, this process proceeds to step 7.

ステップ3では、追跡ユニット27が、未処理の物体情報のうち、1つの物体情報を選択する。選択した物体情報を、以下では処理中の物体情報とする。追跡ユニット27は、処理中の物体情報について、現時点における予測情報を算出する。予測情報は、現時点における物体の位置の予測値、現時点における物体の速度の予測値等を含む情報である。 In step 3, the tracking unit 27 selects one object information from the unprocessed object information. The selected object information will be referred to as the object information being processed below. The tracking unit 27 calculates current prediction information for the object information being processed. The prediction information is information including a predicted value of the position of the object at the present time, a predicted value of the velocity of the object at the present time, and the like.

追跡ユニット27は、現時点における物体の位置の予測値を以下のように推測する。処理中の物体情報は、物体の位置、物体の速度、及び物体の進行方向を表す。追跡ユニット27は、処理中の物体情報に基づき、物体の進行方向における速度(以下では進行方向速度とする)を算出する。追跡ユニット27は、処理中の物体情報における物体の位置から、物体の進行方向に、進行方向速度で、サイクル周期の時間だけ進んだ位置を、現時点における物体の位置の予測値とする。サイクル周期とは、処理サイクルの周期である。また、追跡ユニット27は、現時点における物体の速度の予測値を、処理中の物体情報に基づき推測する。 The tracking unit 27 estimates the predicted value of the position of the object at the present time as follows. The object information being processed represents the position of the object, the velocity of the object, and the traveling direction of the object. The tracking unit 27 calculates the velocity in the traveling direction of the object (hereinafter referred to as the traveling direction velocity) based on the object information being processed. The tracking unit 27 sets the position advanced from the position of the object in the object information being processed in the traveling direction of the object at the traveling direction velocity by the time of the cycle cycle as the predicted value of the position of the object at the present time. The cycle cycle is the cycle of the processing cycle. Further, the tracking unit 27 estimates the predicted value of the velocity of the object at the present time based on the object information being processed.

ステップ4では、追跡ユニット27が、前記ステップ3で算出した予測情報と、前記ステップ1で取得した観測情報のそれぞれとを対比する。追跡ユニット27は、観測情報のうち、予測情報を中心とする接続範囲内にあるものを、処理中の物体情報と関連付ける。接続範囲は、例えば、物体の位置に関する範囲であってもよいし、物体の位置及び速度に関する範囲であってもよい。関連付けられた観測情報を、以下では関連観測情報とする。 In step 4, the tracking unit 27 compares the prediction information calculated in step 3 with the observation information acquired in step 1. The tracking unit 27 associates the observation information within the connection range centered on the prediction information with the object information being processed. The connection range may be, for example, a range relating to the position of the object or a range relating to the position and speed of the object. The associated observation information will be referred to as related observation information below.

ステップ5では、位置算出ユニット11が、以下のようにしてフィルタ処理を行う。位置算出ユニット11は、関連観測情報に含まれる物体の位置と、予測情報に含まれる物体の位置の予測値とを、それぞれに所定の重みを付けた上で合成し、フィルタ処理後の物体の位置を算出する。また、位置算出ユニット11は、関連観測情報に含まれる物体の速度と、予測情報に含まれる物体の速度の予測値とを、それぞれに所定の重みを付けた上で合成し、フィルタ処理後の物体の速度を算出する。 In step 5, the position calculation unit 11 performs the filtering process as follows. The position calculation unit 11 synthesizes the predicted value of the position of the object included in the related observation information and the predicted value of the position of the object included in the predicted information after giving a predetermined weight to each of them, and synthesizes the filtered object. Calculate the position. Further, the position calculation unit 11 synthesizes the velocity of the object included in the related observation information and the predicted value of the velocity of the object included in the prediction information after giving a predetermined weight to each of them, and after filtering. Calculate the velocity of the object.

位置算出ユニット11は、処理中物体情報により表される物体について、物体情報を新たに登録する。新たに登録された物体情報(以下では最新の処理中物体情報とする)は、フィルタ処理後の物体の位置と、フィルタ処理後の物体の速度とを含む。なお、前記ステップ4において処理中の物体情報と観測情報とを関連付け、ステップ5において最新の処理中物体情報を新たに登録することは、処理中の物体情報により表される物体を追跡することに対応する。 The position calculation unit 11 newly registers the object information for the object represented by the object information during processing. The newly registered object information (hereinafter referred to as the latest processing object information) includes the position of the object after filtering and the velocity of the object after filtering. By associating the object information being processed with the observation information in step 4 and newly registering the latest object information being processed in step 5, the object represented by the object information being processed is tracked. Correspond.

ステップ6は進行方向算出処理である。この処理を図6に基づき説明する。図6のステップ11では、経過サイクルが所定値以下であるか否かを追跡ユニット27が判断する。経過サイクルとは、処理中物体情報により表される物体が、現時点まで追跡されている処理サイクルの数である。 Step 6 is a traveling direction calculation process. This process will be described with reference to FIG. In step 11 of FIG. 6, the tracking unit 27 determines whether or not the elapsed cycle is equal to or less than a predetermined value. The elapsed cycle is the number of processing cycles in which the object represented by the processing object information is tracked up to the present time.

経過サイクルが所定値以下である場合、本処理はステップ12に進む。経過サイクルが所定値を超える場合、本処理はステップ19に進む。
ステップ12では、移動体進行方向算出ユニット19が、センサ群37を用いて、車両3の進行方向を算出する。
If the elapsed cycle is less than or equal to a predetermined value, this process proceeds to step 12. If the elapsed cycle exceeds a predetermined value, the process proceeds to step 19.
In step 12, the moving body traveling direction calculation unit 19 calculates the traveling direction of the vehicle 3 by using the sensor group 37.

ステップ13では、対地速度推定ユニット25が、処理中の物体情報により表される物体の対地速度を算出する。対地速度とは、地面を基準とする速度である。対地速度推定ユニット25は、ミリ波レーダ装置31を用いて、車両3を基準とする物体の相対速度を算出する。また、対地速度推定ユニット25は、センサ群37を用いて、地面に対する車両3の速度を算出する。対地速度推定ユニット25は、車両3を基準とする物体の相対速度と、地面に対する車両3の速度とに基づき、物体の対地速度を算出する。物体の対地速度が所定値以上である場合、本処理はステップ14に進む。物体の対地速度が所定値未満である場合、本処理はステップ18に進む。 In step 13, the ground speed estimation unit 25 calculates the ground speed of the object represented by the object information being processed. The ground speed is the speed with respect to the ground. The ground speed estimation unit 25 uses the millimeter-wave radar device 31 to calculate the relative speed of an object with reference to the vehicle 3. Further, the ground speed estimation unit 25 calculates the speed of the vehicle 3 with respect to the ground by using the sensor group 37. The ground speed estimation unit 25 calculates the ground speed of an object based on the relative speed of the object with respect to the vehicle 3 and the speed of the vehicle 3 with respect to the ground. When the ground speed of the object is equal to or higher than a predetermined value, this process proceeds to step 14. If the ground speed of the object is less than a predetermined value, this process proceeds to step 18.

ステップ14は走行路の形状推定処理である。この処理を図7に基づき説明する。図7のステップ21では、形状推定ユニット13が、車両3の走行軌跡の曲率を用いて、物体が存在する走行路の形状を推定する。例えば、形状推定ユニット13は、車両3の操舵角を継続的に測定することで、図8に示すように、車両3の走行軌跡41の曲率を算出する。形状推定ユニット13は、物体43と車両3とが同じ走行路45を走行しているとの仮定の下で、物体43の走行路45の曲率は、車両3の走行軌跡41の曲率と等しいと推定する。図8に示す事例では、物体43は先行車である。 Step 14 is a process of estimating the shape of the traveling path. This process will be described with reference to FIG. In step 21 of FIG. 7, the shape estimation unit 13 estimates the shape of the traveling path on which the object exists by using the curvature of the traveling locus of the vehicle 3. For example, the shape estimation unit 13 continuously measures the steering angle of the vehicle 3 to calculate the curvature of the traveling locus 41 of the vehicle 3 as shown in FIG. The shape estimation unit 13 assumes that the object 43 and the vehicle 3 are traveling on the same travel path 45, and that the curvature of the travel path 45 of the object 43 is equal to the curvature of the travel locus 41 of the vehicle 3. presume. In the example shown in FIG. 8, the object 43 is a preceding vehicle.

ステップ22では、形状推定ユニット13が、物体が存在する走行路に沿って並ぶ路側物の配列を用いて、走行路の形状を推定する。例えば、形状推定ユニット13は、ミリ波レーダ装置31又はカメラ33を用いて、走行路に沿って並ぶ路側物を認識する。路側物として、例えば、ガードレール、縁石等が挙げられる。形状推定ユニット13は、路側物の配列の形状を認識する。路側物の配列の形状は、一般的に、走行路の形状と一致する。形状推定ユニット13は、路側物の配列の形状を、走行路の形状とする。 In step 22, the shape estimation unit 13 estimates the shape of the traveling path by using an array of roadside objects arranged along the traveling path where the object exists. For example, the shape estimation unit 13 recognizes roadside objects lined up along the traveling path by using the millimeter wave radar device 31 or the camera 33. Examples of roadside objects include guardrails and curbs. The shape estimation unit 13 recognizes the shape of the array of roadside objects. The shape of the arrangement of roadside objects generally matches the shape of the road. The shape estimation unit 13 uses the shape of the array of roadside objects as the shape of the traveling path.

ステップ23では、形状推定ユニット13が、地図情報を用いて、物体が存在する走行路の形状を推定する。例えば、形状推定ユニット13は、ミリ波レーダ装置31又はカメラ33を用いて、車両3を基準とする物体の相対位置を取得する。また、形状推定ユニット13は、車両3の絶対位置を取得する。形状推定ユニット13は、車両3を基準とする物体の相対位置と、車両3の絶対位置とを用いて、物体の絶対位置を取得する。形状推定ユニット13は、物体の絶対位置と地図情報とを照合して、物体が存在する走行路の形状を推定する。 In step 23, the shape estimation unit 13 estimates the shape of the traveling path on which the object exists by using the map information. For example, the shape estimation unit 13 uses a millimeter-wave radar device 31 or a camera 33 to acquire a relative position of an object with respect to the vehicle 3. Further, the shape estimation unit 13 acquires the absolute position of the vehicle 3. The shape estimation unit 13 acquires the absolute position of the object by using the relative position of the object with respect to the vehicle 3 and the absolute position of the vehicle 3. The shape estimation unit 13 collates the absolute position of the object with the map information to estimate the shape of the traveling path on which the object exists.

ステップ24では、形状推定ユニット13が、物体が存在する走行路における走行区画線の形状を用いて、走行路の形状を推定する。例えば、形状推定ユニット13は、カメラ33を用いて、走行路における走行区画線を認識する。走行区画線として、例えば、白線等が挙げられる。走行区画線の形状は、一般的に、走行路の形状と一致する。形状推定ユニット13は、走行区画線の形状を、走行路の形状とする。 In step 24, the shape estimation unit 13 estimates the shape of the traveling path by using the shape of the traveling lane marking in the traveling path where the object exists. For example, the shape estimation unit 13 uses the camera 33 to recognize the travel lane markings on the travel path. Examples of the traveling division line include a white line and the like. The shape of the lane marking generally matches the shape of the track. The shape estimation unit 13 uses the shape of the traveling lane marking as the shape of the traveling path.

ステップ25では、形状推定ユニット13が、前記ステップ21〜24でそれぞれ推定した走行路の形状を統合して、走行路の形状を最終的に推定する。例えば、形状推定ユニット13は、前記ステップ21〜24でそれぞれ推定した走行路の形状を平均化したものを、最終的な走行路の形状とする。 In step 25, the shape estimation unit 13 integrates the shapes of the travel paths estimated in steps 21 to 24, and finally estimates the shape of the travel path. For example, the shape estimation unit 13 averages the shapes of the travel paths estimated in steps 21 to 24 to obtain the final shape of the travel path.

ステップ26では、信頼度算出ユニット21が、前記ステップ25で推定した走行路の形状の信頼度を算出する。信頼度算出ユニット21が信頼度を算出する方法として、例えば、以下の方法(a)〜(c)がある。 In step 26, the reliability calculation unit 21 calculates the reliability of the shape of the traveling path estimated in step 25. As a method for the reliability calculation unit 21 to calculate the reliability, for example, there are the following methods (a) to (c).

(a)信頼度算出ユニット21は、走行路の形状を表す指標を継続的に取得する。指標として、例えば、曲率、曲率半径等が挙げられる。信頼度算出ユニット21は、指標が所定の範囲外となってからの経過時間が長いほど、信頼度を高く算出する。例えば、指標が曲率である場合、所定の範囲は、予め設定された下限値以上、予め設定された上限値以下の範囲である。 (A) The reliability calculation unit 21 continuously acquires an index representing the shape of the traveling path. Examples of the index include curvature, radius of curvature, and the like. The reliability calculation unit 21 calculates the reliability higher as the elapsed time from when the index is out of the predetermined range is longer. For example, when the index is curvature, the predetermined range is a range equal to or more than a preset lower limit value and less than or equal to a preset upper limit value.

(b)信頼度算出ユニット21は、前記(a)と同様に、走行路の形状を表す指標を継続的に取得する。信頼度算出ユニット21は、時間の経過にともなう指標の変化量が大きいほど、信頼度を低く算出する。 (B) The reliability calculation unit 21 continuously acquires an index representing the shape of the traveling path, as in the case of (a) above. The reliability calculation unit 21 calculates the reliability lower as the amount of change in the index with the passage of time increases.

(c)形状推定ユニット13は、複数の方法で走行路の形状を推定する。複数の方法として、例えば、前記ステップ21〜24の方法がある。信頼度算出ユニット21は、複数の方法でそれぞれ推定された走行路の形状の一致度が高いほど、信頼度を高く算出する。例えば、第1の方法で推定された走行路の形状を第1の推定形状とする。また、第2の方法で推定された、同じ走行路の形状を第2の推定形状とする。第1の推定形状と第2の推定形状との一致度が高いほど、信頼度算出ユニット21は信頼度を高く算出する。 (C) The shape estimation unit 13 estimates the shape of the traveling path by a plurality of methods. As a plurality of methods, for example, there are the methods of steps 21 to 24. The reliability calculation unit 21 calculates the reliability higher as the degree of matching of the shapes of the traveling paths estimated by the plurality of methods is higher. For example, the shape of the traveling path estimated by the first method is defined as the first estimated shape. Further, the shape of the same traveling path estimated by the second method is used as the second estimated shape. The higher the degree of coincidence between the first estimated shape and the second estimated shape, the higher the reliability of the reliability calculation unit 21.

図6に戻り、ステップ15では、接線方向算出ユニット15が、物体の位置における走行路の接線方向を算出する。物体の位置とは、最新の処理中物体情報により表される物体の位置である。走行路とは、前記ステップ14において形状を推定した走行路である。接線方向とは、物体の位置における走行路の走行方向である。 Returning to FIG. 6, in step 15, the tangential direction calculation unit 15 calculates the tangential direction of the traveling path at the position of the object. The position of the object is the position of the object represented by the latest processing object information. The travel path is a travel path whose shape is estimated in step 14. The tangential direction is the traveling direction of the traveling path at the position of the object.

ステップ16では、進行方向推定ユニット17が、前記ステップ15で算出した接線方向に基づき、物体の進行方向を推定する。進行方向推定ユニット17は、例えば、前記ステップ15で算出した接線方向と、前記ステップ12で算出した車両3の進行方向とを、それぞれに所定の重みをつけて合成することで、物体の進行方向を推定する。 In step 16, the traveling direction estimation unit 17 estimates the traveling direction of the object based on the tangential direction calculated in step 15. The traveling direction estimation unit 17 combines, for example, the tangential direction calculated in step 15 and the traveling direction of the vehicle 3 calculated in step 12 with predetermined weights, thereby synthesizing the traveling direction of the object. To estimate.

前記ステップ26で推定した信頼度が高いほど、接線方向につける重みが大きくなり、車両3の進行方向につける重みが小さくなる。例えば、信頼度が低い場合は、図9に示すように、物体43の進行方向D1は、接線方向D2よりも、車両3の進行方向D3に近くなる。 The higher the reliability estimated in step 26, the larger the weight given in the tangential direction and the smaller the weight given in the traveling direction of the vehicle 3. For example, when the reliability is low, as shown in FIG. 9, the traveling direction D1 of the object 43 is closer to the traveling direction D3 of the vehicle 3 than the tangential direction D2.

信頼度が高い場合は、図10に示すように、物体43の進行方向D1は、車両3の進行方向D3よりも、接線方向D2に近くなる。
進行方向推定ユニット17は、推定した物体の進行方向を、最新の処理中物体情報に追加する。よって、最新の処理中物体情報は、物体の進行方向を含むようになる。
When the reliability is high, as shown in FIG. 10, the traveling direction D1 of the object 43 is closer to the tangential direction D2 than the traveling direction D3 of the vehicle 3.
The traveling direction estimation unit 17 adds the estimated traveling direction of the object to the latest processing object information. Therefore, the latest processing object information includes the traveling direction of the object.

ステップ27では、ヨーレート算出ユニット23が、物体のヨーレートを算出する。物体とは、最新の処理中物体情報により表される物体である。ヨーレート算出ユニット23は、前記ステップ14で推定した走行路の形状と、前記ステップ16で推定した物体の進行方向と、最新の処理中物体情報に含まれる物体の位置及び速度とに基づき、物体のヨーレートを算出する。 In step 27, the yaw rate calculation unit 23 calculates the yaw rate of the object. An object is an object represented by the latest processing object information. The yaw rate calculation unit 23 is based on the shape of the traveling path estimated in step 14, the traveling direction of the object estimated in step 16, and the position and speed of the object included in the latest processing object information. Calculate the yaw rate.

ヨーレート算出ユニット23は、算出した物体のヨーレートを最新の処理中物体情報に追加する。よって、最新の処理中物体情報は、物体のヨーレートを含むようになる。
ステップ18では、進行方向推定ユニット17が、前記ステップ12で算出した車両3の進行方向が、物体の進行方向であると推定する。進行方向推定ユニット17は、推定した物体の進行方向を、最新の処理中物体情報に追加する。よって、最新の処理中物体情報は、物体の進行方向を含むようになる。
The yaw rate calculation unit 23 adds the calculated yaw rate of the object to the latest processing object information. Therefore, the latest processing object information includes the yaw rate of the object.
In step 18, the traveling direction estimation unit 17 estimates that the traveling direction of the vehicle 3 calculated in step 12 is the traveling direction of the object. The traveling direction estimation unit 17 adds the estimated traveling direction of the object to the latest processing object information. Therefore, the latest processing object information includes the traveling direction of the object.

ステップ19では、進行方向推定ユニット17が、フィルタ処理の結果を利用して物体の進行方向を推定する。進行方向推定ユニット17は、推定した物体の進行方向を、最新の処理中物体情報に追加する。よって、最新の処理中物体情報は、物体の進行方向を含むようになる。 In step 19, the traveling direction estimation unit 17 estimates the traveling direction of the object by using the result of the filtering process. The traveling direction estimation unit 17 adds the estimated traveling direction of the object to the latest processing object information. Therefore, the latest processing object information includes the traveling direction of the object.

図5に戻り、ステップ7では、未使用の観測情報が存在するか否かを追跡ユニット27が判断する。未使用の観測情報とは、いずれの物体情報とも関連付けられなかった観測情報である。未使用の観測情報が存在する場合、本処理はステップ8に進む。未使用の観測情報が存在しない場合、今回の処理サイクルを終了する。 Returning to FIG. 5, in step 7, the tracking unit 27 determines whether or not there is unused observation information. Unused observation information is observation information that is not associated with any object information. If there is unused observation information, this process proceeds to step 8. If there is no unused observation information, the current processing cycle is terminated.

ステップ8の処理は、未使用の観測情報により表される物体について、進行方向を算出する処理である。この処理は、前記ステップ6の処理と同様である。
ステップ9では、追跡ユニット27が、新規の物体情報を登録する。新規の物体情報は、未使用の観測情報に前記ステップ8で推定した物体の進行方向を追加した情報である。
The process of step 8 is a process of calculating the traveling direction of an object represented by unused observation information. This process is the same as the process of step 6.
In step 9, the tracking unit 27 registers new object information. The new object information is information obtained by adding the traveling direction of the object estimated in step 8 to the unused observation information.

3.進行方向推定装置29及び物体追跡装置1が奏する効果
(1A)進行方向推定装置29は、物体の位置における走行路の接線方向に基づき、物体の進行方向を推定する。物体の位置における走行路の接線方向は、物体の進行方向に近い可能性が高い。そのため、進行方向推定装置29は、物体の進行方向を正確に推定できる。
3. 3. Effects of the Travel Direction Estimator 29 and the Object Tracking Device 1 (1A) The Travel Direction Estimator 29 estimates the traveling direction of an object based on the tangential direction of the traveling path at the position of the object. The tangential direction of the travel path at the position of the object is likely to be close to the traveling direction of the object. Therefore, the traveling direction estimation device 29 can accurately estimate the traveling direction of the object.

(1B)進行方向推定装置29は、車両3の走行軌跡の曲率、走行路に沿って並ぶ路側物の配列、地図情報、及び、走行路における走行区画線の形状を用いて、走行路の形状を推定する。そのため、進行方向推定装置29は、物体の進行方向を一層正確に推定できる。 (1B) The traveling direction estimation device 29 uses the curvature of the traveling locus of the vehicle 3, the arrangement of roadside objects lined up along the traveling path, the map information, and the shape of the traveling lane marking on the traveling path to form the shape of the traveling path. To estimate. Therefore, the traveling direction estimation device 29 can estimate the traveling direction of the object more accurately.

(1C)進行方向推定装置29は、車両3の進行方向を算出することができる。進行方向推定装置29は、走行路の接線方向と、車両3の進行方向とを、それぞれに所定の重みをつけて合成することで、物体の進行方向を推定する。 (1C) The traveling direction estimation device 29 can calculate the traveling direction of the vehicle 3. The traveling direction estimation device 29 estimates the traveling direction of the object by synthesizing the tangential direction of the traveling path and the traveling direction of the vehicle 3 with predetermined weights.

そのため、進行方向推定装置29は、仮に、走行路の接線方向の推定結果が不正確である場合でも、走行路の接線方向のみを用いる場合に比べて、物体の進行方向を正確に推定することができる。
(1D)進行方向推定装置29は、走行路の形状の信頼度を算出する。進行方向推定装置29は、信頼度が高いほど、走行路の接線方向につける重みを大きくする。そのため、進行方向推定装置29は、物体の進行方向を一層正確に推定することができる。
Therefore, even if the estimation result of the tangential direction of the traveling path is inaccurate, the traveling direction estimation device 29 accurately estimates the traveling direction of the object as compared with the case where only the tangential direction of the traveling path is used. Can be done.
(1D) The traveling direction estimation device 29 calculates the reliability of the shape of the traveling path. The higher the reliability of the traveling direction estimation device 29, the greater the weight given to the tangential direction of the traveling path. Therefore, the traveling direction estimation device 29 can estimate the traveling direction of the object more accurately.

(1E)進行方向推定装置29は、(a)走行路の形状を表す指標が所定の範囲外となってからの経過時間、(b)時間の経過にともなう指標の変化量、及び(c)複数の方法でそれぞれ推定された、走行路の形状の一致度、から成る群から選択される1以上を用いて信頼度を算出する。そのため、進行方向推定装置29は、信頼度を一層正確に算出することができる。 (1E) The traveling direction estimation device 29 includes (a) the elapsed time since the index representing the shape of the traveling path is out of the predetermined range, (b) the amount of change in the index with the passage of time, and (c). The reliability is calculated using one or more selected from the group consisting of the matching degree of the shape of the traveling path estimated by each of a plurality of methods. Therefore, the traveling direction estimation device 29 can calculate the reliability more accurately.

(1F)進行方向推定装置29は、物体の進行方向と、走行路の形状とに基づき、物体のヨーレートを算出することができる。
(1G)進行方向推定装置29は、物体の対地速度を推定する。進行方向推定装置29は、対地速度が予め設定された閾値以上であることを必要条件として、前記ステップ14〜16の処理によって物体の進行方向を推定する。
(1F) The traveling direction estimation device 29 can calculate the yaw rate of an object based on the traveling direction of the object and the shape of the traveling path.
(1G) The traveling direction estimation device 29 estimates the ground speed of the object. The traveling direction estimation device 29 estimates the traveling direction of the object by the processing of steps 14 to 16 on the condition that the ground speed is equal to or higher than a preset threshold value.

進行方向推定装置29は、対地速度が小さい物体については、前記ステップ18の処理で物体の進行方向を推定する。そのため、進行方向推定装置29は、処理負担を軽減できる。なお、対地速度が小さい物体については、進行方向を正確に推定する必要性が低い。対地速度が小さい物体として、例えば、車両以外の物体がある。 The traveling direction estimation device 29 estimates the traveling direction of the object in the process of step 18 for the object having a low ground speed. Therefore, the traveling direction estimation device 29 can reduce the processing load. For an object with a low ground speed, it is less necessary to accurately estimate the traveling direction. As an object having a low ground speed, for example, there is an object other than a vehicle.

(1H)物体追跡装置1は、経過サイクルが所定値以下である物体に限って、前記ステップ12〜16の処理で推定した物体の進行方向を用いて物体の追跡を行う。そのため、常に、前記ステップ12〜16の処理で推定した物体の進行方向を用いて物体の追跡を行う場合に比べて、物体追跡装置1の処理負担を軽減できる。 (1H) The object tracking device 1 tracks an object using the traveling direction of the object estimated in the processes of steps 12 to 16 only for the object whose elapsed cycle is equal to or less than a predetermined value. Therefore, the processing load of the object tracking device 1 can be reduced as compared with the case where the object is always tracked using the traveling direction of the object estimated in the processes of steps 12 to 16.

なお、経過サイクルが所定値を超える物体の場合、前記ステップ19の処理によって物体の進行方向を推定できるので、前記ステップ12〜16の処理を行わなくてもよい。
経過サイクルが所定値以下であることは、物体が初めて検出された時点からの経過時間が所定値以下であることに対応する。
In the case of an object whose elapsed cycle exceeds a predetermined value, the traveling direction of the object can be estimated by the process of step 19, so that the processes of steps 12 to 16 need not be performed.
The fact that the elapsed cycle is less than or equal to a predetermined value corresponds to the fact that the elapsed time from the time when the object is first detected is less than or equal to the predetermined value.

物体追跡装置1は、初めて検出された物体に限って、前記ステップ12〜16の処理で推定した物体の進行方向を用いて物体の追跡を行ってもよい。
<他の実施形態>
以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
The object tracking device 1 may track an object using the traveling direction of the object estimated in the processes of steps 12 to 16 only for the object detected for the first time.
<Other Embodiments>
Although the embodiments of the present disclosure have been described above, the present disclosure is not limited to the above-described embodiments, and can be implemented in various modifications.

(1)ミリ波レーダ装置31の代わりに、他のセンサを用いて物体を検出してもよい。
(2)車両3の代わりに他の移動体を用いてもよい。他の移動体として、例えば、船舶、航空機、鉄道車両等が挙げられる。
(1) An object may be detected by using another sensor instead of the millimeter wave radar device 31.
(2) Another moving body may be used instead of the vehicle 3. Examples of other moving bodies include ships, aircraft, railroad vehicles, and the like.

(3)ステップ21〜24のうち、任意に選択した1〜3のステップを実行し、残りのステップは実行しなくてもよい。例えば、ステップ21は実行し、ステップ22〜24は実行しなくてもよい。この場合、ステップ25で得られる走行路の形状は、ステップ21で推定した走行路の形状になる。 (3) Of steps 21 to 24, steps 1 to 3 arbitrarily selected may be executed, and the remaining steps may not be executed. For example, step 21 may be performed and steps 22-24 may not be performed. In this case, the shape of the travel path obtained in step 25 is the shape of the travel path estimated in step 21.

また、例えば、ステップ22は実行し、ステップ21、23〜24は実行しなくてもよい。この場合、ステップ25で得られる走行路の形状は、ステップ22で推定した走行路の形状になる。
また、例えば、ステップ23は実行し、ステップ21〜22、24は実行しなくてもよい。この場合、ステップ25で得られる走行路の形状は、ステップ23で推定した走行路の形状になる。
Further, for example, step 22 may be executed and steps 21, 23 to 24 may not be executed. In this case, the shape of the travel path obtained in step 25 is the shape of the travel path estimated in step 22.
Further, for example, steps 23 may be executed and steps 21 to 22 and 24 may not be executed. In this case, the shape of the travel path obtained in step 25 is the shape of the travel path estimated in step 23.

また、例えば、ステップ24は実行し、ステップ21〜23は実行しなくてもよい。この場合、ステップ25で得られる走行路の形状は、ステップ24で推定した走行路の形状になる。
(4)ステップ16では、ステップ15で算出した接線方向を物体の進行方向としてもよい。
Further, for example, steps 24 may be executed and steps 21 to 23 may not be executed. In this case, the shape of the travel path obtained in step 25 is the shape of the travel path estimated in step 24.
(4) In step 16, the tangential direction calculated in step 15 may be used as the traveling direction of the object.

(5)ステップ16において、接線方向と、車両3の進行方向とにつける重みは、信頼度以外の基準に基づき設定してもよい。また、接線方向と、車両3の進行方向とにつける重みは、固定値であってもよい。 (5) In step 16, the weights given to the tangential direction and the traveling direction of the vehicle 3 may be set based on a reference other than the reliability. Further, the weights given to the tangential direction and the traveling direction of the vehicle 3 may be fixed values.

(6)本開示に記載の物体追跡装置1及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の物体追跡装置1及びその手法は、一つ以上の専用ハードウェア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の物体追跡装置1及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウェア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されてもよい。物体追跡装置1に含まれる各部の機能を実現する手法には、必ずしもソフトウェアが含まれている必要はなく、その全部の機能が、一つあるいは複数のハードウェアを用いて実現されてもよい。
(7)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。
(6) The object tracking device 1 and its method described in the present disclosure are provided by configuring a processor and memory programmed to perform one or more functions embodied by a computer program. It may be realized by a dedicated computer. Alternatively, the object tracking device 1 and its method described in the present disclosure may be realized by a dedicated computer provided by configuring a processor with one or more dedicated hardware logic circuits. Alternatively, the object tracking device 1 and its method described in the present disclosure comprises a processor and memory programmed to perform one or more functions and a processor composed of one or more hardware logic circuits. It may be realized by one or more dedicated computers configured by a combination. The computer program may also be stored on a computer-readable non-transitional tangible recording medium as an instruction executed by the computer. The method for realizing the functions of each part included in the object tracking device 1 does not necessarily include software, and all the functions may be realized by using one or a plurality of hardware.
(7) A plurality of functions possessed by one component in the above embodiment may be realized by a plurality of components, or one function possessed by one component may be realized by a plurality of components. .. Further, a plurality of functions possessed by the plurality of components may be realized by one component, or one function realized by the plurality of components may be realized by one component. Further, a part of the configuration of the above embodiment may be omitted. In addition, at least a part of the configuration of the above embodiment may be added or replaced with the configuration of the other above embodiment.

(8)上述した物体追跡装置1の他、当該物体追跡装置1を構成要素とするシステム、当該物体追跡装置1としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、物体追跡方法等、種々の形態で本開示を実現することもできる。 (8) In addition to the above-mentioned object tracking device 1, a system having the object tracking device 1 as a component, a program for operating a computer as the object tracking device 1, a non-transitional non-transitional memory such as a semiconductor memory in which this program is recorded. The present disclosure can also be realized in various forms such as an actual recording medium and an object tracking method.

1…物体追跡装置、3…車両、5…CPU、7…メモリ、9…物体検出ユニット、11…位置算出ユニット、13…形状推定ユニット、15…接線方向算出ユニット、17…進行方向推定ユニット、19…移動体進行方向算出ユニット、21…信頼度算出ユニット、23…ヨーレート算出ユニット、25…対地速度推定ユニット、27…追跡ユニット、29…進行方向推定装置、31…ミリ波レーダ装置、33…カメラ、35…情報記憶部、37…センサ群、39…物体検出領域、41…走行軌跡、43…物体、45…走行路 1 ... Object tracking device, 3 ... Vehicle, 5 ... CPU, 7 ... Memory, 9 ... Object detection unit, 11 ... Position calculation unit, 13 ... Shape estimation unit, 15 ... Tangent direction calculation unit, 17 ... Travel direction estimation unit, 19 ... Moving object traveling direction calculation unit, 21 ... Reliability calculation unit, 23 ... Yaw rate calculation unit, 25 ... Ground speed estimation unit, 27 ... Tracking unit, 29 ... Travel direction estimation device, 31 ... Millimeter wave radar device, 33 ... Camera, 35 ... Information storage unit, 37 ... Sensor group, 39 ... Object detection area, 41 ... Travel locus, 43 ... Object, 45 ... Travel path

Claims (9)

移動体に搭載されたセンサを用いて、前記移動体の周辺に存在する物体を検出するように構成された物体検出ユニットと、
前記物体検出ユニットにより検出された前記物体の位置を算出するように構成された位置算出ユニットと、
前記物体検出ユニットにより検出された前記物体が存在する走行路の形状を推定するように構成された形状推定ユニットと、
前記形状推定ユニットが推定した前記走行路の形状と、前記位置算出ユニットが算出した前記物体の位置とに基づき、前記物体の位置における前記走行路の接線方向を算出するように構成された接線方向算出ユニットと、
前記接線方向算出ユニットが算出した前記接線方向に基づき、前記物体検出ユニットにより検出された前記物体の進行方向を推定するように構成された進行方向推定ユニットと、
を備える進行方向推定装置。
An object detection unit configured to detect an object existing around the moving body using a sensor mounted on the moving body, and an object detection unit.
A position calculation unit configured to calculate the position of the object detected by the object detection unit, and a position calculation unit.
A shape estimation unit configured to estimate the shape of the traveling path on which the object exists, which is detected by the object detection unit, and a shape estimation unit.
The tangential direction configured to calculate the tangential direction of the travel path at the position of the object based on the shape of the travel path estimated by the shape estimation unit and the position of the object calculated by the position calculation unit. Calculation unit and
A traveling direction estimation unit configured to estimate the traveling direction of the object detected by the object detection unit based on the tangential direction calculated by the tangential direction calculating unit.
A traveling direction estimator comprising.
請求項1に記載の進行方向推定装置であって、
前記形状推定ユニットは、前記移動体の走行軌跡の曲率、前記走行路に沿って並ぶ路側物の配列、地図情報、及び、前記走行路における走行区画線の形状から成る群から選択される1以上を用いて、前記走行路の形状を推定するように構成された進行方向推定装置。
The traveling direction estimation device according to claim 1.
The shape estimation unit is one or more selected from a group consisting of the curvature of the traveling locus of the moving body, the arrangement of roadside objects lined up along the traveling path, map information, and the shape of the traveling marking line on the traveling path. A traveling direction estimation device configured to estimate the shape of the traveling path using the above.
請求項1又は2に記載の進行方向推定装置であって、
前記移動体の進行方向を算出するように構成された移動体進行方向算出ユニットをさらに備え、
前記進行方向推定ユニットは、前記接線方向と、前記移動体の進行方向とを、それぞれに所定の重みをつけて合成することで、前記物体の進行方向を推定するように構成された進行方向推定装置。
The traveling direction estimation device according to claim 1 or 2.
A mobile body traveling direction calculation unit configured to calculate the traveling direction of the moving body is further provided.
The traveling direction estimation unit is configured to estimate the traveling direction of the object by synthesizing the tangential direction and the traveling direction of the moving body with predetermined weights. apparatus.
請求項3に記載の進行方向推定装置であって、
前記走行路の形状の信頼度を算出するように構成された信頼度算出ユニットをさらに備え、
前記進行方向推定ユニットは、前記信頼度が高いほど、前記接線方向につける前記重みを大きくするように構成された進行方向推定装置。
The traveling direction estimation device according to claim 3.
A reliability calculation unit configured to calculate the reliability of the shape of the traveling path is further provided.
The traveling direction estimation unit is a traveling direction estimation device configured so that the higher the reliability, the greater the weight attached to the tangential direction.
請求項4に記載の進行方向推定装置であって、
前記信頼度算出ユニットは、(a)前記形状推定ユニットが推定した前記走行路の形状を表す指標が所定の範囲外となってからの経過時間、(b)時間の経過にともなう前記指標の変化量、及び(c)複数の方法でそれぞれ推定された、前記走行路の形状の一致度、から成る群から選択される1以上を用いて前記信頼度を算出するように構成された進行方向推定装置。
The traveling direction estimation device according to claim 4.
The reliability calculation unit includes (a) the elapsed time since the index representing the shape of the traveling path estimated by the shape estimation unit is out of the predetermined range, and (b) the change of the index with the passage of time. The traveling direction estimation configured to calculate the reliability using one or more selected from the group consisting of the quantity and (c) the degree of coincidence of the shape of the traveling path estimated by each of a plurality of methods. apparatus.
請求項1〜5のいずれか1項に記載の進行方向推定装置であって、
前記進行方向推定ユニットが推定した前記物体の進行方向と、前記形状推定ユニットが推定した前記走行路の形状とに基づき、前記物体のヨーレートを算出するように構成されたヨーレート算出ユニットをさらに備える進行方向推定装置。
The traveling direction estimation device according to any one of claims 1 to 5.
A progress further comprising a yaw rate calculation unit configured to calculate the yaw rate of the object based on the traveling direction of the object estimated by the traveling direction estimation unit and the shape of the traveling path estimated by the shape estimating unit. Direction estimator.
請求項1〜6のいずれか1項に記載の進行方向推定装置であって、
前記物体検出ユニットにより検出された前記物体の対地速度を推定するように構成された対地速度推定ユニットをさらに備え、
前記進行方向推定ユニットは、前記対地速度推定ユニットが推定した前記対地速度が予め設定された閾値以上であることを必要条件として、前記物体の進行方向を推定するように構成された進行方向推定装置。
The traveling direction estimation device according to any one of claims 1 to 6.
Further comprising a ground speed estimation unit configured to estimate the ground speed of the object detected by the object detection unit.
The traveling direction estimation unit is a traveling direction estimation device configured to estimate the traveling direction of the object on the condition that the ground speed estimated by the ground speed estimation unit is equal to or higher than a preset threshold value. ..
物体追跡装置であって、
請求項1〜7のいずれか1項に記載の進行方向推定装置と、
前記物体検出ユニットが検出した前記物体の追跡を行うように構成された追跡ユニットと、
を備え、
前記追跡ユニットは、前記物体検出ユニットによって初めて検出された時点からの経過時間が所定値以下である前記物体に限って、前記進行方向推定装置が推定した前記物体の進行方向を用いて前記物体の追跡を行うように構成された物体追跡装置。
An object tracking device
The traveling direction estimation device according to any one of claims 1 to 7,
A tracking unit configured to track the object detected by the object detection unit, and
With
The tracking unit is limited to the object whose elapsed time from the time when it is first detected by the object detection unit is equal to or less than a predetermined value, and uses the traveling direction of the object estimated by the traveling direction estimation device to obtain the object. An object tracking device configured to perform tracking.
請求項8に記載の物体追跡装置であって、
前記追跡ユニットは、前記物体検出ユニットによって初めて検出された前記物体に限って、前記進行方向推定装置が推定した前記物体の進行方向を用いて前記物体の追跡を行うように構成された物体追跡装置。
The object tracking device according to claim 8.
The tracking unit is an object tracking device configured to track the object using the traveling direction of the object estimated by the traveling direction estimation device only for the object detected for the first time by the object detecting unit. ..
JP2019183839A 2019-10-04 2019-10-04 Traveling direction estimation device and object tracking device Active JP7294978B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019183839A JP7294978B2 (en) 2019-10-04 2019-10-04 Traveling direction estimation device and object tracking device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019183839A JP7294978B2 (en) 2019-10-04 2019-10-04 Traveling direction estimation device and object tracking device

Publications (2)

Publication Number Publication Date
JP2021060245A true JP2021060245A (en) 2021-04-15
JP7294978B2 JP7294978B2 (en) 2023-06-20

Family

ID=75379944

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019183839A Active JP7294978B2 (en) 2019-10-04 2019-10-04 Traveling direction estimation device and object tracking device

Country Status (1)

Country Link
JP (1) JP7294978B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005140749A (en) * 2003-11-10 2005-06-02 Toyota Motor Corp Curve-estimating apparatus and travel control apparatus using the same
JP2008268013A (en) * 2007-04-20 2008-11-06 Funai Electric Co Ltd Navigation system
JPWO2012104918A1 (en) * 2011-02-03 2014-07-03 トヨタ自動車株式会社 Road shape estimation device
JP2014151853A (en) * 2013-02-13 2014-08-25 Nissan Motor Co Ltd Road profile prediction unit
JP2017187843A (en) * 2016-04-01 2017-10-12 株式会社デンソー Drive assist system
JP2019021202A (en) * 2017-07-20 2019-02-07 株式会社Ihi Control device and control method for mobile robot
JP2019074466A (en) * 2017-10-18 2019-05-16 株式会社Soken Moving object recognition device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012104918A (en) 2010-11-08 2012-05-31 Canon Inc Imaging device and method of driving the same

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005140749A (en) * 2003-11-10 2005-06-02 Toyota Motor Corp Curve-estimating apparatus and travel control apparatus using the same
JP2008268013A (en) * 2007-04-20 2008-11-06 Funai Electric Co Ltd Navigation system
JPWO2012104918A1 (en) * 2011-02-03 2014-07-03 トヨタ自動車株式会社 Road shape estimation device
JP2014151853A (en) * 2013-02-13 2014-08-25 Nissan Motor Co Ltd Road profile prediction unit
JP2017187843A (en) * 2016-04-01 2017-10-12 株式会社デンソー Drive assist system
JP2019021202A (en) * 2017-07-20 2019-02-07 株式会社Ihi Control device and control method for mobile robot
JP2019074466A (en) * 2017-10-18 2019-05-16 株式会社Soken Moving object recognition device

Also Published As

Publication number Publication date
JP7294978B2 (en) 2023-06-20

Similar Documents

Publication Publication Date Title
CN107851392B (en) Route generation device, route generation method, and medium storing route generation program
JP6207723B2 (en) Collision prevention device
US10102761B2 (en) Route prediction device
WO2018209997A1 (en) Filter estimation method and device for vehicle-mounted millimeter wave radar for use in target tracking, and storage medium
US11440541B2 (en) Apparatus and method for predicting concurrent lane change and vehicle including the same
JP2018036067A (en) Own vehicle position recognition device
RU2770230C1 (en) Method and device for predicting the movement of another vehicle
CN106203381A (en) Obstacle detection method and device in a kind of driving
JP6643215B2 (en) Other lane monitoring device
JP7125286B2 (en) Behavior prediction device and automatic driving device
JP7260416B2 (en) tracking device
CN109887321B (en) Unmanned vehicle lane change safety judgment method and device and storage medium
US11841419B2 (en) Stationary and moving object recognition apparatus
CN109885943B (en) Prediction method and device for driving decision, storage medium and terminal equipment
JP2021060245A (en) Traveling direction estimation device and object tracking device
EP4209854A1 (en) Overtaking planning method and apparatus, and electronic device and storage medium
KR20200133122A (en) Apparatus and method for preventing vehicle collision
JP2019202663A (en) Runway setting device
CN117523914A (en) Collision early warning method, device, equipment, readable storage medium and program product
JP6834020B2 (en) Object recognition device and object recognition method
JP2020053069A (en) On-vehicle electronic control device
WO2022024947A1 (en) Path generating device, path generating method, and path generating program
JP7154470B2 (en) Information processing system, information processing device, program and information processing method
JP2019059274A (en) Vehicular control device and method for controlling vehicle
JP2018018215A (en) Object feature point detector

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230608

R150 Certificate of patent or registration of utility model

Ref document number: 7294978

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150