JP6333437B1 - Object recognition processing device, object recognition processing method, and vehicle control system - Google Patents
Object recognition processing device, object recognition processing method, and vehicle control system Download PDFInfo
- Publication number
- JP6333437B1 JP6333437B1 JP2017084283A JP2017084283A JP6333437B1 JP 6333437 B1 JP6333437 B1 JP 6333437B1 JP 2017084283 A JP2017084283 A JP 2017084283A JP 2017084283 A JP2017084283 A JP 2017084283A JP 6333437 B1 JP6333437 B1 JP 6333437B1
- Authority
- JP
- Japan
- Prior art keywords
- detection
- correlation
- time
- data
- predicted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims abstract description 190
- 238000003672 processing method Methods 0.000 title claims abstract description 10
- 238000001514 detection method Methods 0.000 claims abstract description 315
- 238000012937 correction Methods 0.000 claims description 147
- 238000000034 method Methods 0.000 description 72
- 230000000875 corresponding effect Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 10
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003449 preventive effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
Images
Landscapes
- Traffic Control Systems (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
【課題】従来と比べて、自車両に対する物体の相対位置をより正確に取得することを図った物体認識処理装置および物体認識処理方法と、その物体認識処理装置を備えた車両制御システムを得る。【解決手段】物体認識処理装置および物体認識処理方法は、時刻tkの予測データに第2観測データが取り込まれており、第1検出位置D1(tk)が検出された場合には、予測位置P(tk)と更新用検出位置D1r(tk)とを用いて航跡位置T(tk)を生成するように構成されている。【選択図】図1An object recognition processing device and an object recognition processing method for obtaining a relative position of an object relative to a host vehicle more accurately than a conventional vehicle, and a vehicle control system including the object recognition processing device. In the object recognition processing device and the object recognition processing method, when the second observation data is captured in the prediction data at time tk and the first detection position D1 (tk) is detected, the prediction position P is detected. The wake position T (tk) is generated using (tk) and the update detection position D1r (tk). [Selection] Figure 1
Description
本発明は、自車両に対する物体の相対位置を取得する物体認識処理装置および物体認識処理方法と、その物体認識処理装置を備えた車両制御システムに関するものである。 The present invention relates to an object recognition processing device and an object recognition processing method for acquiring a relative position of an object with respect to a host vehicle, and a vehicle control system including the object recognition processing device.
従来から、自動運転技術または予防安全運転技術が適用されている車両は、自車両と自車両の周辺の物体との距離等を測定する車載用測距装置を備えて構成されている。車載用測距装置による測定結果は、自車両が前方の物体に衝突した際の被害を軽減する衝突被害軽減ブレーキシステム、自車両が前方の車両に追従するアダプティブクルーズコントロールシステム、および自車両が自動で駐車スペースに駐車する自動駐車システム等に使用される。このように、車載用測距装置は、自車両の運転の安全および自車両の快適な運転を向上させるためのものであり、車両用アプリケーションで活用されている。 2. Description of the Related Art Conventionally, a vehicle to which an automatic driving technique or a preventive safe driving technique is applied includes an in-vehicle ranging device that measures a distance between the own vehicle and an object around the own vehicle. The measurement results from the in-vehicle ranging device show that the collision damage reduction brake system that reduces damage when the host vehicle collides with an object ahead, the adaptive cruise control system that the host vehicle follows the vehicle ahead, and the host vehicle automatically Used in automatic parking systems that park in parking spaces. As described above, the in-vehicle distance measuring device is for improving the safety of driving of the own vehicle and the comfortable driving of the own vehicle, and is used in a vehicle application.
ここで、車載用測距装置としては、レーダ装置(例えば、特許文献1参照)が多く利用されている。一般的に、レーダ装置は、電波を自車両の周辺の物体に送信してその物体から反射した電波を受信することで、自車両に対する物体の相対位置および相対速度を測定するものである。レーダ装置によって検出される物体の検出位置は、厳密には、物体の中心位置ではなく、レーダ装置から送信される電波を物体が反射する反射点位置である。したがって、自車両と物体の位置関係によっては、反射点が大きく変化する。 Here, as an in-vehicle distance measuring device, a radar device (for example, see Patent Document 1) is often used. Generally, a radar apparatus measures the relative position and relative speed of an object with respect to the host vehicle by transmitting the radio wave to an object around the host vehicle and receiving the radio wave reflected from the object. Strictly speaking, the detection position of the object detected by the radar apparatus is not the center position of the object but the reflection point position where the object reflects the radio wave transmitted from the radar apparatus. Therefore, the reflection point varies greatly depending on the positional relationship between the host vehicle and the object.
特許文献1に記載のレーダ装置は、自車両から先行車両までの距離と、自車両に対する先行車両の方位を検出する。また、このレーダ装置は、検出した距離および方位から、自車両の長さ方向に対する先行車両の位置と、自車両の幅方向に対する先行車両の中心位置を算出するように構成されている。このように構成することで、反射点によるレーダの検出位置の変化への対策を実現している。
The radar apparatus described in
特許文献1に記載の従来技術においては、レーダ装置によって検出される検出位置と、その検出位置が検出された時刻よりも過去の時刻の航跡位置を用いて生成される予測位置との相関を取る方法については特に言及されていない。
In the prior art described in
例えば、検出位置と、その検出位置が検出された時刻に対応する予測位置との距離の大小によって相関を取る場合、反射点によっては検出位置が大きく変化し、その結果、検出位置と予測位置との相関を正確に取ることができない。このような場合、自車両に対する物体の相対位置を正確に取得することができない。 For example, when the correlation is determined by the distance between the detected position and the predicted position corresponding to the time when the detected position was detected, the detected position varies greatly depending on the reflection point, and as a result, the detected position and the predicted position Cannot be accurately correlated. In such a case, the relative position of the object with respect to the host vehicle cannot be obtained accurately.
本発明は、上記の課題を解決するためになされたもので、従来と比べて、自車両に対する物体の相対位置をより正確に取得することを図った物体認識処理装置および物体認識処理方法と、その物体認識処理装置を備えた車両制御システムを得ることを目的とする。 The present invention has been made to solve the above-described problems, and compared with the conventional art, an object recognition processing device and an object recognition processing method that aim to more accurately acquire the relative position of an object with respect to the host vehicle, An object is to obtain a vehicle control system including the object recognition processing device.
本発明における物体認識処理装置は、検出波を自車両の周辺の物体に送信して物体から反射した検出波を受信し、受信した検出波に基づいて、第1検出位置を含む観測データを第1観測データとして検出する第1物体検出部と、第1物体検出部と異なる検出方式で、第2検出位置および物体寸法を含む観測データを第2観測データとして検出する第2物体検出部と、観測データが検出された時刻tkよりも前の時刻tk−1の航跡位置を含む航跡データを用いて、時刻tkの航跡位置を含む航跡データを予測することで、時刻tkの予測位置を含む予測データを生成する予測処理部と、時刻tk−1以前に第2観測データがすでに検出されており、時刻tkの第1観測データが検出された場合、時刻tkの予測データに含まれる予測位置および物体寸法に基づいて予測位置を補正することで時刻tkの相関用予測位置を含む補正データを生成する補正処理部と、時刻tkの補正データに相関用予測位置が含まれる場合、相関がある時刻tkの相関用予測位置と第1検出位置の組み合わせを含む相関データを生成する相関処理部と、時刻tkの相関データに相関用予測位置と第1検出位置の組み合わせが含まれる場合、相関用予測位置を生成した際の予測位置の補正に基づいて第1検出位置を補正することで時刻tkの更新用検出位置を生成し、相関用予測位置に対応する予測位置と、更新用検出位置とを用いて、時刻tkの航跡位置を含む航跡データを生成する更新処理部と、を備えたものである。 The object recognition processing device according to the present invention transmits a detection wave to an object around the host vehicle, receives a detection wave reflected from the object, and receives observation data including a first detection position based on the received detection wave. A first object detection unit that detects as one observation data; a second object detection unit that detects observation data including a second detection position and an object size as second observation data in a detection method different from the first object detection unit; observation data using the track data including the track position of the time tk-1 before the time tk which is detected, to predict the trajectory data including track position at time tk, the prediction comprising the prediction position of the time tk When the second observation data is already detected before the time tk−1 and the first observation data at the time tk is detected, the prediction position included in the prediction data at the time tk is detected. Yo If it contains correction processing unit and the correlation predicted position in the correction data at time tk for generating correction data including the correlation predicted position at time tk by correcting the predicted position based on the object size, the time that there is a correlation A correlation processing unit that generates correlation data including a combination of the prediction position for correlation of tk and the first detection position, and a correlation prediction when the combination of the correlation prediction position and the first detection position is included in the correlation data at time tk The detection position for update at time tk is generated by correcting the first detection position based on the correction of the prediction position when the position is generated, and the prediction position corresponding to the correlation prediction position and the detection position for update are obtained. And an update processing unit that generates wake data including the wake position at time tk .
本発明における物体認識処理方法は、検出波を自車両の周辺の物体に送信して物体から反射した検出波を受信し、受信した検出波に基づいて、第1検出位置を含む観測データを第1観測データとして検出する第1物体検出ステップと、第1物体検出ステップと異なる検出方式で、第2検出位置および物体寸法を含む観測データを第2観測データとして検出する第2物体検出ステップと、観測データが検出された時刻tkよりも前の時刻tk−1の航跡位置を含む航跡データを用いて、時刻tkの航跡位置を含む航跡データを予測することで、時刻tkの予測位置を含む予測データを生成する予測処理ステップと、時刻tk−1以前に第2観測データがすでに検出されており、時刻tkの第1観測データが検出された場合、予測データに含まれる予測位置および物体寸法に基づいて予測位置を補正することで相関用予測位置を含む補正データを生成する補正処理ステップと、時刻tkの補正データに相関用予測位置が含まれる場合、相関がある時刻tkの相関用予測位置と第1検出位置の組み合わせを含む相関データを生成する相関処理ステップと、時刻tkの相関データに相関用予測位置と第1検出位置の組み合わせが含まれる場合、相関用予測位置を生成した際の予測位置の補正に基づいて第1検出位置を補正することで時刻tkの更新用検出位置を生成し、相関用予測位置に対応する予測位置と、更新用検出位置とを用いて、時刻tkの航跡位置を含む航跡データを生成する更新処理ステップと、を備えたものである。 In the object recognition processing method according to the present invention, a detection wave is transmitted to an object around the host vehicle, a detection wave reflected from the object is received, and observation data including a first detection position is obtained based on the received detection wave. A first object detection step for detecting as one observation data; a second object detection step for detecting observation data including a second detection position and an object size as second observation data by a detection method different from the first object detection step; observation data using the track data including the track position of the time tk-1 before the time tk which is detected, to predict the trajectory data including track position at time tk, the prediction comprising the prediction position of the time tk a prediction processing step of generating data, and the second observation data is detected already at time tk-1 earlier, if the first observation data at time tk is detected, is included in the prediction data A correction processing step of generating correction data including the correlation predicted position by correcting the predicted position based on the predicted position and the object size, if it contains the correlation predicted position in the correction data at time tk, the time that there is a correlation Correlation processing step for generating correlation data including a combination of the prediction position for correlation of tk and the first detection position, and when the correlation data of time tk includes a combination of the prediction position for correlation and the first detection position The detection position for update at time tk is generated by correcting the first detection position based on the correction of the prediction position when the position is generated, and the prediction position corresponding to the correlation prediction position and the detection position for update are obtained. And an update processing step for generating wake data including the wake position at time tk .
本発明における車両制御システムは、物体認識処理装置と、物体認識処理装置の更新処理部によって生成される航跡データに基づいて、自車両を制御する車両制御装置と、を備えたものである。 The vehicle control system according to the present invention includes an object recognition processing device and a vehicle control device that controls the host vehicle based on track data generated by an update processing unit of the object recognition processing device.
本発明によれば、従来と比べて、自車両に対する物体の相対位置をより正確に取得することを図った物体認識処理装置および物体認識処理方法と、その物体認識処理装置を備えた車両制御システムを得ることができる。 According to the present invention, an object recognition processing device and an object recognition processing method for obtaining a relative position of an object with respect to the host vehicle more accurately than before, and a vehicle control system including the object recognition processing device. Can be obtained.
以下、本発明による物体認識処理装置および物体認識処理方法と、その物体認識処理装置を備えた車両制御システムを、好適な実施の形態にしたがって図面を用いて説明する。なお、図面の説明においては、同一部分または相当部分には同一符号を付し、重複する説明を省略する。 Hereinafter, an object recognition processing device and an object recognition processing method according to the present invention, and a vehicle control system including the object recognition processing device will be described with reference to the drawings according to a preferred embodiment. In the description of the drawings, the same portions or corresponding portions are denoted by the same reference numerals, and redundant description is omitted.
実施の形態1.
図1は、本発明の実施の形態1における物体認識処理装置1を備えた車両制御システムの構成を示すブロック図である。なお、図1中の矢印は、信号の流れを示すものとする。
FIG. 1 is a block diagram showing a configuration of a vehicle control system including an object
図1に示す車両制御システムは、自車両に設けられ、物体認識処理装置1および車両制御装置2を備える。物体認識処理装置1は、第1物体検出部11、第2物体検出部12および物体認識処理部13を備える。
The vehicle control system shown in FIG. 1 is provided in a host vehicle and includes an object
第1物体検出部11および第2物体検出部12は、自車両の周辺の物体を検出し、さらに、その物体の自車両に対する相対位置である検出位置を含む観測データを検出する。 The first object detection unit 11 and the second object detection unit 12 detect an object around the host vehicle, and further detect observation data including a detection position that is a relative position of the object with respect to the host vehicle.
具体的には、第1物体検出部11は、光、電磁波、超音波等の検出波を自車両の周辺の物体に送信してその物体から反射した検出波を受信し、受信した検出波に基づいて、第1検出位置を含む第1観測データを検出する。第1物体検出部11は、検出した第1観測データを物体認識処理部13に出力する。なお、第1観測データには、第1検出位置に加えて、その第1検出位置の精度情報をさらに含むようにしてもよい。 Specifically, the first object detection unit 11 transmits detection waves such as light, electromagnetic waves, and ultrasonic waves to objects around the own vehicle, receives detection waves reflected from the objects, and receives the detected waves. Based on this, the first observation data including the first detection position is detected. The first object detection unit 11 outputs the detected first observation data to the object recognition processing unit 13. In addition to the first detection position, the first observation data may further include accuracy information of the first detection position.
第1物体検出部11は、例えば、ミリ波レーダ、レーザレーダ、超音波センサ等のセンサと、そのセンサの出力を解析することで第1観測データを演算するマイクロコンピュータとを用いて構成される。第1物体検出部11によって検出される第1検出位置は、第1物体検出部11によって送信される検出波を物体が反射する反射点位置となる。 The first object detection unit 11 is configured using, for example, a sensor such as a millimeter wave radar, a laser radar, or an ultrasonic sensor, and a microcomputer that calculates the first observation data by analyzing the output of the sensor. . The first detection position detected by the first object detection unit 11 is a reflection point position where the object reflects the detection wave transmitted by the first object detection unit 11.
第2物体検出部12は、物体から送信された光、電磁波等の検出波を受信し、受信した検出波に基づいて、第2検出位置を含み、検出された物体の形状を長方形と仮定したときの物体の幅方向(以下、X方向と称す)と、物体の長さ方向(以下、Y方向と称す)のそれぞれの長さを示す物体寸法をさらに含む第2観測データを検出する。第2物体検出部12は、検出した第2観測データを物体認識処理部13に出力する。なお、第2観測データには、第2検出位置および物体寸法に加えて、自車両に対する物体の方位(向き)をさらに含むようにしてもよい。 The second object detection unit 12 receives detection waves such as light and electromagnetic waves transmitted from the object, and based on the received detection waves, the second object detection unit 12 includes a second detection position and assumes that the shape of the detected object is a rectangle. Second observation data further including an object size indicating the length of the object in the width direction (hereinafter referred to as the X direction) and the length direction of the object (hereinafter referred to as the Y direction) is detected. The second object detection unit 12 outputs the detected second observation data to the object recognition processing unit 13. The second observation data may further include the direction (orientation) of the object with respect to the host vehicle in addition to the second detection position and the object size.
なお、物体寸法を検出する方法の一例として、検出した物体の形状を長方形と仮定して、X方向とY方向のそれぞれの長さを直接演算する方法が挙げられる。この場合、第2観測データには、第2検出位置および物体寸法に加えて、その物体寸法の精度情報をさらに含むようにしてもよい。 As an example of a method for detecting the object size, there is a method for directly calculating the lengths in the X direction and the Y direction assuming that the shape of the detected object is a rectangle. In this case, the second observation data may further include accuracy information of the object dimension in addition to the second detection position and the object dimension.
また、物体寸法を検出する方法の一例として、物体種別と種別ごとの物体寸法を予め規定しておき、検出した物体種別を特定し、種別に対応した物体寸法を選択する方法が挙げられる。なお、物体種別としては、例えば、自動車、トラック、自転車、人、標識、ポール等が挙げられる。この場合、第2観測データには、第2検出位置および物体寸法に加えて、その物体寸法を選択するために検出した物体種別の信頼度情報をさらに含むようにしてもよい。なお、物体種別の信頼度を検出する方法としては、例えば、第2物体検出部12によって物体種別が特定された回数に応じて高い信頼度を検出する方法が挙げられる。 Further, as an example of a method for detecting an object size, there is a method in which an object type and an object size for each type are defined in advance, the detected object type is specified, and an object size corresponding to the type is selected. Examples of the object type include an automobile, a truck, a bicycle, a person, a sign, and a pole. In this case, the second observation data may further include reliability information of the object type detected for selecting the object size in addition to the second detection position and the object size. As a method for detecting the reliability of the object type, for example, there is a method of detecting a high reliability according to the number of times the object type is specified by the second object detection unit 12.
第2物体検出部12は、例えば、光学カメラ、複数の車両間で通信するための機器に相当する車車間通信機器等のセンサと、そのセンサの出力を解析することで第2観測データを演算するマイクロコンピュータとを用いて構成される。第2物体検出部12によって検出される第2検出位置は、検出した物体のエッジの中央位置、すなわち、検出した物体の形状を長方形と仮定したときのその長方形の短辺上の中央位置となる。 The second object detection unit 12 calculates the second observation data by analyzing a sensor such as an optical camera, a vehicle-to-vehicle communication device corresponding to a device for communicating between a plurality of vehicles, and the output of the sensor. Configured with a microcomputer. The second detection position detected by the second object detection unit 12 is the center position of the edge of the detected object, that is, the center position on the short side of the rectangle when the shape of the detected object is assumed to be a rectangle. .
このように、第2物体検出部12は、第1物体検出部11と異なる検出方式で、第2検出位置および物体寸法を含む第2観測データを検出する。 As described above, the second object detection unit 12 detects the second observation data including the second detection position and the object size by a detection method different from that of the first object detection unit 11.
物体認識処理部13は、例えば、演算処理を実行するマイクロコンピュータと、プログラムデータ、固定値データ等のデータを記憶するROM(Read Only Memory)と、格納されているデータを更新して順次書き換えられるRAM(Random Access Memory)とによって実現される。物体認識処理部13は、予測処理部14、補正処理部15、相関処理部16および更新処理部17を備える。 The object recognition processing unit 13 is, for example, a microcomputer that executes arithmetic processing, a ROM (Read Only Memory) that stores data such as program data and fixed value data, and the stored data are updated and sequentially rewritten. This is realized by a RAM (Random Access Memory). The object recognition processing unit 13 includes a prediction processing unit 14, a correction processing unit 15, a correlation processing unit 16, and an update processing unit 17.
予測処理部14は、後述する航跡データを用いて、観測データが検出された時刻tk(現在時刻)の航跡データを予測し、その予測結果を時刻tkの予測データとして生成する。具体的には、予測処理部14は、時刻tkよりも1つ前の時刻tk−1(過去時刻)の航跡データを用いて、時刻tkの航跡データを予測し、その予測結果を時刻tkの予測データとして生成する。予測処理部14は、生成した予測データを補正処理部15に出力する。 The prediction processing unit 14 predicts track data at time tk (current time) when observation data is detected using track data described later, and generates a prediction result as prediction data at time tk. Specifically, the prediction processing unit 14 predicts the track data at the time tk using the track data at the time tk-1 (past time) immediately before the time tk, and the prediction result at the time tk. Generate as prediction data. The prediction processing unit 14 outputs the generated prediction data to the correction processing unit 15.
続いて、予測処理部14によって行われる予測データの生成について、図2を参照しながらさらに説明する。図2は、本発明の実施の形態1における予測処理部14によって行われる予測データの生成処理を示すフローチャートである。
Next, generation of prediction data performed by the prediction processing unit 14 will be further described with reference to FIG. FIG. 2 is a flowchart showing prediction data generation processing performed by the prediction processing unit 14 according to
ステップS101において、予測処理部14は、更新処理部17から入力される時刻tk−1の航跡データに第2観測データが取り込まれているか否かを判定する。時刻tk−1の航跡データに第2観測データが取り込まれていると判定された場合には、処理がステップS102へと進む。一方、時刻tk−1の航跡データに第2観測データが取り込まれていないと判定された場合には、処理がステップS103へと進む。 In step S <b> 101, the prediction processing unit 14 determines whether or not the second observation data is captured in the track data at time tk−1 input from the update processing unit 17. If it is determined that the second observation data is captured in the track data at time tk-1, the process proceeds to step S102. On the other hand, if it is determined that the second observation data is not captured in the track data at time tk-1, the process proceeds to step S103.
処理がステップS102へ進む場合、すなわち、時刻tk−1の航跡データに第2観測データが取り込まれている場合、時刻tk−1以前に、第2物体検出部12が物体の観測データをすでに検出していることとなる。この場合、時刻tk−1の航跡データには、航跡位置T(tk−1)および物体寸法が含まれることとなる。 When the process proceeds to step S102, that is, when the second observation data is captured in the track data at time tk-1, the second object detection unit 12 has already detected the observation data of the object before time tk-1. Will be doing. In this case, the track data at time tk-1 includes the track position T (tk-1) and the object size.
ステップS102において、予測処理部14は、時刻tk−1の航跡データに含まれる航跡位置T(tk−1)および物体寸法を用いて、時刻tkの予測データを生成し、処理が終了となる。 In step S102, the prediction processing unit 14 generates prediction data at time tk using the wake position T (tk-1) and the object size included in the wake data at time tk-1, and the process ends.
具体的には、予測処理部14は、その航跡位置T(tk−1)を用いて、時刻tkの予測位置P(tk)を生成する。また、時刻tk−1の航跡データに物体寸法が含まれているので、予測処理部14は、その物体寸法をそのまま、時刻tkの予測データに含まれる物体寸法とする。 Specifically, the prediction processing unit 14 generates a predicted position P (tk) at time tk using the track position T (tk-1). Further, since the object size is included in the track data at time tk-1, the prediction processing unit 14 uses the object size as it is as the object size included in the prediction data at time tk.
処理がステップS103へ進む場合、すなわち、時刻tk−1の航跡データに第2観測データが取り込まれていない場合、時刻tk−1以前に、第2物体検出部12が物体の観測データをまだ検出していないこととなる。この場合、時刻tk−1の航跡データには、航跡位置T(tk−1)が含まれることとなる。 When the process proceeds to step S103, that is, when the second observation data is not captured in the track data at time tk-1, the second object detection unit 12 still detects the observation data of the object before time tk-1. It will not be. In this case, the track data at time tk-1 includes the track position T (tk-1).
ステップS103において、予測処理部14は、時刻tk−1の航跡データに含まれる航跡位置T(tk−1)を用いて、時刻tkの予測データを生成し、処理が終了となる。 In step S103, the prediction processing unit 14 generates prediction data at time tk using the track position T (tk-1) included in the track data at time tk-1, and the process ends.
このように、予測処理部14は、観測データが検出された時刻tkよりも前の時刻tk−1の航跡位置T(tk−1)を含む航跡データを用いて、時刻tkの航跡位置T(tk)を含む航跡データを予測することで予測位置P(tk)を含む予測データを生成する。 As described above, the prediction processing unit 14 uses the wake data including the wake position T (tk-1) at the time tk-1 before the time tk at which the observation data is detected, to use the wake position T ( Prediction data including the predicted position P (tk) is generated by predicting the wake data including tk).
なお、航跡位置T(tk−1)を用いて予測位置P(tk)を予測する方法としては、さまざまな公知の方法が挙げられるが、例えば、次のような方法が挙げられる。すなわち、例えば、物体の自車両に対する相対速度を航跡データにさらに含むようにし、時刻tk−1と時刻tkとの差分と、時刻tk−1の航跡データに含まれる相対速度および航跡位置T(tk−1)とを用いて、予測位置P(tk)を予測する方法が挙げられる。このように、予測処理部14は、一例として、時刻tk−1の航跡位置T(tk−1)および物体の相対速度を含む航跡データと、時刻tk−1から時刻tkまでの経過時間とを用いて、予測位置P(tk)を生成する。 In addition, as a method of predicting the predicted position P (tk) using the wake position T (tk-1), various known methods can be cited, and for example, the following methods can be cited. That is, for example, the wake data further includes the relative speed of the object with respect to the host vehicle, the difference between the time tk−1 and the time tk, the relative speed and the wake position T (tk) included in the wake data at the time tk−1. -1) and predicting the predicted position P (tk). As described above, for example, the prediction processing unit 14 obtains the wake data including the wake position T (tk-1) and the relative speed of the object at time tk-1, and the elapsed time from time tk-1 to time tk. To generate the predicted position P (tk).
図2に示すフローチャートの一連の処理は、物体検出部から入力される観測データのすべてについて、観測データごとに実施される。 A series of processes in the flowchart shown in FIG. 2 is performed for each observation data for all the observation data input from the object detection unit.
補正処理部15は、補正処理として、時刻tkの予測データに含まれる予測位置P(tk)、または時刻tkの第2観測データに含まれる第2検出位置D2(tk)を補正し、その補正結果を補正データとして生成する。補正処理部15は、生成した補正データを相関処理部16に出力する。 As the correction process, the correction processing unit 15 corrects the predicted position P (tk) included in the prediction data at time tk or the second detection position D2 (tk) included in the second observation data at time tk, and the correction. The result is generated as correction data. The correction processing unit 15 outputs the generated correction data to the correlation processing unit 16.
続いて、補正処理部15によって行われる補正データの生成について、図3を参照しながらさらに説明する。図3は、本発明の実施の形態1における補正処理部15によって行われる補正データの生成処理を示すフローチャートである。
Subsequently, generation of correction data performed by the correction processing unit 15 will be further described with reference to FIG. FIG. 3 is a flowchart showing correction data generation processing performed by the correction processing unit 15 according to
ステップS201において、補正処理部15は、予測処理部14から入力される時刻tkの予測データに第2観測データが取り込まれているか否かを判断する。時刻tkの予測データに第2観測データが取り込まれていると判定された場合には、処理がステップS202へと進む。一方、時刻tkの予測データに第2観測データが取り込まれていないと判定された場合には、処理がステップS205へと進む。 In step S <b> 201, the correction processing unit 15 determines whether or not the second observation data is captured in the prediction data at the time tk input from the prediction processing unit 14. If it is determined that the second observation data is captured in the prediction data at time tk, the process proceeds to step S202. On the other hand, if it is determined that the second observation data is not captured in the prediction data at time tk, the process proceeds to step S205.
処理がステップS202へ進む場合、すなわち、時刻tkの予測データに第2観測データが取り込まれている場合、時刻tk−1以前に、第2物体検出部12が物体の観測データをすでに検出していることとなる。この場合、時刻tkの予測データには、予測位置P(tk)および物体寸法が含まれることとなる。 When the process proceeds to step S202, that is, when the second observation data is captured in the prediction data at time tk, the second object detection unit 12 has already detected the observation data of the object before time tk-1. Will be. In this case, the predicted data at time tk includes the predicted position P (tk) and the object size.
ステップS202において、補正処理部15は、時刻tkの観測データを検出した物体検出部が第1物体検出部11であるか第2物体検出部12であるかを判定する。時刻tkの観測データを検出した物体検出部が第1物体検出部11である場合には、処理がステップS203へと進む。 In step S202, the correction processing unit 15 determines whether the object detection unit that has detected the observation data at time tk is the first object detection unit 11 or the second object detection unit 12. If the object detection unit that has detected the observation data at time tk is the first object detection unit 11, the process proceeds to step S203.
一方、時刻tkの観測データを検出した物体検出部が第2物体検出部12である場合には、処理が終了となる。この場合、補正処理部15は、補正処理を行わず、時刻tkの予測データをそのまま、相関処理部16に出力する。 On the other hand, when the object detection unit that has detected the observation data at time tk is the second object detection unit 12, the process ends. In this case, the correction processing unit 15 outputs the prediction data at time tk to the correlation processing unit 16 as it is without performing correction processing.
ステップS203において、補正処理部15は、時刻tkの予測データに含まれる予測位置P(tk)および物体寸法を用いて、予め準備した補正マップに従って、予測位置P(tk)を補正するための第1補正量を演算し、処理がステップS204へと進む。 In step S203, the correction processing unit 15 uses the predicted position P (tk) and the object size included in the predicted data at time tk to correct the predicted position P (tk) according to the correction map prepared in advance. One correction amount is calculated, and the process proceeds to step S204.
ステップS204において、補正処理部15は、ステップS203で演算した第1補正量を用いて、時刻tkの補正データを生成し、処理が終了となる。 In step S204, the correction processing unit 15 generates correction data at time tk using the first correction amount calculated in step S203, and the process ends.
具体的には、補正処理部15は、第1補正量を用いて、時刻tkの予測位置P(tk)を補正し、その補正結果である相関用予測位置Pc(tk)を含む補正データを生成する。 Specifically, the correction processing unit 15 corrects the predicted position P (tk) at the time tk using the first correction amount, and the correction data including the correlation predicted position Pc (tk), which is the correction result. Generate.
ここで、補正処理部15によって行われる相関用予測位置Pc(tk)の生成について、図4を参照しながらさらに説明する。図4は、本発明の実施の形態1における補正処理部15に生成される相関用予測位置Pc(tk)の概念を示す説明図である。
Here, generation of the predicted position for correlation Pc (tk) performed by the correction processing unit 15 will be further described with reference to FIG. FIG. 4 is an explanatory diagram showing the concept of the correlation predicted position Pc (tk) generated in the correction processing unit 15 according to
なお、図4では、時刻tk−1以前に、第2物体検出部12が物体(ここでは、他車両とする)の観測データをすでに検出しており、時刻tkにおいて、第1物体検出部11がその物体の第1検出位置D1(tk)を含む観測データを検出するケースを考えている。 In FIG. 4, the second object detection unit 12 has already detected observation data of an object (here, another vehicle) before the time tk−1, and the first object detection unit 11 at the time tk. Considers a case in which observation data including the first detection position D1 (tk) of the object is detected.
上述したとおり、予測処理部14は、時刻tk−1の航跡データを用いて、時刻tkの予測データを生成する。この場合、時刻tkの予測データには、予測位置P(tk)および物体寸法が含まれる。補正処理部15は、時刻tkの予測データに含まれる予測位置P(tk)および物体寸法を用いて、予め準備した補正マップに従って第1補正量を演算する。 As described above, the prediction processing unit 14 generates prediction data at the time tk using the track data at the time tk-1. In this case, the predicted data at time tk includes the predicted position P (tk) and the object size. The correction processing unit 15 calculates the first correction amount according to a correction map prepared in advance using the predicted position P (tk) and the object size included in the predicted data at time tk.
ここで、仮に第1物体検出部11と第2物体検出部12の両方で同時に同一の物体を検出した場合に、第1検出位置と第2検出位置との間でX方向とY方向のずれが生じる。また、このずれの量は、第1検出位置と、第2検出位置と、物体寸法が分かれば、概算可能なものである。 Here, if the same object is detected by both the first object detection unit 11 and the second object detection unit 12 at the same time, the deviation between the first detection position and the second detection position in the X direction and the Y direction will be described. Occurs. The amount of deviation can be estimated if the first detection position, the second detection position, and the object dimensions are known.
そこで、第1検出位置と、第2検出位置と、物体寸法とをパラメータとして変化させながら、予め実験、シミュレーション等を行うことで、上記のずれの量を補正量として把握しておく。そして、第2検出位置と、物体寸法と、補正量とが関連付けられている補正マップを予め準備しておく。 Therefore, by performing experiments, simulations, and the like in advance while changing the first detection position, the second detection position, and the object size as parameters, the amount of deviation is grasped as a correction amount. Then, a correction map in which the second detection position, the object dimension, and the correction amount are associated is prepared in advance.
ステップS203では、補正処理部15は、時刻tkの予測データに含まれる予測位置P(tk)を、補正マップにおける第2検出位置と捉え、その予測位置P(tk)および物体寸法に対応する第1補正量を、補正マップから演算する。 In step S203, the correction processing unit 15 regards the predicted position P (tk) included in the predicted data at time tk as the second detection position in the correction map, and corresponds to the predicted position P (tk) and the object size. One correction amount is calculated from the correction map.
なお、補正処理部15は、時刻tkの予測データに含まれる予測位置P(tk)および物体寸法に加えて、さらに、物体の向きを考慮して、補正量を演算するように構成されていてもよい。また、このように構成した場合、予測位置P(tk)、物体寸法および物体の向きに基づいて、予測位置P(tk)を、自車両および物体に最も近い点(最近点)に補正するための補正量を演算してもよい。 The correction processing unit 15 is configured to calculate the correction amount in consideration of the orientation of the object in addition to the predicted position P (tk) and the object size included in the prediction data at the time tk. Also good. Further, in the case of such a configuration, in order to correct the predicted position P (tk) to the closest point (nearest point) to the host vehicle and the object based on the predicted position P (tk), the object size, and the direction of the object. May be calculated.
ステップS204では、補正処理部15は、図4に示すように、X方向とY方向からなるXY座標上において、ステップS203で演算した第1補正量に従って、予測位置P(tk)をシフトすることで、相関用予測位置Pc(tk)を生成する。 In step S204, the correction processing unit 15 shifts the predicted position P (tk) according to the first correction amount calculated in step S203 on the XY coordinates composed of the X direction and the Y direction, as shown in FIG. Thus, the correlation predicted position Pc (tk) is generated.
このように、補正処理部15は、予測データP(tk)に第2観測データが取り込まれており、第1観測データが検出された場合、予測データに含まれる予測位置P(tk)および物体寸法に基づいて予測位置P(tk)を補正することで相関用予測位置Pc(tk)を含む補正データを生成する。 Thus, when the second observation data is captured in the prediction data P (tk) and the first observation data is detected, the correction processing unit 15 includes the prediction position P (tk) and the object included in the prediction data. Correction data including the correlation predicted position Pc (tk) is generated by correcting the predicted position P (tk) based on the dimensions.
図3の説明に戻り、処理がステップS205へ進む場合、すなわち、時刻tkの予測データに第2観測データが取り込まれていない場合、時刻tk−1以前に、第2物体検出部12が物体の観測データをまだ検出していないこととなる。この場合、時刻tk−1の航跡データには、予測位置P(tk)が含まれることとなる。 Returning to the description of FIG. 3, when the process proceeds to step S <b> 205, that is, when the second observation data is not captured in the prediction data at time tk, the second object detection unit 12 detects the object before time tk−1. The observation data has not been detected yet. In this case, the predicted position P (tk) is included in the track data at time tk-1.
ステップS205において、補正処理部15は、時刻tkの観測データを検出した物体検出部が第1物体検出部11であるか第2物体検出部12であるかを判定する。時刻tkの観測データを検出した物体検出部が第2物体検出部12である場合には、処理がステップS206へと進む。 In step S205, the correction processing unit 15 determines whether the object detection unit that has detected the observation data at time tk is the first object detection unit 11 or the second object detection unit 12. If the object detection unit that has detected the observation data at time tk is the second object detection unit 12, the process proceeds to step S206.
一方、時刻tkの観測データを検出した物体検出部が第1物体検出部11である場合には、処理が終了となる。この場合、補正処理部15は、補正処理を行わず、時刻tkの予測データをそのまま、相関処理部16に出力する。 On the other hand, when the object detection unit that has detected the observation data at time tk is the first object detection unit 11, the process ends. In this case, the correction processing unit 15 outputs the prediction data at time tk to the correlation processing unit 16 as it is without performing correction processing.
ステップS206において、補正処理部15は、時刻tkの第2観測データに含まれる第2検出位置D2(tk)および物体寸法を用いて、上記の補正マップに従って、第2検出位置D2(tk)を補正するための第2補正量を演算し、処理がステップS207へと進む。 In step S206, the correction processing unit 15 uses the second detection position D2 (tk) and the object size included in the second observation data at time tk to determine the second detection position D2 (tk) according to the correction map. A second correction amount for correction is calculated, and the process proceeds to step S207.
なお、補正処理部15は、時刻tkの第2観測データに含まれる第2検出位置D2(tk)および物体寸法に加えて、さらに、物体の向きを考慮して、補正量を演算するように構成されていてもよい。また、このように構成した場合、第2検出位置D2(tk)、物体寸法および物体の向きに基づいて、第2検出位置D2(tk)を、自車両および物体に最も近い点(最近点)に補正するための補正量を演算してもよい。 In addition to the second detection position D2 (tk) and the object size included in the second observation data at time tk, the correction processing unit 15 further calculates the correction amount in consideration of the direction of the object. It may be configured. Moreover, when comprised in this way, based on 2nd detection position D2 (tk), an object dimension, and direction of an object, 2nd detection position D2 (tk) is a point (nearest point) nearest to the own vehicle and an object. You may calculate the correction amount for correct | amending.
ステップS207において、補正処理部15は、ステップS206で演算した第2補正量を用いて、時刻tkの補正データを生成し、処理が終了となる。 In step S207, the correction processing unit 15 generates correction data at time tk using the second correction amount calculated in step S206, and the process ends.
具体的には、補正処理部15は、第2補正量を用いて、時刻tkの第2検出位置D2(tk)を補正し、その補正結果である相関用検出位置D2c(tk)を含む補正データを生成する。 Specifically, the correction processing unit 15 corrects the second detection position D2 (tk) at the time tk using the second correction amount, and includes the correlation detection position D2c (tk) that is the correction result. Generate data.
ここで、補正処理部15によって行われる相関用検出位置D2c(tk)の生成について、図5を参照しながらさらに説明する。図5は、本発明の実施の形態1における補正処理部15に生成される相関用検出位置D2c(tk)の概念を示す説明図である。
Here, generation of the correlation detection position D2c (tk) performed by the correction processing unit 15 will be further described with reference to FIG. FIG. 5 is an explanatory diagram showing the concept of the correlation detection position D2c (tk) generated in the correction processing unit 15 according to
なお、図5では、時刻tk−1以前に、第1物体検出部11が物体(ここでは、他車両とする)の観測データをすでに検出している一方、第2物体検出部12がその物体の観測データをまだ検出しておらず、時刻tkにおいて、第2物体検出部12がその物体の第2検出位置D2(tk)を含む観測データを検出するケースを考えている。 In FIG. 5, the first object detection unit 11 has already detected the observation data of the object (here, another vehicle) before the time tk−1, while the second object detection unit 12 has detected the object. In this case, the second object detection unit 12 detects the observation data including the second detection position D2 (tk) of the object at time tk.
上述したとおり、予測処理部14は、時刻tk−1の航跡データを用いて、時刻tkの予測データを生成する。この場合、時刻tkの予測データには、予測位置P(tk)が含まれる。補正処理部15は、時刻tkの第2観測データに含まれる第2検出位置D2(tk)および物体寸法を用いて、上記の補正マップに従って、第2補正量を演算する。 As described above, the prediction processing unit 14 generates prediction data at the time tk using the track data at the time tk-1. In this case, the prediction position P (tk) is included in the prediction data at time tk. The correction processing unit 15 calculates the second correction amount according to the correction map using the second detection position D2 (tk) and the object size included in the second observation data at time tk.
ステップS206では、補正処理部15は、時刻tkの第2観測データに含まれる第2検出位置D2(tk)を、補正マップにおける第2検出位置と捉え、その第2検出位置D2(tk)および物体寸法に対応する第2補正量を、補正マップから演算する。 In step S206, the correction processing unit 15 regards the second detection position D2 (tk) included in the second observation data at time tk as the second detection position in the correction map, and determines the second detection position D2 (tk) and A second correction amount corresponding to the object size is calculated from the correction map.
ステップS207では、補正処理部15は、図5に示すように、X方向とY方向からなるXY座標上において、ステップS206で演算した第2補正量に従って、第2検出位置D2(tk)をシフトすることで、相関用検出位置D2c(tk)を生成する。 In step S207, the correction processing unit 15 shifts the second detection position D2 (tk) according to the second correction amount calculated in step S206 on the XY coordinates composed of the X direction and the Y direction, as shown in FIG. As a result, the correlation detection position D2c (tk) is generated.
このように、補正処理部15は、予測データに第2観測データが取り込まれておらず、第2観測データが検出された場合、第2観測データに含まれる第2検出位置D2(tk)および物体寸法に基づいて第2検出位置D2(tk)を補正することで相関用検出位置D2c(tk)を含む補正データを生成する。 As described above, when the second observation data is not captured in the prediction data and the second observation data is detected, the correction processing unit 15 includes the second detection position D2 (tk) included in the second observation data and Correction data including the correlation detection position D2c (tk) is generated by correcting the second detection position D2 (tk) based on the object size.
以上から分かるように、補正処理部15は、反射点位置を物体の検出位置として捉える検出方式の第1物体検出部11による検出結果と、第1物体検出部11とは異なる検出方式の第2物体検出部の検出結果とを整合させる役割を果たす。したがって、後述する相関処理部16が、相関する物体予測結果と物体検出結果の組み合わせを正確に選択することができる。また、後述する更新処理部17が生成する航跡データの精度を向上させることが可能となる。 As can be seen from the above, the correction processing unit 15 detects the reflection point position as the detection position of the object, the detection result by the first object detection unit 11 of the detection method, and the second detection method different from the first object detection unit 11. It plays a role in matching the detection result of the object detection unit. Therefore, the correlation processing unit 16 to be described later can accurately select a combination of correlated object prediction results and object detection results. Further, it is possible to improve the accuracy of the wake data generated by the update processing unit 17 described later.
図3に示すフローチャートの一連の処理は、予測処理部14から入力されるすべての予測データについて、予測データごとに実施される。 A series of processes in the flowchart illustrated in FIG. 3 is performed for each prediction data with respect to all the prediction data input from the prediction processing unit 14.
相関処理部16は、すべての時刻tkの補正データとすべての時刻tkの観測データを個別に組み合わせて、これらの組み合わせの中から、相関がある組み合わせを、相関データとして更新処理部17に出力する。 The correlation processing unit 16 individually combines the correction data at all times tk and the observation data at all times tk, and outputs a combination having a correlation from these combinations to the update processing unit 17 as correlation data. .
ここで、相関処理部16によって行われる相関データの生成について、図6を参照しながらさらに説明する。図6は、本発明の実施の形態1における相関処理部16が相関用予測位置Pc(tk)と第1検出位置D1(tk)の相関を取る方法を示す概念図である。
Here, generation of correlation data performed by the correlation processing unit 16 will be further described with reference to FIG. FIG. 6 is a conceptual diagram illustrating how the correlation processing unit 16 according to
なお、図6では、時刻tkにおいて、第1検出位置D1(tk)_1を含む観測データと、第1検出位置D1(tk)_2を含む観測データとが第1物体検出部11によって検出され、さらに、相関用予測位置Pc(tk)_1を含む補正データと、相関用予測位置Pc(tk)_2を含む補正データとが補正処理部15によって生成されるケースを考えている。 In FIG. 6, at time tk, the observation data including the first detection position D1 (tk) _1 and the observation data including the first detection position D1 (tk) _2 are detected by the first object detection unit 11. Furthermore, a case is considered in which correction data including the correlation predicted position Pc (tk) _1 and correction data including the correlation predicted position Pc (tk) _2 are generated by the correction processing unit 15.
この場合、相関処理部16は、すべての相関用予測位置Pc(tk)とすべての第1検出位置D1(tk)を個別に組み合わせて距離を算出し、これらの組み合わせの中から、距離が最も短い組み合わせを、相関データとして生成する。例えば、図6に示す状況では、相関用予測位置Pc(tk)_1と第1検出位置D1(tk)_2の組み合わせと、相関用予測位置Pc(tk)_2と第1検出位置D1(tk)_1の組み合わせを、相関データとして生成する。 In this case, the correlation processing unit 16 calculates the distance by individually combining all the predicted positions for correlation Pc (tk) and all the first detection positions D1 (tk), and the distance is the largest among these combinations. Short combinations are generated as correlation data. For example, in the situation shown in FIG. 6, the combination of the correlation predicted position Pc (tk) _1 and the first detection position D1 (tk) _2, the correlation prediction position Pc (tk) _2, and the first detection position D1 (tk). A combination of _1 is generated as correlation data.
このように、相関処理部16は、補正データに相関用予測位置Pc(tk)が含まれる場合、相関がある相関用予測位置Pc(tk)と第1検出位置D1(tk)の組み合わせを含む相関データを生成する。 As described above, when the correction data includes the correlation predicted position Pc (tk), the correlation processing unit 16 includes a combination of the correlation predicted position Pc (tk) having the correlation and the first detection position D1 (tk). Generate correlation data.
続いて、相関処理部16によって行われる相関データの生成について、図7を参照しながらさらに説明する。図7は、本発明の実施の形態1における相関処理部16が予測位置P(tk)と相関用検出位置D2c(tk)の相関を取る方法を示す概念図である。
Subsequently, generation of correlation data performed by the correlation processing unit 16 will be further described with reference to FIG. FIG. 7 is a conceptual diagram illustrating how the correlation processing unit 16 according to
なお、図7では、時刻tkにおいて、予測位置P(tk)_1を含む予測データと、予測位置P(tk)_2を含む予測データとが予測処理部14によって生成され、さらに、相関用検出位置D2c(tk)_1を含む補正データと、相関用検出位置D2c(tk)_2を含む補正データとが補正処理部15によって生成されるケースを考えている。 In FIG. 7, at time tk, prediction data including the prediction position P (tk) _1 and prediction data including the prediction position P (tk) _2 are generated by the prediction processing unit 14, and further, a detection position for correlation A case is considered in which the correction processing unit 15 generates correction data including D2c (tk) _1 and correction data including the detection position for correlation D2c (tk) _2.
この場合、相関処理部16は、すべての予測位置P(tk)とすべての第1検出位置D1(tk)を個別に組み合わせて距離を算出し、これらの組み合わせの中から、距離が最も短い組み合わせを、相関データとして生成する。例えば、図7に示す状況では、予測位置P(tk)_1と相関用検出位置D2c(tk)_2の組み合わせと、予測位置P(tk)_2と相関用検出位置D2c(tk)_1の組み合わせを、相関データとして生成する。 In this case, the correlation processing unit 16 calculates the distance by individually combining all the predicted positions P (tk) and all the first detection positions D1 (tk), and among these combinations, the combination having the shortest distance Are generated as correlation data. For example, in the situation shown in FIG. 7, a combination of the predicted position P (tk) _1 and the detection position for correlation D2c (tk) _2, and a combination of the predicted position P (tk) _2 and the detection position for correlation D2c (tk) _1. And generated as correlation data.
このように、相関処理部16は、補正データに相関用検出位置D2c(tk)が含まれる場合、相関がある予測位置P(tk)と相関用検出位置D2c(tk)の組み合わせを含む相関データを生成する。 As described above, when the correction data includes the correlation detection position D2c (tk), the correlation processing unit 16 includes the correlation data including the combination of the predicted position P (tk) having the correlation and the detection position D2c (tk) for correlation. Is generated.
なお、時刻tkにおいて、補正処理部15によって補正処理が行われなかった場合、すべての時刻tkの予測データとすべての時刻tkの観測データを個別に組み合わせて、これらの組み合わせの中から、上記と同様に、相関がある組み合わせを、相関データとして更新処理部17に出力する。 In addition, when correction processing is not performed by the correction processing unit 15 at time tk, the prediction data at all times tk and the observation data at all times tk are individually combined. Similarly, a combination with correlation is output to the update processing unit 17 as correlation data.
更新処理部17は、相関処理部16から入力される相関データを用いて、航跡データを生成する。 The update processing unit 17 generates wake data using the correlation data input from the correlation processing unit 16.
ここで、更新処理部17によって行われる航跡データの生成について、図8を参照しながら説明する。図8は、本発明の実施の形態1における更新処理部17によって行われる航跡データの生成処理を示すフローチャートである。
Here, the generation of wake data performed by the update processing unit 17 will be described with reference to FIG. FIG. 8 is a flowchart showing wake data generation processing performed by the update processing unit 17 according to
ステップS301において、更新処理部17は、相関処理部16から入力される相関データに相関用予測位置Pc(tk)と第1検出位置D1(tk)の組み合わせが含まれるか否かを判定する。相関データにその組み合わせが含まれる場合には、処理がステップS302へと進み、相関データにその組み合わせが含まれない場合には、処理がステップS304へと進む。 In step S301, the update processing unit 17 determines whether the correlation data input from the correlation processing unit 16 includes a combination of the correlation predicted position Pc (tk) and the first detection position D1 (tk). If the combination is included in the correlation data, the process proceeds to step S302. If the combination is not included in the correlation data, the process proceeds to step S304.
ステップS302において、更新処理部17は、補正処理部15によって演算された、相関用予測位置Pc(tk)に対応する第1補正量を用いて、時刻tkの第1検出位置D1(tk)を補正し、その補正結果である更新用検出位置D1r(tk)を生成し、処理がステップS303へと進む。 In step S302, the update processing unit 17 uses the first correction amount calculated by the correction processing unit 15 and corresponding to the correlation predicted position Pc (tk) to determine the first detection position D1 (tk) at time tk. Correction is performed to generate an update detection position D1r (tk) as the correction result, and the process proceeds to step S303.
ここで、更新処理部17によって行われる更新用検出位置D1r(tk)の生成について、図9を参照しながら説明する。図9は、本発明の実施の形態1における更新処理部17によって生成される更新用検出位置D1r(tk)の概念を示す説明図である。なお、図9では、先の図4と同様のケースを考えている。 Here, generation of the update detection position D1r (tk) performed by the update processing unit 17 will be described with reference to FIG. FIG. 9 is an explanatory diagram showing the concept of the update detection position D1r (tk) generated by the update processing unit 17 according to the first embodiment of the present invention. In FIG. 9, the same case as in FIG. 4 is considered.
上述したとおり、補正処理部15は、第1補正量を用いて、予測位置P(tk)を補正することで、相関用予測位置Pc(tk)を生成する。また、相関処理部16は、相関用予測位置Pc(tk)と第1検出位置D1(tk)の組み合わせを相関データとして生成する。 As described above, the correction processing unit 15 generates the correlation predicted position Pc (tk) by correcting the predicted position P (tk) using the first correction amount. In addition, the correlation processing unit 16 generates a combination of the correlation predicted position Pc (tk) and the first detection position D1 (tk) as correlation data.
更新処理部17は、図9に示すように、XY座標上において、予測位置P(tk)を補正する際に用いた第1補正量に従って、第1検出位置D1(tk)を、相関用予測位置Pc(tk)を生成した際の予測位置P(tk)をシフトした方向と反対方向にシフトすることで、更新用検出位置D1r(tk)を生成する。 As illustrated in FIG. 9, the update processing unit 17 predicts the first detection position D1 (tk) for correlation according to the first correction amount used when correcting the predicted position P (tk) on the XY coordinates. The detection position for updating D1r (tk) is generated by shifting the predicted position P (tk) when the position Pc (tk) is generated in the direction opposite to the shifted direction.
ステップS303において、更新処理部17は、図9に示すように、相関用予測位置Pc(tk)に対応する予測位置P(tk)と、更新用検出位置D1r(tk)を用いて、航跡位置T(tk)を含む航跡データを生成し、処理が終了となる。なお、予測位置P(tk)と更新用検出位置D1r(tk)を用いて航跡位置T(tk)を生成する方法としては、例えば、α−βフィルタ、カルマンフィルタ等を用いた方法が挙げられる。 In step S303, the update processing unit 17 uses the predicted position P (tk) corresponding to the correlation predicted position Pc (tk) and the update detection position D1r (tk) as shown in FIG. The wake-up data including T (tk) is generated, and the process ends. Examples of a method for generating the wake position T (tk) using the predicted position P (tk) and the update detection position D1r (tk) include a method using an α-β filter, a Kalman filter, and the like.
このように、更新処理部17は、相関データに相関用予測位置Pc(tk)と第1検出位置D1(tk)の組み合わせが含まれる場合、相関用予測位置Pc(tk)を生成した際の予測位置P(tk)の補正に基づいて第1検出位置D1(tk)を補正することで更新用検出位置D1r(tk)を生成する。また、更新処理部17は、相関用予測位置Pc(tk)に対応する予測位置P(tk)と、更新用検出位置D1r(tk)とを用いて、航跡位置T(tk)を含む航跡データを生成する。 As described above, when the correlation data includes a combination of the correlation predicted position Pc (tk) and the first detection position D1 (tk), the update processing unit 17 generates the correlation predicted position Pc (tk). The detection position for updating D1r (tk) is generated by correcting the first detection position D1 (tk) based on the correction of the predicted position P (tk). Further, the update processing unit 17 uses the prediction position P (tk) corresponding to the correlation prediction position Pc (tk) and the update detection position D1r (tk), and the wake data including the wake position T (tk). Is generated.
ステップS304において、更新処理部17は、相関処理部16から入力される相関データに予測位置P(tk)と相関用検出位置D2c(tk)の組み合わせが含まれるか否かを判定する。相関データにその組み合わせが存在する場合には、処理がステップS305へ進み、相関データにその組み合わせが存在しない場合には、処理がステップS307へと進む。 In step S304, the update processing unit 17 determines whether or not the correlation data input from the correlation processing unit 16 includes a combination of the predicted position P (tk) and the correlation detection position D2c (tk). If the combination exists in the correlation data, the process proceeds to step S305. If the combination does not exist in the correlation data, the process proceeds to step S307.
ステップS305において、更新処理部17は、補正処理部15によって演算された、相関用検出位置D2c(tk)に対応する第2補正量を用いて、時刻tkの予測位置P(tk)を補正し、その補正結果である更新用予測位置Pr(tk)を生成し、処理がステップS306へと進む。 In step S305, the update processing unit 17 corrects the predicted position P (tk) at the time tk using the second correction amount calculated by the correction processing unit 15 and corresponding to the correlation detection position D2c (tk). Then, an update predicted position Pr (tk) that is the correction result is generated, and the process proceeds to step S306.
ここで、更新処理部17によって行われる更新用予測位置Pr(tk)の生成について、図10を参照しながら説明する。図10は、本発明の実施の形態1における更新処理部17によって生成される更新用予測位置Pr(tk)の概念を示す説明図である。なお、図10では、先の図5と同様のケースを考えている。
Here, the generation of the update predicted position Pr (tk) performed by the update processing unit 17 will be described with reference to FIG. FIG. 10 is an explanatory diagram showing the concept of the update predicted position Pr (tk) generated by the update processing unit 17 according to
上述したとおり、補正処理部15は、第2補正量を用いて、第2検出位置D2(tk)を補正することで、相関用検出位置D2c(tk)を生成する。また、相関処理部16は、予測位置P(tk)と相関用検出位置D2c(tk)の組み合わせを相関データとして生成する。 As described above, the correction processing unit 15 generates the correlation detection position D2c (tk) by correcting the second detection position D2 (tk) using the second correction amount. In addition, the correlation processing unit 16 generates a combination of the predicted position P (tk) and the detection position for correlation D2c (tk) as correlation data.
更新処理部17は、図10に示すように、XY座標上において、第2検出位置D2(tk)を補正する際に用いた第2補正量に従って、予測位置P(tk)を、相関用検出位置D2c(tk)を生成した際の第2検出位置D2(tk)をシフトした方向と反対方向にシフトすることで、更新用予測位置Pr(tk)を生成する。 As shown in FIG. 10, the update processing unit 17 detects the predicted position P (tk) for correlation according to the second correction amount used when correcting the second detection position D2 (tk) on the XY coordinates. The update predicted position Pr (tk) is generated by shifting the second detection position D2 (tk) when the position D2c (tk) is generated in the direction opposite to the shifted direction.
ステップS306において、更新処理部17は、図10に示すように、更新用予測位置Pr(tk)と、相関用検出位置D2c(tk)に対応する第2検出位置D2(tk)を用いて、航跡位置T(tk)を含む航跡データを生成し、処理が終了となる。なお、更新用予測位置Pr(tk)と第2検出位置D2(tk)を用いて航跡位置T(tk)を生成する方法としては、例えば、α−βフィルタ、カルマンフィルタ等を用いた方法が挙げられる。 In step S306, as shown in FIG. 10, the update processing unit 17 uses the update predicted position Pr (tk) and the second detection position D2 (tk) corresponding to the correlation detection position D2c (tk). The wake data including the wake position T (tk) is generated, and the process ends. In addition, as a method of generating the wake position T (tk) using the update predicted position Pr (tk) and the second detection position D2 (tk), for example, a method using an α-β filter, a Kalman filter, or the like can be given. It is done.
このように、更新処理部17は、相関データに予測位置P(tk)と相関用検出位置D2c(tk)の組み合わせが含まれる場合、相関用検出位置D2c(tk)を生成した際の第2検出位置D2(tk)の補正に基づいて予測位置P(tk)を補正することで更新用予測位置Pr(tk)を生成する。また、更新処理部17は、更新用予測位置Pr(tk)と、相関用検出位置D2c(tk)に対応する第2検出位置D2(tk)とを用いて、航跡位置T(tk)を含む航跡データを生成する。 As described above, when the correlation data includes a combination of the predicted position P (tk) and the detection position for correlation D2c (tk), the update processing unit 17 generates the second detection position D2c (tk) when the correlation detection position D2c (tk) is generated. An updated predicted position Pr (tk) is generated by correcting the predicted position P (tk) based on the correction of the detection position D2 (tk). In addition, the update processing unit 17 includes the wake position T (tk) using the update predicted position Pr (tk) and the second detection position D2 (tk) corresponding to the correlation detection position D2c (tk). Generate wake data.
ステップS307において、更新処理部17は、時刻tkの予測データに含まれる予測位置P(tk)と時刻tkの観測データに含まれる検出位置を用いて、航跡位置T(tk)を含む航跡データを生成し、処理が終了となる。なお、予測位置P(tk)と検出位置を用いて航跡位置T(tk)を生成する方法としては、例えば、α−βフィルタ、カルマンフィルタ等を用いた方法が挙げられる。 In step S307, the update processing unit 17 uses the prediction position P (tk) included in the prediction data at time tk and the detection position included in the observation data at time tk to obtain wake data including the wake position T (tk). Generate and the process ends. Examples of a method for generating the wake position T (tk) using the predicted position P (tk) and the detected position include a method using an α-β filter, a Kalman filter, and the like.
なお、更新処理部17は、予測データと観測データの各運動諸元の平均値を、更新後の航跡データの各運動諸元の値とする。また、観測データに含まれる物体種別を更新後の航跡データに含まれる物体種別とし、観測データに含まれる物体寸法を更新後の航跡データに含まれる物体寸法とする。 In addition, the update process part 17 makes the average value of each motion specification of prediction data and observation data the value of each motion specification of the track data after update. The object type included in the observation data is set as the object type included in the updated track data, and the object size included in the observation data is set as the object size included in the updated track data.
図8に示すフローチャートの一連の処理は、相関処理部16から入力される相関データに含まれるすべての組み合わせについて、組み合わせごとに実施される。 The series of processes in the flowchart shown in FIG. 8 is performed for each combination for all combinations included in the correlation data input from the correlation processing unit 16.
車両制御装置2は、更新処理部17によって生成される航跡データに含まれる航跡位置に基づいて、自車両を制御する。具体的には、車両制御装置2は、自車両の制御として、航跡データに含まれる航跡位置の情報を用いて、自車両が前方の物体に衝突した際の被害を軽減する衝突被害軽減ブレーキシステムの制御、前方の車両に追従するアダプティブクルーズコントロールシステムの制御等を行う。
The
以上、本実施の形態1によれば、第1の構成として、時刻tkの予測データに第2観測データが取り込まれており、第1検出位置D1(tk)が検出された場合には、予測データに含まれる予測位置P(tk)および物体寸法に基づいて予測位置P(tk)を補正することで相関用予測位置Pc(tk)を生成し、相関用予測位置Pc(tk)を生成した際の予測位置P(tk)の補正に基づいて第1検出位置D1(tk)を補正することで更新用検出位置D1r(tk)を生成し、予測位置P(tk)と更新用検出位置D1r(tk)とを用いて航跡位置T(tk)を生成するように構成されている。 As described above, according to the first embodiment, as the first configuration, when the second observation data is captured in the prediction data at time tk and the first detection position D1 (tk) is detected, the prediction is performed. A predicted position for correlation Pc (tk) is generated by correcting the predicted position P (tk) based on the predicted position P (tk) and the object size included in the data, and a predicted position for correlation Pc (tk) is generated. The detection position D1r (tk) for update is generated by correcting the first detection position D1 (tk) based on the correction of the predicted position P (tk) at the time, and the prediction position P (tk) and the update detection position D1r are generated. (Tk) is used to generate the wake position T (tk).
また、第2の構成として、時刻tkの予測データに第2観測データが取り込まれておらず、第2検出位置D2(tk)が検出された場合には、第2観測データに含まれる第2検出位置D2(tk)および物体寸法に基づいて第2検出位置D2(tk)を補正することで相関用検出位置D2c(tk)を生成し、相関用検出位置D2c(tk)を生成した際の第2検出位置D2(tk)の補正に基づいて予測位置P(tk)を補正することで更新用予測位置Pr(tk)を生成し、更新用予測位置Pr(tk)と第2検出位置D2(tk)とを用いて航跡位置T(tk)を生成するように構成されている。このように、第1の構成、第2の構成、または第1の構成と第2の構成を組み合わせた構成を実現することで、従来と比べて、自車両に対する物体の相対位置をより正確に取得することができる。 Further, as a second configuration, when the second observation data is not captured in the prediction data at time tk and the second detection position D2 (tk) is detected, the second observation data includes the second observation data D2 (tk). The detection position D2c (tk) for correlation is generated by correcting the second detection position D2 (tk) based on the detection position D2 (tk) and the object size, and the correlation detection position D2c (tk) is generated. An updated predicted position Pr (tk) is generated by correcting the predicted position P (tk) based on the correction of the second detected position D2 (tk), and the updated predicted position Pr (tk) and the second detected position D2 (Tk) is used to generate the wake position T (tk). As described above, by realizing the first configuration, the second configuration, or the configuration in which the first configuration and the second configuration are combined, the relative position of the object with respect to the host vehicle can be more accurately compared to the conventional case. Can be acquired.
実施の形態2.
本発明の実施の形態2では、先の実施の形態1の構成に対して、第1検出位置および第2検出位置のそれぞれの精度情報を考慮して航跡位置を生成するように構成される物体認識処理装置1について説明する。なお、本実施の形態2では、先の実施の形態1と同様である点の説明を省略し、先の実施の形態1と異なる点を中心に説明する。
In
第1物体検出部11は、第1検出位置に加えて、その第1検出位置の精度情報をさらに含む第1観測データを検出する。 The first object detection unit 11 detects first observation data that further includes accuracy information of the first detection position in addition to the first detection position.
ここで、第1検出位置の精度情報を検出する方法としては、例えば、次のような方法が考えられる。すなわち、第1物体検出部11の動作に関する試験を予め行い、第1検出位置と、その精度の関係について評価し、第1検出位置と、その精度とを関連付けた第1テーブルを作成しておく。第1物体検出部11は、検出した第1検出位置に対応する精度を、予め作成した第1テーブルから演算し、その演算結果を精度情報として検出する。 Here, as a method for detecting the accuracy information of the first detection position, for example, the following method can be considered. That is, a test relating to the operation of the first object detection unit 11 is performed in advance, the relationship between the first detection position and its accuracy is evaluated, and a first table in which the first detection position and its accuracy are associated is created. . The first object detection unit 11 calculates the accuracy corresponding to the detected first detection position from the first table created in advance, and detects the calculation result as accuracy information.
第2物体検出部11は、第2検出位置に加えて、その第2検出位置の精度情報をさらに含む第2観測データを検出する。 In addition to the second detection position, the second object detection unit 11 detects second observation data that further includes accuracy information of the second detection position.
ここで、第2検出位置の精度情報を検出する方法としては、例えば、次のような方法が考えられる。すなわち、第2物体検出部12の動作に関する試験を予め行い、第2検出位置と、その精度の関係について評価し、第2検出位置と、その精度とを関連付けた第2テーブルを作成しておく。第2物体検出部12は、検出した第2検出位置に対応する精度を、予め作成した第2テーブルから演算し、その演算結果を精度情報として検出する。 Here, as a method for detecting the accuracy information of the second detection position, for example, the following method can be considered. That is, a test relating to the operation of the second object detection unit 12 is performed in advance, the relationship between the second detection position and its accuracy is evaluated, and a second table that associates the second detection position with its accuracy is created. . The second object detection unit 12 calculates the accuracy corresponding to the detected second detection position from the second table created in advance, and detects the calculation result as accuracy information.
更新処理部17は、先の図8のステップS303において、予測位置P(tk)と更新用検出位置D1r(tk)に加えて、第1検出位置D(tk)の精度情報と、予測位置P(tk)の精度情報とを用いて、航跡位置T(tk)を生成する。 In step S303 of FIG. 8, the update processing unit 17 adds the accuracy information of the first detection position D (tk) and the prediction position P in addition to the prediction position P (tk) and the update detection position D1r (tk). The wake position T (tk) is generated using the accuracy information of (tk).
ここで、予測位置P(tk)の精度情報を演算する方法としては、例えば、次のような方法が考えられる。すなわち、予測位置P(tk)を含む予測データには第2観測データが取り込まれているので、上記の第2テーブルから、その予測位置P(tk)に対応する精度を、予測位置P(tk)の精度情報として演算する。 Here, as a method for calculating the accuracy information of the predicted position P (tk), for example, the following method can be considered. That is, since the second observation data is captured in the prediction data including the predicted position P (tk), the accuracy corresponding to the predicted position P (tk) is obtained from the above second table with the predicted position P (tk). ) As accuracy information.
また、航跡位置T(tk)を生成するには、例えば、次のような式に従って航跡位置T(tk)を演算すればよい。 In order to generate the wake position T (tk), for example, the wake position T (tk) may be calculated according to the following equation.
航跡位置T(tk)
=a×予測位置P(tk)+(1−a)×更新用検出位置D1r(tk)
ただし、a=予測位置P(tk)の精度/(予測位置P(tk)の精度+第1検出位置D1(tk)の精度)
Wake position T (tk)
= A * predicted position P (tk) + (1-a) * updated detection position D1r (tk)
However, a = accuracy of predicted position P (tk) / (accuracy of predicted position P (tk) + accuracy of first detection position D1 (tk))
このように、更新処理部17は、相関用予測位置Pc(tk)に対応する予測位置P(tk)の精度情報を演算する。また、更新処理部17は、相関用予測位置Pc(tk)に対応する予測位置P(tk)と、更新用検出位置D1r(tk)とに加え、第1検出位置D1(tk)の精度情報と相関用予測位置Pc(tk)に対応する予測位置P(tk)の精度情報とを用いて、航跡位置T(tk)を生成する。 In this way, the update processing unit 17 calculates the accuracy information of the predicted position P (tk) corresponding to the correlation predicted position Pc (tk). In addition to the predicted position P (tk) corresponding to the correlation predicted position Pc (tk) and the update detected position D1r (tk), the update processing unit 17 also provides accuracy information of the first detected position D1 (tk). And the accuracy information of the predicted position P (tk) corresponding to the predicted position for correlation Pc (tk), the wake position T (tk) is generated.
更新処理部17は、先の図8のステップS306において、更新用予測位置Pr(tk)と第2検出位置D2(tk)に加えて、第2検出位置D(tk)の精度情報と、予測位置P(tk)の精度情報とを用いて、航跡位置T(tk)を生成する。 In step S306 of FIG. 8, the update processing unit 17 adds accuracy information of the second detection position D (tk) and the prediction in addition to the update prediction position Pr (tk) and the second detection position D2 (tk). The track position T (tk) is generated using the accuracy information of the position P (tk).
ここで、予測位置P(tk)の精度情報を演算する方法としては、例えば、次のような方法が考えられる。すなわち、予測位置P(tk)を含む予測データには第2観測データが取り込まれていないので、上記の第1テーブルから、その予測位置P(tk)に対応する精度を、予測位置P(tk)の精度情報として演算する。 Here, as a method for calculating the accuracy information of the predicted position P (tk), for example, the following method can be considered. That is, since the second observation data is not captured in the prediction data including the predicted position P (tk), the accuracy corresponding to the predicted position P (tk) is obtained from the first table with the accuracy corresponding to the predicted position P (tk). ) As accuracy information.
また、航跡位置T(tk)を生成するには、例えば、次のような式に従って航跡位置T(tk)を演算すればよい。 In order to generate the wake position T (tk), for example, the wake position T (tk) may be calculated according to the following equation.
航跡位置T(tk)
=a×更新用予測位置Pr(tk)+(1−a)×第2検出位置D2(tk)
ただし、a=予測位置P(tk)の精度/(予測位置P(tk)の精度+第2検出位置D2(tk)の精度)
Wake position T (tk)
= A × prediction position for update Pr (tk) + (1−a) × second detection position D2 (tk)
However, a = accuracy of predicted position P (tk) / (accuracy of predicted position P (tk) + accuracy of second detection position D2 (tk))
このように、更新処理部17は、更新用予測位置Pr(tk)に対応する予測位置P(tk)の精度情報を演算する。また、更新処理部17は、更新用予測位置Pr(tk)と、相関用検出位置D2c(tk)に対応する第2検出位置D2(tk)とに加え、第2検出位置D2(tk)の精度情報と更新用予測位置Pr(tk)に対応する予測位置P(tk)の精度情報とを用いて、航跡位置T(tk)を生成する。 In this way, the update processing unit 17 calculates the accuracy information of the predicted position P (tk) corresponding to the updated predicted position Pr (tk). Further, the update processing unit 17 sets the second detection position D2 (tk) in addition to the predicted update position Pr (tk) and the second detection position D2 (tk) corresponding to the correlation detection position D2c (tk). The wake position T (tk) is generated using the accuracy information and the accuracy information of the predicted position P (tk) corresponding to the updated predicted position Pr (tk).
なお、物体種別の信頼度情報または検出位置の精度情報を用いて、航跡位置を演算する際に用いる検出位置を補正してもよい。 The detection position used when calculating the wake position may be corrected using the reliability information of the object type or the accuracy information of the detection position.
なお、物体種別の信頼度情報を用いて、予測データに含まれる予測位置の推定誤差、または観測データに含まれる検出位置の推定誤差を変化させることで、予測データと観測データの重みづけを変更して、航跡データを生成するようにしてもよい。このように構成することで、例えば、物体種別が間違っていた場合、かつ物体種別の信頼度情報が正確に出力されていた場合において、推定誤差を大きくすることによって、誤って補正された値が航跡データに与える精度低下の影響を小さくすることができる。 The weighting of prediction data and observation data is changed by changing the estimation position estimation error included in the prediction data or the detection position estimation error included in the observation data using the reliability information of the object type. Then, wake data may be generated. By configuring in this way, for example, when the object type is wrong and the reliability information of the object type is output correctly, the value corrected by increasing the estimation error can be corrected. It is possible to reduce the influence of accuracy degradation on the wake data.
なお、物体寸法の精度情報を用いて、予測データに含まれる予測位置の推定誤差、または観測データに含まれる検出位置の推定誤差を変化させることで、予測データと観測データの重みづけを変更して、航跡データを生成するようにしてもよい。このように構成することで、例えば、物体寸法の誤差が大きく、かつ物体寸法の精度情報が正確に出力されていた場合において、推定誤差を大きくすることによって、誤って補正された値が航跡データに与える精度低下の影響を小さくすることができる。 Note that the weighting of the prediction data and the observation data is changed by changing the estimation error of the prediction position included in the prediction data or the detection error of the detection position included in the observation data using the accuracy information of the object dimensions. The wake data may be generated. By configuring in this way, for example, when the error of the object dimension is large and the accuracy information of the object dimension has been output accurately, the corrected value is erroneously corrected by increasing the estimation error. The influence of the decrease in accuracy on can be reduced.
以上、本実施の形態2によれば、先の実施の形態1の構成に対して、予測位置P(tk)の精度情報を演算し、予測位置P(tk)と、更新用検出位置D1r(tk)とに加え、第1検出位置D1(tk)の精度情報と予測位置P(tk)の精度情報とを用いて、航跡位置T(tk)を生成するように構成されている。 As described above, according to the second embodiment, the accuracy information of the predicted position P (tk) is calculated with respect to the configuration of the first embodiment, and the predicted position P (tk) and the update detection position D1r ( In addition to tk), the track position T (tk) is generated using the accuracy information of the first detection position D1 (tk) and the accuracy information of the predicted position P (tk).
また、先の実施の形態1の構成に対して、予測位置P(tk)の精度情報を演算し、更新用予測位置Pr(tk)と、第2検出位置D2(tk)とに加え、第2検出位置D2(tk)の精度情報と予測位置P(tk)の精度情報とを用いて、航跡位置T(tk)を生成するように構成されている。このように構成した場合であっても、先の実施の形態1と同様の効果が得られる。 Further, with respect to the configuration of the first embodiment, accuracy information of the predicted position P (tk) is calculated, and in addition to the updated predicted position Pr (tk) and the second detection position D2 (tk), The track position T (tk) is generated using the accuracy information of the two detection positions D2 (tk) and the accuracy information of the predicted position P (tk). Even in such a configuration, the same effect as in the first embodiment can be obtained.
1 物体認識処理装置、2 車両制御装置、11 第1物体検出部、12 第2物体検出部、13 物体認識処理部、14 予測処理部、15 補正処理部、16 相関処理部、17 更新処理部。
DESCRIPTION OF
Claims (12)
前記第1物体検出部と異なる検出方式で、第2検出位置および物体寸法を含む観測データを第2観測データとして検出する第2物体検出部と、
前記観測データが検出された時刻tkよりも前の時刻tk−1の航跡位置を含む航跡データを用いて、前記時刻tkの航跡位置を含む航跡データを予測することで、前記時刻tkの予測位置を含む予測データを生成する予測処理部と、
前記時刻tk−1以前に前記第2観測データがすでに検出されており、前記時刻tkの前記第1観測データが検出された場合、前記時刻tkの前記予測データに含まれる前記予測位置および前記物体寸法に基づいて前記予測位置を補正することで前記時刻tkの相関用予測位置を含む補正データを生成する補正処理部と、
前記時刻tkの前記補正データに前記相関用予測位置が含まれる場合、相関がある前記時刻tkの前記相関用予測位置と前記第1検出位置の組み合わせを含む相関データを生成する相関処理部と、
前記時刻tkの前記相関データに前記相関用予測位置と前記第1検出位置の組み合わせが含まれる場合、前記相関用予測位置を生成した際の前記予測位置の補正に基づいて前記第1検出位置を補正することで前記時刻tkの更新用検出位置を生成し、前記相関用予測位置に対応する前記予測位置と、前記更新用検出位置とを用いて、前記時刻tkの前記航跡位置を含む前記航跡データを生成する更新処理部と、
を備えた物体認識処理装置。 A detection wave is transmitted to an object around the host vehicle, the detection wave reflected from the object is received, and observation data including a first detection position is detected as first observation data based on the received detection wave. A first object detection unit;
A second object detection unit for detecting observation data including a second detection position and an object size as second observation data by a detection method different from that of the first object detection unit;
The observation data using the track data including the track position of the time tk-1 before the time tk which is detected, to predict the trajectory data including the track position of the time tk, the predicted position of the time tk A prediction processing unit that generates prediction data including
When the second observation data has already been detected before the time tk-1 and the first observation data at the time tk is detected, the predicted position and the object included in the prediction data at the time tk A correction processing unit that generates correction data including the predicted position for correlation at the time tk by correcting the predicted position based on dimensions;
A correlation processing unit that generates correlation data including a combination of the correlation predicted position at the time tk and the first detection position having a correlation when the correction data at the time tk includes the correlation predicted position;
When the correlation data at the time tk includes a combination of the predicted correlation position and the first detection position, the first detection position is determined based on the correction of the predicted position when the correlation predicted position is generated. The detection position for update at the time tk is generated by correction, and the wake including the wake position at the time tk using the prediction position corresponding to the prediction position for correlation and the detection position for update. An update processing unit for generating data;
An object recognition processing apparatus.
前記補正処理部は、
前記予測データに含まれる前記予測位置および前記物体寸法に対応する第1補正量を前記補正マップから演算し、前記第1補正量に従って前記予測位置をシフトすることで前記相関用予測位置を生成する
請求項1に記載の物体認識処理装置。 Preparing in advance a correction map in which the second detection position, the object size, and the correction amount are associated;
The correction processing unit
A first correction amount corresponding to the predicted position and the object size included in the prediction data is calculated from the correction map, and the predicted position for correlation is generated by shifting the predicted position according to the first correction amount. The object recognition processing apparatus according to claim 1.
前記相関用予測位置に対応する前記第1補正量に従って前記第1検出位置を、前記相関用予測位置を生成した際の前記予測位置をシフトした方向と反対方向にシフトすることで前記更新用検出位置を生成する
請求項2に記載の物体認識処理装置。 The update processing unit
The detection for update is performed by shifting the first detection position according to the first correction amount corresponding to the correlation prediction position in a direction opposite to the direction in which the prediction position is shifted when the correlation prediction position is generated. The object recognition processing apparatus according to claim 2, wherein a position is generated.
前記第2観測データは、前記第2検出位置の精度情報をさらに含み、
前記更新処理部は、
前記相関用予測位置に対応する前記予測位置の精度情報を演算し、前記相関用予測位置に対応する前記予測位置と、前記更新用検出位置とに加え、前記第1検出位置の精度情報と前記相関用予測位置に対応する前記予測位置の精度情報とを用いて、前記航跡位置を生成する
請求項1から3のいずれか1項に記載の物体認識処理装置。 The first observation data further includes accuracy information of the first detection position,
The second observation data further includes accuracy information of the second detection position,
The update processing unit
The accuracy information of the predicted position corresponding to the predicted position for correlation is calculated, and in addition to the predicted position corresponding to the predicted position for correlation and the detection position for update, the accuracy information of the first detected position and the The object recognition processing device according to any one of claims 1 to 3, wherein the wake position is generated using accuracy information of the predicted position corresponding to the correlation predicted position.
前記第1物体検出部と異なる検出方式で、第2検出位置および物体寸法を含む観測データを第2観測データとして検出する第2物体検出部と、
前記観測データが検出された時刻tkよりも前の時刻tk−1の航跡位置を含む航跡データを用いて、前記時刻tkの航跡位置を含む航跡データを予測することで、前記時刻tkの予測位置を含む予測データを生成する予測処理部と、
前記時刻tk−1以前に前記第2観測データがまだ検出されておらず、前記時刻tkの前記第2観測データが検出された場合、前記時刻tkの前記第2観測データに含まれる前記第2検出位置および前記物体寸法に基づいて前記第2検出位置を補正することで前記時刻tkの相関用検出位置を含む補正データを生成する補正処理部と、
前記時刻tkの前記補正データに前記相関用検出位置が含まれる場合、相関がある前記時刻tkの前記予測位置と前記相関用検出位置の組み合わせを含む相関データを生成する相関処理部と、
前記時刻tkの前記相関データに前記予測位置と前記相関用検出位置の組み合わせが含まれる場合、前記相関用検出位置を生成した際の前記第2検出位置の補正に基づいて前記予測位置を補正することで前記時刻tkの更新用予測位置を生成し、前記更新用予測位置と、前記相関用検出位置に対応する前記第2検出位置とを用いて、前記時刻tkの前記航跡位置を含む前記航跡データを生成する更新処理部と、
を備えた物体認識処理装置。 A detection wave is transmitted to an object around the host vehicle, the detection wave reflected from the object is received, and observation data including a first detection position is detected as first observation data based on the received detection wave. A first object detection unit;
A second object detection unit for detecting observation data including a second detection position and an object size as second observation data by a detection method different from that of the first object detection unit;
The observation data using the track data including the track position of the time tk-1 before the time tk which is detected, to predict the trajectory data including the track position of the time tk, the predicted position of the time tk A prediction processing unit that generates prediction data including
If the second observation data is not yet detected before the time tk−1 and the second observation data at the time tk is detected, the second observation data included in the second observation data at the time tk . A correction processing unit that generates correction data including the detection position for correlation at the time tk by correcting the second detection position based on the detection position and the object size;
If it contains the correlation detection position on the correction data of the time tk, and the correlation processing unit that generates correlation data comprising the combination of the predicted position and the correlation position detection of the time tk a correlation,
When the correlation data at the time tk includes a combination of the predicted position and the detection position for correlation, the predicted position is corrected based on the correction of the second detection position when the detection position for correlation is generated. Thus, the update predicted position at the time tk is generated, and the wake including the track position at the time tk using the predicted update position and the second detection position corresponding to the detection position for correlation. An update processing unit for generating data;
An object recognition processing apparatus.
前記補正処理部は、
前記第2観測データに含まれる前記第2検出位置および前記物体寸法に対応する第2補正量を前記補正マップから演算し、前記第2補正量に従って前記第2検出位置をシフトすることで前記相関用検出位置を生成する
請求項5に記載の物体認識処理装置。 Preparing in advance a correction map in which the second detection position, the object size, and the correction amount are associated;
The correction processing unit
The correlation is obtained by calculating a second correction amount corresponding to the second detection position and the object size included in the second observation data from the correction map, and shifting the second detection position according to the second correction amount. The object recognition processing apparatus according to claim 5, wherein the object detection position is generated.
前記相関用検出位置に対応する前記第2補正量に従って前記予測位置を、前記相関用検出位置を生成した際の前記第2検出位置をシフトした方向と反対方向にシフトすることで前記更新用予測位置を生成する
請求項6に記載の物体認識処理装置。 The update processing unit
The update prediction is performed by shifting the predicted position according to the second correction amount corresponding to the correlation detection position in a direction opposite to the direction in which the second detection position is shifted when the correlation detection position is generated. The object recognition processing device according to claim 6 which generates a position.
前記第2観測データは、前記第2検出位置の精度情報をさらに含み、
前記更新処理部は、
前記更新用予測位置に対応する前記予測位置の精度情報を演算し、前記更新用予測位置と、前記相関用検出位置に対応する前記第2検出位置とに加え、前記第2検出位置の精度情報と前記更新用予測位置に対応する前記予測位置の精度情報とを用いて、前記航跡位置を生成する
請求項5から7のいずれか1項に記載の物体認識処理装置。 The first observation data further includes accuracy information of the first detection position,
The second observation data further includes accuracy information of the second detection position,
The update processing unit
Accuracy information of the predicted position corresponding to the updated predicted position is calculated, and in addition to the updated predicted position and the second detected position corresponding to the correlation detected position, accuracy information of the second detected position The object recognition processing device according to any one of claims 5 to 7, wherein the wake position is generated using the prediction position accuracy information corresponding to the update predicted position.
前記時刻tk−1の前記航跡位置および前記物体の相対速度を含む前記航跡データと、前記時刻tk−1から前記時刻tkまでの経過時間とを用いて、前記予測位置を生成する
請求項1から8のいずれか1項に記載の物体認識処理装置。 The prediction processing unit
The predicted position is generated using the wake data including the wake position at the time tk-1 and the relative velocity of the object, and the elapsed time from the time tk-1 to the time tk. The object recognition processing device according to any one of claims 8 to 9.
前記第1物体検出ステップと異なる検出方式で、第2検出位置および物体寸法を含む観測データを第2観測データとして検出する第2物体検出ステップと、
前記観測データが検出された時刻tkよりも前の時刻tk−1の航跡位置を含む航跡データを用いて、前記時刻tkの航跡位置を含む航跡データを予測することで、前記時刻tkの予測位置を含む予測データを生成する予測処理ステップと、
前記時刻tk−1以前に前記第2観測データがすでに検出されており、前記時刻tkの前記第1観測データが検出された場合、前記予測データに含まれる前記予測位置および前記物体寸法に基づいて前記予測位置を補正することで相関用予測位置を含む補正データを生成する補正処理ステップと、
前記時刻tkの前記補正データに前記相関用予測位置が含まれる場合、相関がある前記時刻tkの前記相関用予測位置と前記第1検出位置の組み合わせを含む相関データを生成する相関処理ステップと、
前記時刻tkの前記相関データに前記相関用予測位置と前記第1検出位置の組み合わせが含まれる場合、前記相関用予測位置を生成した際の前記予測位置の補正に基づいて前記第1検出位置を補正することで前記時刻tkの更新用検出位置を生成し、前記相関用予測位置に対応する前記予測位置と、前記更新用検出位置とを用いて、前記時刻tkの前記航跡位置を含む前記航跡データを生成する更新処理ステップと、
を備えた物体認識処理方法。 A detection wave is transmitted to an object around the host vehicle, the detection wave reflected from the object is received, and observation data including a first detection position is detected as first observation data based on the received detection wave. A first object detection step;
A second object detection step of detecting observation data including a second detection position and an object size as second observation data by a detection method different from the first object detection step;
The observation data using the track data including the track position of the time tk-1 before the time tk which is detected, to predict the trajectory data including the track position of the time tk, the predicted position of the time tk A prediction processing step for generating prediction data including:
If the second observation data has already been detected before the time tk-1 and the first observation data at the time tk is detected, the second observation data is based on the predicted position and the object size included in the prediction data. A correction processing step of generating correction data including the predicted position for correlation by correcting the predicted position;
A correlation processing step of generating correlation data including a combination of the correlation prediction position at the time tk and the first detection position having a correlation when the correction data at the time tk includes the correlation prediction position;
When the correlation data at the time tk includes a combination of the predicted correlation position and the first detection position, the first detection position is determined based on the correction of the predicted position when the correlation predicted position is generated. The detection position for update at the time tk is generated by correction, and the wake including the wake position at the time tk using the prediction position corresponding to the prediction position for correlation and the detection position for update. Update processing steps to generate data;
An object recognition processing method comprising:
前記第1物体検出ステップと異なる検出方式で、第2検出位置および物体寸法を含む観測データを第2観測データとして検出する第2物体検出ステップと、
前記観測データが検出された時刻tkよりも前の時刻tk−1の航跡位置を含む航跡データを用いて、前記時刻tkの航跡位置を含む航跡データを予測することで、前記時刻tkの予測位置を含む予測データを生成する予測処理ステップと、
前記時刻tk−1以前に前記第2観測データがまだ検出されておらず、前記時刻tkの前記第2観測データが検出された場合、前記時刻tkの前記第2観測データに含まれる前記第2検出位置および前記物体寸法に基づいて前記第2検出位置を補正することで前記時刻tkの相関用検出位置を含む補正データを生成する補正処理ステップと、
前記時刻tkの前記補正データに前記相関用検出位置が含まれる場合、相関がある前記時刻tkの前記予測位置と前記相関用検出位置の組み合わせを含む相関データを生成する相関処理ステップと、
前記時刻tkの前記相関データに前記予測位置と前記相関用検出位置の組み合わせが含まれる場合、前記相関用検出位置を生成した際の前記第2検出位置の補正に基づいて前記予測位置を補正することで前記時刻tkの更新用予測位置を生成し、前記更新用予測位置と、前記相関用検出位置に対応する前記第2検出位置とを用いて、前記時刻tkの前記航跡位置を含む前記航跡データを生成する更新処理ステップと、
を備えた物体認識処理方法。 A detection wave is transmitted to an object around the host vehicle, the detection wave reflected from the object is received, and observation data including a first detection position is detected as first observation data based on the received detection wave. A first object detection step;
A second object detection step of detecting observation data including a second detection position and an object size as second observation data by a detection method different from the first object detection step;
The observation data using the track data including the track position of the time tk-1 before the time tk which is detected, to predict the trajectory data including the track position of the time tk, the predicted position of the time tk A prediction processing step for generating prediction data including:
If the second observation data is not yet detected before the time tk−1 and the second observation data at the time tk is detected, the second observation data included in the second observation data at the time tk . A correction processing step of generating correction data including the detection position for correlation at the time tk by correcting the second detection position based on the detection position and the object size;
If it contains the correlation detection position on the correction data of the time tk, and correlation processing step of generating correlation data comprising a combination of the predicted position and the correlation position detection of the time tk a correlation,
When the correlation data at the time tk includes a combination of the predicted position and the detection position for correlation, the predicted position is corrected based on the correction of the second detection position when the detection position for correlation is generated. Thus, the update predicted position at the time tk is generated, and the wake including the track position at the time tk using the predicted update position and the second detection position corresponding to the detection position for correlation. Update processing steps to generate data;
An object recognition processing method comprising:
前記物体認識処理装置の前記更新処理部によって生成される前記航跡データに基づいて、前記自車両を制御する車両制御装置と、
を備えた車両制御システム。 The object recognition processing device according to any one of claims 1 to 9,
A vehicle control device that controls the host vehicle based on the wake data generated by the update processing unit of the object recognition processing device;
Vehicle control system equipped with.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017084283A JP6333437B1 (en) | 2017-04-21 | 2017-04-21 | Object recognition processing device, object recognition processing method, and vehicle control system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017084283A JP6333437B1 (en) | 2017-04-21 | 2017-04-21 | Object recognition processing device, object recognition processing method, and vehicle control system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6333437B1 true JP6333437B1 (en) | 2018-05-30 |
JP2018179926A JP2018179926A (en) | 2018-11-15 |
Family
ID=62236402
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017084283A Active JP6333437B1 (en) | 2017-04-21 | 2017-04-21 | Object recognition processing device, object recognition processing method, and vehicle control system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6333437B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117092636A (en) * | 2023-10-12 | 2023-11-21 | 深圳安智杰科技有限公司 | System and method for recognizing false track of millimeter wave radar multi-target tracking |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021024711A1 (en) * | 2019-08-02 | 2021-02-11 | 日立オートモティブシステムズ株式会社 | Aiming device, driving control system, and method for calculating correction amount for sensor data |
JP7504016B2 (en) | 2020-12-18 | 2024-06-21 | マツダ株式会社 | OBJECT RECOGNITION DEVICE AND OBJECT RECOGNITION METHOD |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006292621A (en) * | 2005-04-13 | 2006-10-26 | Toyota Motor Corp | Object detection apparatus |
JP2008143447A (en) * | 2006-12-13 | 2008-06-26 | Honda Motor Co Ltd | Vehicle safety control device |
US20090292468A1 (en) * | 2008-03-25 | 2009-11-26 | Shunguang Wu | Collision avoidance method and system using stereo vision and radar sensor fusion |
JP2016080539A (en) * | 2014-10-17 | 2016-05-16 | トヨタ自動車株式会社 | In-vehicle sensor |
-
2017
- 2017-04-21 JP JP2017084283A patent/JP6333437B1/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006292621A (en) * | 2005-04-13 | 2006-10-26 | Toyota Motor Corp | Object detection apparatus |
JP2008143447A (en) * | 2006-12-13 | 2008-06-26 | Honda Motor Co Ltd | Vehicle safety control device |
US20090292468A1 (en) * | 2008-03-25 | 2009-11-26 | Shunguang Wu | Collision avoidance method and system using stereo vision and radar sensor fusion |
JP2016080539A (en) * | 2014-10-17 | 2016-05-16 | トヨタ自動車株式会社 | In-vehicle sensor |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117092636A (en) * | 2023-10-12 | 2023-11-21 | 深圳安智杰科技有限公司 | System and method for recognizing false track of millimeter wave radar multi-target tracking |
CN117092636B (en) * | 2023-10-12 | 2024-01-02 | 深圳安智杰科技有限公司 | System and method for recognizing false track of millimeter wave radar multi-target tracking |
Also Published As
Publication number | Publication date |
---|---|
JP2018179926A (en) | 2018-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11941985B2 (en) | Vehicular environment estimation device | |
US8731809B2 (en) | Traffic congestion prediction method | |
JP5041099B2 (en) | Vehicle relative position estimation device and vehicle relative position estimation method | |
JP6336888B2 (en) | Adjacent lane monitoring device | |
JP5212753B2 (en) | Radar apparatus and measurement method used in the radar apparatus | |
JP4650508B2 (en) | Recognition system | |
JP7200897B2 (en) | Occupancy grid map generation device, occupation grid map generation system, occupation grid map generation method, and program | |
US8401784B2 (en) | Course evaluation apparatus and course evaluation method | |
JP6520740B2 (en) | Object detection method, object detection device, and program | |
JP6490747B2 (en) | Object recognition device, object recognition method, and vehicle control system | |
JP6464978B2 (en) | Position estimation device | |
JP6333437B1 (en) | Object recognition processing device, object recognition processing method, and vehicle control system | |
WO2018062291A1 (en) | Other-lane monitoring device | |
JP6169146B2 (en) | Object recognition integration apparatus and object recognition integration method | |
JP5067091B2 (en) | Collision determination device | |
JP6555132B2 (en) | Moving object detection device | |
JP4644590B2 (en) | Peripheral vehicle position detection device and peripheral vehicle position detection method | |
JP7412254B2 (en) | Object recognition device and object recognition method | |
JP4849013B2 (en) | Vehicle periphery monitoring device | |
JP2008222164A (en) | Course predicting device and collision predicting device | |
JP2006113627A (en) | Device for determining control object for vehicle | |
JP2020063934A (en) | Object recognition device and vehicle controller using the same, and object recognition method and vehicle control method using the same | |
JP7116699B2 (en) | Behavior prediction device, behavior prediction method and program | |
EP3214459A1 (en) | Location determination device and method for operating same | |
JP7074087B2 (en) | Travel route prediction device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180306 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180327 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180424 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6333437 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |