JP7452333B2 - LIDAR correction parameter generation method, LIDAR evaluation method, and LIDAR correction device - Google Patents

LIDAR correction parameter generation method, LIDAR evaluation method, and LIDAR correction device Download PDF

Info

Publication number
JP7452333B2
JP7452333B2 JP2020145216A JP2020145216A JP7452333B2 JP 7452333 B2 JP7452333 B2 JP 7452333B2 JP 2020145216 A JP2020145216 A JP 2020145216A JP 2020145216 A JP2020145216 A JP 2020145216A JP 7452333 B2 JP7452333 B2 JP 7452333B2
Authority
JP
Japan
Prior art keywords
point data
lidar
vehicle
correction
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020145216A
Other languages
Japanese (ja)
Other versions
JP2022040476A (en
Inventor
智広 福田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2020145216A priority Critical patent/JP7452333B2/en
Publication of JP2022040476A publication Critical patent/JP2022040476A/en
Application granted granted Critical
Publication of JP7452333B2 publication Critical patent/JP7452333B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Optical Radar Systems And Details Thereof (AREA)

Description

本発明は、LIDARの補正パラメータの生成方法、LIDARの評価方法、およびLIDARの補正装置に関する。 The present invention relates to a LIDAR correction parameter generation method, a LIDAR evaluation method, and a LIDAR correction device.

たとえば下記特許文献1には、レーダ装置とカメラ装置との双方を用いて物体の検出精度を向上させることが記載されている。 For example, Patent Document 1 listed below describes improving object detection accuracy using both a radar device and a camera device.

特開2016-153775号公報Japanese Patent Application Publication No. 2016-153775

ところで、車両に複数のセンサを備える場合、それらを車両に取り付ける際のずれ等に起因して、複数のセンサによる物体の検知結果にずれが生じうる。したがって、複数のLIDAR装置を車両に備える場合、それらによる物体の検知結果にずれが生じうる。 By the way, when a vehicle is equipped with a plurality of sensors, deviations may occur in the detection results of objects by the plurality of sensors due to misalignment when the sensors are attached to the vehicle. Therefore, when a vehicle is equipped with a plurality of LIDAR devices, differences may occur in the results of object detection by the LIDAR devices.

上記課題を解決するための手段およびその作用効果について記載する。
1.車両の周囲に照射したレーザ光の反射光を受光する第1LIDAR装置(LR1)による測距点データを第1測距点データとし、前記車両の周囲に照射したレーザ光の反射光を受光する第2LIDAR装置(LR2)による測距点データを第2測距点データとし、前記第1測距点データに応じて特定された物体の1つを対象物体とし、前記第1測距点データに基づく前記対象物体の位置座標を算出する対象座標算出処理(S16)と、前記第2測距点データに応じて特定された物体のうち、前記対象物体との距離が最小となる物体を同一物体とし、前記第2測距点データに基づき前記同一物体の位置座標を算出する同一座標算出処理(S44)と、前記車両の前後方向および横方向によって張られる面内において、前記対象物体の前記位置座標と前記同一物体の前記位置座標とを相対的に回転させた後の位置座標同士の差の絶対値が最小となるときの相対回転角を、前記測距点データに基づく物体の位置を補正する補正パラメータとして選択する選択処理(S34)と、を実行装置(42,44)に実行させるLIDARの補正パラメータの生成方法である。
Means for solving the above problems and their effects will be described.
1. The distance measuring point data by the first LIDAR device (LR1) that receives the reflected light of the laser beam irradiated around the vehicle is defined as the first distance measuring point data, and the distance measuring point data of the first LIDAR device (LR1) that receives the reflected light of the laser beam irradiated around the vehicle is defined as the first distance measuring point data. The distance measuring point data obtained by the 2LIDAR device (LR2) is defined as second ranging point data, one of the objects specified according to the first ranging point data is defined as a target object, and the distance measuring point data is based on the first ranging point data. A target coordinate calculation process (S16) that calculates the positional coordinates of the target object, and among the objects identified according to the second distance measurement point data, an object having a minimum distance to the target object is determined to be the same object. , a same coordinate calculation process (S44) of calculating the position coordinates of the same object based on the second distance measuring point data; and the position coordinates of the same object, and the relative rotation angle when the absolute value of the difference between the position coordinates becomes the minimum is corrected for the position of the object based on the ranging point data. This is a LIDAR correction parameter generation method that causes an execution device (42, 44) to execute a selection process (S34) for selecting a correction parameter.

上記方法では、第1測距点データに基づく対象物体の位置座標と第2測距点データに基づく対象物体の位置座標とを相対回転させた際の位置座標同士の差の絶対値が最小となるときの相対回転角を補正パラメータとして選択する。そのため、第1LIDAR装置および第2LIDAR装置の軸ずれに起因した双方の位置座標同士のずれを好適に補償することができる。 In the above method, the absolute value of the difference between the position coordinates of the target object based on the first distance measurement point data and the position coordinates of the target object based on the second distance measurement point data when the position coordinates of the target object based on the first distance measurement point data are relatively rotated is the minimum. Select the relative rotation angle at which the rotation angle becomes the correction parameter. Therefore, it is possible to suitably compensate for the deviation between the position coordinates of the first LIDAR device and the second LIDAR device due to the axis deviation of the two LIDAR devices.

一実施形態にかかるシステム構成図。FIG. 1 is a system configuration diagram according to an embodiment. 同実施形態にかかる評価装置が実行する処理の手順を示す流れ図。5 is a flowchart showing the procedure of processing executed by the evaluation device according to the embodiment. 上記処理の一部の詳細な手順を示す流れ図。FIG. 3 is a flowchart showing detailed steps of a part of the above processing. FIG. 同実施形態にかかる効果を示す図。FIG. 3 is a diagram showing effects according to the embodiment. (a)および(b)は、上記実施形態の変更例を示す図。(a) and (b) are diagrams showing a modification of the above embodiment.

<第1の実施形態>
以下、第1の実施形態について図面を参照しつつ説明する。
図1に、本実施形態にかかるLIDARの評価システムの構成を示す。
<First embodiment>
The first embodiment will be described below with reference to the drawings.
FIG. 1 shows the configuration of a LIDAR evaluation system according to this embodiment.

図1に示す試験用の車両VCは、第1光センサ10および第2光センサ12を備えている。第1光センサ10および第2光センサ12は、いずれも、たとえば近赤外線等のレーザ光を照射する。また、第1光センサ10は、レーザ光の反射光を受光することに基づき、レーザ光を反射した物体と車両との距離を示す変数である距離変数と、レーザ光の照射方向を示す変数である方向変数と、反射した物体の反射強度を示す変数である強度変数とを示す測距点データである第1測距点データDrpc1を生成する。第2光センサ12は、レーザ光の反射光を受光することに基づき、レーザ光を反射した物体と車両との距離を示す変数である距離変数と、レーザ光の照射方向を示す変数である方向変数と、反射した物体の反射強度を示す変数である強度変数とを示す測距点データである第2測距点データDrpc2を生成する。 The test vehicle VC shown in FIG. 1 includes a first optical sensor 10 and a second optical sensor 12. Both the first optical sensor 10 and the second optical sensor 12 emit laser light such as near-infrared light. The first optical sensor 10 also detects a distance variable, which is a variable indicating the distance between the object that reflected the laser beam and the vehicle, and a variable indicating the irradiation direction of the laser beam, based on the reception of the reflected laser beam. First ranging point data Drpc1 is generated which is ranging point data indicating a certain direction variable and an intensity variable which is a variable indicating the reflection intensity of a reflected object. Based on the reception of the reflected laser beam, the second optical sensor 12 generates a distance variable that is a variable that indicates the distance between the object that reflected the laser beam and the vehicle, and a direction variable that is a variable that indicates the irradiation direction of the laser beam. Second distance measuring point data Drpc2 is generated which is distance measuring point data indicating a variable and an intensity variable which is a variable indicating the reflection intensity of the reflected object.

第1LIDARECU20は、第1測距点データDrpc1に基づき、レーザ光を反射した物体の認識処理を実行する。詳しくは、第1LIDARECU20は、レーザ光の照射方向を水平方向および垂直方向に走査する処理を繰り返し、それら水平方向および垂直方向への操作の一周期を1走査周期とする。そして、1走査周期毎に、第1測距点データDrpc1に基づきクラスタリング処理等によって物体を認識する。第1LIDARECU20は、CPU22、ROM24、記憶装置26および周辺回路28を備えており、それらがローカルネットワーク29を介して通信可能とされたものである。ここで、周辺回路28は、内部の動作を規定するクロック信号を生成する回路や、電源回路、リセット回路等を含む。第1LIDARECU20は、ROM24に記憶されたプログラムをCPU22が実行することにより認識処理を実行する。記憶装置26には、上記認識処理によって認識された物体に関するデータである第1検知データDd1が記憶されている。第1検知データDd1は、複数の走査周期の第1測距点データDrpc1に基づくデータであり、認識した物体の軌跡情報を含む。 The first LIDAR ECU 20 executes recognition processing of the object that reflected the laser beam based on the first distance measurement point data Drpc1. Specifically, the first LIDAR ECU 20 repeats the process of scanning the irradiation direction of the laser beam in the horizontal direction and the vertical direction, and one period of these operations in the horizontal direction and the vertical direction is defined as one scanning period. Then, for each scanning period, objects are recognized by clustering processing or the like based on the first distance measurement point data Drpc1. The first LIDAR ECU 20 includes a CPU 22, a ROM 24, a storage device 26, and a peripheral circuit 28, which can communicate with each other via a local network 29. Here, the peripheral circuit 28 includes a circuit that generates a clock signal that defines internal operations, a power supply circuit, a reset circuit, and the like. The first LIDAR ECU 20 executes recognition processing by having the CPU 22 execute a program stored in the ROM 24. The storage device 26 stores first detection data Dd1, which is data regarding the object recognized by the recognition process. The first detection data Dd1 is data based on the first ranging point data Drpc1 of a plurality of scanning cycles, and includes trajectory information of the recognized object.

本実施形態では、第1光センサ10および第1LIDARECU20を備えた第1LIDAR装置LR1は、量産された車両に実際に搭載され使用されているものである。
第2LIDARECU30は、第2測距点データDrpc2に基づき、レーザ光を反射した物体の認識処理を実行する。詳しくは、第2LIDARECU30は、レーザ光の照射方向を水平方向および垂直方向に走査する処理を繰り返し、それら水平方向および垂直方向への操作の一周期を1走査周期とする。そして、1走査周期毎に、第2測距点データDrpc2に基づきクラスタリング処理等によって物体を認識する。第2LIDARECU30は、CPU32、ROM34、記憶装置36および周辺回路38を備えており、それらがローカルネットワーク39を介して通信可能とされたものである。ここで、周辺回路38は、内部の動作を規定するクロック信号を生成する回路や、電源回路、リセット回路等を含む。第2LIDARECU30は、ROM34に記憶されたプログラムをCPU32が実行することにより認識処理を実行する。記憶装置36には、上記認識処理によって認識された物体に関するデータである第2検知データDd2が記憶されている。第2検知データDd2は、複数の走査周期の第2測距点データDrpc2に基づくデータであり、認識した物体の軌跡情報を含む。
In this embodiment, the first LIDAR device LR1 including the first optical sensor 10 and the first LIDAR ECU 20 is actually installed and used in a mass-produced vehicle.
The second LIDAR ECU 30 executes recognition processing of the object that reflected the laser beam based on the second distance measurement point data Drpc2. Specifically, the second LIDAR ECU 30 repeats the process of scanning the irradiation direction of the laser beam in the horizontal direction and the vertical direction, and defines one period of the operations in the horizontal direction and the vertical direction as one scanning period. Then, objects are recognized by clustering processing or the like based on the second distance measurement point data Drpc2 for each scanning period. The second LIDAR ECU 30 includes a CPU 32, a ROM 34, a storage device 36, and a peripheral circuit 38, which can communicate with each other via a local network 39. Here, the peripheral circuit 38 includes a circuit that generates a clock signal that defines internal operations, a power supply circuit, a reset circuit, and the like. The second LIDAR ECU 30 executes recognition processing by the CPU 32 executing a program stored in the ROM 34. The storage device 36 stores second detection data Dd2, which is data related to the object recognized by the recognition process. The second detection data Dd2 is data based on the second ranging point data Drpc2 of a plurality of scanning cycles, and includes trajectory information of the recognized object.

本実施形態では、第2光センサ12および第2LIDARECU30を備えた第2LIDAR装置LR2は、未だ量産された車両に搭載された実績がなく、量産された車両に搭載する以前に性能を評価することが望まれているものである。 In this embodiment, the second LIDAR device LR2 including the second optical sensor 12 and the second LIDAR ECU 30 has not yet been installed in a mass-produced vehicle, and it is difficult to evaluate its performance before installing it in a mass-produced vehicle. It is desired.

評価装置40は、車両VCの外部に配置されている。評価装置40は、車両VCに搭載される車速センサ50によって検出される車速SPDの時系列データである車速データDspdや、第1検知データDd1および第2検知データDd2を用いて、第2LIDAR装置LR2の性能を評価する装置である。この評価においては、まず、車両VCを所定期間にわたって実際の道路を走行させる。具体的には、本実施形態では、自動車専用道路において、先行車両の速度以下となる車速で車両VCを走行させる。そして、車両VCが走行している所定期間にわたって第1LIDARECU20は、記憶装置26に第1検知データDd1を蓄積する。また、車両VCが走行している所定期間にわたって第2LIDARECU30は、記憶装置36に第2検知データDd2を蓄積する。そして、所定期間経過後、評価装置40は、車両VCから、第1検知データDd1および第2検知データDd2を取得し、記憶装置46に記憶させる。そして、評価装置40は、第2LIDAR装置LR2の性能を評価する。 Evaluation device 40 is placed outside vehicle VC. The evaluation device 40 uses the vehicle speed data Dspd, which is time series data of the vehicle speed SPD detected by the vehicle speed sensor 50 mounted on the vehicle VC, the first detection data Dd1, and the second detection data Dd2, to evaluate the second LIDAR device LR2. This is a device that evaluates the performance of In this evaluation, first, the vehicle VC is driven on an actual road for a predetermined period of time. Specifically, in this embodiment, the vehicle VC is driven on a motorway at a vehicle speed that is less than or equal to the speed of the preceding vehicle. Then, the first LIDAR ECU 20 accumulates the first detection data Dd1 in the storage device 26 over a predetermined period while the vehicle VC is traveling. Further, the second LIDAR CU 30 accumulates the second detection data Dd2 in the storage device 36 over a predetermined period when the vehicle VC is traveling. After a predetermined period of time has elapsed, the evaluation device 40 acquires the first detection data Dd1 and the second detection data Dd2 from the vehicle VC, and stores them in the storage device 46. The evaluation device 40 then evaluates the performance of the second LIDAR device LR2.

なお、本実施形態では、第1LIDARECU20による1走査周期の方が、第2LIDARECU30による1走査周期よりも短い。そのため、評価装置40は、第2検知データDd2を構成する各走査周期の始点の前であって当該始点に最も近いタイミングを始点とする走査周期のそれぞれにおける第1測距点データDrpc1によって、第1検知データDd1を構成する。これにより、第1検知データDd1を構成する各第1測距点データDrpc1は、第2検知データDd2を構成する対応する第2測距点データDrpc2の走査周期の始点よりも前に始点を有する走査周期に対応するデータとなる。なお、以下において、「走査周期」を単体で用いる場合には、第2LIDARECU30による走査周期を意味することとする。 Note that in this embodiment, one scanning period by the first LID ARECU 20 is shorter than one scanning period by the second LID ARECU 30. Therefore, the evaluation device 40 uses the first ranging point data Drpc1 in each of the scanning cycles whose starting point is before the starting point of each scanning cycle constituting the second detection data Dd2 and whose starting point is closest to the starting point. 1 detection data Dd1 is configured. As a result, each of the first ranging point data Drpc1 forming the first detection data Dd1 has a starting point before the start point of the scanning cycle of the corresponding second ranging point data Drpc2 forming the second sensing data Dd2. The data corresponds to the scanning cycle. Note that in the following, when "scanning period" is used alone, it means the scanning period by the second LIDAR ECU 30.

評価装置40は、CPU42、ROM44、記憶装置46および周辺回路48を備えており、それらがローカルネットワーク49を介して通信可能とされている。
図2に、評価装置40が実行する処理の手順を示す。図2に示す処理は、ROM44に記憶されたプログラムをCPU42が実行することにより実現される。なお、以下では、先頭に「S」が付与された数字によって各処理のステップ番号を表現する。
The evaluation device 40 includes a CPU 42, a ROM 44, a storage device 46, and a peripheral circuit 48, which can communicate with each other via a local network 49.
FIG. 2 shows the procedure of processing executed by the evaluation device 40. The processing shown in FIG. 2 is realized by the CPU 42 executing a program stored in the ROM 44. Note that in the following, the step number of each process is expressed by a number prefixed with "S".

図2に示す一連の処理において、CPU42は、まず、所定のタイミングにおいて第1検知データDd1が示す車両VCの周囲の物体のうちの1つを対象物体に選択する(S10)。次にCPU42は、対象物体が移動物体であるか否かを判定する(S12)。この処理は、本実施形態では、第1LIDAR装置LR1によって認識された移動物体を第2LIDAR装置LR2が認識するか否かに基づき第2LIDAR装置LR2の性能を評価することを想定していることに鑑みた処理である。 In the series of processes shown in FIG. 2, the CPU 42 first selects one of the objects around the vehicle VC indicated by the first detection data Dd1 as a target object at a predetermined timing (S10). Next, the CPU 42 determines whether the target object is a moving object (S12). This process is performed in consideration of the fact that in this embodiment, it is assumed that the performance of the second LIDAR device LR2 is evaluated based on whether or not the second LIDAR device LR2 recognizes the moving object recognized by the first LIDAR device LR1. This is a very simple process.

CPU42は、移動物体であると判定する場合(S12:YES)、後述の座標成分(x1,y1)を補正するためのパラメータβx,βy,γを1つ選択する(S14)。すなわち、本実施形態では、パラメータβx,βy,γの3つのうちの少なくとも1つの値が互いに異なる複数の組み合わせが予め定められており、CPU42は、それら複数の組み合わせのうちの1つの組を選択する。特に本実施形態では、パラメータγについては正の値、負の値および「0」のいずれをも取りうるものの、パラメータβx,βyについては正の値としている。パラメータγ,βx,βyは、第1LIDARECU20によって検知される物体の位置と、第2LIDARECU30によって検知される物体の位置とのずれ量を調整するためのパラメータである。 When determining that the object is a moving object (S12: YES), the CPU 42 selects one parameter βx, βy, γ for correcting coordinate components (x1, y1) to be described later (S14). That is, in this embodiment, a plurality of combinations in which at least one of the three parameters βx, βy, and γ has a different value are determined in advance, and the CPU 42 selects one of the plurality of combinations. do. In particular, in this embodiment, although the parameter γ can take any of a positive value, a negative value, or "0", the parameters βx and βy are set to positive values. The parameters γ, βx, and βy are parameters for adjusting the amount of deviation between the position of the object detected by the first LID A RECU 20 and the position of the object detected by the second LID A RECU 30.

次にCPU42は、第1検知データDd1に基づき、対象物体のx軸の座標成分x1およびy軸の座標成分y1と、対象物体である先行車両と車両VCとの相対速度Vrとを算出する(S16)。ここで、x軸は、車両VCの前後方向に平行であって且つ車両VCの重心を通る。また、y軸は、車両VCの横方向であって且つ車両VCの重心を通る。詳しくは、本実施形態では、対象物体である先行車両の後端部の中心座標を対象物体の座標成分(x1,y1)とする。なお、図2には、相対速度Vrを、車両VCの車速SPDから、対象物体の車速を減算したものと表記している。すなわち、車速SPDから、対象物体のx軸の速度成分Vxおよびy軸の速度成分Vyの2乗和の平方根を減算した値であると記載している。しかし、対象物体の速度成分(Vx,Vy)を算出する際、CPU42は、実際には車速SPDを利用する。 Next, the CPU 42 calculates the x-axis coordinate component x1 and the y-axis coordinate component y1 of the target object, and the relative velocity Vr between the preceding vehicle, which is the target object, and the vehicle VC, based on the first detection data Dd1 ( S16). Here, the x-axis is parallel to the longitudinal direction of the vehicle VC and passes through the center of gravity of the vehicle VC. Further, the y-axis is in the lateral direction of the vehicle VC and passes through the center of gravity of the vehicle VC. Specifically, in this embodiment, the center coordinates of the rear end of the preceding vehicle, which is the target object, are the coordinate components (x1, y1) of the target object. Note that in FIG. 2, the relative speed Vr is expressed as the vehicle speed SPD of the vehicle VC minus the vehicle speed of the target object. That is, it is described as a value obtained by subtracting the square root of the sum of the squares of the x-axis speed component Vx and the y-axis speed component Vy of the target object from the vehicle speed SPD. However, when calculating the velocity components (Vx, Vy) of the target object, the CPU 42 actually uses the vehicle speed SPD.

次に、CPU42は、対象物体の位置に関する座標を原点である車両VCの重心を中心として「γ」だけ回転補正する(S18)。ここで、CPU42は、回転補正される座標である対象物体の位置に関する座標を、S16の処理によって算出された座標(x1,y1)が相対速度Vrに応じて補正されたものとする。すなわち、CPU42は、座標成分x1については、相対速度Vrの絶対値をパラメータβxによって除算した値αxと、対象物体の速度成分Vxとの積によって減少補正する。ここでパラメータβxは正である。これにより、座標成分x1は減少補正される。これは、本実施形態では、第1検知データDd1を構成するデータの各1走査周期の始点が対応する第2検知データDd2を構成するデータの走査周期の始点よりも後のタイミングとなって且つ、車両VCが先行車両の走行速度以下で走行することに鑑みた設定である。すなわち、その場合、相対速度Vrがゼロでない場合には、第2LIDARECU30によって検知される物体の位置よりも第1LIDAR装置LR1によって検知される物体の位置の方が車両VCから遠ざかる。 Next, the CPU 42 corrects the rotation of the coordinates regarding the position of the target object by "γ" around the center of gravity of the vehicle VC, which is the origin (S18). Here, the CPU 42 assumes that the coordinates (x1, y1) calculated in the process of S16 have been corrected according to the relative velocity Vr, as the coordinates related to the position of the target object, which are the coordinates to be rotationally corrected. That is, the CPU 42 reduces the coordinate component x1 by multiplying the value αx obtained by dividing the absolute value of the relative velocity Vr by the parameter βx and the velocity component Vx of the target object. Here, the parameter βx is positive. As a result, the coordinate component x1 is corrected to decrease. This is because, in the present embodiment, the start point of each scanning period of the data forming the first sensing data Dd1 is later than the starting point of the scanning period of the data forming the corresponding second sensing data Dd2. This setting is made in consideration of the fact that the vehicle VC travels at a speed lower than the speed of the preceding vehicle. That is, in that case, if the relative velocity Vr is not zero, the position of the object detected by the first LIDAR device LR1 is farther from the vehicle VC than the position of the object detected by the second LIDAR ECU 30.

また、CPU42は、座標成分y1については、相対速度Vrの絶対値をパラメータβyによって除算した値αyと、対象物体の速度成分Vyとの積によって補正する。
次にCPU42は、第2検知データDd2が示す物体のうちの対象物体と同一の物体を判定する処理を実行する(S20)。
Further, the CPU 42 corrects the coordinate component y1 by multiplying the value αy obtained by dividing the absolute value of the relative velocity Vr by the parameter βy and the velocity component Vy of the target object.
Next, the CPU 42 executes a process of determining which object is the same as the target object among the objects indicated by the second detection data Dd2 (S20).

図3に、S20の処理の詳細を示す。
図3に示す一連の処理において、CPU42は、まず、対象物体の後端が車両VCから所定範囲内にあるか否かを判定する(S40)。所定範囲は、車両VCからの距離が規定距離以上であって且つ所定距離以下の範囲とする。これは、車両VCから所定距離よりも離間した位置にある物体の場合、第1LIDARECU20の分解能と第2LIDARECU30の分解能との差に起因した精度差が顕著となることに鑑みたものである。また、車両VCとの距離が規定距離よりも短い場合には第1LIDARECU20の視野と第2LIDARECU30の視野との差に起因した精度差が顕著となることに鑑みたものである。
FIG. 3 shows details of the process in S20.
In the series of processes shown in FIG. 3, the CPU 42 first determines whether the rear end of the target object is within a predetermined range from the vehicle VC (S40). The predetermined range is a range where the distance from the vehicle VC is greater than or equal to a predetermined distance and less than or equal to a predetermined distance. This is in consideration of the fact that in the case of an object located at a position more than a predetermined distance from the vehicle VC, the difference in accuracy due to the difference between the resolution of the first LIDAR ECU 20 and the resolution of the second LIDAR ECU 30 becomes significant. This is also taken into consideration that when the distance to the vehicle VC is shorter than the specified distance, the difference in accuracy due to the difference between the field of view of the first LID A RECU 20 and the field of view of the second LID A RECU 30 becomes significant.

CPU42は、所定範囲内にあると判定する場合(S40:YES)、第2検知データDd2が示す物体を選択する(S42)。そして、CPU42は、第2検知データDd2に基づき、選択した物体のx軸およびy軸の座標成分(x2,y2)を算出する(S44)。詳しくは、座標成分(x2,y2)は、選択した物体の後端部の中心座標である。次に、CPU42は、対象物体のS18の処理による補正後の座標成分(x1c,y1c)とS44の処理によって算出した座標成分とのユークリッド距離が、相対速度Vrの絶対値に所定の係数Kを乗算した値よりも小さいか否かを判定する(S46)。この処理は、選択した物体が対象物体の可能性があるか否かを判定する処理である。ここで、可能性の有無の判定のための閾値を相対速度Vrの大きさに比例させたのは、第1検知データDd1を構成する第1測距点データDrpc1の1走査周期の始点と、対応する第2検知データDd2を構成する第2測距点データDrpc2の1走査周期の始点とのずれに起因した誤差の影響を考慮するためである。 When determining that the object is within the predetermined range (S40: YES), the CPU 42 selects the object indicated by the second detection data Dd2 (S42). Then, the CPU 42 calculates the x-axis and y-axis coordinate components (x2, y2) of the selected object based on the second detection data Dd2 (S44). Specifically, the coordinate component (x2, y2) is the center coordinate of the rear end of the selected object. Next, the CPU 42 determines that the Euclidean distance between the coordinate components (x1c, y1c) of the target object corrected by the processing in S18 and the coordinate components calculated in the processing in S44 is determined by adding a predetermined coefficient K to the absolute value of the relative velocity Vr. It is determined whether the value is smaller than the multiplied value (S46). This process is a process for determining whether or not the selected object has a possibility of being a target object. Here, the reason why the threshold value for determining the presence or absence of possibility is made proportional to the magnitude of the relative velocity Vr is that the starting point of one scanning period of the first ranging point data Drpc1 forming the first detection data Dd1, This is to take into consideration the influence of an error caused by a deviation from the starting point of one scanning period of the second ranging point data Drpc2 constituting the corresponding second detection data Dd2.

CPU42は、相対速度Vrの絶対値に所定の係数Kを乗算した値以上であると判定する場合(S46:NO)、対象物体と同一の物体ではないと判定する(S48)。
これに対し、CPU42は、相対速度Vrの絶対値に所定の係数Kを乗算した値よりも小さいと判定する場合(S46:YES)や、S48の処理を完了する場合には、第2検知データDd2が示す物体の全てをS42の処理によって選択したか否かを判定する(S50)。CPU42は、未だ選択されていない物体があると判定する場合(S50:NO)、S42の処理に戻る。
When determining that the absolute value of the relative velocity Vr is greater than or equal to the value obtained by multiplying the predetermined coefficient K (S46: NO), the CPU 42 determines that the object is not the same as the target object (S48).
On the other hand, if the CPU 42 determines that the absolute value of the relative velocity Vr is smaller than the value obtained by multiplying the predetermined coefficient K (S46: YES) or if the process of S48 is completed, the second detection data It is determined whether all the objects indicated by Dd2 have been selected through the process of S42 (S50). When determining that there is an object that has not been selected yet (S50: NO), the CPU 42 returns to the process of S42.

これに対しCPU42は、全ての物体を選択済みであると判定する場合(S50:YES)、対象物体とのユークリッド距離としての誤差が最小となる物体の加速度が閾値以下であるか否かを判定する(S52)。この処理は、誤差が最小となる物体を対象物体と同一の物体としてよいか否かを判定する処理である。ここで、閾値は、車両の加速度として想定される最大値よりも大きい値に設定されている。なお、CPU42は、隣接する走査周期のそれぞれにおいて算出される物体の速度の変化量を上記加速度とする。 On the other hand, when determining that all objects have been selected (S50: YES), the CPU 42 determines whether the acceleration of the object with the minimum error as a Euclidean distance from the target object is less than or equal to the threshold value. (S52). This process is a process for determining whether or not the object with the minimum error can be made the same object as the target object. Here, the threshold value is set to a value larger than the maximum value assumed as the acceleration of the vehicle. Note that the CPU 42 uses the amount of change in the velocity of the object calculated in each of the adjacent scanning periods as the acceleration.

CPU42は、閾値よりも大きいと判定する場合(S52:NO)、誤差が最小の物体が同一物体ではないと判定する(S54)。すなわち、隣接する走査周期間での速度の変化が過度に大きい物体等の場合には、先行車両の変位としてありえないことから、その場合には同一物体である旨の判定を控える。 When determining that the difference is larger than the threshold (S52: NO), the CPU 42 determines that the objects with the smallest error are not the same object (S54). That is, in the case of an object with an excessively large change in speed between adjacent scanning periods, it is unlikely that this is a displacement of the preceding vehicle, so in that case, the determination that the object is the same object is refrained from being made.

これに対し、CPU42は、閾値以下であると判定する場合(S52:YES)、誤差が最小となる物体を同一物体であると判定する(S56)。なお、CPU42は、S54,S56の処理を完了する場合や、S40の処理において否定判定する場合には、図2のS20の処理を完了する。 On the other hand, when the CPU 42 determines that it is less than or equal to the threshold value (S52: YES), the CPU 42 determines that the objects with the smallest error are the same object (S56). Note that when the CPU 42 completes the processing of S54 and S56 or when a negative determination is made in the processing of S40, the CPU 42 completes the processing of S20 in FIG.

そして、CPU42は、パラメータγ,βx,βyの組に紐づけられる誤差の加算条件を満たすか否かを判定する(S22)。本実施形態では、加算条件を、S20の処理によって同一物体と判定された物体が所定の長さを有する時間にわたって同一物体であると判定され続ける旨の条件とする。CPU42は、加算条件が成立しないと判定する場合(S22:NO)、S16の処理に戻る。これにより、S10の処理において対象物体が選択されたときの走査周期の次の走査周期の認知結果に基づき、座標成分(x1,y1)や座標成分(x2,y2)が算出されることとなる。なお、複数の走査周期にわたって図3の処理がなされる場合には、図3のS52の処理においてユークリッド距離の平均値が最小となる物体を同一物体の候補とすればよい。 Then, the CPU 42 determines whether the addition condition for the error associated with the set of parameters γ, βx, and βy is satisfied (S22). In this embodiment, the addition condition is a condition that the objects determined to be the same object in the process of S20 continue to be determined to be the same object for a predetermined length of time. When determining that the addition condition is not satisfied (S22: NO), the CPU 42 returns to the process of S16. As a result, the coordinate components (x1, y1) and the coordinate components (x2, y2) are calculated based on the recognition result of the scanning cycle following the scanning cycle when the target object was selected in the process of S10. . In addition, when the process of FIG. 3 is performed over a plurality of scanning periods, the object for which the average value of the Euclidean distance is the minimum in the process of S52 of FIG. 3 may be used as a candidate for the same object.

一方、CPU42は、加算条件を満たすと判定する場合(S22:YES)、加算条件を満たすまでの期間に算出された対象物体とのユークリッド距離の平均値を、誤差errとして算出する(S24)。そしてCPU42は、S14の処理によって選択したパラメータγ,βx,βyの組に関する、誤差の積算値Inerr(γ,βx,βy)にS24の処理によって算出した誤差errを加算する(S28)。 On the other hand, when determining that the addition condition is satisfied (S22: YES), the CPU 42 calculates the average value of the Euclidean distances to the target object calculated during the period until the addition condition is satisfied as the error err (S24). Then, the CPU 42 adds the error err calculated in the process of S24 to the accumulated error value Inerr (γ, βx, βy) regarding the set of parameters γ, βx, βy selected in the process of S14 (S28).

次にCPU42は、S14の処理において、パラメータγ,βx,βyの組の全てを選択済みであるか否かを判定する(S30)。そしてCPU42は、未だ選択していない組があると判定する場合(S30:NO)、S14の処理に戻る。これに対し、CPU42は、全ての組を選択済みであると判定する場合(S30:YES)、S10の処理において、第1検知データDd1が示す全ての物体を選択済みであるか否かを判定する(S32)。CPU42は、未だ選択していない物体があると判定する場合(S32:NO)や、S12の処理において否定判定する場合には、S10の処理に戻る。 Next, in the process of S14, the CPU 42 determines whether all sets of parameters γ, βx, and βy have been selected (S30). If the CPU 42 determines that there is a group that has not yet been selected (S30: NO), the process returns to S14. On the other hand, when determining that all the groups have been selected (S30: YES), in the process of S10, the CPU 42 determines whether all the objects indicated by the first detection data Dd1 have been selected. (S32). If the CPU 42 determines that there is an object that has not been selected yet (S32: NO) or if it makes a negative determination in the process of S12, it returns to the process of S10.

これに対し、CPU42は、全ての物体を選択済みであると判定する場合(S32:YES)、パラメータγ,βx,βyの組のうち、積算値Inerrを最小とする組を補正パラメータDcに選択し、記憶装置46に記憶させる(S34)。補正パラメータDcは、第1検知データDd1が示す物体の位置と第2検知データDd2が示す物体の位置とのずれを低減するためのパラメータである。 On the other hand, when determining that all objects have been selected (S32: YES), the CPU 42 selects the set that minimizes the integrated value Inerr as the correction parameter Dc from among the sets of parameters γ, βx, and βy. and stores it in the storage device 46 (S34). The correction parameter Dc is a parameter for reducing the deviation between the position of the object indicated by the first detection data Dd1 and the position of the object indicated by the second detection data Dd2.

そしてCPU42は、補正パラメータDcを用いて第1検知データDd1が示す物体の位置を補正したうえで、第2LIDAR装置LR2の性能を評価する(S36)。すなわち、CPU42は、第1LIDAR装置LR1が検知した物体と同一の物体を第2LIDAR装置LR2が正確に検知しているか否かに基づき、第2LIDAR装置LR2の性能を評価する。ここでCPU42は、第1LIDAR装置LR1が検知した物体が位置する車線と、第2LIDAR装置LR2が検知した同一の物体が位置する車線とが一致していることを条件に正確に検知していると判定する。 Then, the CPU 42 corrects the position of the object indicated by the first detection data Dd1 using the correction parameter Dc, and then evaluates the performance of the second LIDAR device LR2 (S36). That is, the CPU 42 evaluates the performance of the second LIDAR device LR2 based on whether the second LIDAR device LR2 accurately detects the same object as the object detected by the first LIDAR device LR1. Here, the CPU 42 determines that accurate detection has been made on the condition that the lane in which the object detected by the first LIDAR device LR1 is located matches the lane in which the same object detected by the second LIDAR device LR2 is located. judge.

なお、CPU42は、S36の処理を完了する場合、図2に示す一連の処理を終了する。
ここで、本実施形態の作用および効果について説明する。
Note that when the CPU 42 completes the process of S36, it ends the series of processes shown in FIG.
Here, the functions and effects of this embodiment will be explained.

CPU42は、車両VCの走行中に生成された第1検知データDd1および第2検知データDd2に基づき、第1検知データDd1が示す物体と第2検知データDd2が示す物体との位置ずれを補償するための補正パラメータDcを決定する。そしてCPU42は、補正パラメータDcに基づき、第1検知データDd1が示す物体の位置を補正し、補正後の位置に対応する物体を、第2LIDAR装置LR2が正確に検知しているか否かに基づき、第2LIDAR装置LR2の性能を評価する。 The CPU 42 compensates for the positional deviation between the object indicated by the first detection data Dd1 and the object indicated by the second detection data Dd2, based on the first detection data Dd1 and the second detection data Dd2 generated while the vehicle VC is running. Determine the correction parameter Dc for. Then, the CPU 42 corrects the position of the object indicated by the first detection data Dd1 based on the correction parameter Dc, and based on whether the second LIDAR device LR2 accurately detects the object corresponding to the corrected position, Evaluate the performance of the second LIDAR device LR2.

すなわち、第1LIDAR装置LR1と第2LIDAR装置LR2とを車両VCに組み付ける際には、それら第1LIDAR装置LR1と第2LIDAR装置LR2とで軸ずれが生じうる。これは、第1検知データDd1が示す物体の位置が、第2検知データDd2が示す物体の位置を相対回転した位置となるような誤差を生じさせる要因となる。また、第1検知データDd1と第2検知データDd2とで走査周期の始点にタイミングのずれが生じる場合、検知した先行車両と車両VCとの相対速度Vrがゼロではない場合、第1LIDAR装置LR1と第2LIDAR装置LR2とで、車両VCと先行車両との距離にずれが生じる要因となる。 That is, when assembling the first LIDAR device LR1 and the second LIDAR device LR2 to the vehicle VC, axis misalignment may occur between the first LIDAR device LR1 and the second LIDAR device LR2. This causes an error in which the position of the object indicated by the first detection data Dd1 is a relative rotation of the position of the object indicated by the second detection data Dd2. Further, if a timing difference occurs between the first detection data Dd1 and the second detection data Dd2 at the start point of the scanning period, and if the detected relative speed Vr between the preceding vehicle and the vehicle VC is not zero, the first LIDAR device LR1 The second LIDAR device LR2 causes a difference in the distance between the vehicle VC and the preceding vehicle.

上述したずれが生じる場合、第1LIDAR装置LR1が検知する物体と第2LIDAR装置LR2が検知する物体との位置に、上記ずれに起因した誤差が生じる。そしてこれは、第2LIDAR装置LR2の性能を正確に評価することを妨げる要因となる。 When the above-described shift occurs, an error due to the shift occurs in the positions of the object detected by the first LIDAR device LR1 and the object detected by the second LIDAR device LR2. This becomes a factor that prevents accurate evaluation of the performance of the second LIDAR device LR2.

これに対し、本実施形態では、補正パラメータDcによって補正された値を用いることにより、第1検知データDd1と第2検知データDd2との互いに対応するデータの走査周期のタイミングずれや軸ずれに起因した検知結果同士のずれを抑制しつつ、第2LIDAR装置LR2の性能を評価できる。 In contrast, in this embodiment, by using the value corrected by the correction parameter Dc, it is possible to eliminate the problem caused by the timing deviation or axis deviation of the scanning period of the data corresponding to each other between the first detection data Dd1 and the second detection data Dd2. The performance of the second LIDAR device LR2 can be evaluated while suppressing deviations between the detected detection results.

図4に、補正パラメータDcによる補正の効果を示す。
図4において、「自」、「右1」、「右2」、「左1」、「左2」は、それぞれ車線を示す。また、車両VC(1)は、第1LIDAR装置LR1および第2LIDARLR2を搭載した車両を示す。また、第1LIDAR装置LR1が検知した先行車両VC(2)を二点鎖線L2にて示し、第2LIDAR装置LR2が検知した同一の先行車両VC(2)を実線Lにて示した。この場合、第2LIDARLR2は、先行車両VC(2)が車両VC(1)の走行する車線の右隣りの車線に位置すると検知している一方、第1LIDAR装置LR1は、先行車両VC(2)が車両VC(1)の走行する車線の右側の2つ目の車線に位置すると検知していることとなる。これに対し、補正パラメータDcによって補正された第1検知データDd1による検知結果を図4に一点鎖線L1にて示すように、補正後の検知結果は、先行車両VC(2)が車両VC(1)の走行する車線の右隣りの車線に位置することを示す。したがって、第1LIDAR装置LR1が検知した先行車両VC(2)を、第2LIDAR装置LR2も正確に検知していると評価できる。
FIG. 4 shows the effect of correction using the correction parameter Dc.
In FIG. 4, "self", "right 1", "right 2", "left 1", and "left 2" each indicate a lane. Furthermore, vehicle VC(1) indicates a vehicle equipped with a first LIDAR device LR1 and a second LIDARLR2. Furthermore, the preceding vehicle VC(2) detected by the first LIDAR device LR1 is indicated by a two-dot chain line L2, and the same preceding vehicle VC(2) detected by the second LIDAR device LR2 is indicated by a solid line L. In this case, the second LIDAR LR2 detects that the preceding vehicle VC(2) is located in the lane to the right of the lane in which the vehicle VC(1) is traveling, while the first LIDAR device LR1 detects that the preceding vehicle VC(2) This means that it is detected that the vehicle is located in the second lane on the right side of the lane in which the vehicle VC(1) is traveling. On the other hand, as shown by the dashed line L1 in FIG. 4, the detection result based on the first detection data Dd1 corrected by the correction parameter Dc indicates that the preceding vehicle VC(2) is ) indicates that the vehicle is located in the lane to the right of the lane in which the vehicle is traveling. Therefore, it can be evaluated that the second LIDAR device LR2 also accurately detects the preceding vehicle VC(2) detected by the first LIDAR device LR1.

これに対し補正パラメータDcを用いない場合には、第1LIDAR装置LR1が検知した先行車両VC(2)を、第2LIDAR装置LR2が正確に検知できているにもかかわらず、組付け時の軸ずれ等の影響によって、正確に検知していないと評価されるおそれがある。 On the other hand, if the correction parameter Dc is not used, even though the second LIDAR device LR2 can accurately detect the preceding vehicle VC(2) detected by the first LIDAR device LR1, the axis deviation during assembly may occur. etc., there is a risk that it will be judged that the detection is not accurate.

以上説明した本実施形態によれば、さらに以下に記載する作用および効果が得られる。
(1)対象物体と同一である物体と判定する条件に、物体の加速度が閾値以下である旨の条件を加えた。これにより、ノイズ等の影響で誤って同一物体と判定することを抑制できる。
According to the present embodiment described above, the following effects and effects can be obtained.
(1) A condition that the acceleration of the object is less than or equal to a threshold value was added to the conditions for determining that the object is the same as the target object. Thereby, it is possible to prevent erroneous determination that the objects are the same object due to the influence of noise or the like.

(2)複数の物体のそれぞれを対象物体とし、それらについての誤差errを積算した積算値Inerrが最小となるパラメータγ,βx,βyを補正パラメータDcとした。これにより、単一の物体に関する誤差errを最小とするパラメータγ,βx,βyを補正パラメータDcとする場合と比較して、ノイズの影響を抑制できることから、補正パラメータDcをより高精度に算出できる。 (2) Each of the plurality of objects was used as a target object, and the parameters γ, βx, and βy that minimized the integrated value Inerr obtained by integrating the errors err for these objects were set as the correction parameters Dc. As a result, the influence of noise can be suppressed, and the correction parameter Dc can be calculated with higher accuracy compared to the case where the correction parameters Dc are the parameters γ, βx, and βy that minimize the error err regarding a single object. .

(3)誤差の加算条件に、予め定められた長さを有する時間にわたって同一物体であると判定される旨の条件を含めた。これにより、ノイズの影響を抑制できることから、補正パラメータDcをより高精度に算出できる。 (3) The error addition conditions include a condition that the object is determined to be the same over a predetermined length of time. Thereby, the influence of noise can be suppressed, so that the correction parameter Dc can be calculated with higher accuracy.

<その他の実施形態>
なお、本実施形態は、以下のように変更して実施することができる。本実施形態および以下の変更例は、技術的に矛盾しない範囲で互いに組み合わせて実施することができる。
<Other embodiments>
Note that this embodiment can be implemented with the following modifications. This embodiment and the following modified examples can be implemented in combination with each other within a technically consistent range.

「座標について」
・上記実施形態では、車両VCの前後方向に平行なx軸と、横方向に平行なy軸とによって座標を定めたがこれに限らない。車両VCの前後方向および横方向によって張られる平面内における任意の互いに一次独立な一対の方向によって座標を定めてよい。
"About coordinates"
- In the above embodiment, the coordinates are determined by the x-axis parallel to the longitudinal direction of the vehicle VC and the y-axis parallel to the lateral direction, but the coordinates are not limited thereto. The coordinates may be determined by any pair of directions that are linearly independent from each other within a plane defined by the longitudinal and lateral directions of the vehicle VC.

「同一座標算出処理について」
・図3の処理では、S46の処理において、仮に定めたパラメータγ,βx,βyによって補正された座標成分(x1c,x1c)を用いることを例示したが、これに限らない。たとえば、仮に定めたパラメータγ,βx,βyによって補正される前の座標成分(x1,x1)を用いてもよい。
"About the same coordinate calculation process"
- In the process of FIG. 3, in the process of S46, the coordinate components (x1c, x1c) corrected by the temporarily determined parameters γ, βx, βy are used, but the present invention is not limited to this. For example, coordinate components (x1, x1) before being corrected by temporarily determined parameters γ, βx, and βy may be used.

・第1検知データDd1が示す物体と第2検知データDd2が示す物体とが同一物体であるか否かを判定する処理における閾値としては、S46の処理において例示したように、車両VCとの相対速度に応じて可変とされる値に限らず、たとえば予め定められた固定値であってもよい。 - As a threshold value in the process of determining whether the object indicated by the first detection data Dd1 and the object indicated by the second detection data Dd2 are the same object, as exemplified in the process of S46, the relative The value is not limited to a value that is variable depending on the speed, but may be a predetermined fixed value, for example.

・上記実施形態では、仮に定めたパラメータγ,βx,βyの評価をするために利用する物体を、加速度が閾値未満である旨の条件を満たす物体としたがこれに限らない。
・S40の処理を省いてもよい。
- In the above embodiment, the object used to evaluate the temporarily determined parameters γ, βx, and βy is an object that satisfies the condition that the acceleration is less than the threshold value, but the object is not limited to this.
- The process of S40 may be omitted.

「相対速度取得処理について」
・上記実施形態では、相対速度を第1測距点データDrpc1に基づき算出したが、これに限らない。たとえば、第2測距点データDrpc2に基づき算出してもよい。すなわち、たとえば、S20の処理によって同一物体と判定された物体の車速成分(Vx,Vy)を第2測距点データDrpc2に基づき算出してもよい。
"About relative velocity acquisition processing"
- In the above embodiment, the relative velocity is calculated based on the first ranging point data Drpc1, but the invention is not limited to this. For example, it may be calculated based on the second distance measuring point data Drpc2. That is, for example, the vehicle speed components (Vx, Vy) of the objects determined to be the same object in the process of S20 may be calculated based on the second ranging point data Drpc2.

「誤差算出処理について」
・図2のS24の処理では、座標成分(x1c,y1c)と座標成分(x2,y2)とのユークリッド距離の平均値を誤差errとしたが、これに限らない。たとえば、同ユークリッド距離のサンプリング数全ての積算値を誤差errとしてもよい。
"About error calculation process"
- In the process of S24 in FIG. 2, the average value of the Euclidean distance between the coordinate components (x1c, y1c) and the coordinate components (x2, y2) is used as the error err, but the error is not limited to this. For example, the integrated value of all the sampling numbers of the same Euclidean distance may be set as the error err.

・図2のS28の処理では、補正パラメータDcの決定に利用する誤差として誤差errの積算値Inerrを用いたが、これに限らない。たとえば、誤差errの平均値であってもよい。 - In the process of S28 in FIG. 2, the integrated value Inerr of the errors err is used as the error used to determine the correction parameter Dc, but the invention is not limited to this. For example, it may be the average value of the errors err.

「回転処理について」
・上記実施形態では、座標の原点を車両VCの重心とし、重心を中心としてパラメータγによる回転角を定義したが、これに限らない。たとえば、座標の原点を第1光センサ10の配置されている位置や第2光センサ12の配置されている位置としたり、それらの中点としたりしてもよい。
"About rotation processing"
- In the above embodiment, the origin of the coordinates is the center of gravity of the vehicle VC, and the rotation angle is defined by the parameter γ around the center of gravity, but the invention is not limited to this. For example, the origin of the coordinates may be the position where the first optical sensor 10 is located, the position where the second optical sensor 12 is located, or the midpoint thereof.

・図2の処理では、パラメータγを回転角として座標成分(x1,y1)が補正された成分を回転させたが、これに限らず、たとえば、パラメータγを回転角として座標成分(x2,y2)が補正された成分を回転させてもよい。ここで、相対速度による補正を無視する場合、座標成分(x1,y1)をパラメータγによって回転させた後の座標成分および座標成分(x2,y2)の原点とのなす角度は、座標成分(x2,y2)を「-γ」によって回転させた後の座標成分および座標成分(x2,y2)の原点とのなす角度と等しい。図5(a)には、座標成分(x2,y2)をパラメータγによって回転させた場合を示し、図5(b)には、座標成分(x1,y1)を「-γ」によって回転させた場合を示す。いずれの場合も、回転後の一対の座標と原点とのなす角度は、等しい角度θ0となっている。なお、座標成分(x2,y2)が補正された成分をパラメータγを回転角として回転させる代わりに、座標成分(x2,y2)自体をパラメータγを回転角として回転させてもよい。その場合、座標成分(x1,y1)を相対速度Vrに応じて補正したものと、座標成分(x2,y2)自体を回転させたものとのユークリッド距離に応じて誤差errを算出すればよい。 ・In the process of FIG. 2, the component whose coordinate component (x1, y1) has been corrected is rotated using the parameter γ as the rotation angle, but the invention is not limited to this. For example, the coordinate component (x2, y2) is ) may rotate the corrected component. Here, when the correction due to relative velocity is ignored, the angle between the coordinate component (x1, y1) after rotating the coordinate component (x1, y1) by the parameter γ and the origin of the coordinate component (x2, y2) is , y2) by "-γ" and the angle formed by the origin of the coordinate component (x2, y2). Figure 5(a) shows the case where the coordinate component (x2, y2) is rotated by the parameter γ, and Figure 5(b) shows the case where the coordinate component (x1, y1) is rotated by "-γ". Indicate the case. In either case, the angle between the pair of coordinates after rotation and the origin is the same angle θ0. Note that instead of rotating the corrected coordinate component (x2, y2) using the parameter γ as the rotation angle, the coordinate component (x2, y2) itself may be rotated using the parameter γ as the rotation angle. In that case, the error err may be calculated according to the Euclidean distance between the coordinate component (x1, y1) corrected according to the relative velocity Vr and the coordinate component (x2, y2) itself rotated.

・図2の処理では、パラメータγを回転角として座標成分(x1,y1)が補正された成分を回転させたが、これに限らず、たとえば、パラメータγを回転角として座標成分(x1,y1)自体を回転させてもよい。その場合、座標成分(x2,y2)を相対速度Vrに応じて補正したものと、座標成分(x1,y1)自体を回転させたものとのユークリッド距離に応じて誤差errを算出すればよい。 ・In the process of FIG. 2, the component whose coordinate component (x1, y1) has been corrected is rotated using the parameter γ as the rotation angle, but the invention is not limited to this. For example, the coordinate component (x1, y1) is ) itself may be rotated. In that case, the error err may be calculated according to the Euclidean distance between the coordinate component (x2, y2) corrected according to the relative velocity Vr and the coordinate component (x1, y1) itself rotated.

・回転させる対象としては、座標成分(x1,y1)と座標成分(x2,y2)との2つのうちのいずれか1つに限らない。要は、座標成分(x1,y1)と座標成分(x2,y2)とのいずれか一方が他方に対して相対的に回転すればよいことから、たとえば相対回転角をパラメータγとする場合、座標成分(x1,y1)を回転角θ1で回転させ座標成分(x2,y2)を回転角θ2で回転させてもよい。ただし、「|θ1-θ2|=|γ|」とする。 - The object to be rotated is not limited to either one of the coordinate components (x1, y1) and the coordinate components (x2, y2). The point is that either one of the coordinate components (x1, y1) and the coordinate components (x2, y2) needs to be rotated relative to the other, so for example, if the relative rotation angle is the parameter γ, the coordinate The component (x1, y1) may be rotated by a rotation angle θ1, and the coordinate component (x2, y2) may be rotated by a rotation angle θ2. However, it is assumed that "|θ1-θ2|=|γ|".

「補正処理について」
・上記実施形態では、第1測距点データDrpc1のサンプリングタイミングが第2測距点データDrpc2のサンプリングタイミングよりも後となることが予め把握できていることと、先行車両の走行速度が自車両の走行速度以上であることとを前提に、座標成分x1を減少補正したが、これに限らない。たとえば、第1測距点データDrpc1のサンプリングタイミングと第2測距点データDrpc2のサンプリングタイミングとのいずれが先かについて確定できない場合などには、補正パラメータDcの候補として、正の値および負の値の双方を用意しておいてもよい。これにより、仮に選択したパラメータβxの符号に応じて、座標成分x1を減少補正するか増加補正するかが決まることとなる。
"About correction processing"
- In the above embodiment, it is known in advance that the sampling timing of the first ranging point data Drpc1 is later than the sampling timing of the second ranging point data Drpc2, and that the traveling speed of the preceding vehicle is Although the coordinate component x1 was corrected to decrease on the premise that the traveling speed is greater than or equal to the traveling speed of the vehicle, the present invention is not limited to this. For example, if it cannot be determined which comes first between the sampling timing of the first distance measurement point data Drpc1 and the sampling timing of the second distance measurement point data Drpc2, positive values and negative values can be used as candidates for the correction parameter Dc. Both values may be prepared. As a result, it is determined whether the coordinate component x1 is to be corrected to decrease or increase, depending on the sign of the temporarily selected parameter βx.

・S18の処理では、x軸の座標成分x1の補正量を対象物体のx軸の速度成分Vxに比例させたがこれに限らず、たとえば、x軸の座標成分x1の補正量をパラメータαxとしてもよい。さらに、第1測距点データDrpc1のサンプリングタイミングと第2測距点データDrpc2のサンプリングタイミングとのいずれが先かについて確定できない場合には、相対速度Vrの絶対値を、正の値および負の値のいずれともなりうるパラメータにて除算した値をパラメータαxとしてもよい。加えて、たとえば相対速度Vrの符号が正とも負ともなりうる場合には、相対速度Vrを、正の値および負の値のいずれともなりうるパラメータにて除算した値をパラメータαxとしてもよい。さらに、たとえば、x軸の座標成分x1の補正量を、相対速度Vrのx軸成分に、正とも負ともなりうる係数を乗算した値としてもよい。 - In the process of S18, the correction amount of the x-axis coordinate component x1 is made proportional to the x-axis velocity component Vx of the target object, but the invention is not limited to this. For example, the correction amount of the x-axis coordinate component Good too. Furthermore, if it cannot be determined which comes first between the sampling timing of the first ranging point data Drpc1 and the sampling timing of the second ranging point data Drpc2, the absolute value of the relative velocity Vr may be changed to a positive value or a negative value. The parameter αx may be a value divided by a parameter that can have any of the values. In addition, for example, if the sign of the relative velocity Vr can be positive or negative, the parameter αx may be a value obtained by dividing the relative velocity Vr by a parameter that can be either a positive value or a negative value. Further, for example, the correction amount of the x-axis coordinate component x1 may be a value obtained by multiplying the x-axis component of the relative velocity Vr by a coefficient that can be positive or negative.

・S18の処理では、y軸の座標成分y1の補正量を対象物体のy軸の速度成分Vyに比例させたがこれに限らず、たとえば、y軸の座標成分y1の補正量をパラメータαyとしてもよい。また、たとえば、y軸の座標成分y1の補正量を、相対速度Vrのy軸成分に、正とも負ともなりうる係数を乗算した値としてもよい。 - In the process of S18, the correction amount of the y-axis coordinate component y1 is made proportional to the y-axis velocity component Vy of the target object, but the invention is not limited to this. For example, the correction amount of the y-axis coordinate component y1 can be set as the parameter αy. Good too. Further, for example, the correction amount of the y-axis coordinate component y1 may be a value obtained by multiplying the y-axis component of the relative velocity Vr by a coefficient that can be positive or negative.

・x軸の座標成分x1を相対速度に応じて補正するものの、y軸の座標成分y1については補正しないこととしてもよい。
・「回転処理について」の欄に記載したように、座標成分(x1,y1)を補正する代わりに、座標成分(x2,y2)を補正してもよい。ただし、座標成分(x1,y1)の補正量の符号が限定されている実施例については、補正対象を座標成分(x2,y2)に変更する際には、補正量の符号を反転させる。
- Although the x-axis coordinate component x1 is corrected according to the relative velocity, the y-axis coordinate component y1 may not be corrected.
- As described in the column "About rotation processing", instead of correcting the coordinate component (x1, y1), the coordinate component (x2, y2) may be corrected. However, in an embodiment in which the sign of the correction amount for the coordinate component (x1, y1) is limited, the sign of the correction amount is reversed when changing the correction target to the coordinate component (x2, y2).

「選択処理について」
・たとえば、第1測距点データDrpc1と第2測距点データDrpc2とのサンプリングタイミングのずれを低減する何らかの処理がなされるのであれば、補正パラメータをパラメータγのみとしてもよい。
"About selection processing"
For example, if some processing is performed to reduce the difference in sampling timing between the first distance measurement point data Drpc1 and the second distance measurement point data Drpc2, only the parameter γ may be used as the correction parameter.

・パラメータγの値を特定する手法としては、パラメータγの様々な値のそれぞれについて誤差を算出し、誤差が最小となる値を特定する手法に限らない。たとえば、S24の処理による誤差errを算出する式をパラメータγで微分した値をゼロとするパラメータγの値を探索する処理としてもよい。 - The method of specifying the value of the parameter γ is not limited to the method of calculating the error for each of the various values of the parameter γ and specifying the value with the minimum error. For example, the process may search for the value of the parameter γ in which the value obtained by differentiating the equation for calculating the error err in the process of S24 with the parameter γ is set to zero.

・積算値Inerrが最小となるときのパラメータγ,βx,βyを補正パラメータDcとする処理に限らない。たとえば、1つの対象物体と同一物体との誤差errを最小とするパラメータγ,βx,βyを補正パラメータDcとしてもよい。 - The process is not limited to the process in which the parameters γ, βx, and βy when the integrated value Inerr becomes the minimum are used as the correction parameters Dc. For example, the correction parameters Dc may be the parameters γ, βx, and βy that minimize the error err between one target object and the same object.

「第1測距点データ、第2測距点データについて」
・上記実施形態では、評価対象となるLIDAR装置による測距点データを第2測距点データとしたが、これに限らず、評価対象となるLIDAR装置による測距点データを第1測距点データとしてもよい。すなわちたとえば、S10の処理において第2検知データDd2に基づき対象物体を選択し、S20の処理において、第1検知データDd1に基づき同一物体を選択してもよい。なお、いずれか一方が評価対象となるLIDAR装置による測距点データであることも必須ではなく、たとえば双方が評価対象となるLIDAR装置による測距点データであってもよい。こうした状況は、たとえば互いに異なる一対のLIDAR装置の性能比較をする際に生じうる。
"About the 1st AF point data and 2nd AF point data"
- In the above embodiment, the distance measuring point data by the LIDAR device to be evaluated is the second distance measuring point data, but the present invention is not limited to this, and the ranging point data by the LIDAR device to be evaluated is the first focusing point data. May be used as data. That is, for example, a target object may be selected based on the second detection data Dd2 in the process of S10, and the same object may be selected based on the first detection data Dd1 in the process of S20. Note that it is not essential that one of the data be distance measuring point data by a LIDAR device to be evaluated; for example, both may be ranging point data by a LIDAR device to be evaluated. Such a situation may occur, for example, when comparing the performance of a pair of different LIDAR devices.

「補正パラメータの用途について」
・上記実施形態では、評価対象となる第2LIDAR装置30の評価のために補正パラメータDcを用いたが、これに限らない。たとえば量産車両に複数のLIDAR装置を搭載する場合、それら複数のLIDAR装置のそれぞれが検知する位置同士のずれを低減するために補正パラメータDcを用いてもよい。これは、量産された各車両の出荷後に、それら各車両に搭載された実行装置によって図2のS10~S34の処理を実行することにより実現できる。
"About the use of correction parameters"
- In the above embodiment, the correction parameter Dc is used to evaluate the second LIDAR device 30 to be evaluated, but the present invention is not limited to this. For example, when a plurality of LIDAR devices are mounted on a mass-produced vehicle, the correction parameter Dc may be used to reduce the deviation between the positions detected by each of the plurality of LIDAR devices. This can be realized by executing the processes of S10 to S34 in FIG. 2 by the execution device installed in each mass-produced vehicle after shipment.

「第1LIDAR装置について」
・第1LIDAR装置LR1における第1LIDARECU20と第1光センサ10との役割分担は、上記実施形態において例示したものに限らない。たとえば第1光センサ10において受光した信号を第1LIDARECU20が受け取り、これに基づき第1LIDARECU20によって測距点データを生成してもよい。
“About the 1st LIDAR device”
- The division of roles between the first LIDAR CU 20 and the first optical sensor 10 in the first LIDAR device LR1 is not limited to that illustrated in the above embodiment. For example, the first LID ARECU 20 may receive a signal received by the first optical sensor 10, and based on this, the first LID ARECU 20 may generate distance measurement point data.

・上記実施形態では、第1光センサ10と第1LIDARECU20とを互いに通信可能な別の装置としたが、これに限らず、一体としてもよい。
「第2LIDAR装置について」
・第2LIDAR装置LR2における第2LIDARECU30と第2光センサ12との役割分担は、上記実施形態において例示したものに限らない。たとえば第2光センサ12において受光した信号を第2LIDARECU30が受け取り、これに基づき第2LIDARECU30によって測距点データを生成してもよい。
- In the above embodiment, the first optical sensor 10 and the first LIDAR ECU 20 are separate devices that can communicate with each other, but the invention is not limited to this, and they may be integrated.
“About the second LIDAR device”
- The division of roles between the second LIDAR CU 30 and the second optical sensor 12 in the second LIDAR device LR2 is not limited to that illustrated in the above embodiment. For example, the second LID ARECU 30 may receive a signal received by the second optical sensor 12, and based on this, the second LID ARECU 30 may generate distance measurement point data.

・上記実施形態では、第2光センサ12と第2LIDARECU30とを互いに通信可能な別の装置としたが、これに限らず、一体としてもよい。
「評価装置について」
・図2においては、S10~S34の処理と、S36の処理とを同一の評価装置40が実行したが、これに限らず、S10~S34の処理を実行する装置と、S36の処理を実行する装置とを別の装置としてもよい。
- In the above embodiment, the second optical sensor 12 and the second LIDAR ECU 30 are separate devices that can communicate with each other, but the invention is not limited to this, and they may be integrated.
“About the evaluation device”
- In FIG. 2, the same evaluation device 40 executes the processes S10 to S34 and the process S36, but the present invention is not limited to this. The device may be a separate device.

「補正装置について」
・補正装置としては、評価装置40に限らない。たとえば「補正パラメータの用途について」の欄に記載したように、量産車両に複数のLIDAR装置を搭載する場合、車両に搭載される装置としてもよい。なお、その際、補正装置と、第1LIDAR装置LR1および第2LIDAR装置LR2とが別部材であることも必須ではない。たとえば、第1LIDARECU20および第2LIDARECU30と、補正パラメータDcを算出する処理を実行する補正装置とを一体としてもよい。
"About the correction device"
- The correction device is not limited to the evaluation device 40. For example, as described in the column "Uses of correction parameters," when a plurality of LIDAR devices are mounted on a mass-produced vehicle, the LIDAR devices may be mounted on the vehicle. Note that in this case, it is not essential that the correction device and the first LIDAR device LR1 and the second LIDAR device LR2 be separate members. For example, the first LID A RECU 20 and the second LID A RECU 30 may be integrated with a correction device that executes the process of calculating the correction parameter Dc.

「実行装置について」
・S10~S36の処理やそれらの各変更例における処理を実行する実行装置としては、CPUとROMとを備えて、ソフトウェア処理を実行するものに限らない。たとえば、上記実施形態においてソフトウェア処理されたものの少なくとも一部を、ハードウェア処理する専用のハードウェア回路(たとえばASIC等)を備えてもよい。すなわち、実行装置は、以下の(a)~(c)のいずれかの構成であればよい。(a)上記処理の全てを、プログラムに従って実行する処理装置と、プログラムを記憶するROM等のプログラム格納装置とを備える。(b)上記処理の一部をプログラムに従って実行する処理装置およびプログラム格納装置と、残りの処理を実行する専用のハードウェア回路とを備える。(c)上記処理の全てを実行する専用のハードウェア回路を備える。ここで、処理装置およびプログラム格納装置を備えたソフトウェア実行装置や、専用のハードウェア回路は複数であってもよい。
"About the execution device"
- The execution device that executes the processes of S10 to S36 and the processes in each of their modification examples is not limited to one that includes a CPU and a ROM and executes software processing. For example, a dedicated hardware circuit (for example, ASIC, etc.) may be provided to perform hardware processing on at least a portion of what was processed by software in the above embodiments. That is, the execution device may have any of the following configurations (a) to (c). (a) It includes a processing device that executes all of the above processing according to a program, and a program storage device such as a ROM that stores the program. (b) It includes a processing device and a program storage device that execute part of the above processing according to a program, and a dedicated hardware circuit that executes the remaining processing. (c) A dedicated hardware circuit is provided to execute all of the above processing. Here, there may be a plurality of software execution devices including a processing device and a program storage device, and a plurality of dedicated hardware circuits.

10…第1光センサ
12…第2光センサ
20…第1LIDARECU
30…第2LIDARECU
40…評価装置
10...First optical sensor 12...Second optical sensor 20...First LIDARECU
30...Second LIDAR CU
40...Evaluation device

Claims (6)

車両の周囲に照射したレーザ光の反射光を受光する第1LIDAR装置(LR1)による測距点データを第1測距点データとし、前記車両の周囲に照射したレーザ光の反射光を受光する第2LIDAR装置(LR2)による測距点データを第2測距点データとし、
前記第1測距点データに応じて特定された物体の1つを対象物体とし、前記第1測距点データに基づく前記対象物体の位置座標を算出する対象座標算出処理(S16)と、
前記第2測距点データに応じて特定された物体のうち、前記対象物体との距離が最小となる物体を同一物体とし、前記第2測距点データに基づき前記同一物体の位置座標を算出する同一座標算出処理(S44)と、
前記車両の前後方向および横方向によって張られる面内において、前記対象物体の前記位置座標と前記同一物体の前記位置座標とを相対的に回転させた後の位置座標同士の差の絶対値が最小となるときの相対回転角を、前記測距点データに基づく物体の位置を補正する補正パラメータとして選択する選択処理(S34)と、を実行装置(42,44)に実行させ、
前記対象座標算出処理は、前記対象物体の位置に関し、前記車両の前後方向および横方向によって張られる面内において一次独立な一対の方向のそれぞれを有した座標軸における成分である第1軸成分および第2軸成分を前記第1測距点データに基づき算出する処理であり、
前記同一座標算出処理は、前記同一物体の位置に関し、前記第1軸成分および前記第2軸成分を前記第2測距点データに基づき算出する処理であり、
前記対象座標算出処理によって算出された前記第1軸成分および前記第2軸成分と、前記同一座標算出処理によって算出された前記第1軸成分および前記第2軸成分との2組のうちの少なくとも1組を入力とし、複数通りの前記相対回転角のそれぞれに応じて前記入力された前記第1軸成分および前記第2軸成分を回転させる回転処理(S18)と、
前記対象物体の前記位置座標と前記同一物体の前記位置座標との前記回転処理によって相対回転された後の位置座標同士の差を算出する誤差算出処理(S24)と、を前記実行装置に実行させ、
前記対象物体と前記車両との相対速度を取得する相対速度取得処理(S16)と、
前記回転処理の入力となる前記第1軸成分および前記第2軸成分のそれぞれを、第1補正量および第2補正量のそれぞれによって補正する補正処理(S18)と、を前記実行装置に実行させ、
前記補正処理は、前記相対速度が大きい場合に小さい場合よりも前記第1補正量の絶対値および前記第2補正量の絶対値を大きくする処理を含むLIDARの補正パラメータの生成方法。
The distance measuring point data by the first LIDAR device (LR1) that receives the reflected light of the laser beam irradiated around the vehicle is defined as the first distance measuring point data, and the distance measuring point data of the first LIDAR device (LR1) that receives the reflected light of the laser beam irradiated around the vehicle is defined as the first distance measuring point data. The distance measurement point data by the 2LIDAR device (LR2) is set as the second distance measurement point data,
A target coordinate calculation process (S16) that takes one of the objects specified according to the first distance measurement point data as a target object and calculates the position coordinates of the target object based on the first distance measurement point data;
Among the objects identified according to the second distance measuring point data, an object having a minimum distance from the target object is determined to be the same object, and the position coordinates of the same object are calculated based on the second distance measuring point data. same coordinate calculation process (S44),
The absolute value of the difference between the position coordinates of the target object and the position coordinates of the same object after relative rotation within a plane extending in the longitudinal direction and the lateral direction of the vehicle is minimum. causing the execution device (42, 44) to perform a selection process (S34) of selecting the relative rotation angle when the following occurs as a correction parameter for correcting the position of the object based on the distance measurement point data;
The target coordinate calculation process includes, with respect to the position of the target object, a first axis component and a first axis component, which are components in a coordinate axis each having a pair of linearly independent directions within a plane extending in the longitudinal direction and the lateral direction of the vehicle. A process of calculating two-axis components based on the first distance measurement point data,
The same coordinate calculation process is a process of calculating the first axis component and the second axis component regarding the position of the same object based on the second distance measurement point data,
At least one of two sets: the first axis component and the second axis component calculated by the target coordinate calculation process, and the first axis component and the second axis component calculated by the same coordinate calculation process. a rotation process (S18) in which one set is input and the input first axis component and second axis component are rotated according to each of the plurality of relative rotation angles;
causing the execution device to perform an error calculation process (S24) of calculating a difference between the position coordinates of the target object and the position coordinates of the same object after being relatively rotated by the rotation process; ,
Relative velocity acquisition processing (S16) that acquires the relative velocity between the target object and the vehicle;
causing the execution device to perform a correction process (S18) in which each of the first axis component and the second axis component, which are input to the rotation process, is corrected by a first correction amount and a second correction amount, respectively; ,
The correction process includes a process of increasing the absolute value of the first correction amount and the second correction amount when the relative speed is large compared to when the relative speed is small.
前記選択処理は、前記相対速度と前記第1補正量との関係のうち前記相対回転された後の位置座標同士の差の絶対値が最小となるときの関係を規定するパラメータを、前記補正パラメータとして選択する処理を含む請求項記載のLIDARの補正パラメータの生成方法。 In the selection process, a parameter that defines a relationship between the relative velocity and the first correction amount when the absolute value of the difference between the position coordinates after the relative rotation is a minimum is selected as the correction parameter. 2. The LIDAR correction parameter generation method according to claim 1 , further comprising a process of selecting a LIDAR correction parameter. 車両の周囲に照射したレーザ光の反射光を受光する第1LIDAR装置(LR1)による測距点データを第1測距点データとし、前記車両の周囲に照射したレーザ光の反射光を受光する第2LIDAR装置(LR2)による測距点データを第2測距点データとし、
前記第1測距点データに応じて特定された物体の1つを対象物体とし、前記第1測距点データに基づく前記対象物体の位置座標を算出する対象座標算出処理(S16)と、
前記第2測距点データに応じて特定された物体のうち、前記対象物体との距離が最小となる物体を同一物体とし、前記第2測距点データに基づき前記同一物体の位置座標を算出する同一座標算出処理(S44)と、
前記車両の前後方向および横方向によって張られる面内において、前記対象物体の前記位置座標と前記同一物体の前記位置座標とを相対的に回転させた後の位置座標同士の差の絶対値が最小となるときの相対回転角を、前記測距点データに基づく物体の位置を補正する補正パラメータとして選択する選択処理(S34)と、を実行装置(42,44)に実行させ
前記同一座標算出処理は、前記対象物体との距離が最小となる物体の加速度の絶対値が所定値以下であることを条件に、前記同一物体として特定する処理を含むLIDARの補正パラメータの生成方法。
The distance measuring point data by the first LIDAR device (LR1) that receives the reflected light of the laser beam irradiated around the vehicle is defined as the first distance measuring point data, and the distance measuring point data of the first LIDAR device (LR1) that receives the reflected light of the laser beam irradiated around the vehicle is defined as the first distance measuring point data. The distance measurement point data by the 2LIDAR device (LR2) is set as the second distance measurement point data,
A target coordinate calculation process (S16) that takes one of the objects specified according to the first distance measurement point data as a target object and calculates the position coordinates of the target object based on the first distance measurement point data;
Among the objects identified according to the second distance measuring point data, an object having a minimum distance from the target object is determined to be the same object, and the position coordinates of the same object are calculated based on the second distance measuring point data. same coordinate calculation process (S44),
The absolute value of the difference between the position coordinates of the target object and the position coordinates of the same object after relative rotation within a plane extending in the longitudinal direction and the lateral direction of the vehicle is minimum. causing the execution device (42, 44) to perform a selection process (S34) of selecting the relative rotation angle when the following occurs as a correction parameter for correcting the position of the object based on the distance measurement point data ;
The same coordinate calculation process is a LIDAR correction parameter generation method including a process of specifying the object as the same object on the condition that the absolute value of the acceleration of the object having the minimum distance from the target object is equal to or less than a predetermined value. .
前記対象座標算出処理は、前記第1測距点データに基づき認知される複数の物体のそれぞれを前記対象物体とする処理を含み、
前記複数の物体のそれぞれについて、前記同一座標算出処理、前記回転処理、および前記誤差算出処理を前記実行装置に実行させ、
前記選択処理は、前記複数の物体のそれぞれに関する前記差の絶対値の和が最小となる前記相対回転角を、前記測距点データに基づく物体の位置を補正する補正パラメータとして選択する処理である請求項1または2に記載のLIDARの補正パラメータの生成方法。
The target coordinate calculation process includes a process of setting each of a plurality of objects recognized based on the first ranging point data as the target object,
causing the execution device to execute the same coordinate calculation process, the rotation process, and the error calculation process for each of the plurality of objects;
The selection process is a process of selecting the relative rotation angle that minimizes the sum of the absolute values of the differences for each of the plurality of objects as a correction parameter for correcting the position of the object based on the distance measurement point data. The method for generating correction parameters for LIDAR according to claim 1 or 2 .
請求項1~のいずれか1項に記載の補正パラメータの生成方法における前記補正パラメータを用いて前記第1LIDAR装置による物体の認知結果および前記第2LIDAR装置による物体の認知結果を相対回転させた後に、前記相対回転させた後の前記一対の認知結果を比較することによって、前記第1LIDAR装置および前記第2LIDAR装置の2つのうちの少なくとも1つの性能を評価するLIDARの評価方法。 After relative rotation of the object recognition result by the first LIDAR device and the object recognition result by the second LIDAR device using the correction parameter in the correction parameter generation method according to any one of claims 1 to 4 , . A LIDAR evaluation method for evaluating the performance of at least one of the first LIDAR device and the second LIDAR device by comparing the pair of recognition results after the relative rotation. 請求項1~のいずれか1項に記載の補正パラメータの生成方法における前記実行装置を備えたLIDARの補正装置。 A LIDAR correction device comprising the execution device in the correction parameter generation method according to any one of claims 1 to 4 .
JP2020145216A 2020-08-31 2020-08-31 LIDAR correction parameter generation method, LIDAR evaluation method, and LIDAR correction device Active JP7452333B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020145216A JP7452333B2 (en) 2020-08-31 2020-08-31 LIDAR correction parameter generation method, LIDAR evaluation method, and LIDAR correction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020145216A JP7452333B2 (en) 2020-08-31 2020-08-31 LIDAR correction parameter generation method, LIDAR evaluation method, and LIDAR correction device

Publications (2)

Publication Number Publication Date
JP2022040476A JP2022040476A (en) 2022-03-11
JP7452333B2 true JP7452333B2 (en) 2024-03-19

Family

ID=80499299

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020145216A Active JP7452333B2 (en) 2020-08-31 2020-08-31 LIDAR correction parameter generation method, LIDAR evaluation method, and LIDAR correction device

Country Status (1)

Country Link
JP (1) JP7452333B2 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003519387A (en) 1999-12-30 2003-06-17 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング A method and apparatus for recognizing incorrect adjustment in a vehicle radar system or a vehicle sensor system.
JP2004037239A (en) 2002-07-03 2004-02-05 Fuji Heavy Ind Ltd Identical object judging method and system, and misregistration correcting method and system
JP2016090435A (en) 2014-11-06 2016-05-23 株式会社デンソー Time-of-flight optical ranging device
JP2016153775A (en) 2015-02-16 2016-08-25 パナソニックIpマネジメント株式会社 Object detection device and object detection method
WO2017159382A1 (en) 2016-03-16 2017-09-21 ソニー株式会社 Signal processing device and signal processing method
JP2018511799A (en) 2015-03-13 2018-04-26 コンチネンタル アドヴァンスド ライダー ソリューションズ ユーエス エルエルシーContinental Advanced Lidar Solutions US, LLC Beam steering LADAR sensor
JP2020067402A (en) 2018-10-25 2020-04-30 株式会社デンソー Sensor calibration method and sensor calibration apparatus
JP2020079781A (en) 2018-09-07 2020-05-28 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Method and apparatus for determining relative pose, device and medium
JP2020106475A (en) 2018-12-28 2020-07-09 株式会社日立エルジーデータストレージ Sensor system and distance measuring method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003519387A (en) 1999-12-30 2003-06-17 ローベルト ボッシュ ゲゼルシャフト ミット ベシュレンクテル ハフツング A method and apparatus for recognizing incorrect adjustment in a vehicle radar system or a vehicle sensor system.
JP2004037239A (en) 2002-07-03 2004-02-05 Fuji Heavy Ind Ltd Identical object judging method and system, and misregistration correcting method and system
JP2016090435A (en) 2014-11-06 2016-05-23 株式会社デンソー Time-of-flight optical ranging device
JP2016153775A (en) 2015-02-16 2016-08-25 パナソニックIpマネジメント株式会社 Object detection device and object detection method
JP2018511799A (en) 2015-03-13 2018-04-26 コンチネンタル アドヴァンスド ライダー ソリューションズ ユーエス エルエルシーContinental Advanced Lidar Solutions US, LLC Beam steering LADAR sensor
WO2017159382A1 (en) 2016-03-16 2017-09-21 ソニー株式会社 Signal processing device and signal processing method
JP2020079781A (en) 2018-09-07 2020-05-28 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Method and apparatus for determining relative pose, device and medium
JP2020067402A (en) 2018-10-25 2020-04-30 株式会社デンソー Sensor calibration method and sensor calibration apparatus
JP2020106475A (en) 2018-12-28 2020-07-09 株式会社日立エルジーデータストレージ Sensor system and distance measuring method

Also Published As

Publication number Publication date
JP2022040476A (en) 2022-03-11

Similar Documents

Publication Publication Date Title
JP6693496B2 (en) Self-location estimation device
JP4687563B2 (en) Lane mark recognition device for vehicles
JP4788798B2 (en) Object detection device
US7400969B2 (en) Navigation system
CN111932887B (en) Method and equipment for generating lane-level track data
CN104569979B (en) Object detection apparatus
RU2735567C1 (en) Method for storing movement backgrounds, method for generating motion path model, method for estimating local position and storage device for storing movement backgrounds
JP5614489B2 (en) State estimation device
JP5152778B2 (en) Inclination angle detector for motorcycles
US6559936B1 (en) Measuring angles of wheels using transition points of reflected laser lines
US8378883B2 (en) Device and method of detecting a target object for motor vehicle
JP2004037239A (en) Identical object judging method and system, and misregistration correcting method and system
JP6616257B2 (en) Position estimation device
JP2017058235A (en) Vehicle position correction device
JP2003519387A (en) A method and apparatus for recognizing incorrect adjustment in a vehicle radar system or a vehicle sensor system.
US20210078586A1 (en) Vehicle control device
CN113514806A (en) Obstacle determination method and device in automatic driving process and electronic equipment
US11500080B2 (en) Axis deviation detection device for on-board LIDAR
JP2002259995A (en) Position detector
KR20220081521A (en) Method for High Precision Position Estimation Through Map Matching Based on Road Shape Classification and Autonomous Vehicles Thereof
KR101558660B1 (en) Apparatus for correcting beam angle of multi-layer lidar
US20210245777A1 (en) Map generation device, map generation system, map generation method, and storage medium
JP7452333B2 (en) LIDAR correction parameter generation method, LIDAR evaluation method, and LIDAR correction device
US11999349B2 (en) Method and system for target detection of vehicle
JP6970065B2 (en) Object detector

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240219

R151 Written notification of patent or utility model registration

Ref document number: 7452333

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151