JP2015075382A - Object detection device - Google Patents

Object detection device Download PDF

Info

Publication number
JP2015075382A
JP2015075382A JP2013211340A JP2013211340A JP2015075382A JP 2015075382 A JP2015075382 A JP 2015075382A JP 2013211340 A JP2013211340 A JP 2013211340A JP 2013211340 A JP2013211340 A JP 2013211340A JP 2015075382 A JP2015075382 A JP 2015075382A
Authority
JP
Japan
Prior art keywords
road surface
unit
plane
mounting posture
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013211340A
Other languages
Japanese (ja)
Other versions
JP6221607B2 (en
Inventor
直己 二反田
Naoki Nitanda
直己 二反田
一樹 加藤
Kazuki Kato
一樹 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2013211340A priority Critical patent/JP6221607B2/en
Publication of JP2015075382A publication Critical patent/JP2015075382A/en
Application granted granted Critical
Publication of JP6221607B2 publication Critical patent/JP6221607B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an object detection device capable of simplifying the adjustment of an attachment posture on a manufacturing line and reducing the influence of the change of the posture of a vehicle with respect to a road surface.SOLUTION: From a plurality of range-finding points obtained by sweep and irradiation of a laser radar 1, an attachment posture estimating unit 24 extracts a road surface candidate point as a range-finding point at which a road surface 6 is detected (step S3). The attachment posture is estimated on the basis of the angle or distance between a road flat surface S calculated from a plurality of road surface candidate points and a reference surface (z=0) corresponding to the road surface 6. The attachment posture update unit updates the attachment posture stored in a storage unit. A position calculation unit 22 calculates the relative position of the range-finding point using the updated attachment posture.

Description

本発明は、車両に搭載され、レーザレーダの取付姿勢と、レーザレーダから照射されるレーザ光の照射角度とに基づいてレーザレーダが検出した物体の相対位置を算出する物体検出装置に関する。   The present invention relates to an object detection device that is mounted on a vehicle and calculates a relative position of an object detected by a laser radar based on a mounting posture of the laser radar and an irradiation angle of laser light emitted from the laser radar.

従来、スキャン型のレーザレーダを用いて車両周辺に存在する歩行者や先行車両などを検出する物体検出装置がある。この種の物体検出装置では、レーザレーダが照射したレーザ光が、物体(これを測距点とする)で反射されて返ってくるまでに要する時間を計測することで、レーザレーダから測距点までの距離を測定する。   2. Description of the Related Art Conventionally, there is an object detection device that detects a pedestrian or a preceding vehicle existing around a vehicle using a scan type laser radar. In this type of object detection device, the distance from the laser radar to the ranging point is measured by measuring the time required for the laser beam emitted by the laser radar to be reflected and returned by the object (this is the ranging point). Measure the distance to.

なお、物体検出装置で用いられるレーザレーダは、レーザ光を車幅方向および車高方向において、それぞれ所定の角度範囲で、例えば一定角度毎にパルス状のレーザ光を掃引照射(すなわちスキャン)する。   The laser radar used in the object detection device sweeps (i.e., scans) pulsed laser light in a predetermined angle range, for example, every fixed angle in the vehicle width direction and the vehicle height direction.

物体検出装置は、測距点までの距離、当該測距点を検出したレーザ光の照射角度、及びレーザレーダの取付姿勢から、レーザレーダに対する測距点の相対位置を算出する。ここでいう取付姿勢とは、レーザレーダが搭載されている位置の路面からの高さや、レーザレーダの路面に対するピッチ角、ロール角、ヨー角を指す。また、照射角度とは、照射されたレーザ光がレーザレーダの正面方向と為す角度を指す。   The object detection device calculates the relative position of the distance measuring point with respect to the laser radar from the distance to the distance measuring point, the irradiation angle of the laser beam that detected the distance measuring point, and the mounting posture of the laser radar. The mounting posture here refers to the height from the road surface where the laser radar is mounted, the pitch angle, the roll angle, and the yaw angle with respect to the road surface of the laser radar. The irradiation angle refers to an angle formed by the irradiated laser light with the front direction of the laser radar.

ところで、一般に物体検出装置は、レーザレーダが予め設計された取付姿勢であることを前提として相対的な位置を算出する。このため、レーザレーダの取付姿勢が予め設計された取付姿勢と一致していない場合には、物体検出装置が検出する測距点の相対位置が、実際の相対位置からずれてしまうといった問題が生じる。   By the way, in general, an object detection device calculates a relative position on the assumption that a laser radar has a pre-designed mounting posture. For this reason, when the mounting posture of the laser radar does not match the mounting posture designed in advance, there arises a problem that the relative position of the distance measuring point detected by the object detection device is deviated from the actual relative position. .

この問題を解決する手段として、例えば特許文献1には、車両に搭載されるレーザレーダの取付姿勢を調整する技術が開示されている。特許文献1では、製造ラインなどにおいて、レーザレーダが正確な取付姿勢となっている場合において正面方向となる位置(以下、基準位置)にリフレクタを設置しておく。そして、レーザレーダが当該リフレクタをこの基準位置に検出するように取付姿勢を調整する。   As means for solving this problem, for example, Patent Document 1 discloses a technique for adjusting the mounting posture of a laser radar mounted on a vehicle. In Patent Document 1, in a production line or the like, a reflector is installed at a position (hereinafter referred to as a reference position) that is the front direction when the laser radar is in an accurate mounting posture. Then, the mounting posture is adjusted so that the laser radar detects the reflector at the reference position.

特開平8−29536号公報JP-A-8-29536

しかしながら、特許文献1に開示の技術では、レーザレーダに対するリフレクタ等の試験用の設備の設置位置など、試験環境自体の精度も要求される。また、その試験結果を受けて取付姿勢を調整する必要があるため、製造ラインにおいて、取付姿勢の調整に要する時間や人員、さらには、試験環境自体を調整するためのコストがかかってしまう。   However, the technique disclosed in Patent Document 1 also requires the accuracy of the test environment itself, such as the installation position of test equipment such as a reflector for the laser radar. In addition, since it is necessary to adjust the mounting posture in response to the test result, the time and personnel required for adjusting the mounting posture and the cost for adjusting the test environment itself are required on the production line.

また、レーザレーダが正確に車両に設置されている場合であっても、タイヤの空気圧の変化や、夏タイヤ/冬タイヤの交換によって路面に対する車両の姿勢(すなわち、車体の傾き)は変化する。さらに、乗員の乗車位置や、積載物などによっても、路面に対する車両の姿勢は変化する。路面に対する車両の姿勢が変化してしまうと、これに伴ってレーザレーダの路面に対する姿勢(すなわち取付姿勢)も変化するため、測距点の相対位置を正確に算出できなくなってしまう。   Even when the laser radar is accurately installed in the vehicle, the posture of the vehicle with respect to the road surface (that is, the inclination of the vehicle body) changes due to changes in tire air pressure or summer / winter tire replacement. Furthermore, the posture of the vehicle with respect to the road surface also changes depending on the occupant's boarding position and the load. When the attitude of the vehicle with respect to the road surface changes, the attitude of the laser radar with respect to the road surface (that is, the mounting attitude) also changes, and the relative position of the ranging point cannot be calculated accurately.

本発明は、以上の事情を鑑みて為されたものであって、その目的とするところは、製造ラインにおける取付姿勢の調整を簡略化でき、かつ、路面に対する車両の姿勢の変化の影響を低減できる物体検出装置を提供することにある。   The present invention has been made in view of the above circumstances, and the object of the present invention is to simplify the adjustment of the mounting posture on the production line and reduce the influence of changes in the posture of the vehicle with respect to the road surface. The object is to provide an object detection device capable of performing the above.

その目的を達成するための本発明は、車両に搭載され、垂直方向において複数の異なる角度毎に、水平方向において所定の角度範囲でレーザ光を逐次掃引照射するレーザレーダ(1)から入力される信号に基づいて、レーザレーダからレーザ光を反射した測距点までの距離を算出する距離算出部(21)と、路面に対するレーザレーダの取付姿勢を記憶している記憶部(20)と、記憶部に記憶されている取付姿勢と、レーザ光を照射した方向と、距離算出部が算出した距離とに基づいて、測距点の車両に対する相対位置を検出する位置算出部(22)と、取付姿勢を推定する取付姿勢推定部(24)と、を備え、記憶部には、取付姿勢として所定の初期設定値が予め登録されてあって、取付姿勢推定部は、垂直方向におけるレーザ光の照射方向である照射仰俯角毎に、水平方向におけるレーザ光の照射方向である照射方位角を変化させることで得られる複数の測距点について、測距点との距離と照射方位角とを対応付けた一次元信号を生成する一次元信号生成部(S303)と、一次元信号生成部が生成した一次元信号の周波数成分に基づいて、一次元信号の要素となっている測距点のうち、路面を検出している測距点である路面候補点を抽出する路面候補点抽出部(S3)と、路面候補点抽出部で抽出された複数の路面候補点に基づいて、路面を表す平面である路面平面を算出する路面平面算出部(S4)と、路面平面算出部が算出した路面平面と、取付姿勢から定まる路面を表す平面である基準面とが為す角度と、から、取付姿勢を推定する第1取付姿勢推定処理部(S5)と、第1取付姿勢推定処理部で推定した取付姿勢に基づいて、記憶部に記憶されている取付姿勢を更新する第1取付姿勢更新部(S8)と、を備えることを特徴とする。   The present invention for achieving the object is input from a laser radar (1) which is mounted on a vehicle and sequentially sweeps and emits laser light in a predetermined angular range in the horizontal direction at a plurality of different angles in the vertical direction. A distance calculation unit (21) that calculates a distance from the laser radar to a distance measuring point that reflects the laser beam based on the signal, a storage unit (20) that stores the mounting posture of the laser radar on the road surface, and a storage A position calculation unit (22) for detecting a relative position of the ranging point with respect to the vehicle based on the mounting posture stored in the unit, the direction in which the laser beam is irradiated, and the distance calculated by the distance calculation unit; And an attachment posture estimation unit (24) for estimating the posture, and a predetermined initial set value is registered in advance in the storage unit as the attachment posture, and the attachment posture estimation unit emits laser light in the vertical direction. For each of multiple ranging points obtained by changing the irradiation azimuth, which is the irradiation direction of the laser beam in the horizontal direction, for each irradiation elevation angle that is the direction, the distance to the ranging point and the irradiation azimuth are associated with each other Based on the frequency component of the one-dimensional signal generated by the one-dimensional signal generator (S303) that generates the one-dimensional signal and the one-dimensional signal generated by the one-dimensional signal generator, A road surface candidate point extraction unit (S3) that extracts a road surface candidate point that is a distance measurement point for detecting a road surface, and a plane that represents the road surface based on a plurality of road surface candidate points extracted by the road surface candidate point extraction unit. Estimate the mounting posture from the road surface plane calculation unit (S4) that calculates a certain road surface plane, the angle formed by the road surface plane calculated by the road surface plane calculation unit, and the reference plane that is the plane that represents the road surface determined from the mounting posture. First mounting posture estimation processing unit (S5) , Based on the mounting orientation estimated by the first attachment orientation estimation processing unit, a first mounting attitude updating unit for updating the mounting attitude stored in the storage unit (S8), characterized in that it comprises a.

以上の構成では、レーザレーダが掃引照射することによって得られる複数の測距点から、路面候補点抽出部が、路面を検出している路面候補点を抽出する。そして、複数の路面候補点から算出される路面平面と、基準面とが為す角度から、第1取付姿勢推定処理部がレーザレーダの取付姿勢を推定し、取付姿勢更新部が記憶部に記憶されている取付姿勢を更新する。   In the above configuration, the road surface candidate point extraction unit extracts a road surface candidate point from which a road surface is detected, from a plurality of distance measurement points obtained by sweep irradiation by the laser radar. The first mounting posture estimation processing unit estimates the mounting posture of the laser radar from the angle formed by the road surface plane calculated from the plurality of road surface candidate points and the reference surface, and the mounting posture update unit is stored in the storage unit. Update the mounting orientation.

以上の構成によれば、位置算出部は、取付姿勢更新部で更新された取付姿勢を用いて、相対位置を算出するため、設計値との間に誤差があった場合でも、測距点の相対位置をより正確に取得することができる。   According to the above configuration, since the position calculation unit calculates the relative position using the mounting posture updated by the mounting posture update unit, even if there is an error with the design value, The relative position can be acquired more accurately.

言い換えれば、予め記憶部に記憶されている取付姿勢と実際の取付姿勢との間の誤差が、測距点の相対位置の検出精度に与える影響を低減することができる。このため、製造ラインでの厳密な取付姿勢の調整を簡略化することが出来るとともに、試験環境の精度の要件を緩和することが出来る。したがって、取付姿勢の調整に伴うコストを低減することが出来る。   In other words, it is possible to reduce the influence of the error between the mounting posture stored in advance in the storage unit and the actual mounting posture on the detection accuracy of the relative position of the distance measuring point. For this reason, it is possible to simplify the precise adjustment of the mounting posture on the production line, and it is possible to relax the requirements for the accuracy of the test environment. Therefore, the cost accompanying adjustment of the mounting posture can be reduced.

また、取付姿勢推定部が実施する取付姿勢の推定は、リフレクタなどの試験用の設備を用いずに実施することができるため、車両走行時において実施することが出来る。すなわち、タイヤの空気圧の変化や、乗員の乗車位置や、積載物などによって、路面に対する車両の姿勢は変化した場合であっても、その変化した車両の姿勢における取付姿勢を推定することが出来る。そして、位置算出部は、その推定された取付姿勢を用いて相対位置を算出するため、相対位置の算出における路面に対する車両の姿勢の変化の影響を低減できる。   Moreover, since the estimation of the mounting posture performed by the mounting posture estimation unit can be performed without using a test facility such as a reflector, it can be performed when the vehicle is traveling. That is, even when the posture of the vehicle with respect to the road surface changes due to a change in tire air pressure, a occupant's boarding position, a load, etc., the mounting posture in the changed vehicle posture can be estimated. Since the position calculation unit calculates the relative position using the estimated mounting posture, it is possible to reduce the influence of the change in the posture of the vehicle on the road surface in the calculation of the relative position.

本実施形態に係るシステム構成の概略を示すブロック図である。It is a block diagram which shows the outline of the system configuration | structure which concerns on this embodiment. 高さ方向においてレーザレーダ1が照射するレーザ光の照射方向を説明するための図である。It is a figure for demonstrating the irradiation direction of the laser beam which the laser radar 1 irradiates in a height direction. レーザレーダ1の検知エリアを説明するための図である。It is a figure for demonstrating the detection area of the laser radar. 取付姿勢推定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of an attachment attitude | position estimation process. 路面候補点抽出処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a road surface candidate point extraction process. 路面候補点抽出処理の作動を説明するための模式図である。It is a schematic diagram for demonstrating the operation | movement of a road surface candidate point extraction process. 路面推定処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a road surface estimation process. 路面推定処理の作動を説明するための概念図である。It is a conceptual diagram for demonstrating the operation | movement of a road surface estimation process. ピッチ角θpを推定する処理を説明するための模式図である。It is a schematic diagram for demonstrating the process which estimates pitch angle (theta) p. ピッチ角θpを推定する処理を説明するための模式図である。It is a schematic diagram for demonstrating the process which estimates pitch angle (theta) p. ロール角θrを推定する処理を説明するための模式図である。It is a schematic diagram for demonstrating the process which estimates roll angle (theta) r. ロール角θrを推定する処理を説明するための模式図である。It is a schematic diagram for demonstrating the process which estimates roll angle (theta) r. 搭載高さを推定する処理を説明するための模式図である。It is a schematic diagram for demonstrating the process which estimates mounting height. 安定性評価処理の流れの一例を示すフローチャートである。It is a flowchart which shows an example of the flow of a stability evaluation process. 安定性評価処理の作動を説明するための概念図である。It is a conceptual diagram for demonstrating the action | operation of a stability evaluation process. ヨー角θyを推定する処理を説明するための概念図である。It is a conceptual diagram for demonstrating the process which estimates yaw angle (theta) y. 前方領域Fr、後方領域Rr、右側方領域Rt、左側方領域Lfの一例を示す概念図である。It is a conceptual diagram which shows an example of the front area | region Fr, the back area | region Rr, the right side area | region Rt, and the left side area | region Lf. 車両前後方向における勾配の変化量を説明するための模式図である。It is a schematic diagram for demonstrating the variation | change_quantity of the gradient in a vehicle front-back direction. 応用例2の効果を説明するための図である。FIG. 10 is a diagram for explaining the effect of application example 2; 変形例2における路面候補点抽出処理の流れの一例を示すフローチャートである。12 is a flowchart illustrating an example of a flow of candidate road surface point extraction processing according to Modification 2.

<全体の構成>
以下、本発明の実施形態の一例について図を用いて説明する。図1に、本発明が適用された物体検出システム100の構成の一例を示す。図1に示す物体検出システム100は、車両5に搭載され、車両5の左右前後など全方位に存在する物体との距離を検出する。物体検出システム100は、レーザレーダ1及びECU(Electronic Control Unit)2を備えている。
<Overall configuration>
Hereinafter, an example of an embodiment of the present invention will be described with reference to the drawings. FIG. 1 shows an example of the configuration of an object detection system 100 to which the present invention is applied. An object detection system 100 shown in FIG. 1 is mounted on a vehicle 5 and detects a distance from an object that exists in all directions such as right and left and front and rear of the vehicle 5. The object detection system 100 includes a laser radar 1 and an ECU (Electronic Control Unit) 2.

また、図1中の運転支援システム3は、物体検出システム100の検出結果を利用する機能の一例である。運転支援システム3は、物体検出システム100の検出結果に基づいて、ドライバの運転を支援する種々の制御を実施する(詳細は後述)。もちろん、運転支援システム3に限らず、車両に搭載される種々のシステムが、物体検出システム100の検出結果を利用することができる。   The driving support system 3 in FIG. 1 is an example of a function that uses the detection result of the object detection system 100. The driving support system 3 performs various controls that support the driving of the driver based on the detection result of the object detection system 100 (details will be described later). Of course, not only the driving support system 3 but also various systems mounted on the vehicle can use the detection result of the object detection system 100.

レーザレーダ1は、モータなどからなる回転機構を備え、当該回転機構を回転させることによって、車両高さ方向から見た時の、車両5の前後方向に対するレーザ光の照射方向を変化させる。すなわち、レーザレーダ1は、この回転機構を回転させることによって、車両周囲360°(すなわち、全方位)に向けてレーザ光を照射する。回転機構の回転軸は、レーザレーダ1の中心軸とも称する。また、回転軸方向は、高さ方向と一致する。なお、ここでの一致とは、完全な一致だけでなく、略一致も含む。これは、後述するように路面6に対するレーザレーダ1の姿勢によって、ずれが生じるためである。   The laser radar 1 includes a rotation mechanism including a motor and the like, and rotates the rotation mechanism to change the irradiation direction of the laser light with respect to the front-rear direction of the vehicle 5 when viewed from the vehicle height direction. That is, the laser radar 1 irradiates laser light toward 360 ° around the vehicle (that is, all directions) by rotating the rotating mechanism. The rotation axis of the rotation mechanism is also referred to as the center axis of the laser radar 1. Further, the rotation axis direction coincides with the height direction. Here, the term “match” includes not only perfect match but also approximate match. This is because deviation occurs due to the attitude of the laser radar 1 with respect to the road surface 6 as described later.

また、回転機構が中立位置(すなわち、回転角度が0°)となっている場合の照射方向をレーザレーダ1の正面方向とし、レーザレーダ1の前後方向とも称する。また、レーザレーダ1の前後方向及び回転軸方向のそれぞれと直交する方向を、レーザレーダ1の左右方向とする。すなわち、レーザレーダ1の左右方向は、回転機構の回転角度が90°(および270°)となっている場合の照射方向と一致する。   The irradiation direction when the rotation mechanism is in the neutral position (that is, the rotation angle is 0 °) is the front direction of the laser radar 1 and is also referred to as the front-rear direction of the laser radar 1. Further, a direction orthogonal to the front-rear direction and the rotation axis direction of the laser radar 1 is defined as the left-right direction of the laser radar 1. That is, the left-right direction of the laser radar 1 coincides with the irradiation direction when the rotation angle of the rotation mechanism is 90 ° (and 270 °).

一例として本実施形態では、レーザレーダ1の正面方向と車両5の正面方向とを一致(前述と同様に略一致を含む)させる構成とするが、もちろん、他の態様として、回転機構の回転角度が180°となる方向を車両5の正面方向と一致させても良い。   As an example, in the present embodiment, the front direction of the laser radar 1 and the front direction of the vehicle 5 are matched (including substantially the same as described above), but of course, as another aspect, the rotation angle of the rotation mechanism The direction in which the angle becomes 180 ° may coincide with the front direction of the vehicle 5.

ここで、レーザレーダ1の構成及び作動について説明する前に、その取付位置や路面6に対するレーザレーダ1の姿勢(これを取付姿勢とする)について、路面6に対する車両5の姿勢に基づいて定まる路面座標系を適宜用いて説明する。   Here, before describing the configuration and operation of the laser radar 1, the road surface determined based on the posture of the vehicle 5 with respect to the road surface 6 with respect to its mounting position and the posture of the laser radar 1 with respect to the road surface 6 (this is referred to as the mounting posture). Description will be made using a coordinate system as appropriate.

路面座標系は、レーザレーダ1の取り付け位置の中心を、路面6に正射影した点を原点とし、車幅方向にX軸を、車両前後方向にY軸を、高さ方向にZ軸を、それぞれ直交するように備えている。したがって、路面座標系のXY平面は、路面6に相当する。   The road surface coordinate system has the center of the mounting position of the laser radar 1 as an origin and a point orthogonally projected onto the road surface 6, the X axis in the vehicle width direction, the Y axis in the vehicle longitudinal direction, the Z axis in the height direction, They are arranged so as to be orthogonal to each other. Therefore, the XY plane of the road surface coordinate system corresponds to the road surface 6.

レーザレーダ1は、図2及び図3に示すように、例えば車両ルーフの上面に、所定の取付姿勢となるように設置されている。ここでいう取付姿勢とは、レーザレーダ1の路面6に対するピッチ角θp、ロール角θr、ヨー角θy、及び搭載高さhを指す。搭載高さhとは、路面6からのレーザレーダ1(厳密には発光部11)までの高さhを指す。   As shown in FIGS. 2 and 3, the laser radar 1 is installed, for example, on the upper surface of the vehicle roof so as to have a predetermined mounting posture. The mounting posture here refers to the pitch angle θp, the roll angle θr, the yaw angle θy, and the mounting height h with respect to the road surface 6 of the laser radar 1. The mounting height h refers to the height h from the road surface 6 to the laser radar 1 (strictly, the light emitting unit 11).

ピッチ角θpとは、レーザレーダ1の中心軸が、路面座標系のYZ平面においてZ軸との為す角を指し、ロール角θrとは、レーザレーダ1の回転軸がXZ平面においてZ軸との為す角を指す。また、ヨー角θyとは、レーザレーダ1の正面方向がXY平面においてY軸との為す角を指す。   The pitch angle θp refers to the angle that the central axis of the laser radar 1 makes with the Z axis in the YZ plane of the road surface coordinate system, and the roll angle θr refers to the rotation axis of the laser radar 1 with respect to the Z axis in the XZ plane. Refers to the corner to make. The yaw angle θy is an angle formed by the front direction of the laser radar 1 with the Y axis in the XY plane.

また、ピッチ角θpは、Z軸方向からY軸方向への回転方向を正の値にとり、ロール角θrは、Z軸方向からX軸方向への回転方向を正の値にとる。また、ヨー角θyは、照射方位角βと同様の回転方向を正の値とする。なお、路面座標系におけるレーザレーダ1の位置は、(0,0,h)で表される。   The pitch angle θp takes a positive value in the direction of rotation from the Z-axis direction to the Y-axis direction, and the roll angle θr takes a positive value in the direction of rotation from the Z-axis direction to the X-axis direction. Further, the yaw angle θy has a positive value in the same rotational direction as the irradiation azimuth angle β. Note that the position of the laser radar 1 in the road surface coordinate system is represented by (0, 0, h).

再び図1に戻って、レーザレーダ1の構成及び作動について説明する。レーザレーダ1は、発光部11、受光部12、及びTOF(Time of Flight)算出部13を備えている。   Returning to FIG. 1 again, the configuration and operation of the laser radar 1 will be described. The laser radar 1 includes a light emitting unit 11, a light receiving unit 12, and a TOF (Time of Flight) calculating unit 13.

発光部11は、レーザダイオードを備えており、ECU2からの駆動信号に従って、回転軸方向において所定角度の範囲(これを回転軸方向照射範囲とする)で不連続にレーザ光を照射する。より具体的には、回転軸方向照射範囲をL個(Lは正の整数)の照射方向に分割してなるレイヤ毎に、パルス状のレーザ光を照射する。この回転軸方向が請求項に記載の垂直方向に相当し、回転軸方向に垂直な方向が請求項に記載の水平方向に相当する。   The light emitting unit 11 includes a laser diode, and irradiates laser light discontinuously in a range of a predetermined angle in the rotation axis direction (this is an irradiation range in the rotation axis direction) according to a drive signal from the ECU 2. More specifically, pulsed laser light is irradiated for each layer formed by dividing the irradiation range in the rotation axis direction into L (L is a positive integer) irradiation directions. The rotation axis direction corresponds to the vertical direction described in the claims, and the direction perpendicular to the rotation axis direction corresponds to the horizontal direction described in the claims.

本実施形態において、発光部11の回転軸方向照射範囲は、回転軸に垂直な方向(すなわち光軸の方向)に対して−10°から+30°の範囲とし、当該回転軸方向照射範囲をL=32個のレイヤに分割してレーザ光を照射する。すなわちレーザ光は、レイヤ毎に、高さ方向において1.25°ずつずれて照射される。各レイヤの番号は、回転軸方向において光軸と為す角度αが小さい順に0,1,2,…,31とする。   In the present embodiment, the rotation axis direction irradiation range of the light emitting unit 11 is a range from −10 ° to + 30 ° with respect to the direction perpendicular to the rotation axis (that is, the direction of the optical axis), and the rotation axis direction irradiation range is L. = Laser light is divided into 32 layers. That is, the laser beam is irradiated with a shift of 1.25 ° in the height direction for each layer. The numbers of the layers are 0, 1, 2,..., 31 in ascending order of the angle α formed with the optical axis in the rotation axis direction.

なお、回転軸方向においてレーザ光が光軸と為す角度(これを照射仰俯角とする)は、回転軸方向からy軸方向への回転角度を正の値で表すものとする。照射仰俯角αは、レイヤ毎に定まっており、例えばレイヤ0であればα=−10°であり、レイヤ31であれば、α=30°である。   Note that the angle formed by the laser beam with the optical axis in the rotation axis direction (this is the irradiation elevation angle) represents the rotation angle from the rotation axis direction to the y-axis direction as a positive value. The irradiation elevation angle α is determined for each layer. For example, α = −10 ° for layer 0, and α = 30 ° for layer 31.

そして、発光部11は、回転機構が一定角度(例えば0.1°)回転する毎に、各レイヤのレーザ光を逐次照射することによって、レーザレーダ1は、レイヤ毎に、車両全方位に向けてレーザ光を掃引照射する。なお、各レイヤの回転軸方向の照射角度の概念を図2に、また、360°スキャンした際に、各レイヤのレーザ光が路面6上の点を検出した場合の測距点の軌跡を図3に示している。測距点とは、レーザ光を反射した点であり、レーザレーダ1によって検出された点を指す。   The light emitting unit 11 sequentially irradiates the laser light of each layer every time the rotation mechanism rotates by a certain angle (for example, 0.1 °), so that the laser radar 1 is directed to the vehicle in all directions for each layer. The laser beam is swept and irradiated. The concept of the irradiation angle in the rotation axis direction of each layer is shown in FIG. 2, and the trajectory of the distance measuring point when the laser beam of each layer detects a point on the road surface 6 is scanned at 360 °. 3 shows. The distance measuring point is a point where the laser beam is reflected and refers to a point detected by the laser radar 1.

受光部12は、発光部11から照射されたレーザ光が測距点で反射された反射光を、受光レンズで受光し、受光素子(フォトダイオード)に与える。受光素子は、反射光の強度に対応する電圧を出力する。この受光素子の出力電圧は、増幅器にて増幅された後にコンパレータに出力される。コンパレータは増幅器の出力電圧を基準電圧と比較し、出力電圧が基準電圧よりも大きくなったとき、所定の受光信号をTOF算出部13へ出力する。   The light receiving unit 12 receives, with a light receiving lens, reflected light obtained by reflecting the laser light emitted from the light emitting unit 11 at a distance measuring point, and gives the light to a light receiving element (photodiode). The light receiving element outputs a voltage corresponding to the intensity of the reflected light. The output voltage of the light receiving element is amplified by an amplifier and then output to a comparator. The comparator compares the output voltage of the amplifier with the reference voltage, and outputs a predetermined light reception signal to the TOF calculation unit 13 when the output voltage becomes larger than the reference voltage.

TOF算出部13には、ECU2から発光部11へ出力される駆動信号も入力されている。このTOF算出部13は、駆動信号を出力してから受光信号が発生するまでの時間、すなわちレーザ光を出射した時刻と反射光を受光した時刻との時間差(既出のTOFを意味する)を計測し、この時間差を示す信号(以下、TOF信号)をECU2に入力する。   A drive signal output from the ECU 2 to the light emitting unit 11 is also input to the TOF calculation unit 13. The TOF calculation unit 13 measures the time from when the drive signal is output to when the light reception signal is generated, that is, the time difference between the time when the laser light is emitted and the time when the reflected light is received (meaning the existing TOF). Then, a signal indicating this time difference (hereinafter, TOF signal) is input to the ECU 2.

発光部11がレーザ光を照射する際には、レーザ光を照射角度毎に異なるパターンで照射するように、ECU2から発光部11に駆動信号が出力される。すなわち、レーザ光のパターンは、照射角度毎に定められているので、反射光を受光した場合には、その反射光のパターンから、その反射光の元となっているレーザ光の照射角度を特定することができる。   When the light emitting unit 11 irradiates the laser light, a drive signal is output from the ECU 2 to the light emitting unit 11 so that the laser light is emitted in a different pattern for each irradiation angle. In other words, the laser light pattern is determined for each irradiation angle, so when the reflected light is received, the irradiation angle of the laser light that is the source of the reflected light is specified from the reflected light pattern. can do.

レーザ光の照射角度とは、照射仰俯角αと、照射方位角βで表される。照射仰俯角αは前述の通り、回転軸方向においてレーザ光が光軸と為す角度であって、レイヤ毎に定まっている。照射方位角βとは、回転機構の中立位置からの回転角度である。照射方位角βは、図3に示すように時計回りの角度を正の値で表す。   The irradiation angle of the laser beam is represented by an irradiation elevation angle α and an irradiation azimuth angle β. As described above, the irradiation elevation angle α is an angle formed by the laser beam with the optical axis in the rotation axis direction, and is determined for each layer. The irradiation azimuth angle β is a rotation angle from the neutral position of the rotation mechanism. As shown in FIG. 3, the irradiation azimuth angle β represents a clockwise angle as a positive value.

ECU2は、CPU、ROM、RAM、バックアップRAM等よりなるマイクロコンピュータを主体として構成され、入力される情報をもとに、ROMに記憶された各種の制御プログラムを実行することで各種の処理を実行する。このECU2が、請求項の物体検出装置に相当する。より具体的にECU2は、図1に示すように種々の処理を実施するための機能ブロックとして、記憶部20、距離算出部21、位置算出部22、車両情報取得部23、及び取付姿勢推定部24を備えている。   The ECU 2 is composed mainly of a microcomputer composed of a CPU, ROM, RAM, backup RAM, etc., and executes various processes by executing various control programs stored in the ROM based on input information. To do. This ECU 2 corresponds to the object detection device recited in the claims. More specifically, the ECU 2 includes a storage unit 20, a distance calculation unit 21, a position calculation unit 22, a vehicle information acquisition unit 23, and an attachment posture estimation unit as functional blocks for performing various processes as shown in FIG. 24.

記憶部20は、書き換え可能な不揮発性の記憶媒体で構成されている。記憶部20には、レーザレーダ1の取付姿勢の初期値(これを初期取付姿勢とする)が登録されているとともに、後述する取付姿勢推定部24で推定される取付姿勢など種々のデータを記憶する。記憶部20が記憶している取付姿勢のうち、後述する位置算出部22で用いられる取付姿勢は、第1取付姿勢更新処理(図4 ステップS8)及び第2取付姿勢更新処理(S12)で更新されていく。   The storage unit 20 is configured by a rewritable nonvolatile storage medium. The storage unit 20 stores an initial value of the mounting posture of the laser radar 1 (this is referred to as an initial mounting posture), and stores various data such as a mounting posture estimated by a mounting posture estimation unit 24 described later. To do. Among the mounting postures stored in the storage unit 20, the mounting posture used by the position calculation unit 22 described later is updated by the first mounting posture update process (step S8 in FIG. 4) and the second mounting posture update process (S12). It will be done.

初期取付姿勢は、例えば製造ラインなど、乗員がおらず、かつ、各タイヤの空気圧が規定値となっている状態において計測した結果を用いればよい。本実施形態では、初期取付姿勢として、ピッチ角θp、ロール角θr、ヨー角θyは何れも、ずれが生じていない(すなわち0°)と設定する。また、初期取付姿勢としての搭載高さhは、予め設計されている値を用いる構成とする。   For the initial mounting posture, for example, a result measured in a state where there is no occupant and the air pressure of each tire is a specified value, such as a production line, may be used. In the present embodiment, the pitch angle θp, the roll angle θr, and the yaw angle θy are all set as the initial mounting posture so that no deviation occurs (that is, 0 °). The mounting height h as the initial mounting posture is configured to use a value designed in advance.

なお、搭載高さhについては、ピッチ角θp、ロール角θrともに0°として、任意のレーザ光の照射仰俯角αと、当該レーザ光で検出した測距点とレーザレーダ1との距離rとから、h=r×sinαとして算出した値を用いてもよい。さらに、初期取付姿勢は、比較的ラフに手で計測した結果を用いても良い。初期取付姿勢を従来よりもラフに設定しても良い理由は、測距点の相対位置を算出する際に用いられる取付姿勢は、後述する取付姿勢推定処理によって更新されるからである。   As for the mounting height h, the pitch angle θp and the roll angle θr are both 0 °, the irradiation elevation angle α of an arbitrary laser beam, and the distance r between the distance measuring point detected by the laser beam and the laser radar 1 Therefore, a value calculated as h = r × sin α may be used. Furthermore, as the initial mounting posture, a result measured by a relatively rough hand may be used. The reason why the initial mounting posture may be set to be rougher than before is that the mounting posture used when calculating the relative position of the distance measuring point is updated by the mounting posture estimation process described later.

距離算出部21は、TOF算出部13からTOF信号(つまり、レーザ光の出射時刻と反射光の受光時刻との時間差)が入力された場合、その時間差に基づいてレーザ光の反射点(これを測距点とする)までの距離r(図3参照)を算出する。   When the TOF signal (that is, the time difference between the emission time of the laser beam and the reception time of the reflected beam) is input from the TOF calculation unit 13, the distance calculation unit 21 reflects the reflection point of the laser beam (this is calculated based on the time difference). A distance r (refer to FIG. 3) is calculated.

位置算出部22は、距離算出部21が算出した測距点までの距離rと反射光が得られたレーザ光の照射角度と、記憶部20に記憶されている取付姿勢と、をもとにして、測距点の位置データを作成する。ここでの位置データは、次に述べるセンサ座標系で表される。   The position calculation unit 22 is based on the distance r to the distance measuring point calculated by the distance calculation unit 21, the irradiation angle of the laser beam from which the reflected light is obtained, and the mounting posture stored in the storage unit 20. To create position data for the AF points. The position data here is expressed in the sensor coordinate system described below.

センサ座標系は、互いに直交するようにx軸、y軸、z軸を備え、当該センサ座標系におけるレーザレーダ1の位置が(0,0,h)となるように原点を備えている。ECU2は、y軸方向が車両前後方向に、x軸方向が車幅方向に、z軸方向が高さ方向に、それぞれ対応するものと認識する。   The sensor coordinate system has an x-axis, a y-axis, and a z-axis so as to be orthogonal to each other, and has an origin so that the position of the laser radar 1 in the sensor coordinate system is (0, 0, h). The ECU 2 recognizes that the y-axis direction corresponds to the vehicle longitudinal direction, the x-axis direction corresponds to the vehicle width direction, and the z-axis direction corresponds to the height direction.

位置算出部22は、現在の取付姿勢を考慮して求めた測距点の相対位置をセンサ座標系の座標(x、y、z)で表す。言い換えれば、センサ座標系の各軸および原点は、現在位置算出部22で採用されている取付姿勢に基づいて設定されるものである。   The position calculation unit 22 represents the relative position of the distance measuring point obtained in consideration of the current mounting posture with coordinates (x, y, z) of the sensor coordinate system. In other words, each axis and origin of the sensor coordinate system are set based on the mounting posture adopted by the current position calculation unit 22.

このセンサ座標系は、レーザレーダ1の検出結果に基づいてECU2が認識する、レーザレーダ1が検出した測距点(すなわち物体)の車両5に対する相対的な位置を表している。これに対し、路面座標系は、レーザレーダ1が検出した物体の、車両に対する実際の相対位置を表す。   This sensor coordinate system represents a relative position of the ranging point (ie, object) detected by the laser radar 1 and recognized by the ECU 2 based on the detection result of the laser radar 1 with respect to the vehicle 5. On the other hand, the road surface coordinate system represents the actual relative position of the object detected by the laser radar 1 with respect to the vehicle.

これらセンサ座標系と路面座標系とは、レーザレーダ1が正確に(設計通りに)車両5に設置されてあって、かつ、路面6に対する車両5の姿勢も規定値通りである場合には一致するものである。すなわち、レーザレーダ1の中心軸(すなわちz軸)は、車両5の高さ方向と一致し、レーザレーダ1の正面方向(すなわちy軸)は、車両5の前後方向における前方と一致する。もちろん、x軸とX軸についても一致する。   The sensor coordinate system and the road surface coordinate system coincide with each other when the laser radar 1 is accurately installed (as designed) on the vehicle 5 and the attitude of the vehicle 5 with respect to the road surface 6 is also in accordance with the specified value. To do. That is, the center axis (that is, the z axis) of the laser radar 1 coincides with the height direction of the vehicle 5, and the front direction (that is, the y axis) of the laser radar 1 coincides with the front in the front-rear direction of the vehicle 5. Of course, the x-axis and the x-axis also coincide.

しかしながら、課題欄でも言及した通り、車両5に対して正確にレーザレーダ1を設置するためには、リフレクタなどを用いて厳密な光軸調整が必要となる。また、光軸調整のための試験環境(リフレクタなどの設置位置)自体の精度も要求されるため、製造ラインにおいて、光軸調整に要する時間や人員、試験環境などのコストがかかってしまう。   However, as mentioned in the problem column, in order to accurately install the laser radar 1 with respect to the vehicle 5, strict optical axis adjustment using a reflector or the like is required. In addition, since the accuracy of the test environment for adjusting the optical axis (the installation position of the reflector or the like) itself is also required, the production line requires time, manpower, and test environment costs.

また、正確に車両5にレーザレーダ1が設置されている場合であっても、タイヤの空気圧の変化や、夏タイヤ/冬タイヤの交換によって、例えば車体の傾きなどといった、路面6に対する車両5の姿勢(これを車両姿勢とする)は変化する。さらには、乗員の乗車位置や、積載物などによっても車両姿勢は変化する。車両姿勢が変化してしまうと、路面6に対するレーザレーダ1の姿勢(すなわち取付姿勢)も変化する。   Even when the laser radar 1 is accurately installed on the vehicle 5, the vehicle 5 is inclined with respect to the road surface 6 due to, for example, a change in tire air pressure or a change in summer / winter tires. The posture (this is the vehicle posture) changes. Furthermore, the vehicle posture also changes depending on the boarding position of the occupant and the load. When the vehicle posture changes, the posture of the laser radar 1 with respect to the road surface 6 (that is, the mounting posture) also changes.

そして、実際の車両5の利用環境においては、乗員数や積載物の変化は大きく、タイヤの状態もまた変動することが想定されるため、路面座標系とセンサ座標系とが一致しない場合が多いことが考えられる。これに伴って、レーザレーダ1の検出結果には、レーザレーダ1の取付姿勢による誤差が含まれてしまう。言い換えれば、レーザレーダ1の取付姿勢による誤差とは、センサ座標系と路面座標系とのずれに相当する。   In the actual use environment of the vehicle 5, the number of passengers and the load are largely changed, and it is assumed that the tire state also fluctuates. Therefore, the road surface coordinate system and the sensor coordinate system often do not match. It is possible. Accordingly, the detection result of the laser radar 1 includes an error due to the mounting posture of the laser radar 1. In other words, the error due to the mounting posture of the laser radar 1 corresponds to a deviation between the sensor coordinate system and the road surface coordinate system.

以降では、説明簡略化のため、初期取付姿勢に基づいて、センサ座標系が設定されているものとして説明する。すなわち、本実施形態の初期取付姿勢では、ピッチ角θp、ロール角θr、ヨー角θyは何れも0°であるため、y軸はレーザレーダ1の正面方向に、x軸はレーザレーダ1の左右方向に、z軸はレーザレーダ1の回転軸方向に備えられる。また、原点は当該センサ座標系において、レーザレーダ1の位置が(0,0,h)となる点である。   Hereinafter, in order to simplify the description, it is assumed that the sensor coordinate system is set based on the initial mounting posture. That is, in the initial mounting posture of the present embodiment, since the pitch angle θp, the roll angle θr, and the yaw angle θy are all 0 °, the y-axis is the front direction of the laser radar 1 and the x-axis is the left and right of the laser radar 1. The z-axis is provided in the direction of the rotation axis of the laser radar 1. The origin is a point where the position of the laser radar 1 is (0, 0, h) in the sensor coordinate system.

車両情報取得部23は、自車両5の情報を検出するセンサ群からなる車両情報検出部4と、図示しない車内LANで接続されている。車両情報検出部4は、例えば自車の走行速度を検出する車速センサ、自車に作用するヨーレートの大きさを検出するヨーレートセンサ、及びステアリングホイールの操舵角を検出する操舵角センサ(何れも図示略)を備えている。車両情報取得部23は、これらのセンサからのセンサ信号を用いて、自車両5の走行速度、ヨーレートの大きさ、移動量などを算出する。   The vehicle information acquisition unit 23 is connected to the vehicle information detection unit 4 including a sensor group that detects information of the host vehicle 5 via an in-vehicle LAN (not shown). The vehicle information detector 4 includes, for example, a vehicle speed sensor that detects the traveling speed of the host vehicle, a yaw rate sensor that detects the magnitude of the yaw rate that acts on the host vehicle, and a steering angle sensor that detects the steering angle of the steering wheel (all illustrated) Abbreviation). The vehicle information acquisition unit 23 calculates the traveling speed of the host vehicle 5, the magnitude of the yaw rate, the amount of movement, and the like using sensor signals from these sensors.

取付姿勢推定部24は、レーザレーダ1の検出結果から、レーザレーダ1の取付姿勢を推定する。この取付姿勢推定部24の作動については、図4に示すフローチャートを用いて後で詳細に説明する。   The mounting posture estimation unit 24 estimates the mounting posture of the laser radar 1 from the detection result of the laser radar 1. The operation of the mounting posture estimation unit 24 will be described later in detail using the flowchart shown in FIG.

運転支援システム3は、物体検出システム100の検出結果に基づいて、例えば公知のACC(Adaptive Cruise Control)や、衝突被害軽減ブレーキ機能、レーンキープアシスト(LKA:Lane Keeping Assist)などを実施する。例えばACCであれば、物体検出システム100が検出する先行車との距離に基づいて、車間距離を一定に保つように、駆動系及び制動系システムを制御する。   Based on the detection result of the object detection system 100, the driving support system 3 performs, for example, a known ACC (Adaptive Cruise Control), a collision damage reduction brake function, a lane keep assist (LKA), and the like. For example, in the case of ACC, the driving system and the braking system are controlled so as to keep the inter-vehicle distance constant based on the distance from the preceding vehicle detected by the object detection system 100.

また、本実施形態における運転支援システム3は、上述した機能に加えて、車両5を自動で走行させる自動運転機能や、駐車位置に車両5を自動で駐車させる自動駐車機能を実施する。   In addition to the functions described above, the driving support system 3 in the present embodiment implements an automatic driving function for automatically driving the vehicle 5 and an automatic parking function for automatically parking the vehicle 5 at the parking position.

<取付姿勢推定処理>
次に、図4に示すフローチャートを用いて、取付姿勢推定部24が実施する取付姿勢推定処理の流れを説明する。図4に示すフローチャートは、例えば図示しないイグニッションスイッチがオンになって、物体検出システム100に電力が供給されている場合において、逐次(例えば100ミリ秒毎に)実施される。
<Mounting posture estimation process>
Next, the flow of the mounting posture estimation process performed by the mounting posture estimation unit 24 will be described using the flowchart shown in FIG. The flowchart shown in FIG. 4 is performed sequentially (for example, every 100 milliseconds) when, for example, an ignition switch (not shown) is turned on and power is supplied to the object detection system 100.

まず、ステップS1では、取付姿勢読み出し処理を実施してステップS2に移る。ステップS1の取付姿勢読み出し処理では、記憶部20に格納されている取付姿勢のうち、位置算出部22で用いるための取付姿勢を読み出す。なお、イグニッションスイッチがオンとなってから本フローを初めて実施する場合には、一例として初期取付姿勢を読み出すものとする。また、後述するステップS8やS12で取付姿勢が更新されている場合には、その更新された取付姿勢を読み出す。   First, in step S1, the mounting posture reading process is performed, and the process proceeds to step S2. In the mounting posture reading process in step S <b> 1, among the mounting postures stored in the storage unit 20, the mounting posture to be used by the position calculation unit 22 is read out. When this flow is performed for the first time after the ignition switch is turned on, the initial mounting posture is read as an example. If the mounting posture is updated in steps S8 and S12 to be described later, the updated mounting posture is read out.

ステップS2では、スキャン処理を実施してステップS3に移る。ステップS2のスキャン処理では、レーザレーダ1に駆動信号を出力し、全てのレイヤにおいてレーザ光を360°スキャンさせる。そして、距離算出部21が、TOF算出部13から入力される時間差データに基づいて、各測距点に対する距離rを算出するとともに、照射方位角βと測距点との距離rとを対応付けた、照射方位角−距離データを生成する。位置算出部22は、測距点毎に、距離算出部21が算出した距離r、そのレーザ光の照射角度、及びステップS1で読みだした取付姿勢から相対位置を算出する。   In step S2, a scan process is performed and the process proceeds to step S3. In the scan process of step S2, a drive signal is output to the laser radar 1, and laser light is scanned 360 ° in all layers. Then, the distance calculation unit 21 calculates the distance r to each distance measuring point based on the time difference data input from the TOF calculation unit 13, and associates the irradiation azimuth angle β with the distance r between the distance measuring points. Further, irradiation azimuth-distance data is generated. For each distance measuring point, the position calculation unit 22 calculates a relative position from the distance r calculated by the distance calculation unit 21, the irradiation angle of the laser light, and the mounting posture read in step S1.

なお、本実施形態におけるレーザレーダ1は、車両全周囲を0°から360°まで0.1°ずつレーザ光を照射するため、1つのレイヤにおいて3601回レーザ光を照射することになる。また、レイヤ数Lは32であるから、レーザレーダ1が360°スキャニングすることによって、ECU2は最大115232点の測距点を得ることになる。なお、ここで最大値として表現している理由は、発光部11から照射されたレーザ光のうち、受光部12で反射光を受光できず、測距点を取得できない場合があるためである。   In addition, since the laser radar 1 in this embodiment irradiates the entire circumference of the vehicle with the laser beam by 0.1 ° from 0 ° to 360 °, the laser beam is irradiated 3601 times in one layer. Further, since the number L of layers is 32, the ECU 2 obtains a maximum of 115232 distance measuring points when the laser radar 1 scans 360 °. The reason why the maximum value is expressed here is that, among the laser beams emitted from the light emitting unit 11, the light receiving unit 12 cannot receive the reflected light and the distance measuring point may not be acquired.

ステップS3では、路面候補点抽出処理を実施してステップS4に移る。このステップS3の路面候補点抽出処理の作動については、別途図5に示すフローチャート及び図6に示す概念図を用いて後述する。この路面候補点抽出処理を実施することで、ステップS2で取得した全ての測距点のうち、路面6を検出したと推定される測距点(これを路面候補点とする)を抽出する。このステップS3を実施するECU2が、路面候補点抽出部に相当する。   In step S3, road surface candidate point extraction processing is performed, and the process proceeds to step S4. The operation of the road surface candidate point extraction process in step S3 will be described later using a flowchart shown in FIG. 5 and a conceptual diagram shown in FIG. By performing this road surface candidate point extraction process, a distance measuring point (which is assumed to be a road surface candidate point) estimated to have detected the road surface 6 is extracted from all the distance measuring points acquired in step S2. The ECU 2 that executes step S3 corresponds to a road surface candidate point extraction unit.

ステップS4では、路面推定処理を実施してステップS5に移る。このステップS4の路面推定処理の作動については、別途図7に示すフローチャート及び図8に示す概念図を用いて後述する。この路面推定処理を実施することで、センサ座標系における路面6に相当する平面(これを路面平面とする)Sを推定する。路面平面Sは、センサ座標系において、S=ax+by+cz+e=0(a、b、c、eは、路面推定処理で定まる係数)で表される。もちろん、センサ座標系と路面座標系とが一致する場合には、この路面平面Sは、z=0の平面と一致するものである。このステップS4を実施するECU2が、請求項に記載の路面平面算出部に相当する。   In step S4, a road surface estimation process is performed and the process proceeds to step S5. The operation of the road surface estimation process in step S4 will be described later using a flowchart shown in FIG. 7 and a conceptual diagram shown in FIG. By performing this road surface estimation process, a plane S (which is referred to as a road surface plane) S corresponding to the road surface 6 in the sensor coordinate system is estimated. The road surface plane S is represented by S = ax + by + cz + e = 0 (a, b, c, e are coefficients determined by the road surface estimation process) in the sensor coordinate system. Of course, when the sensor coordinate system and the road surface coordinate system coincide with each other, the road surface plane S coincides with the plane with z = 0. ECU2 which implements this step S4 is equivalent to the road surface plane calculation part as described in a claim.

ステップS5では、第1取付姿勢推定処理を実施してステップS6に移る。このステップS5の第1取付姿勢推定処理では、前ステップS4で推定した路面平面Sを用いて、取付姿勢のうち、ピッチ角θp、ロール角θr、及び搭載高さhについて以下の方法によって推定する。   In step S5, a first mounting posture estimation process is performed, and the process proceeds to step S6. In the first mounting posture estimation process in step S5, the road surface plane S estimated in the previous step S4 is used to estimate the pitch angle θp, roll angle θr, and mounting height h among the mounting postures by the following method. .

まず、ピッチ角θpを推定する方法について、図9及び図10を用いて説明する。図9は、センサ座標系のyz平面の概念図である。図9は、z=0とする面(これを基準面とする)が、便宜上、路面6(路面座標系においてZ=0)と一致するように示しており、また、図中における一点鎖線は、路面平面Sとyz平面とが交差してなる直線(Syzとする)を表している。この直線Syzは、路面平面Sにおいてx=0とすればよく、Syz=by+cz+e=0となる。   First, a method for estimating the pitch angle θp will be described with reference to FIGS. 9 and 10. FIG. 9 is a conceptual diagram of the yz plane of the sensor coordinate system. FIG. 9 shows that the surface where z = 0 (this is the reference surface) coincides with the road surface 6 (Z = 0 in the road surface coordinate system) for convenience, and the alternate long and short dash line in the figure is , A straight line (referred to as Syz) formed by intersecting the road surface plane S and the yz plane. The straight line Syz may be x = 0 on the road surface plane S, and Syz = by + cz + e = 0.

ここで、路面平面Sは、路面候補点から算出された平面であるため、本来、路面平面Sと路面6とは一致するはずである。路面平面Sを路面6と一致するようにセンサ座標系を回転させた図を、図10に示す。図10に示すように、y軸と路面平面Sとが為す角度、すなわち、y軸と直線Syzとが為す角度が、レーザレーダ1のピッチ角θpに相当する。ピッチ角θp(−90°≦θp≦90°)は、直線Syz=0をzについて変形することで、

Figure 2015075382
式2のように求めることができる。 Here, since the road surface plane S is a plane calculated from the road surface candidate points, the road surface plane S and the road surface 6 should essentially match. FIG. 10 shows a diagram in which the sensor coordinate system is rotated so that the road surface plane S coincides with the road surface 6. As shown in FIG. 10, the angle formed between the y-axis and the road surface plane S, that is, the angle formed between the y-axis and the straight line Syz corresponds to the pitch angle θp of the laser radar 1. The pitch angle θp (−90 ° ≦ θp ≦ 90 °) is obtained by transforming the straight line Syz = 0 with respect to z.
Figure 2015075382
It can obtain | require like Formula 2.

次に、ロール角θrを推定する方法について、図11及び図12を用いて説明する。ロール角θrは、前述のピッチ角θpの導出方法と同様の考え方に基づいて導出できるため、一部省略して説明する。   Next, a method for estimating the roll angle θr will be described with reference to FIGS. 11 and 12. Since the roll angle θr can be derived based on the same concept as the method for deriving the pitch angle θp described above, a part of the description will be omitted.

図11は、センサ座標系のxz平面の概念図である。基準面z=0と路面6(Z=0)とが一致するように示しており、図中における一点鎖線が、路面平面Sとxz平面とが交差してなる直線(Sxz)を表している。直線Sxzは、路面平面Sにおいてy=0とすればよく、Sxz=ax+cz+e=0となる。   FIG. 11 is a conceptual diagram of the xz plane of the sensor coordinate system. The reference plane z = 0 and the road surface 6 (Z = 0) are shown to coincide with each other, and the alternate long and short dash line in the drawing represents a straight line (Sxz) in which the road surface plane S and the xz plane intersect. . The straight line Sxz may be y = 0 on the road surface plane S, and Sxz = ax + cz + e = 0.

また、路面6と路面平面Sとが一致するようにセンサ座標系を回転させた図を、図12に示す。図12に示すように、x軸と路面平面Sとが為す角度、すなわち、x軸と直線Sxzとが為す角度が、レーザレーダ1のロール角θrに相当する。ここで、直線Sxz=0をzについて式変形することで、ロール角θr(−90°≦θr≦90°)は、

Figure 2015075382
式4のように求めることができる。 FIG. 12 shows a diagram in which the sensor coordinate system is rotated so that the road surface 6 and the road surface plane S coincide with each other. As shown in FIG. 12, the angle formed by the x-axis and the road surface plane S, that is, the angle formed by the x-axis and the straight line Sxz corresponds to the roll angle θr of the laser radar 1. Here, the roll angle θr (−90 ° ≦ θr ≦ 90 °) is obtained by transforming the straight line Sxz = 0 with respect to z.
Figure 2015075382
Equation 4 can be obtained.

搭載高さhについては、例えば照射方位角β=0における任意の路面候補点との距離rと、その路面候補点を検出したレーザ光の照射仰俯角αと、ピッチ角θpとを用いて算出する。具体的は、照射方位角β=0となっている場合には、図13に示すように、当該路面候補点を検出したレーザ光と路面6とが為す角度の大きさは、レーザ光の照射仰俯角αと、ピッチ角θpとの和で表される。したがって、搭載高さhは、下記の式5で求める事ができる。

Figure 2015075382
The mounting height h is calculated by using, for example, a distance r to an arbitrary road surface candidate point at the irradiation azimuth angle β = 0, an irradiation elevation angle α of the laser beam that detected the road surface candidate point, and a pitch angle θp. To do. Specifically, when the irradiation azimuth angle β = 0, as shown in FIG. 13, the size of the angle formed by the laser beam that detects the road surface candidate point and the road surface 6 is determined by the irradiation of the laser beam. It is represented by the sum of the elevation angle α and the pitch angle θp. Therefore, the mounting height h can be obtained by the following formula 5.
Figure 2015075382

以上のようにして求めた、ピッチ角θp、ロール角θr、及び搭載高さhは、これらを求めた時刻を表すタイムスタンプを付与して記憶部20に格納する。なお、タイムスタンプは、時刻を表すものにかぎらず、各推定結果の時系列が識別できるものであればよく、番号などであってもよい。この第1取付姿勢推定処理を実施するECU2が、請求項に記載の第1取付姿勢推定処理部に相当する。   The pitch angle θp, roll angle θr, and mounting height h obtained as described above are stored in the storage unit 20 with a time stamp indicating the time at which they are obtained. Note that the time stamp is not limited to the one representing the time, but may be any number as long as the time series of each estimation result can be identified. The ECU 2 that performs the first attachment posture estimation process corresponds to a first attachment posture estimation processing unit described in the claims.

ステップS6では、安定性評価処理を実施する。このステップS6の安定性評価処理の詳細な作動については、別途図14に示すフローチャート及び図15に示す概念図を用いて後述する。ここでは、この安定性評価処理の概要について述べる。安定性評価処理では、これまでの取付姿勢の推定結果を時系列に並べた時系列データから、推定結果のばらつき(すなわち分散)σを算出し、ステップS5で求めた推定結果の尤もらしさ(信頼性ともいうことができる)を評価する。   In step S6, a stability evaluation process is performed. The detailed operation of the stability evaluation process in step S6 will be described later using a flowchart shown in FIG. 14 and a conceptual diagram shown in FIG. Here, the outline of the stability evaluation process will be described. In the stability evaluation process, a variation (that is, variance) σ of the estimation result is calculated from time-series data in which the estimation results of the previous mounting postures are arranged in time series, and the likelihood of the estimation result obtained in step S5 (reliability) Can also be called gender).

安定性評価処理では、分散σが所定の閾値Σよりも小さい場合には、推定結果が安定していると判定する。また、分散σが閾値Σ以上となっている場合には、推定結果が安定してないと判定する。   In the stability evaluation process, when the variance σ is smaller than a predetermined threshold Σ, it is determined that the estimation result is stable. When the variance σ is equal to or greater than the threshold Σ, it is determined that the estimation result is not stable.

一般に、レーザレーダ1の検出結果は、車両状態や走行環境の影響を受ける。ここでの車両状態とは、急な加減速や急な旋回操作などのユーザ操作が為されているか否かを指し、走行環境とは、路面6の凹凸や段差の有無などを指す。例えば、車両状態が安定していない例として、急なブレーキ操作によって前輪において急な制動を実施した場合には、慣性に従って後輪が浮き上がり、車両姿勢が変化する。また、走行環境が安定していない例として、車両が段差を乗り上げた前後においては、車両姿勢は振動する。   In general, the detection result of the laser radar 1 is affected by the vehicle state and the traveling environment. Here, the vehicle state refers to whether or not a user operation such as a sudden acceleration / deceleration or a sudden turning operation is performed, and the traveling environment refers to the presence or absence of unevenness or a step on the road surface 6. For example, as an example in which the vehicle state is not stable, when a sudden braking operation is performed on the front wheels by a sudden braking operation, the rear wheels are lifted according to inertia and the vehicle posture changes. Further, as an example where the traveling environment is not stable, the vehicle posture vibrates before and after the vehicle climbs over a step.

このように車両状態や走行環境が安定していない場合には、車両姿勢は時間変動するため、レーザレーダ1の検出結果には、車両姿勢に起因する誤差が含まれる。これに伴って、ステップS5での推定結果もまた、時間変動する。一方、車両状態及び走行環境が安定している場合には、車両姿勢の変化は相対的に小さいため、推定結果も安定する。   As described above, when the vehicle state and the traveling environment are not stable, the vehicle posture fluctuates with time, and the detection result of the laser radar 1 includes an error due to the vehicle posture. Along with this, the estimation result in step S5 also varies over time. On the other hand, when the vehicle state and the traveling environment are stable, the change in the vehicle posture is relatively small, so the estimation result is also stable.

すなわち、ステップS6で、推定結果が安定しているということは、車両状態及び走行環境の両方が安定している状態においてレーザレーダ1の取付姿勢を推定していることを意味する。また、推定結果が安定していないということは、車両状態及び走行環境の少なくとも何れか一方が安定していない状態においてレーザレーダ1の取付姿勢を推定していることを意味する。   That is, in step S6, the fact that the estimation result is stable means that the mounting posture of the laser radar 1 is estimated in a state where both the vehicle state and the traveling environment are stable. Moreover, the fact that the estimation result is not stable means that the mounting posture of the laser radar 1 is estimated in a state where at least one of the vehicle state and the traveling environment is not stable.

ステップS6において、推定結果が安定していると判定した場合には、ステップS7がYESとなってステップS8に移る。一方、ステップS6において、推定結果が安定していないと判定した場合には、ステップS7がNOとなって、本フローを終了する。   If it is determined in step S6 that the estimation result is stable, step S7 becomes YES and the process proceeds to step S8. On the other hand, if it is determined in step S6 that the estimation result is not stable, step S7 is NO and this flow is terminated.

ステップS8では、第1取付姿勢更新処理を実施してステップS9に移る。このステップS8では、取付姿勢のうち、ステップS5で推定したピッチ角θp、ロール角θr、及び搭載高さhを用いて、位置算出部22で用いられる取付姿勢を更新する。このステップS8を実施するECU2が、請求項に記載の第1取付姿勢更新部に相当する。   In step S8, a first attachment posture update process is performed, and the process proceeds to step S9. In step S8, the mounting posture used in the position calculation unit 22 is updated using the pitch angle θp, roll angle θr, and mounting height h estimated in step S5. The ECU 2 that executes step S8 corresponds to a first mounting posture update unit described in the claims.

ステップS9では、直進性評価処理を実施する。このステップS9では車両5が一定時間(例えば5秒)過去の時点から現在までの間、直進しているか否かを判定する。車両5が直進しているか否かは、車両情報取得部23が車両情報検出部4から取得する車両情報から判定すればよい。例えば、車速が0よりも大きく、かつ、ヨーレートが0であれば、直進していると判定する。一方、それ以外の場合には、直進していないと判定する。なお、ヨーレートが0である場合とは、完全に0である場合だけでなく、所定の閾値以下であれば0と見なす場合も含む。   In step S9, straightness evaluation processing is performed. In this step S9, it is determined whether or not the vehicle 5 is traveling straight for a certain period of time (for example, 5 seconds) from the past time point to the present time. Whether or not the vehicle 5 is traveling straight may be determined from the vehicle information that the vehicle information acquisition unit 23 acquires from the vehicle information detection unit 4. For example, if the vehicle speed is greater than 0 and the yaw rate is 0, it is determined that the vehicle is traveling straight. On the other hand, in other cases, it is determined that the vehicle is not traveling straight. The case where the yaw rate is 0 includes not only the case where the yaw rate is completely 0 but also the case where the yaw rate is regarded as 0 if it is equal to or less than a predetermined threshold.

ステップS9において直進していると判定した場合には、ステップS10がYESとなってステップS11に移る。一方、ステップS9において直進していないと判定した場合にはステップS10がNOとなって、本フローを終了する。   If it is determined in step S9 that the vehicle is traveling straight, step S10 is YES, and the process proceeds to step S11. On the other hand, if it is determined in step S9 that the vehicle is not traveling straight, step S10 is NO and this flow is terminated.

ステップS11では、第2取付姿勢推定処理を実施してステップS12に移る。この第2取付姿勢推定処理では、取付姿勢のうちのヨー角θyを推定する。この第2取付姿勢推定処理について、図16を用いて説明する。この第2取付姿勢推定処理を実施するECU2が、請求項に記載の第2取付姿勢推定処理部に相当する。   In step S11, the second mounting posture estimation process is performed, and the process proceeds to step S12. In the second mounting posture estimation process, the yaw angle θy in the mounting posture is estimated. The second mounting posture estimation process will be described with reference to FIG. The ECU 2 that performs the second mounting posture estimation processing corresponds to a second mounting posture estimation processing unit described in claims.

図16に示す表8の左列は、路面座標系のXY平面におけるレーザレーダ1の位置(すなわち路面座標系の原点)と、任意の測距点Pyとの位置関係を表しており、図中の一点鎖線は、センサ座標系のy軸の位置を仮想的に表している。Y軸とy軸とが為す角がヨー角θyに相当する。また、表8の右列は、センサ座標系のxy平面におけるレーザレーダ1の位置(すなわちセンサ座標系の原点)と、測距点Pyとの位置関係を表している。   The left column of Table 8 shown in FIG. 16 represents the positional relationship between the position of the laser radar 1 on the XY plane of the road surface coordinate system (that is, the origin of the road surface coordinate system) and an arbitrary distance measuring point Py. The one-dot chain line virtually represents the y-axis position of the sensor coordinate system. The angle formed by the Y axis and the y axis corresponds to the yaw angle θy. The right column of Table 8 represents the positional relationship between the position of the laser radar 1 on the xy plane of the sensor coordinate system (that is, the origin of the sensor coordinate system) and the distance measuring point Py.

また、図16に示す表8の上段は時刻T−Tcにおけるレーザレーダ1に対する測距点Pyの相対位置を表しており、下段は、時刻Tにおけるレーザレーダ1に対する測距点Pyの相対位置を表している。Tcは予め設計される時間であって、例えば、500ミリ秒とする。   16 shows the relative position of the ranging point Py with respect to the laser radar 1 at time T-Tc, and the lower stage shows the relative position of the ranging point Py with respect to the laser radar 1 at time T. Represents. Tc is a pre-designed time, for example, 500 milliseconds.

本来、自車両5の前後方向とレーザレーダ1の正面方向(すなわちy軸方向)とが一致している場合には、左列と右列の図は一致するものである。しかしながら、ヨー角θyが0°ではない場合には、実際には車両5にとって表8の左列に示す位置にある測距点Pyは、ECU2にとっては表8の右列の位置にあると認識される。   Originally, when the front-rear direction of the host vehicle 5 and the front direction of the laser radar 1 (that is, the y-axis direction) match, the drawings in the left column and the right column match. However, when the yaw angle θy is not 0 °, the distance measuring point Py that is actually in the position shown in the left column of Table 8 for the vehicle 5 is recognized as being in the right column of Table 8 for the ECU 2. Is done.

したがって、ECU2が認識する測距点Pyの相対位置は、図16の表8の外側に示すような軌跡(これを相対測距点軌跡とする)γで移動していくように認識される。ここで、センサ座標系のy軸方向と、相対測距点軌跡γとの為す角度θvの大きさは、車両5の進行方向(すなわち路面座標系のZ軸方向)とレーザレーダ1の為す角度、すなわちヨー角θyの大きさと等しい。また、角度θvと、ヨー角θyとは符号が逆である。   Therefore, the relative position of the distance measuring point Py recognized by the ECU 2 is recognized so as to move along a locus γ as shown on the outside of Table 8 in FIG. Here, the magnitude of the angle θv between the y-axis direction of the sensor coordinate system and the relative distance measuring point locus γ is the angle between the traveling direction of the vehicle 5 (that is, the Z-axis direction of the road surface coordinate system) and the laser radar 1. That is, it is equal to the magnitude of the yaw angle θy. Also, the angle θv and the yaw angle θy are opposite in sign.

したがって、取付姿勢推定部24は、周知の追跡(トラッキング)手法を用いて任意の測距点Pyを追跡し、当該測距点Pyの軌跡γとy軸方向とが為す角度θvを算出することによって、ヨー角θy(=−θv)を算出することができる。ここで、測距点Pyは、静止物から取得すればよく、静止物であるか否かの判定方法は、周知の方法を用いればよい。以上のようにして求めたヨー角θyは、ステップS5で求めたピッチ角θpなどと同様に、これを求めた時刻を表すタイムスタンプを付与して記憶部20に格納する。   Therefore, the mounting posture estimation unit 24 tracks an arbitrary distance measuring point Py using a known tracking (tracking) method, and calculates an angle θv formed by the locus γ of the distance measuring point Py and the y-axis direction. Thus, the yaw angle θy (= −θv) can be calculated. Here, the distance measuring point Py may be obtained from a stationary object, and a known method may be used as a method for determining whether or not the object is a stationary object. The yaw angle θy determined as described above is stored in the storage unit 20 with a time stamp indicating the time when the yaw angle θp determined in step S5 is determined.

ステップS12では、ステップS11で推定したヨー角θyを用いて、位置算出部22が用いるヨー角θyを更新して、本フローを終了する。このステップS12を実施するECU2が、請求項に記載の第2取付姿勢更新部に相当する。   In step S12, the yaw angle θy used by the position calculation unit 22 is updated using the yaw angle θy estimated in step S11, and this flow ends. ECU2 which implements this step S12 is equivalent to the 2nd attachment posture update part given in a claim.

以上では、センサ座標系が初期取付姿勢に基づいて設定されている場合を例にとって説明したが、もちろん、ステップS8やステップS12によって更新された取付姿勢を用いて、繰り返し上述の取付姿勢推定処理を実施してもよい。   In the above description, the case where the sensor coordinate system is set based on the initial mounting posture has been described as an example. Of course, the above-described mounting posture estimation process is repeatedly performed using the mounting posture updated in step S8 or step S12. You may implement.

なお、本実施形態では、路面平面Sを算出する際に用いる路面候補点の位置として、位置算出部22がレーザレーダ1の取付姿勢を考慮して算出した位置を用いる構成としている。このため、上述の取付姿勢推定処理を実施して新たに算出される取付姿勢(例えばピッチ角θpなど)は、現在採用している取付姿勢との差分を表すことになる。   In the present embodiment, the position calculated by the position calculation unit 22 in consideration of the mounting posture of the laser radar 1 is used as the position of the road surface candidate point used when calculating the road surface plane S. For this reason, the mounting posture (for example, the pitch angle θp) newly calculated by performing the above-described mounting posture estimation process represents a difference from the currently employed mounting posture.

したがって、ステップS8やステップS12において取付姿勢を更新する際には、現在採用している取付姿勢に、新たに算出した取付姿勢を加算した値を、路面6に対する取付姿勢として更新する必要がある。また、同様に、取付姿勢の時系列データを生成する際にも、各時点での取付姿勢は、その時点において採用されている取付姿勢に、新たに算出した取付姿勢を加えた値を用いる必要がある。   Therefore, when updating the mounting posture in step S8 or step S12, it is necessary to update the value obtained by adding the newly calculated mounting posture to the currently employed mounting posture as the mounting posture with respect to the road surface 6. Similarly, when generating time series data of the mounting posture, the mounting posture at each time point needs to use a value obtained by adding the newly calculated mounting posture to the mounting posture adopted at that time. There is.

もちろん、他の構成として、路面平面Sを算出する際に用いる路面候補点の位置として、位置算出部22がピッチ角θp、ロール角θr、ヨー角θyを何れも0として算出した値を用いる場合(これを変形例1とする)には、新たに算出される取付姿勢が、そのまま現在の取付姿勢を表す。したがって、変形例1の場合には、時系列データなども、算出したそのままの値を用いれば良い。   Of course, as another configuration, when the position calculation unit 22 uses values calculated by setting the pitch angle θp, the roll angle θr, and the yaw angle θy to 0 as the position of the road surface candidate point used when calculating the road surface plane S. In (this is referred to as a first modification), the newly calculated mounting posture represents the current mounting posture as it is. Therefore, in the case of the first modification, the calculated value as it is may be used for the time series data.

<路面候補点抽出処理>
図5に示すフローチャートを用いて、取付姿勢推定部24が実施する路面候補点抽出処理の流れを説明する。図5に示すフローチャートは、図4に示す取付姿勢推定処理において、ステップS3に移ったときに実施される。
<Road surface candidate point extraction processing>
The flow of road surface candidate point extraction processing performed by the mounting posture estimation unit 24 will be described using the flowchart shown in FIG. The flowchart shown in FIG. 5 is performed when the process proceeds to step S3 in the attachment posture estimation process shown in FIG.

本処理の説明で用いるLは、前述のとおり、レーザレーダ1が備えるレイヤ数であり、本実施形態では32である。また、lyrは、整数であって、以下の処理を実施する上で用いる変数である。lyrは、レーザレーダ1が備える全レイヤのうち、現在処理の対象としているレイヤを特定するためのものであって、現在処理の対象としているレイヤの番号を表す。   L used in the description of this process is the number of layers included in the laser radar 1 as described above, and is 32 in this embodiment. Moreover, lyr is an integer and is a variable used when performing the following processing. The lyr is for specifying the layer that is the target of the current processing among all the layers included in the laser radar 1, and represents the number of the layer that is the target of the current processing.

まず、ステップS301では、lyrを0に設定(すなわち、lyrの初期化)し、ステップS302に移る。ステップS302では、変数lyrがレイヤ数Lよりも小さいか否かを判定する。lyrがレイヤ数Lよりも小さい場合には、ステップS302がYESとなってステップS303に移る。一方、lyrがレイヤ数L以上となっている場合には、ステップS302がNOとなって本フローを終了する。   First, in step S301, lyr is set to 0 (that is, lyr is initialized), and the process proceeds to step S302. In step S302, it is determined whether or not the variable lyr is smaller than the number L of layers. If lyr is smaller than the number L of layers, step S302 is YES, and the process proceeds to step S303. On the other hand, if lyr is greater than or equal to the number of layers L, step S302 is NO and this flow ends.

ステップS303では、スキャン処理の結果、距離算出部21が生成した照射方位角−距離データから、レイヤ番号がlyrとなっているレイヤが検出した測距点を抽出して、一次元信号を生成する。すなわち、当該一次元信号は、レイヤ番号がlyrとなっているレイヤにおける、照射方位角βと、測距点との距離rの対応関係を示す。このステップS303を実施するECU2が、請求項に記載の一次元信号生成部に相当する。   In step S303, a distance measurement point detected by the layer having the layer number lyr is extracted from the irradiation azimuth angle-distance data generated by the distance calculation unit 21 as a result of the scanning process, and a one-dimensional signal is generated. . That is, the one-dimensional signal indicates the correspondence between the irradiation azimuth angle β and the distance r between the distance measuring points in the layer whose layer number is lyr. The ECU 2 that executes step S303 corresponds to a one-dimensional signal generation unit described in the claims.

ステップS304では、ステップS303で生成した一次元信号に対して、周知の高速フーリエ変換(FFT:Fast Fourier Transform)を施すことで、周波数解析する。なお、本実施形態では、一次元信号を周波数成分毎に分解するための方法として、FFTを用いるが、もちろんその他の手法であってもよく、例えば離散ウェーブレット変換(DWT:Discrete Wavelet Transform)などであってもよい。   In step S304, a frequency analysis is performed by applying a known Fast Fourier Transform (FFT) to the one-dimensional signal generated in step S303. In the present embodiment, FFT is used as a method for decomposing a one-dimensional signal for each frequency component, but other methods may be used. For example, discrete wavelet transform (DWT) is used. There may be.

ステップS305では、ステップS304で周波数分解された一次元信号を、周知のローパスフィルタ(LPF:low Pass Filter)に通すことで、低周波成分を抽出する。ローパスフィルタが通過させる周波数の最大値(いわゆるカットオフ周波数)は、適宜設計されればよい。ステップS306では、ステップS305で得られた低周波成分に対して、周知の逆フーリエ変換(IFFT:Inverse FFT)を施す。   In step S305, the low-frequency component is extracted by passing the one-dimensional signal frequency-resolved in step S304 through a known low-pass filter (LPF). The maximum value of the frequency that the low-pass filter passes (so-called cutoff frequency) may be designed as appropriate. In step S306, a known inverse Fourier transform (IFFT: Inverse FFT) is performed on the low-frequency component obtained in step S305.

ステップS304〜306の処理を施すことによって、ステップS302で生成した(すなわち、元の)一次元信号から低周波成分を抽出する。ここで、図6を用いて、一次元信号の低周波成分を抽出することの意義について説明する。   By performing the processes in steps S304 to S306, a low frequency component is extracted from the one-dimensional signal generated in step S302 (that is, the original). Here, the significance of extracting the low-frequency component of the one-dimensional signal will be described with reference to FIG.

図6は、一次元信号における照射方位角βと距離rとの対応関係を表したグラフである。図6に示すグラフにおいて、横軸が照射方位角βを表し、縦軸がレーザレーダ1から測距点までの距離rを表している。また、図6中の実線部分(厳密には0.1°ずつ離れた点の列)が照射方位角毎の測距点を表し、点線は、LPFを通して得られる一次元信号の低周波成分を表している。   FIG. 6 is a graph showing the correspondence between the irradiation azimuth angle β and the distance r in a one-dimensional signal. In the graph shown in FIG. 6, the horizontal axis represents the irradiation azimuth angle β, and the vertical axis represents the distance r from the laser radar 1 to the distance measuring point. Further, the solid line portion in FIG. 6 (strictly, a row of points separated by 0.1 °) represents a distance measuring point for each irradiation azimuth angle, and the dotted line represents a low-frequency component of a one-dimensional signal obtained through the LPF. Represents.

通常、発光部11から照射されたレーザ光は、そのレーザ光の進行方向に先行車両や人、輪止めなどの立体物などが存在しない場合には、路面6まで到達する。一方、立体物がレーザ光の進行方向上に存在する場合には、レーザ光は路面6まで到達せず、当該立体物で反射されて返ってくる。したがって、立体物を検出している場合の距離rは、路面6を検出している場合の距離rよりも小さくなる。   Normally, the laser light emitted from the light emitting unit 11 reaches the road surface 6 when there is no three-dimensional object such as a preceding vehicle, a person, or a wheel stopper in the traveling direction of the laser light. On the other hand, when the three-dimensional object exists in the traveling direction of the laser beam, the laser beam does not reach the road surface 6 and is reflected and returned by the three-dimensional object. Therefore, the distance r when the three-dimensional object is detected is smaller than the distance r when the road surface 6 is detected.

また、路面6を検出している場合には、その検出結果(すなわち距離r)は、その隣接する照射方位角においてもほぼ等しい距離rとなる一方、路面6を検出している状態から照射方位角βが変化して立体物を検出した場合には、距離rは急激に変化する。すなわち、図6に示すグラフにおいて、距離rが急激に変化している部分は立体物を検出していることを意味する。また、距離rが急激に変化している部分は一次元信号の周波数成分において高周波成分として表れる。   Further, when the road surface 6 is detected, the detection result (that is, the distance r) is substantially the same distance r even in the adjacent irradiation azimuth angle, while the irradiation azimuth from the state in which the road surface 6 is detected. When the three-dimensional object is detected by changing the angle β, the distance r changes rapidly. That is, in the graph shown in FIG. 6, the portion where the distance r changes abruptly means that a three-dimensional object is detected. Further, the portion where the distance r changes abruptly appears as a high frequency component in the frequency component of the one-dimensional signal.

したがって、一次元信号の周波数成分における高周波成分は、立体物を検出している部分に相当し、相対的に低周波成分は路面6を検出している部分に相当することになる。すなわち、ステップS304〜306の処理を施すことによって、ステップS302で生成した(すなわち、元の)一次元信号から低周波成分を抽出することは、路面6を検出している測距点、すなわち路面候補点を抽出することに相当する。   Therefore, the high frequency component in the frequency component of the one-dimensional signal corresponds to a portion where a three-dimensional object is detected, and the relatively low frequency component corresponds to a portion where a road surface 6 is detected. That is, extracting the low frequency component from the one-dimensional signal generated in step S302 (ie, the original) by performing the processing in steps S304 to S306 means that the distance measurement point detecting the road surface 6, that is, the road surface This corresponds to extracting candidate points.

再び図5に戻って路面候補点抽出処理についての説明を続ける。ステップS307では、ステップS306で得られた路面候補点を記憶部20に保存してステップS308に移る。記憶部20には、例えば路面候補点を保存するための配列を用意しておき、路面候補点は算出される順番に当該配列に格納していけば良い。   Returning to FIG. 5 again, the description of the road surface candidate point extraction process will be continued. In step S307, the road surface candidate points obtained in step S306 are stored in the storage unit 20, and the process proceeds to step S308. For example, an array for storing road surface candidate points may be prepared in the storage unit 20, and the road surface candidate points may be stored in the array in the order of calculation.

ステップS308では、lyrに1を加算してステップS302に戻る。すなわち、これまで処理の対象となっていたレイヤよりも、そのレイヤ番号が1つ大きいレイヤ(すなわち、次のレイヤ)を、以降での処理の対象に設定して、ステップS303〜307を実施する。   In step S308, 1 is added to lyr, and the process returns to step S302. That is, a layer whose layer number is one higher than the layer that has been the target of processing so far (that is, the next layer) is set as a target of subsequent processing, and steps S303 to S307 are performed. .

そして、以上の処理をlyrがL以上となるまで繰り返すことで、全てのレイヤにおける路面候補点を抽出することができる。   Then, by repeating the above processing until lyr becomes L or more, road surface candidate points in all layers can be extracted.

<路面推定処理>
図7に示すフローチャートを用いて、取付姿勢推定部24が実施する路面推定処理の流れを説明する。図7に示すフローチャートは、図4に示す取付姿勢推定処理において、ステップS4に移ったときに実施される。以降において、Nは路面候補点抽出処理で取得した全ての路面候補点の数を表し、整数M(M≧1)は、予め設定された繰り返し回数であって、例えば10とする。また、m、nは整数であって、以下の処理を実施する上で用いる変数である。
<Road surface estimation process>
The flow of the road surface estimation process performed by the mounting posture estimation unit 24 will be described using the flowchart shown in FIG. The flowchart shown in FIG. 7 is performed when the process proceeds to step S4 in the attachment posture estimation process shown in FIG. In the following, N represents the number of all road surface candidate points acquired by the road surface candidate point extraction process, and the integer M (M ≧ 1) is a preset number of repetitions, for example, 10. Moreover, m and n are integers and are variables used in performing the following processing.

まず、ステップS401では、m=0(すなわち、mの初期化)としてステップS402に移る。ステップS402では、変数mが繰り返し回数Mよりも小さいか否かを判定する。mが繰り返し回数Mよりも小さい場合には、ステップS402がYESとなってステップS403に移る。一方、mが繰り返し回数M以上となっている場合には、ステップS402がNOとなってステップS430に移る。   First, in step S401, m = 0 (that is, m is initialized), and the process proceeds to step S402. In step S402, it is determined whether the variable m is smaller than the number of repetitions M. If m is smaller than the number of repetitions M, step S402 becomes YES and the process moves to step S403. On the other hand, if m is equal to or greater than the number of repetitions M, step S402 is NO and the process moves to step S430.

ステップS403では、全ての路面候補点の中からランダムに3点を選択して、ステップS404に移る。このステップS403で選択した路面候補点を、Pa(x,y,z)、Pb(x,y,z)、Pc(x,y,z)とする。各点Pa、Pb、Pcの位置を表す座標は、位置算出部22がそれぞれの路面候補点に対して算出した値を用いればよい。 In step S403, three points are randomly selected from all the road surface candidate points, and the process proceeds to step S404. The road surface candidate points selected in step S403 are assumed to be Pa (x a , y a , z a ), Pb (x b , y b , z b ), Pc (x c , y c , z c ). As the coordinates representing the positions of the points Pa, Pb, and Pc, values calculated by the position calculation unit 22 for the respective road surface candidate points may be used.

ステップS404では、ステップS403で選択されている3つの路面候補点Pa、Pb、Pcから仮路面平面Stを算出する。このステップS404を実施するECU2が、請求項に記載の仮路面平面算出部に相当する。なお、m=0のときに求めた仮路面平面StをSt(0)と表し、m=1のとき求めた仮路面平面StはSt(1)と表す。すなわち、平面St(m)は、任意のmのときに算出された仮路面平面Stを表す。   In step S404, a temporary road surface plane St is calculated from the three road surface candidate points Pa, Pb, and Pc selected in step S403. ECU2 which implements this step S404 is equivalent to the temporary road surface plane calculation part as described in a claim. The temporary road surface plane St obtained when m = 0 is expressed as St (0), and the temporary road surface surface St calculated when m = 1 is expressed as St (1). That is, the plane St (m) represents the temporary road surface plane St calculated at an arbitrary m.

仮路面平面Stは、路面候補点Pa、Pb、Pcの3点を通る平面であるため、図8に示すように、PaからPbへ向かうベクトルTと、PaからPcへ向かうベクトルUの外積から算出する事ができる。より具体的には、ベクトルTの各成分を(T,T,T)とし、ベクトルUの各成分を(U,U,U)とすると、それぞれ式6、式7となる。 Since the temporary road surface plane St is a plane that passes through the three road surface candidate points Pa, Pb, and Pc, as shown in FIG. 8, from the outer product of the vector T that goes from Pa to Pb and the vector U that goes from Pa to Pc. It can be calculated. More specifically, assuming that each component of the vector T is (T x , T y , T z ) and each component of the vector U is (U x , U y , U z ), Become.

そして、センサ座標系における仮路面平面Stを表す式を係数a,b,c,eを用いてax+by+cz+e=0と表すと、係数a,b,cは、ベクトルTとベクトルUの外積を計算した結果得られる式8で求めることができる。また、係数eは、式8で算出されたa,b,cと、Paの座標(x,y,z)を用いて式9となる。

Figure 2015075382
Figure 2015075382
Figure 2015075382
Then, when the expression representing the temporary road surface plane St in the sensor coordinate system is expressed as ax + by + cz + e = 0 using the coefficients a, b, c, e, the coefficients a, b, c calculated the outer product of the vector T and the vector U. It can obtain | require by Formula 8 obtained as a result. The coefficient e is a formula 9 using the a, b, c calculated in Equation 8, Pa coordinates (x a, y a, z a) a.
Figure 2015075382
Figure 2015075382
Figure 2015075382

再び図7に戻り、路面推定処理の説明を続ける。ステップS405では、n=0としてステップS410に移る。ステップS410では、変数nが路面候補点の数Nよりも小さいか否かを判定する。nが路面候補点の数Nよりも小さい場合には、ステップS410がYESとなってステップS411に移る。一方、nが路面候補点の数N以上となっている場合には、ステップS410がNOとなってステップS420に移る。   Returning to FIG. 7 again, the description of the road surface estimation process will be continued. In step S405, n = 0 and the process proceeds to step S410. In step S410, it is determined whether the variable n is smaller than the number N of road surface candidate points. If n is smaller than the number N of road surface candidate points, step S410 becomes YES and the process moves to step S411. On the other hand, if n is equal to or greater than the number N of road surface candidate points, step S410 is NO and the process proceeds to step S420.

ステップS411では、記憶部20に格納されている路面候補点と、ステップS404で算出した仮路面平面St(m)との距離dを算出する。なお、先頭からn+1個目に記憶されている路面候補点をP(n+1)と表し、路面候補点P(n)と仮路面平面St(m)との距離dをd(n)と表す。例えば、P(0)は、記憶部20の設けられている配列において先頭に格納されている路面候補点を指し、d(0)は、P(0)と仮路面平面St(m)との距離を表す。   In step S411, a distance d between the road surface candidate point stored in the storage unit 20 and the temporary road surface plane St (m) calculated in step S404 is calculated. Note that the n + 1th road surface candidate point stored from the top is represented as P (n + 1), and the distance d between the road surface candidate point P (n) and the temporary road surface plane St (m) is represented as d (n). For example, P (0) indicates a road surface candidate point stored at the head in the array in which the storage unit 20 is provided, and d (0) is a relationship between P (0) and the temporary road surface plane St (m). Represents the distance.

路面候補点P(n)と、ステップS404で算出した仮路面平面St(m)との距離d(n)は、図8に示すように、P(n)から仮路面平面St(m)に降ろした垂線の長さであって、次に式10で求めることができる。ここでは便宜上、路面候補点P(n)の座標は、(x,y,z)で表すが、位置算出部22が算出した座標を用いれば良い。

Figure 2015075382
The distance d (n) between the road surface candidate point P (n) and the temporary road surface plane St (m) calculated in step S404 is changed from P (n) to the temporary road surface surface St (m) as shown in FIG. The length of the dropped perpendicular, which can then be determined by Equation 10. Here, for convenience, the coordinates of the road surface candidate point P (n) are represented by (x n , y n , z n ), but the coordinates calculated by the position calculation unit 22 may be used.
Figure 2015075382

ステップS412では、ステップS411で算出した距離d(n)を記憶部20に格納してステップS413に移る。ステップS413では、nに1を加算してステップS410に戻る。これによって、次に実施するステップS411では、次に記憶されている路面候補点P(n+1)と、ステップS404で算出した仮路面平面St(m)との距離d(n+1)を算出する。   In step S412, the distance d (n) calculated in step S411 is stored in the storage unit 20, and the process proceeds to step S413. In step S413, 1 is added to n, and the process returns to step S410. Thereby, in the next step S411, the distance d (n + 1) between the road surface candidate point P (n + 1) stored next and the temporary road surface plane St (m) calculated in step S404 is calculated.

すなわち、ステップS410〜S413をnがN以上(ステップS410がNO)となるまで繰り返すことで、全ての路面候補点P(0)〜P(N−1)と、仮路面平面St(m)との距離d(0)〜d(N−1)を算出する。   That is, by repeating steps S410 to S413 until n becomes N or more (NO in step S410), all the road surface candidate points P (0) to P (N-1), the temporary road surface plane St (m), and Distances d (0) to d (N-1) are calculated.

ステップS420では、以上の処理で得られたd(0)〜d(N−1)の中央値d_medを求めてステップS421に移る。仮路面平面St(m)に対して求めた中央値d_medをd_med(m)で表す。中央値d_med(m)を求める方法は、周知の方法を求めればよい。本実施形態では、d(0)〜d(N−1)を小さい順にソートした配列を生成し、その配列の中央に格納されている値を中央値d_med(m)とする。ソートは、バブルソートやクイックソートなど周知の手法を適用すればよい。   In step S420, the median value d_med of d (0) to d (N-1) obtained by the above processing is obtained, and the process proceeds to step S421. The median value d_med obtained for the temporary road surface plane St (m) is represented by d_med (m). As a method for obtaining the median value d_med (m), a known method may be obtained. In the present embodiment, an array in which d (0) to d (N-1) are sorted in ascending order is generated, and a value stored in the center of the array is set as a median value d_med (m). For the sorting, a known method such as bubble sorting or quick sorting may be applied.

仮に、全ての路面候補点P(0)〜P(N−1)が、誤差なく同一平面上の点を検出している場合には、距離d(0)〜d(N−1)は何れも0となり、中央値d_med(m)も0となる。しかしながら、実際には、レーザレーダ1自体の検出精度の影響を受けることに加えて、ステップS3の路面候補点抽出処理において、路面6以外を検出している測距点も一部、路面候補点として選択してしまう。このため、距離d(0)〜d(N−1)は必ずしも0とはならない。   If all the road surface candidate points P (0) to P (N-1) detect points on the same plane without error, the distances d (0) to d (N-1) Is also 0, and the median d_med (m) is also 0. However, in reality, in addition to being affected by the detection accuracy of the laser radar 1 itself, in the road surface candidate point extraction process in step S3, some of the distance measurement points that are detected other than the road surface 6 are also road surface candidate points. Will choose as. For this reason, the distances d (0) to d (N−1) are not necessarily zero.

また、仮路面平面St(m)を算出するために選択された3点Pa,Pb,Pcが相対的に誤差の大きい路面候補点であった場合には、距離d≠0となる路面候補点が増えるとともに、各路面候補点との距離dは相対的に大きい値となる。   If the three points Pa, Pb, Pc selected to calculate the temporary road surface plane St (m) are road surface candidate points with relatively large errors, the road surface candidate points satisfying the distance d ≠ 0. And the distance d to each road surface candidate point becomes a relatively large value.

路面候補点は、いずれも路面6を検出している点として選択されているため、全ての路面候補点を代表する平面は、センサ座標系において路面6に相当する平面、すなわち路面平面Sである。   Since all the road surface candidate points are selected as points detecting the road surface 6, the plane representing all the road surface candidate points is a plane corresponding to the road surface 6 in the sensor coordinate system, that is, the road surface plane S. .

また、ステップS420で求めた中央値d_med(m)は、仮路面平面St(m)と全ての路面候補点との距離を代表する値であるため、中央値d_med(m)は、仮路面平面St(m)と全ての路面平面Sとの距離(すなわち誤差)を表していることになる。したがって、中央値d_med(m)が小さいほど、路面平面Sに近い平面であることを表す。このステップS420を実施するECU2が、請求項に記載の路面尤度評価部に相当する。   Further, since the median value d_med (m) obtained in step S420 is a value representative of the distance between the temporary road surface plane St (m) and all the road surface candidate points, the median value d_med (m) is the temporary road surface plane. This represents the distance (ie, error) between St (m) and all the road surface planes S. Therefore, the smaller the median value d_med (m), the closer to the road surface plane S. ECU2 which implements this step S420 is equivalent to the road surface likelihood evaluation part as described in a claim.

ステップS421では、ステップS420で求めた中央値d_med(m)と仮路面平面St(m)とを対応付けて保存して、ステップS422に移る。ステップS422では、mに1を加算してステップS402に戻る。そして、ステップS402からステップS422を繰り返すことによって、M個の仮路面平面St、及び、各仮路面平面Stに対する中央値d_medを得る。   In step S421, the median value d_med (m) obtained in step S420 is stored in association with the temporary road surface plane St (m), and the process proceeds to step S422. In step S422, 1 is added to m, and the process returns to step S402. Then, by repeating steps S402 to S422, M temporary road surface planes St and a median value d_med for each temporary road surface plane St are obtained.

ステップS430では、以上の処理で得られたM個の仮路面平面Stのうち、その仮路面平面Stに対応付けられている中央値d_medが最小となっている仮路面平面Stを、路面平面Sに設定して、本フローを終了する。   In step S430, among the M temporary road surface planes St obtained by the above process, the temporary road surface surface St having the minimum median value d_med associated with the temporary road surface surface St is determined as the road surface surface S. Set this to end this flow.

なお、本実施形態では、M=10とするが、その他の値であってもよく、例えばM=50などであってもよい。Mが大きいほど、生成される仮路面平面Stの数は増えるため、より適切な仮路面平面Stを路面平面Sに設定できるようになる。また、他の構成としてステップS420で中央値d_med(m)を求めたがこれに限られるものではなく、d(0)〜d(N−1)の平均値を求め、利用しても良い。さらに、本実施形態では、仮路面平面の、路面平面Sとしての尤もらしさを距離dの中央値d_medで評価したが、距離dの二乗の和で評価してもよい。   In the present embodiment, M = 10, but other values may be used, for example, M = 50. As M is larger, the number of temporary road surface planes St generated is increased, so that a more appropriate temporary road surface surface St can be set as the road surface surface S. As another configuration, the median value d_med (m) is obtained in step S420. However, the present invention is not limited to this, and an average value of d (0) to d (N-1) may be obtained and used. Furthermore, in this embodiment, the likelihood of the temporary road surface plane as the road surface plane S is evaluated by the median value d_med of the distance d, but may be evaluated by the sum of the squares of the distance d.

<安定性評価処理>
図14に示すフローチャートを用いて、取付姿勢推定部24が実施する安定性評価処理の流れを説明する。図14に示すフローチャートは、図4に示す取付姿勢推定処理において、ステップS6に移ったときに実施される。以降において、整数Iは、予め設定された読み出しフレーム数であって、例えば10とする。ここでの読み出しフレーム数とは、現時点から過去に遡って読み出す取付姿勢の推定結果の数を指す。また、iは整数であって、以下の処理を実施する上で用いる変数である。
<Stability evaluation process>
The flow of stability evaluation processing performed by the mounting posture estimation unit 24 will be described using the flowchart shown in FIG. The flowchart shown in FIG. 14 is implemented when it moves to step S6 in the attachment attitude | position estimation process shown in FIG. Hereinafter, the integer I is a preset number of read frames, and is set to 10, for example. Here, the number of read frames refers to the number of estimation results of the mounting posture read back from the present time to the past. Further, i is an integer and is a variable used in performing the following processing.

取付姿勢の推定結果としては、少なくともピッチ角θp、ロール角θr、及び搭載高さhがあるが、ここでは簡単のため、安定性を評価するために用いる取付姿勢の推定結果としては、ピッチ角θpのみを用いる。もちろん、他の構成として、他のロール角θr、及び搭載高さhも用いて以降の安定性評価処理を実施してもよい。   As the estimation result of the mounting posture, there are at least the pitch angle θp, the roll angle θr, and the mounting height h, but here, for simplicity, the estimation result of the mounting posture used for evaluating the stability is the pitch angle. Only θp is used. Of course, as another configuration, the following stability evaluation process may be performed using another roll angle θr and the mounting height h.

まず、ステップS601では、i=0として、ステップS602に移る。ステップS602では、変数iが読み出しフレーム数Iよりも小さいか否かを判定する。変数iが読み出しフレーム数Iよりも小さい場合には、ステップS602がYESとなってステップS603に移る。一方、変数iが読み出しフレーム数I以上となっている場合には、ステップS602がNOとなってステップS610に移る。   First, in step S601, i = 0 is set, and the process proceeds to step S602. In step S602, it is determined whether the variable i is smaller than the number I of read frames. If the variable i is smaller than the number I of read frames, step S602 becomes YES and the process moves to step S603. On the other hand, if the variable i is greater than or equal to the number I of read frames, step S602 is NO and the process moves to step S610.

ステップS603では、現時点よりもiフレーム過去に算出したピッチ角θpを読み出してステップS604に移る。i=0の場合には、現時点よりも0フレーム過去に算出したピッチ角θpを読み出すことになるが、これは今回の取付姿勢推定処理のステップS5で算出したピッチ角θpを指す。また、i=1の場合には、前回の取付姿勢推定処理で算出したピッチ角θpを読み出す。   In step S603, the pitch angle θp calculated i frames before the current time is read, and the process proceeds to step S604. In the case of i = 0, the pitch angle θp calculated 0 frames before the current time is read out, and this indicates the pitch angle θp calculated in step S5 of the current mounting posture estimation process. When i = 1, the pitch angle θp calculated in the previous mounting posture estimation process is read.

ステップS604では、iに1を加算してステップS602に戻って、変数iが読み出しフレーム数I以上となるまで、ステップS603及びステップS604を繰り返す。すなわち、ステップS602がNOと判定された場合には、今回の取付姿勢推定処理で算出したピッチ角θpも含めて合計I=10個のピッチ角θpを読み出していることを意味する。   In step S604, 1 is added to i, the process returns to step S602, and steps S603 and S604 are repeated until the variable i becomes equal to or greater than the number I of read frames. That is, if it is determined NO in step S602, it means that a total of I = 10 pitch angles θp are read including the pitch angles θp calculated in the current mounting posture estimation process.

ステップS610では、直近I個のピッチ角θpの分散σを算出してステップS611に移る。ステップS611では、ステップS610で算出した分散σが、予め設定した閾値Σよりも小さいか否かを判定する。分散σが、予め設定した閾値Σよりも小さい場合には、ステップS611がYESとなってステップS612に移る。一方、分散σが、予め設定した閾値Σ以上となっている場合には、ステップS611がNOとなってステップS613に移る。   In step S610, the variance σ of the latest I pitch angles θp is calculated, and the process proceeds to step S611. In step S611, it is determined whether or not the variance σ calculated in step S610 is smaller than a preset threshold value Σ. If the variance σ is smaller than the preset threshold value Σ, step S611 becomes YES and the process moves to step S612. On the other hand, if the variance σ is greater than or equal to the preset threshold Σ, step S611 becomes NO and the process moves to step S613.

ステップS612では、推定結果が安定していると判定して本フローを終了する。また、ステップS613では、推定結果が不安定であると判定して本フローを終了する。本実施形態では、推定結果が安定しているか否かを、分散σを用いて判定するが、その他、標準偏差などによって判定しても良い。また、他の構成として、前時刻における推定結果との差分が所定の閾値以下である場合に安定していると判定しても良い。   In step S612, it is determined that the estimation result is stable, and this flow ends. In step S613, it is determined that the estimation result is unstable, and this flow is terminated. In the present embodiment, whether or not the estimation result is stable is determined using the variance σ, but may be determined by a standard deviation or the like. Further, as another configuration, it may be determined that the difference is stable when the difference from the estimation result at the previous time is equal to or less than a predetermined threshold.

ここで、図15を用いて、推定結果が安定している状態と、安定していない状態とを説明する。推定結果としてピッチ角θpについてここでは述べるが、ロール角θrなどの他の要素についても同様である。図15は、ピッチ角θpの時系列データを表したグラフであって、縦軸はピッチ角θpの角度を、横軸は時間を表している。なお、図15中のθp0及びΔθpについては、応用例2で説明する。   Here, a state where the estimation result is stable and a state where the estimation result is not stable will be described with reference to FIG. The pitch angle θp will be described here as an estimation result, but the same applies to other elements such as the roll angle θr. FIG. 15 is a graph showing time-series data of the pitch angle θp. The vertical axis represents the pitch angle θp and the horizontal axis represents time. Note that θp0 and Δθp in FIG.

現在時刻をTとすると、1フレーム前のピッチ角θpは、時刻T−1において推定されたピッチ角である。すなわち、読み出しフレーム数I=10であるから、図14に示す安定性評価処理のステップS601〜S604では、時刻Tから時刻T−9までのピッチ角θpが読み出される。そして、これらのピッチ角θpを母集団として分散σを計算して安定性を評価する(ステップS610、S611)。   When the current time is T, the pitch angle θp one frame before is the pitch angle estimated at time T-1. That is, since the number of read frames I = 10, the pitch angle θp from time T to time T-9 is read in steps S601 to S604 of the stability evaluation process shown in FIG. Then, the variance σ is calculated using the pitch angle θp as a population to evaluate the stability (steps S610 and S611).

ここで、分散σは、ピッチ角θpのばらつきを評価してものであるため、分散σが閾値Σよりも小さい場合とは、図15において、縦軸の変化が比較的小さく、安定した状態が継続していることを表す。例えば、時刻TからT−10までの区間は、安定している状態を示している。   Here, since the dispersion σ is obtained by evaluating the variation of the pitch angle θp, the case where the dispersion σ is smaller than the threshold Σ means that the change in the vertical axis in FIG. Indicates that it is continuing. For example, the section from time T to T-10 shows a stable state.

一方、車両5が段差を乗り上げたりするなどした場合には、ピッチ角θpは、例えば図15の時刻T−13やT−14のように大きく変動する。これらの変動量(請求項に記載の時間変動幅)が大きい要素を母集団に含んでいる場合には、分散σもまた閾値Σ以上となる可能性が高い。すなわち、分散σが閾値Σ以上となる場合には、分散σの母集団としている時系列データにおいて、車両5が段差を乗り上げたりするなど、車体の路面6に対する姿勢の変動があったことを意味する。   On the other hand, when the vehicle 5 climbs a step or the like, the pitch angle θp varies greatly, for example, at times T-13 and T-14 in FIG. In a case where the population includes elements with large fluctuation amounts (time fluctuation ranges described in claims), there is a high possibility that the variance σ is also equal to or greater than the threshold Σ. In other words, when the variance σ is equal to or greater than the threshold value Σ, it means that there is a change in the attitude of the vehicle body relative to the road surface 6 such as the vehicle 5 climbing a step in the time series data that is the population of the variance σ. To do.

また、砂利道など、舗装されていない道路を走行している場合には、定常的に車両5が振動するため、ピッチ角θpの時系列データの振幅も大きくなるため、分散σは大きくなる。   Further, when the vehicle 5 is traveling on an unpaved road such as a gravel road, the vehicle 5 constantly vibrates, so that the amplitude of the time-series data of the pitch angle θp increases, and the variance σ increases.

したがって、前述の安定性評価処理を実施することによって、今回の取付姿勢推定処理で推定した結果が、車両5(レーザレーダ1)の路面6に対する相対位置が安定している状態で推定されたものであるか否かを判定することができる。   Therefore, by performing the above-described stability evaluation process, the result estimated in the current mounting posture estimation process is estimated in a state where the relative position of the vehicle 5 (laser radar 1) to the road surface 6 is stable. It can be determined whether or not.

(実施形態のまとめ)
以上の構成では、レーザレーダ1がスキャン処理することによって得られる複数の測距点から、路面候補点を抽出する(図4 ステップS3)。そして、ランダムに選択した路面候補点Pa、Pb、Pcから算出される路面平面Sと、z=0とする基準面とが為す角度から、レーザレーダ1のピッチ角θp、ロール角θr、及び搭載高さhを推定する。
(Summary of embodiment)
In the above configuration, road surface candidate points are extracted from a plurality of distance measuring points obtained by the laser radar 1 performing a scanning process (step S3 in FIG. 4). The pitch angle θp, the roll angle θr, and the mounting angle of the laser radar 1 are determined from the angles formed by the road surface plane S calculated from the randomly selected road surface candidate points Pa, Pb, and Pc and the reference plane with z = 0. Estimate the height h.

また、ステップS11では、任意の測距点Py(ただし、静止物)の相対測距点軌跡γを算出し、当該相対測距点軌跡yとy軸とが為す角度から、ヨー角θyも求めることができる。   In step S11, a relative distance measurement point locus γ of an arbitrary distance measurement point Py (however, a stationary object) is calculated, and a yaw angle θy is also obtained from an angle formed by the relative distance measurement point locus y and the y axis. be able to.

そして、取付姿勢推定部が推定した取付姿勢の時間変動が所定の閾値より小さい場合は、推定された取付姿勢を実際の取付姿勢として採用(ステップS8、S12)し、相対位置の算出に用いる。言い換えれば、設計値や工場出荷時の取付姿勢ではなく、実際の取付姿勢を推定した値を用いて測距点の相対位置を算出する。   If the time variation of the mounting posture estimated by the mounting posture estimation unit is smaller than a predetermined threshold, the estimated mounting posture is adopted as the actual mounting posture (steps S8 and S12) and used for calculating the relative position. In other words, the relative position of the distance measuring point is calculated using a value obtained by estimating the actual mounting posture, not the design value or the mounting posture at the time of factory shipment.

したがって、記憶部20に記憶されている初期取付姿勢と、設計値との間に誤差があった場合でも、測距点の相対位置をより正確に取得することができる。すなわち、当該初期取付姿勢の誤差に起因する相対位置の誤差を低減することができる。このため、製造ラインでの厳密な取付姿勢の調整を簡略化することができるとともに、試験環境の精度の要件を緩和することができる。したがって、取付姿勢の調整に伴うコストを低減することができる。   Therefore, even when there is an error between the initial mounting posture stored in the storage unit 20 and the design value, the relative position of the distance measuring point can be acquired more accurately. That is, the relative position error caused by the initial mounting posture error can be reduced. For this reason, it is possible to simplify the precise adjustment of the mounting posture on the production line, and it is possible to relax the requirements for the accuracy of the test environment. Therefore, the cost accompanying adjustment of the mounting posture can be reduced.

また、以上の取付姿勢推定処理は、リフレクタなどの試験用の設備を用いずに実施することができるため、例えば、走行中において実施することができる。このため、タイヤの空気圧の変化や、車内における乗員や積載物の位置などによって、車両姿勢は変化した場合であっても、その車両姿勢が変化した状態における取付姿勢を推定することができる。   Moreover, since the above installation attitude | position estimation process can be implemented without using test facilities, such as a reflector, it can be implemented during driving | running | working, for example. For this reason, even when the vehicle posture changes due to the change in tire air pressure, the position of an occupant or a load in the vehicle, etc., the mounting posture in the state where the vehicle posture has changed can be estimated.

そして、位置算出部は、その推定された取付姿勢を用いて相対位置を算出するため、相対位置の算出における車両姿勢の変化の影響を低減できる。したがって、本実施形態によれば、車両姿勢が工場出荷時などの基準とする姿勢と異なる姿勢となっている場合でも、より精度良く、相対位置を算出することができる。本実施形態は、乗員や積載量の変化が発生しやすいレンタカーやカーシェアリングに用いられる車両に対して、より効果的に作用すると言える。   Since the position calculation unit calculates the relative position using the estimated mounting posture, it is possible to reduce the influence of the change in the vehicle posture in the calculation of the relative position. Therefore, according to the present embodiment, the relative position can be calculated more accurately even when the vehicle posture is different from the reference posture at the time of factory shipment. It can be said that the present embodiment works more effectively on a rental car or a vehicle used for car sharing that is likely to cause changes in passengers and loading capacity.

また、設計値と、実際の取付姿勢との誤差に起因する測距点の検出位置の誤差は、レーザレーダ1からの距離が大きくなるほど大きくなる。このため、本実施形態は、遠方(例えば40m〜70m)の物体検出時に、より一層の効果を奏することになる。   Further, the error in the detection position of the distance measuring point due to the error between the design value and the actual mounting posture increases as the distance from the laser radar 1 increases. For this reason, this embodiment has a further effect at the time of detecting a distant object (for example, 40 m to 70 m).

さらに、以上の本実施形態によれば、レーザレーダ1の取付姿勢を高精度に推定することができるため、測距点の相対位置もより精度良く算出でき、その結果、路面6と非路面を高精度に分離することができる。   Furthermore, according to the above embodiment, since the mounting posture of the laser radar 1 can be estimated with high accuracy, the relative position of the ranging point can be calculated with higher accuracy. As a result, the road surface 6 and the non-road surface can be calculated. Separation with high accuracy is possible.

従来は、ACCやPCSなどへの適用を想定しており、車両のような比較的大きい物体の検出に主眼を置いてきたため、上述したような車両姿勢の動的な変化に起因する誤差は、問題とされてこなかった。   Conventionally, application to ACC, PCS, etc. is assumed, and since the focus has been on the detection of relatively large objects such as vehicles, errors due to dynamic changes in vehicle attitude as described above are It has never been a problem.

しかしながら、今後、自動運転や自動駐車などのアプリケーションへの適用を想定すると、走行路の両側にある縁石や、駐車場の輪留めのような相対的に小さい物体まで、検出できることが好ましい。   However, assuming application to applications such as automatic driving and automatic parking in the future, it is preferable that even relatively small objects such as curbs on both sides of the roadway and parking lots can be detected.

本実施形態によれば、路面6と非路面を高精度に分離することができるため、ACCやPCSだけでなく、自動運転や自動駐車などといった、より検出精度が要求されるアプリケーションにも応用することができる。また、本実施形態は、以下に示す応用例1〜3のように応用することで、さらなる効果を奏することができる。   According to the present embodiment, since the road surface 6 and the non-road surface can be separated with high accuracy, the present invention is applied not only to ACC and PCS, but also to applications that require higher detection accuracy such as automatic driving and automatic parking. be able to. Moreover, this embodiment can show | form a further effect by applying like the application examples 1-3 shown below.

(応用例1)
以上で述べた実施形態によれば、取付姿勢がずれない状態において、取付姿勢の更新を少なくとも一度実施し、S2のスキャン処理で得られる測距点から、路面6の前後方向の勾配の変化量、及び車幅方向の勾配の変化量を推定することができる。以下、この応用例1について、図17を用いて説明する。なお、取付姿勢がずれない状態とは、レーザレーダ1が車両5に十分に固定されており、車両5に対するレーザレーダ1の姿勢が変化しない状態を指す。
(Application 1)
According to the embodiment described above, the amount of change in the gradient in the front-rear direction of the road surface 6 from the distance measurement point obtained by performing the update of the mounting posture at least once in the state in which the mounting posture is not deviated and obtained by the scanning process of S2. The amount of change in the gradient in the vehicle width direction can be estimated. Hereinafter, Application Example 1 will be described with reference to FIG. The state in which the mounting posture is not deviated refers to a state in which the laser radar 1 is sufficiently fixed to the vehicle 5 and the posture of the laser radar 1 with respect to the vehicle 5 does not change.

図17は、物体検出システム100による検出範囲を、前方領域Fr、後方領域Rr、右側方領域Rt、及び左側方領域Lfの4つの領域に分割した図である。前方領域Frは、車両5の前方(真正面だけでなく斜め前を含む)に広がる検出エリアを指しており、ここでは一例として照射方位角βが−45°〜+45°の範囲とする。また、後方領域Rrは、車両5の後方(背面だけでなく斜め後ろを含む)に広がる検出エリアを指しており、照射方位角βが135°〜225°の範囲とする。   FIG. 17 is a diagram in which the detection range by the object detection system 100 is divided into four regions, a front region Fr, a rear region Rr, a right side region Rt, and a left side region Lf. The front area Fr points to a detection area that extends in front of the vehicle 5 (including not only directly in front but also diagonally forward). Here, as an example, the irradiation azimuth angle β is in the range of −45 ° to + 45 °. Further, the rear region Rr points to a detection area extending behind the vehicle 5 (including not only the back but also an oblique rear), and the irradiation azimuth angle β is in the range of 135 ° to 225 °.

右側方領域Rtは、車両5の右側方に広がる検出エリアを指しており、照射方位角βが45°〜135°の範囲とする。左側方領域Lfは、車両5の左側方に広がる検出エリアを指しており、照射方位角βが225°〜315°の範囲とする。   The right side region Rt points to a detection area that extends to the right side of the vehicle 5, and the irradiation azimuth angle β is in the range of 45 ° to 135 °. The left side region Lf points to a detection area that extends to the left side of the vehicle 5, and the irradiation azimuth β is in the range of 225 ° to 315 °.

以上のように車両周囲を複数に分割した領域を用いて、まず、前後方向の勾配の変化量を推定する方法について説明する。ECU2において勾配の変化量を推定する処理部を勾配推定部とすると、勾配推定部は、路面候補点抽出処理(図4 ステップS3)によって得られる路面候補点のうち、前方領域Frに属する路面候補点を抽出する。そして、前方領域Frに属する路面候補点を母集団とする路面推定処理(ステップS4)を実施することによって、前方領域Frの路面平面(これを前方平面とする)Sfrを推定する。   First, a method for estimating the amount of change in the gradient in the front-rear direction using the region obtained by dividing the vehicle periphery into a plurality of parts will be described. If the processing unit that estimates the amount of change in the gradient in the ECU 2 is a gradient estimation unit, the gradient estimation unit is a road surface candidate belonging to the front area Fr among the road surface candidate points obtained by the road surface candidate point extraction process (step S3 in FIG. 4). Extract points. Then, a road surface estimation process (step S4) using the road surface candidate points belonging to the front area Fr as a population is performed to estimate the road surface plane (which is referred to as the front plane) Sfr of the front area Fr.

また、勾配推定部は、路面候補点抽出処理によって得られる路面候補点から後方領域Rrに属する路面候補点を抽出し、同様の処理によって、後方領域Rrの路面平面(これを後方平面とする)Srrを推定する。   In addition, the gradient estimation unit extracts road surface candidate points belonging to the rear region Rr from the road surface candidate points obtained by the road surface candidate point extraction process, and performs a similar process to the road surface plane of the rear region Rr (this is referred to as a rear plane). Estimate Srr.

ここで、前方平面Sfrと後方平面Srrとがyz平面において為す角度を求めることによって、車両前後方向における勾配の変化量を推定することができる。例えば、後方平面Srrに対して、前方平面Sfrのyz平面上の傾きが大きい場合には、図18のように、上り勾配が始まる地点差し掛かったことを意味し、その後方平面Srrと前方平面Sfrとがyz平面において為す角度が、勾配の変化量である。   Here, the amount of change in the gradient in the vehicle front-rear direction can be estimated by obtaining the angle formed by the front plane Sfr and the rear plane Srr in the yz plane. For example, when the inclination of the front plane Sfr on the yz plane with respect to the rear plane Srr is large, it means that an upward gradient starts, as shown in FIG. 18, and the rear plane Srr and the front plane Sfr are reached. Is the amount of change in the slope.

また、車両5が上り勾配を登っている途中の場合には、車両5の前方後方ともに、路面候補点を取得することができる一方、上り勾配の頂点に近づくにつれて、前方領域Frに照射したレーザ光に対する路面6からの反射光は取得しにくくなる。すなわち、前方領域Frに属する路面候補点の数が減少する。したがって、例えば、後方領域Rrにおいて後方平面を算出できた一方、前方領域Frにおける路面候補点の不足から、前方平面が算出できなかった場合には、上り勾配の頂点付近に差し掛かったと推定することができる。   In addition, when the vehicle 5 is in the middle of climbing uphill, road surface candidate points can be obtained for both the front and rear of the vehicle 5, while the laser irradiated to the front region Fr as it approaches the peak of the uphill. Reflected light from the road surface 6 with respect to light is difficult to obtain. That is, the number of road surface candidate points belonging to the front area Fr decreases. Therefore, for example, when the rear plane can be calculated in the rear region Rr, but the front plane cannot be calculated due to a lack of road surface candidate points in the front region Fr, it is estimated that the vehicle has approached the top of the uphill slope. it can.

また、上り勾配の頂点付近においては、レーザ光の照射仰俯角αが小さいほど(レイヤ番号が小さいほど)、反射光は取得しにくくなるため、前方領域Frにおけるレイヤ毎の路面候補点の数は減少する。すなわち、前方領域Frにおけるレイヤ毎の路面候補点の数の時間推移からも、車両5が上り勾配の頂点に差し掛かっているか否かを判定することができる。   In addition, in the vicinity of the peak of the upward gradient, the smaller the laser beam irradiation elevation angle α (the smaller the layer number), the more difficult it is to obtain the reflected light. Therefore, the number of road surface candidate points for each layer in the forward region Fr is Decrease. That is, it is possible to determine whether or not the vehicle 5 is approaching the top of the ascending slope from the time transition of the number of road surface candidate points for each layer in the front area Fr.

また、上り勾配を登り切った地点においては、後方領域Rrにおいても、路面6に対するレーザ光の入射角が大きくなる為、路面6からの反射光を取得しにくくなる。すなわち、後方領域Rrに属する路面候補点の数が減少する。   Further, at the point where the uphill slope has been climbed, the incident angle of the laser beam with respect to the road surface 6 also becomes large in the rear region Rr, so that it becomes difficult to obtain the reflected light from the road surface 6. That is, the number of road surface candidate points belonging to the rear region Rr decreases.

したがって、前方平面Sfrを算出できる一方、後方領域Rrにおける路面候補点の不足から、後方平面Srrが算出できなかった場合には、上り勾配の頂点に到達したと推定することができる。なお、路面候補点の不足から、前方平面Sfr及び後方平面Srrの両方を算出できなかった場合には、上り勾配の道路と下り勾配の道路の間に位置することと推定してもよい。   Therefore, while it is possible to calculate the front plane Sfr, when the rear plane Srr cannot be calculated due to the lack of road surface candidate points in the rear region Rr, it can be estimated that the peak of the uphill has been reached. If both the front plane Sfr and the rear plane Srr cannot be calculated due to a lack of road surface candidate points, it may be estimated that the vehicle is located between an uphill road and a downhill road.

以上のようにして、各領域に属する路面候補点を分母とする平面推定処理を実施することで、路面6の前後方向における勾配を推定することができる。また、更には、前方領域Fr及び後方領域Rrのそれぞれにおける路面候補点の数や、各領域におけるレイヤ毎の路面候補点の数から、車両前後方向の勾配が存在する路面6に対する車両5の位置を推定することができる。そして、勾配推定部が推定した道路勾配の情報は、様々なアプリケーションに利用することができる。   As described above, the gradient in the front-rear direction of the road surface 6 can be estimated by performing the plane estimation process using the road surface candidate points belonging to each region as the denominator. Furthermore, the position of the vehicle 5 with respect to the road surface 6 in which a gradient in the vehicle longitudinal direction exists from the number of road surface candidate points in each of the front region Fr and the rear region Rr and the number of road surface candidate points for each layer in each region. Can be estimated. The road gradient information estimated by the gradient estimation unit can be used for various applications.

例えば、物体検出システム100が、車両5が上り勾配に差し掛かったことを検出した場合には、運転支援システム3は、当該検出結果を受けて、駆動力をアシストする制御を実施してもよい。   For example, when the object detection system 100 detects that the vehicle 5 has reached an upward slope, the driving support system 3 may receive the detection result and perform control for assisting the driving force.

また、従来の物体検出システムでは、車両前方に存在する急な上り勾配となっている道路を立体物と誤認識してしまう場合もある。物体検出システムが、車両前方に存在する急な上り勾配となっている道路を立体物と誤認識した場合には、運転支援システム3が、衝突を回避するための制動処理(すなわち衝突被害軽減ブレーキ機能)を実施させてしまう。一方、本応用例1の物体検出システム100によれば、路面上の立体物と、道路勾配とを区別することができるので、上述したような、誤認識及び誤制動を抑制することができる。   Moreover, in the conventional object detection system, a road having a steep uphill existing in front of the vehicle may be erroneously recognized as a three-dimensional object. When the object detection system misrecognizes a road with a steep uphill that exists in front of the vehicle as a three-dimensional object, the driving support system 3 performs a braking process (that is, a collision damage reduction brake) for avoiding a collision. Function). On the other hand, according to the object detection system 100 of the first application example, since the three-dimensional object on the road surface and the road gradient can be distinguished, the erroneous recognition and erroneous braking as described above can be suppressed.

さらに、スタート地点の勾配を基準として、例えば前後方向の勾配の変化量を積算していくことで、現在走行している道路の、スタート地点に対する勾配を推定することができる。特に、スタート地点が水平面である場合には、実際の道路の勾配を推定できるようになる。   Furthermore, by using the gradient of the start point as a reference, for example, by integrating the amount of change in the gradient in the front-rear direction, it is possible to estimate the gradient of the currently traveling road with respect to the start point. In particular, when the starting point is a horizontal plane, the actual road gradient can be estimated.

車幅方向の勾配を推定する方法についても、前述の前後方向における勾配を推定する方法と同様である。すなわち、勾配推定部は、路面候補点抽出処理によって得られる路面候補点のうち、右側方領域Rtに属する路面候補点を母集団とする路面推定処理を実施することによって、右側方領域Rtの路面平面(これを右側方平面とする)Srtを推定する。   The method for estimating the gradient in the vehicle width direction is the same as the method for estimating the gradient in the front-rear direction. That is, the gradient estimation unit performs the road surface estimation process using the road surface candidate points belonging to the right side area Rt among the road surface candidate points obtained by the road surface candidate point extraction process, thereby performing the road surface of the right side area Rt. Estimate the plane (this is the right side plane) Srt.

さらに、勾配推定部は、路面候補点抽出処理によって得られる路面候補点のうち、左側方領域Lfに属する路面候補点を母集団とする路面推定処理を実施することによって、左側方領域Lfの路面平面(これを左側方平面とする)Slfを推定する。   Further, the gradient estimation unit performs the road surface estimation process using the road surface candidate points belonging to the left side area Lf among the road surface candidate points obtained by the road surface candidate point extraction process, thereby obtaining the road surface of the left side area Lf. A plane (this is the left side plane) Slf is estimated.

そして、右側方平面Srtと左側方平面Slfとがxz平面において為す角度を求めることによって、車幅方向における勾配の変化量を推定する。例えば、xz平面において時計回りの回転角を正の値とした時に、左側方平面Slfに対して右側方平面Srtが正の角度を為している場合には、車両前後方向から見た路面6の断面が凸状になっている、または右肩下がり路面6であると推定することができる。また、左側方平面Slfに対して右側方平面Srtが負の角度を為している場合には、路面6が車幅方向においては凹状、または右肩上がりであると推定することができる。   Then, the amount of change in the gradient in the vehicle width direction is estimated by obtaining the angle formed by the right side plane Srt and the left side plane Slf in the xz plane. For example, when the clockwise rotation angle in the xz plane is a positive value and the right side plane Srt forms a positive angle with respect to the left side plane Slf, the road surface 6 viewed from the vehicle front-rear direction is shown. It can be presumed that the cross section is convex or the road surface 6 has a right shoulder. Further, when the right side plane Srt has a negative angle with respect to the left side plane Slf, it can be estimated that the road surface 6 is concave in the vehicle width direction or is raised to the right.

なお、上述した各領域が指す範囲は一例であって、適宜設計されればよい。例えばその他形態として、各領域の間に所定の間隙が生じるように設定してもよい。すなわち、照射方位角βが−20°〜+20°の範囲を前方領域Fr、160°〜200°の範囲を後方領域Rr、60°〜120°の範囲を右側方領域Rt、240°〜300°の範囲を左側方領域Lfとしてもよい。   Note that the range indicated by each region described above is an example, and may be designed as appropriate. For example, as another form, a predetermined gap may be generated between the regions. That is, when the irradiation azimuth angle β is in the range of −20 ° to + 20 °, the front region Fr, the range of 160 ° to 200 ° is the rear region Rr, the range of 60 ° to 120 ° is the right region Rt, 240 ° to 300 °. May be the left side region Lf.

(応用例2)
さらに、前述の実施形態で求めるレーザレーダ1の取付姿勢、又は前述の応用例1で求める路面6の勾配の時系列データから、車両姿勢の急激な変化(ピッチングとする)を推定することができる。ピッチングは、車両5が路面6上の段差を乗り越えたり、ドライバが急なブレーキ操作をする等した場合に生じる。以下、この応用例2について、図15を用いて説明する。ここでは簡単のため、レーザレーダ1のピッチ角θpの時系列データから、車両前後方向におけるピッチングを検出する構成について説明するが、ロール角θrや路面勾配を用いた場合であっても同様である。
(Application example 2)
Furthermore, a rapid change (referred to as pitching) of the vehicle attitude can be estimated from the time series data of the mounting attitude of the laser radar 1 obtained in the above-described embodiment or the slope of the road surface 6 obtained in the above-described application example 1. . Pitching occurs when the vehicle 5 gets over a step on the road surface 6 or when the driver suddenly performs a braking operation. Hereinafter, Application Example 2 will be described with reference to FIG. Here, for the sake of simplicity, a description will be given of a configuration in which pitching in the vehicle front-rear direction is detected from time-series data of the pitch angle θp of the laser radar 1. .

図15は、前述の通りピッチ角θpの時系列データを表したグラフであって、時刻T−14及びT−13において急激にピッチ角θpが変動している。すなわち、これらの時刻においてピッチングが発生したことを表している。また、θp0は、安定性評価処理で安定していると判定された状態におけるピッチ角θpの平均値を表している。   FIG. 15 is a graph showing the time-series data of the pitch angle θp as described above, and the pitch angle θp fluctuates rapidly at times T-14 and T-13. That is, it indicates that pitching has occurred at these times. Further, θp0 represents an average value of the pitch angles θp in a state determined to be stable in the stability evaluation process.

ピッチングが発生したか否かの判定方法としては、ピッチ角θpの変動量が所定の閾値を超えた場合とすればよい。例えば、ある時刻(ここではT−14、T−13)において推定されたピッチ角θpが、ピッチ角θp0の一定倍(例えば2倍)以上となった場合に、ピッチングが発生したと判定すればよい。また、ピッチングが発生したか否かの判定に用いる閾値は、θp0に所定の倍数を乗算した数に限らず、θp0に一定値(例えば1°)を加えたであってもよい。図15中のΔθpは、ピッチ角θp0と時刻T−14におけるピッチ角θpの差分を示す。   As a method for determining whether or not pitching has occurred, the variation amount of the pitch angle θp may exceed a predetermined threshold. For example, if it is determined that pitching has occurred when the pitch angle θp estimated at a certain time (here, T-14 and T-13) is greater than or equal to a certain multiple (for example, twice) of the pitch angle θp0. Good. The threshold value used for determining whether or not pitching has occurred is not limited to the number obtained by multiplying θp0 by a predetermined multiple, and may be a constant value (for example, 1 °) added to θp0. Δθp in FIG. 15 indicates the difference between the pitch angle θp0 and the pitch angle θp at time T-14.

以上のようにして、ピッチングの発生を検出し、及びピッチングの度合いΔθpを検出することで、これらの情報を様々なアプリケーションに提供することができる。   As described above, it is possible to provide such information to various applications by detecting the occurrence of pitching and detecting the pitching degree Δθp.

例えば、既存の運転支援システム3として、図示しない車載カメラが撮影した画像に画像処理を施すことによって、歩行者を検出し、当該歩行者までの距離を検出するシステムがある。車載カメラは、一例として、車両前方の適宜設計された範囲(撮影範囲とする)を撮影するように、ルーフミラー付近に取り付けられているものとする。   For example, as an existing driving support system 3, there is a system that detects a pedestrian by performing image processing on an image captured by an in-vehicle camera (not shown) and detects a distance to the pedestrian. As an example, it is assumed that the in-vehicle camera is attached in the vicinity of the roof mirror so as to capture an appropriately designed range (referred to as an imaging range) in front of the vehicle.

一般に、このような運転支援システム3では、画像処理を実施するCPUの処理負荷を軽減するために、撮影範囲の中でも画像処理を実施する範囲(これを処理範囲とする)が予め設定されている。そして、処理範囲中に歩行者を検出した場合には、予め設計されているカメラの取付姿勢(設置位置や撮影方向)と、撮影画像中における歩行者の足元の位置と、に基づいて、歩行者までの距離を推定する。   In general, in such a driving support system 3, in order to reduce the processing load of the CPU that performs image processing, a range in which image processing is performed in the shooting range (this processing range is set) is set in advance. . When a pedestrian is detected in the processing range, walking based on the pre-designed camera mounting posture (installation position and shooting direction) and the position of the pedestrian's foot in the shot image. Estimate the distance to the person.

より具体的には、図19の左側に示すように、カメラの撮影範囲における車両5に近い側の端部(車両側端部とする)から、歩行者の足元までの撮影画像中の距離から、車両5の前端から歩行者までの距離を推定する。図19の左側に示す例は、車両5にピッチングが生じておらず、車載カメラも路面6に対して予め設計された取付姿勢となっている場合を表している。すなわち、車両5の前端から歩行者までの距離を精度よく検出できている場合を表しており、このときの歩行者までの距離を仮に10mとする。   More specifically, as shown on the left side of FIG. 19, from the distance in the photographed image from the end portion closer to the vehicle 5 (referred to as the vehicle side end portion) to the feet of the pedestrian in the photographing range of the camera. The distance from the front end of the vehicle 5 to the pedestrian is estimated. The example shown on the left side of FIG. 19 represents a case in which no pitching has occurred in the vehicle 5 and the in-vehicle camera is in a mounting posture designed in advance with respect to the road surface 6. That is, the case where the distance from the front end of the vehicle 5 to the pedestrian can be detected with high accuracy is shown, and the distance to the pedestrian at this time is assumed to be 10 m.

しかしながら、ピッチングが生じた場合には、歩行者が処理範囲から外れて、歩行者を検出できなくなったり、或いは、推定される歩行者までの距離が実際の距離と乖離したりしてしまう可能性がある。   However, when pitching occurs, the pedestrian may be out of the processing range and cannot detect the pedestrian, or the estimated distance to the pedestrian may deviate from the actual distance. There is.

例えば、車両5が前傾姿勢となるようにピッチングが生じた場合の図19の右側に示す。図19右側に示すように、前傾姿勢となっている場合には、車載カメラの視野角の中心線が水平面と為す角度は、予め設計された値よりも大きくなり(すなわち、視野角の中心線が路面6の方を向き)、撮影範囲は設計値よりも進行方向手前側に寄ってしまう。   For example, it is shown on the right side of FIG. 19 when the pitching has occurred so that the vehicle 5 assumes a forward leaning posture. As shown on the right side of FIG. 19, when the vehicle is in the forward tilt posture, the angle formed by the center line of the viewing angle of the in-vehicle camera with the horizontal plane is larger than a predesigned value (that is, the center of the viewing angle). The line is directed toward the road surface 6), and the photographing range is closer to the front side in the traveling direction than the design value.

このとき、撮影範囲における車両側端部から、歩行者の足元までの撮影画像中の距離は、ピッチングが起きていない場合に比べて長くなるため、車両5から歩行者までの距離は、実際の値(10m)よりも長く推定されてしまう(例えば30m)。   At this time, the distance in the photographed image from the vehicle side end in the photographing range to the foot of the pedestrian is longer than in the case where no pitching occurs, so the distance from the vehicle 5 to the pedestrian is It is estimated to be longer than the value (10 m) (for example, 30 m).

このような誤検出をしてしまった場合には、本当は歩行者に接近しているにも関わらず、衝突被害軽減ブレーキ機能が作動しない可能性が生じる。   If such a false detection is made, there is a possibility that the collision damage reduction brake function will not operate even though the vehicle is actually approaching a pedestrian.

本応用例2によれば、車両5のピッチングを検出することができるため、ピッチングが生じている場合には、車載カメラの撮影画像に基づく歩行者の検出処理をキャンセルすることによって、歩行者との距離を誤検出してしまう可能性を低減することができる。または、車載カメラの取付姿勢をピッチング角Δθpで補正することによって、ピッチングが生じている場合の検出距離の精度を向上させることができる。   According to this application example 2, since the pitching of the vehicle 5 can be detected, when pitching occurs, the pedestrian and the pedestrian can be detected by canceling the pedestrian detection process based on the captured image of the in-vehicle camera. It is possible to reduce the possibility of erroneous detection of the distance. Alternatively, by correcting the mounting posture of the in-vehicle camera with the pitching angle Δθp, it is possible to improve the accuracy of the detection distance when pitching occurs.

(応用例3)
さらに、前述の応用例1で求める路面6の勾配の時系列データから、推定した路面勾配の時間変化と、車両情報を同時に観察することで、急な加減速時や、コーナー走行時の車両姿勢を推定することができる。
(Application 3)
Further, by observing the time change of the estimated road gradient and the vehicle information simultaneously from the time series data of the gradient of the road surface 6 obtained in the application example 1 described above, the vehicle posture during sudden acceleration / deceleration or corner driving is observed. Can be estimated.

例えば、安定して走行している時刻の路面勾配を記憶しておき、車両情報検出部4から入力されている車速が急変した際に、当該時刻において推定した路面勾配と、記憶部20に記憶しておいた前時刻における路面勾配との差を算出する。なお、この算出された差は、前述のとおり、ピッチングによる車両5の傾きに相当する。言い換えれば、この算出された路面勾配の前時刻との差は、路面6に対する車両姿勢の変化量に相当する。   For example, the road surface gradient at the time when the vehicle is traveling stably is stored, and when the vehicle speed input from the vehicle information detection unit 4 suddenly changes, the road surface gradient estimated at the time and the storage unit 20 are stored. The difference from the road slope at the previous time is calculated. Note that this calculated difference corresponds to the inclination of the vehicle 5 due to pitching, as described above. In other words, the difference from the calculated previous time of the road surface gradient corresponds to the amount of change in the vehicle attitude with respect to the road surface 6.

以上のようにして、急な加減速時やコーナー走行時の車両姿勢を推定することによって、例えば、路面6に対する車両姿勢に応じて、図示しないサスペンションなどを制御し、乗員の乗り心地や操縦安定性などを向上させることができる。   As described above, by estimating the vehicle posture at the time of sudden acceleration / deceleration or cornering, for example, a suspension (not shown) is controlled according to the vehicle posture with respect to the road surface 6, and the ride comfort and operation stability of the occupant are controlled. Etc. can be improved.

(特許文献1との比較)
なお、特許文献1には、光軸の垂直方向のずれ(すなわちピッチ角)を調整する方法として、次に述べる方法が開示されている。すなわち、特許文献1では、予め正確な取付姿勢となっていることが確認されているレーザレーダを用いて、所定の照射方位角で照射した複数のレイヤの測距点間の距離を登録しておく。なお、これら複数のレイヤは何れも路面を検出する照射仰俯角となっているレイヤである。
(Comparison with Patent Document 1)
Patent Document 1 discloses the following method as a method for adjusting the vertical shift (that is, the pitch angle) of the optical axis. That is, in Patent Document 1, the distance between distance measuring points of a plurality of layers irradiated at a predetermined irradiation azimuth angle is registered using a laser radar that has been confirmed to have an accurate mounting posture in advance. deep. In addition, all of these layers are layers that have an irradiation elevation angle for detecting a road surface.

そして、調整時には、対応するレイヤの測距点間の距離と、予め登録されてある値とを比較することで、レーザレーダの光軸の垂直方向のずれ度合いを評価することで、当該ずれ度合いが0となるようにピッチ角を調整する。なお、ヨー角については、背景技術欄で述べたようにリフレクタなど試験用の設備を用いて調整する。   At the time of adjustment, the degree of deviation is evaluated by evaluating the degree of deviation in the vertical direction of the optical axis of the laser radar by comparing the distance between distance measuring points of the corresponding layer with a value registered in advance. The pitch angle is adjusted so that becomes zero. The yaw angle is adjusted using test equipment such as a reflector as described in the background section.

この特許文献1では、ピッチ角とヨー角のずれにしか言及されておらず、搭載高さやロール角のずれについては考慮されていない。しかしながら、複数のレイヤの測距点間の距離は、実際にはピッチ角だけではなく、搭載高さやロール角のずれによっても変化する。そして、ピッチ角、搭載高さ、及びロール角それぞれのずれは、相互に作用しあった和となって、各レイヤの測距点間の距離として表れる。   This Patent Document 1 only mentions the shift between the pitch angle and the yaw angle, and does not consider the shift in mounting height or roll angle. However, the distance between distance measuring points of a plurality of layers actually changes not only by the pitch angle but also by the mounting height and the roll angle deviation. The deviations of the pitch angle, the mounting height, and the roll angle are sums that interact with each other, and appear as distances between distance measuring points of each layer.

したがって、特許文献1の方法では、搭載高さやロール角がずれていた場合には、正しい取付姿勢に調整する事ができない。また、ヨー角については、やはりリフレクタを用いないと調整できない。すなわち、ヨー角の誤差を評価するためには、修理工場などに車両を持ち込む必要がある。   Therefore, in the method of Patent Document 1, when the mounting height or the roll angle is deviated, it cannot be adjusted to the correct mounting posture. In addition, the yaw angle cannot be adjusted without using a reflector. That is, in order to evaluate the yaw angle error, it is necessary to bring the vehicle to a repair shop or the like.

これに対し、本実施形態では、ピッチ角θp、ロール角θr、及び搭載高さhのそれぞれに対して誤差を評価することができる。また、ヨー角θyについてもリフレクタなどの試験用の設備を用いずに誤差を評価することができるため、ヨー角θyの誤差を評価する場合にも、修理工場などに持ち込む必要はない。   On the other hand, in this embodiment, an error can be evaluated for each of the pitch angle θp, the roll angle θr, and the mounting height h. Further, since the error can be evaluated for the yaw angle θy without using a test facility such as a reflector, it is not necessary to bring it to a repair shop or the like when evaluating the error of the yaw angle θy.

(変形例2)
前述の実施形態における路面候補点抽出処理では、FFTやLPF、IFFTを用いて測距点から路面候補点を抽出する例を示したがこれに限らない。図4のステップS2で取得した全ての測距点を母集団として、図20に示す処理を実施することによって路面候補点を求めても良い。図20に示すフローチャートは、図4に示す取付姿勢推定処理において、ステップS3に移ったときに実施される。
(Modification 2)
In the road surface candidate point extraction process in the above-described embodiment, an example in which road surface candidate points are extracted from distance measurement points using FFT, LPF, and IFFT has been described, but the present invention is not limited thereto. The road surface candidate points may be obtained by performing the processing shown in FIG. 20 using all the distance measurement points acquired in step S2 of FIG. 4 as a population. The flowchart shown in FIG. 20 is performed when the process proceeds to step S3 in the attachment posture estimation process shown in FIG.

本処理の説明で用いるKは、照射方位角βが取りうる角度の数であって、ここではレーザ光を0.1°ずつ360°照射するため、3601となる。また、整数k(0≦k<K)は、照射方位角β=0のときに照射したレーザ光を0番とした時に、何番目に照射されたレーザ光かを表す変数である。すなわち、変数kと照射方位角βとは、β=0.1×kの関係を満たす。ここで、任意のk(すなわちβ=0.1×k)のときに照射されたレーザ光によって検出された測距点との距離rをr(k)と表す。例えば、k=0(すなわちβ=0)のときに照射されたレーザ光によって検出された測距点との距離rは、r(0)と表す。   K used in the description of the present processing is the number of angles that the irradiation azimuth angle β can take, and is 3601 because the laser beam is irradiated by 360 ° by 0.1 ° here. The integer k (0 ≦ k <K) is a variable representing the number of laser beams irradiated when the number of laser beams irradiated when the irradiation azimuth angle β = 0 is zero. That is, the variable k and the irradiation azimuth angle β satisfy the relationship β = 0.1 × k. Here, the distance r to the distance measuring point detected by the laser beam irradiated at an arbitrary k (that is, β = 0.1 × k) is represented as r (k). For example, the distance r to the distance measuring point detected by the laser beam irradiated when k = 0 (that is, β = 0) is expressed as r (0).

まず、ステップT301では、lyr=0としてステップT302に移る。ステップT302では、変数lyrがレイヤ数Lよりも小さいか否かを判定する。lyrがレイヤ数Lよりも小さい場合には、ステップT302がYESとなってステップT303に移る。一方、lyrがレイヤ数L以上となっている場合には、ステップT302がNOとなって本フローを終了する。   First, in step T301, lyr = 0 is set, and the process proceeds to step T302. In step T302, it is determined whether or not the variable lyr is smaller than the number L of layers. When lyr is smaller than the number L of layers, step T302 becomes YES and the process moves to step T303. On the other hand, if lyr is greater than or equal to the number L of layers, step T302 is NO and this flow ends.

ステップT303では、k=1として、ステップT310に移る。ステップT310では、変数kが照射方位角数Kよりも小さいか否かを判定する。kがKよりも小さい場合には、ステップT310がYESとなってステップT311に移る。一方、kがK以上となっている場合には、ステップT310がNOとなってステップT320に移る。   In step T303, k = 1 is set, and the process proceeds to step T310. In Step T310, it is determined whether or not the variable k is smaller than the irradiation azimuth number K. If k is smaller than K, step T310 is YES and the process moves to step T311. On the other hand, if k is greater than or equal to K, step T310 is NO and the process moves to step T320.

ステップT311では、現在処理の対象としている(すなわち、レイヤ番号がlyrの)レイヤにおいて、k番目の測距点との距離r(k)と、k−1番目の測距点との距離r(k−1)との差分(これを距離変化量とする)fを算出してステップT312に移る。   In step T311, the distance r (k) from the kth ranging point and the distance r (k) from the k-1 ranging point in the layer currently being processed (that is, the layer number is lyr). k-1) is calculated (this is the distance change amount) f, and the process proceeds to step T312.

ステップT312では、距離変化量fが、予め設定されている閾値(例えば0.2m)Thresよりも小さいか否かを判定する。距離変化量fが閾値Thresよりも小さい場合には、ステップT312がYESとなって、ステップT313に移る。一方、距離変化量fが閾値Thresより以上となっている場合には、ステップT312がNOとなって、ステップT314に移る。   In Step T312, it is determined whether or not the distance change amount f is smaller than a preset threshold value (for example, 0.2 m) Thres. If the distance change amount f is smaller than the threshold value Thres, step T312 is YES, and the process proceeds to step T313. On the other hand, if the distance change amount f is greater than or equal to the threshold value Thres, step T312 is NO and the process moves to step T314.

ステップT313では、k番目の測距点を仮路面候補点として記憶部20に格納してステップT314に移る。ステップT314では、Kに1を加算してステップT310に戻る。ステップT310からステップT314を、ステップT310においてNOと判定されるまで繰り返すことで、レイヤ番号がlyrのレイヤにおける測距点から、仮路面候補点を抽出することができる。   In step T313, the kth ranging point is stored in the storage unit 20 as a temporary road surface candidate point, and the process proceeds to step T314. In step T314, 1 is added to K, and the process returns to step T310. By repeating Step T310 to Step T314 until NO is determined in Step T310, a temporary road surface candidate point can be extracted from the distance measurement points in the layer having the layer number lyr.

ステップT320では、複数の仮路面候補点を母集団とする距離rの分布を評価することで、路面6を検出している仮路面候補点を抽出してステップT321に移る。より具体的は、図6に示すように、路面6を検出している仮路面候補点はそれぞれ比較的近い値を取るため、距離rの分布において1つのグループにまとめることができる。また、同一の立体物を検出している仮路面候補点もまた、比較的近い値を取るため、グルーピングすることができる。   In step T320, by evaluating the distribution of the distance r using a plurality of temporary road surface candidate points as a population, the temporary road surface candidate points detecting the road surface 6 are extracted, and the process proceeds to step T321. More specifically, as shown in FIG. 6, the temporary road surface candidate points detecting the road surface 6 have relatively close values, and therefore can be grouped into one group in the distribution of the distance r. Moreover, since the temporary road surface candidate point which has detected the same solid object also takes a comparatively close value, it can group.

ここで、図5の説明でも述べた通り、路面6を検出している測距点は、立体物を検出している測距点よりも距離rが大きくなる。したがって、距離rの分布において形成される複数のグループのうち、その中央値が最も大きい値となっているグループが路面6を検出している仮路面候補点からなるグループであると推定することができる。このステップT320では、複数のグループのうち、距離rの中央値が最も大きい値となっているグループに属する仮路面候補点を抽出する。   Here, as described in FIG. 5, the distance measurement point detecting the road surface 6 has a distance r larger than the distance measurement point detecting the three-dimensional object. Therefore, it can be estimated that among the plurality of groups formed in the distribution of the distance r, the group having the largest median value is a group composed of temporary road surface candidate points detecting the road surface 6. it can. In Step T320, a temporary road surface candidate point belonging to the group having the largest median value of the distance r is extracted from the plurality of groups.

ステップT321では、前ステップT320で抽出された仮路面候補点を路面候補点として保存してステップT322に移る。ステップT322では、lyrに1を加算してステップT302に戻る。ステップT302からステップT320を、ステップT302においてNOと判定されるまで繰り返すことで、全てのレイヤにおける路面候補点を抽出することになる。   In step T321, the temporary road surface candidate point extracted in previous step T320 is stored as a road surface candidate point, and the process proceeds to step T322. In step T322, 1 is added to lyr and the process returns to step T302. By repeating steps T302 to T320 until NO is determined in step T302, road surface candidate points in all layers are extracted.

なお、以上では、レーザレーダ1として、全方位360°に向けてレーザ光を掃引照射するものを用いたが、もちろん、水平方向において一定の角度範囲(例えば図17に示す前方領域Frのみ)に向けてレーザ光を掃引照射するものであってもよい。また、レーザレーダとして垂直方向に32ライン照射するものを用いたが、これに限定するものではなく、最低1ラインあれば良い。   In the above, the laser radar 1 that sweeps and emits laser light toward 360 ° in all directions is used. Of course, the laser radar 1 has a certain angular range in the horizontal direction (for example, only the front region Fr shown in FIG. 17). Alternatively, the laser beam may be swept and irradiated. Further, the laser radar that irradiates 32 lines in the vertical direction is used.

100 物体検出システム、1 レーザレーダ、2 ECU(物体検出装置)、3 運転支援システム、4 車両情報検出部、5 車両、6 路面、20 記憶部、21 距離算出部、22 位置検出部、23 車両情報取得部、24 取付姿勢推定部、S3 路面候補点抽出部、S303 一次元信号生成部、S4 路面平面算出部、S404 仮路面平面算出部、S420 路面尤度評価部、S5 第1取付姿勢推定処理部、S8 第1取付姿勢更新部、S11 第2取付姿勢推定処理部、S12 第2取付姿勢更新部 DESCRIPTION OF SYMBOLS 100 Object detection system, 1 Laser radar, 2 ECU (object detection apparatus), 3 Driving assistance system, 4 Vehicle information detection part, 5 Vehicle, 6 Road surface, 20 Storage part, 21 Distance calculation part, 22 Position detection part, 23 Vehicle Information acquisition unit, 24 mounting posture estimation unit, S3 road surface candidate point extraction unit, S303 one-dimensional signal generation unit, S4 road surface plane calculation unit, S404 temporary road surface plane calculation unit, S420 road surface likelihood evaluation unit, S5 first mounting posture estimation Processing unit, S8 first mounting posture update unit, S11 second mounting posture estimation processing unit, S12 second mounting posture update unit

Claims (11)

車両に搭載され、
垂直方向において複数の異なる角度毎に、水平方向において所定の角度範囲でレーザ光を逐次掃引照射するレーザレーダ(1)から入力される信号に基づいて、前記レーザレーダから前記レーザ光を反射した測距点までの距離を算出する距離算出部(21)と、
路面に対する前記レーザレーダの取付姿勢を記憶している記憶部(20)と、
前記記憶部に記憶されている取付姿勢と、前記レーザ光を照射した方向と、前記距離算出部が算出した距離とに基づいて、前記測距点の前記車両に対する相対位置を検出する位置算出部(22)と、
前記取付姿勢を推定する取付姿勢推定部(24)と、を備え、
前記記憶部には、前記取付姿勢として所定の初期設定値が予め登録されてあって、
前記取付姿勢推定部は、
前記垂直方向における前記レーザ光の照射方向である照射仰俯角毎に、前記水平方向における前記レーザ光の照射方向である照射方位角を変化させることで得られる複数の前記測距点について、前記測距点との前記距離と前記照射方位角とを対応付けた一次元信号を生成する一次元信号生成部(S303)と、
前記一次元信号生成部が生成した前記一次元信号の周波数成分に基づいて、前記一次元信号の要素となっている前記測距点のうち、前記路面を検出している前記測距点である路面候補点を抽出する路面候補点抽出部(S3)と、
前記路面候補点抽出部で抽出された複数の前記路面候補点に基づいて、前記路面を表す平面である路面平面を算出する路面平面算出部(S4)と、
前記路面平面算出部が算出した前記路面平面と、前記取付姿勢から定まる前記路面を表す平面である基準面とが為す角度と、から、前記取付姿勢を推定する第1取付姿勢推定処理部(S5)と、
前記第1取付姿勢推定処理部で推定した前記取付姿勢に基づいて、前記記憶部に記憶されている前記取付姿勢を更新する第1取付姿勢更新部(S8)と、を備えることを特徴とする物体検出装置。
Mounted on the vehicle,
Based on a signal input from a laser radar (1) that sequentially sweeps and irradiates laser light in a predetermined angle range in the horizontal direction at a plurality of different angles in the vertical direction, measurement is performed by reflecting the laser light from the laser radar. A distance calculation unit (21) for calculating the distance to the distance point;
A storage unit (20) for storing the mounting posture of the laser radar with respect to the road surface;
A position calculation unit that detects a relative position of the ranging point with respect to the vehicle based on the mounting posture stored in the storage unit, the direction in which the laser light is irradiated, and the distance calculated by the distance calculation unit. (22)
An attachment posture estimation unit (24) for estimating the attachment posture;
In the storage unit, a predetermined initial setting value is registered in advance as the mounting posture,
The mounting posture estimation unit is
The plurality of distance measuring points obtained by changing the irradiation azimuth angle that is the irradiation direction of the laser beam in the horizontal direction for each irradiation elevation angle that is the irradiation direction of the laser beam in the vertical direction. A one-dimensional signal generation unit (S303) that generates a one-dimensional signal in which the distance to the distance point and the irradiation azimuth are associated with each other;
Based on the frequency component of the one-dimensional signal generated by the one-dimensional signal generation unit, the distance measuring point detecting the road surface among the distance measuring points that are elements of the one-dimensional signal. A road surface candidate point extraction unit (S3) for extracting road surface candidate points;
A road surface plane calculating unit (S4) that calculates a road surface plane, which is a plane representing the road surface, based on the plurality of road surface candidate points extracted by the road surface candidate point extracting unit;
A first mounting posture estimation processing unit (S5) that estimates the mounting posture from an angle formed by the road surface plane calculated by the road surface plane calculation unit and a reference plane that is a plane representing the road surface determined from the mounting posture. )When,
A first mounting posture update unit (S8) that updates the mounting posture stored in the storage unit based on the mounting posture estimated by the first mounting posture estimation processing unit; Object detection device.
請求項1において、
前記取付姿勢は、前記路面から前記レーザレーダまでの高さである搭載高さと、前記レーザレーダの前記路面に対するピッチ角と、前記レーザレーダの前記路面に対するロール角と、のうち少なくとも1つを含むことを特徴とする物体検出装置。
In claim 1,
The mounting posture includes at least one of a mounting height that is a height from the road surface to the laser radar, a pitch angle of the laser radar with respect to the road surface, and a roll angle of the laser radar with respect to the road surface. An object detection apparatus characterized by that.
請求項1または2において、
前記取付姿勢は、前記レーザレーダの前記路面に対するヨー角を含み、
前記物体検出装置は、逐次掃引照射するものであって、
複数の時点における前記測距点のデータから、同一の測距点の相対位置の軌跡を算出することで前記ヨー角を推定する第2取付姿勢推定処理部(S11)と、
前記第2取付姿勢推定処理部が推定した前記ヨー角を用いて、前記記憶部に記憶されている前記ヨー角を更新する第2取付姿勢更新部(S12)と、を備えることを特徴とする物体検出装置。
In claim 1 or 2,
The mounting posture includes a yaw angle with respect to the road surface of the laser radar,
The object detection device performs sequential sweep irradiation,
A second attachment posture estimation processing unit (S11) for estimating the yaw angle by calculating a locus of a relative position of the same distance measurement point from the data of the distance measurement point at a plurality of time points;
A second mounting posture update unit (S12) that updates the yaw angle stored in the storage unit using the yaw angle estimated by the second mounting posture estimation processing unit; Object detection device.
請求項1から3の何れか1項において、
前記路面候補点抽出部は、前記一次元信号を周波数分解し、予め設定した周波数よりも低い周波数成分を抽出することで、前記路面候補点を抽出することを特徴とする物体検出装置。
In any one of Claims 1-3,
The said road surface candidate point extraction part extracts the said road surface candidate point by frequency-resolving the said one-dimensional signal, and extracting the frequency component lower than the preset frequency.
請求項1から4の何れか1項において、
前記路面平面算出部は、
複数の前記路面候補点から少なくとも3点選択し、当該選択された前記路面候補点から、前記路面平面の候補である仮路面平面を算出する仮路面平面算出部(S404)と、
選択された前記路面候補点以外の他の路面候補点と、前記仮路面平面との距離を計算することで仮路面平面の路面平面としての尤もらしさを評価する路面尤度評価部(S420)と、を備え、
前記仮路面平面算出部は、それぞれ異なる前記路面候補点の組み合わせを用いて複数の異なる前記仮路面平面を算出し、
前記路面尤度評価部は、複数の前記仮路面平面のそれぞれに対して前記尤もらしさを評価し、
前記路面平面算出部は、最も前記尤もらしさが高い前記仮路面平面を前記路面平面に設定することを特徴とする物体検出装置。
In any one of Claims 1-4,
The road surface plane calculating unit
A temporary road surface plane calculating unit (S404) that selects at least three points from the plurality of road surface candidate points and calculates a temporary road surface plane that is a candidate of the road surface plane from the selected road surface candidate points;
A road surface likelihood evaluation unit (S420) that evaluates the likelihood of the temporary road surface plane as a road surface plane by calculating the distance between the selected road surface candidate point other than the selected road surface candidate point and the temporary road surface plane; With
The temporary road surface plane calculating unit calculates a plurality of different temporary road surface planes by using different combinations of the road surface candidate points,
The road surface likelihood evaluation unit evaluates the likelihood for each of the plurality of temporary road surface planes,
The said road surface calculation part sets the said temporary road surface plane with the said highest likelihood to the said road surface plane, The object detection apparatus characterized by the above-mentioned.
請求項5において、
前記路面尤度評価部は、選択された前記路面候補点以外の前記路面候補点毎に前記仮路面平面との距離を算出することで得られる複数の距離の中央値が小さいほど、前記尤もらしさを高く評価することを特徴とする物体検出装置。
In claim 5,
The road surface likelihood evaluation unit is more likely as the median of a plurality of distances obtained by calculating the distance from the temporary road surface plane for each of the road surface candidate points other than the selected road surface candidate point is smaller. An object detection device characterized by high evaluation.
請求項1から6の何れか1項において、
前記記憶部は、前記取付姿勢推定部で推定した前記取付姿勢を時系列に並べた時系列データを記憶し、
前記取付姿勢更新部は、
前記取付姿勢推定部で推定した前記取付姿勢を時系列に並べた時系列データにおいて、前記取付姿勢推定部が推定した前記取付姿勢の時間変動幅が予め設定されている閾値よりも小さい場合に、前記取付姿勢を更新することを特徴とする物体検出装置。
In any one of Claim 1 to 6,
The storage unit stores time series data in which the mounting postures estimated by the mounting posture estimation unit are arranged in time series,
The mounting posture update unit
In the time series data in which the mounting postures estimated by the mounting posture estimation unit are arranged in time series, when the time variation width of the mounting posture estimated by the mounting posture estimation unit is smaller than a preset threshold value, An object detection apparatus that updates the mounting posture.
請求項1から7の何れか1項において、
前記レーザレーダは、前記車両の周囲の全方位に前記レーザ光を掃引照射するものであって、
前記車両の前方に位置する前記路面候補点から算出される路面平面である前方平面と、前記車両の後方に位置する前記路面候補点から算出される路面平面である後方平面とが為す角度から、車両前後方向における前記路面の勾配の変化量を推定することを特徴とする物体検出装置。
In any one of Claims 1-7,
The laser radar sweeps and irradiates the laser light in all directions around the vehicle,
From an angle formed by a front plane that is a road plane calculated from the road surface candidate point located in front of the vehicle and a rear plane that is a road plane plane calculated from the road surface candidate point located in the rear of the vehicle, An object detection apparatus that estimates a change amount of a slope of the road surface in a vehicle front-rear direction.
請求項8において、
前記車両の左側方に位置する前記路面候補点から算出される路面平面である左側方平面と、前記車両の右側方に位置する前記路面候補点から算出される路面平面である右側方平面とが為す角度から、車幅方向における前記路面の勾配の変化量を推定することを特徴とする物体検出装置。
In claim 8,
A left side plane that is a road surface plane calculated from the road surface candidate point located on the left side of the vehicle and a right side plane that is a road surface plane calculated from the road surface candidate point located on the right side of the vehicle. An object detection apparatus that estimates an amount of change in the slope of the road surface in the vehicle width direction from an angle formed.
請求項1から9の何れか1項において、
前記記憶部は、前記取付姿勢推定部で推定した前記取付姿勢を時系列に並べた時系列データを記憶し、
前記取付姿勢推定部で推定した前記取付姿勢を時系列に並べた時系列データにおける前記取付姿勢の変化量から、前記路面に対する車両姿勢の変化量を推定することを特徴とする物体検出装置。
In any one of Claim 1 to 9,
The storage unit stores time series data in which the mounting postures estimated by the mounting posture estimation unit are arranged in time series,
An object detection apparatus that estimates a change amount of a vehicle posture relative to the road surface from a change amount of the attachment posture in time-series data in which the attachment postures estimated by the attachment posture estimation unit are arranged in time series.
車両に搭載され、
垂直方向において複数の異なる角度毎に、水平方向において所定の角度範囲でレーザ光を逐次掃引照射するレーザレーダ(1)から入力される信号に基づいて、前記レーザレーダから前記レーザ光を反射した測距点までの距離を算出する距離算出部(21)と、
路面に対する前記レーザレーダの路面に対するヨー角を記憶している記憶部(20)と、
前記記憶部に記憶されている前記ヨー角と、前記レーザ光を照射した方向と、前記距離算出部が算出した距離とに基づいて、前記測距点の前記車両に対する相対位置を検出する位置算出部(22)と、
前記ヨー角を推定する取付姿勢推定部(24)と、を備え、
前記記憶部には、前記ヨー角として所定の初期設定値が予め登録されてあって、
前記取付姿勢推定部は、
複数の時点における前記測距点のデータから、同一の測距点の相対位置の軌跡を算出することで前記ヨー角を推定する第2取付姿勢推定処理部(S11)と、
前記第2取付姿勢推定処理部が推定した前記ヨー角を用いて、前記記憶部に記憶されている前記ヨー角を更新する第2取付姿勢更新部(S12)と、を備えることを特徴とする物体検出装置。
Mounted on the vehicle,
Based on a signal input from a laser radar (1) that sequentially sweeps and irradiates laser light in a predetermined angle range in the horizontal direction at a plurality of different angles in the vertical direction, measurement is performed by reflecting the laser light from the laser radar. A distance calculation unit (21) for calculating the distance to the distance point;
A storage unit (20) for storing a yaw angle of the laser radar with respect to a road surface;
Position calculation for detecting the relative position of the distance measuring point with respect to the vehicle based on the yaw angle stored in the storage unit, the direction in which the laser beam is irradiated, and the distance calculated by the distance calculation unit Part (22);
An attachment posture estimation unit (24) for estimating the yaw angle,
In the storage unit, a predetermined initial setting value is registered in advance as the yaw angle,
The mounting posture estimation unit is
A second attachment posture estimation processing unit (S11) for estimating the yaw angle by calculating a locus of a relative position of the same distance measurement point from the data of the distance measurement point at a plurality of time points;
A second mounting posture update unit (S12) that updates the yaw angle stored in the storage unit using the yaw angle estimated by the second mounting posture estimation processing unit; Object detection device.
JP2013211340A 2013-10-08 2013-10-08 Object detection device Active JP6221607B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013211340A JP6221607B2 (en) 2013-10-08 2013-10-08 Object detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013211340A JP6221607B2 (en) 2013-10-08 2013-10-08 Object detection device

Publications (2)

Publication Number Publication Date
JP2015075382A true JP2015075382A (en) 2015-04-20
JP6221607B2 JP6221607B2 (en) 2017-11-01

Family

ID=53000349

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013211340A Active JP6221607B2 (en) 2013-10-08 2013-10-08 Object detection device

Country Status (1)

Country Link
JP (1) JP6221607B2 (en)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015081854A (en) * 2013-10-23 2015-04-27 株式会社デンソー Radar displacement determination device
JP2016206025A (en) * 2015-04-23 2016-12-08 株式会社デンソー Posture estimation device
KR20170020963A (en) * 2015-08-17 2017-02-27 주식회사 만도 Autonomous emergency braking system and control method thereof
WO2017199785A1 (en) 2016-05-17 2017-11-23 コニカミノルタ株式会社 Monitoring system setting method, and monitoring system
JP2018132376A (en) * 2017-02-14 2018-08-23 日立建機株式会社 Delivery vehicle and road surface estimation method
JP2018155694A (en) * 2017-03-21 2018-10-04 株式会社Ihiエアロスペース Concave obstacle detection device and method
WO2019021887A1 (en) * 2017-07-27 2019-01-31 シャープ株式会社 Optical radar device
CN109425861A (en) * 2017-08-25 2019-03-05 丰田自动车株式会社 This truck position confidence level arithmetic unit
CN109613544A (en) * 2018-12-26 2019-04-12 长安大学 A kind of highway sighting distance detection method based on laser radar
CN109655798A (en) * 2018-11-29 2019-04-19 惠州华阳通用电子有限公司 A kind of trailer-mounted radar self-adapting regulation method and device
JP2019512706A (en) * 2016-03-21 2019-05-16 ベロダイン ライダー, インク. Three-dimensional imaging based on LIDAR with variable irradiation field density
KR20190064798A (en) * 2017-12-01 2019-06-11 현대자동차주식회사 Road surface detection system using Lidar and road surface detection method using the same
JP2019215279A (en) * 2018-06-13 2019-12-19 株式会社デンソーテン Radar device and target data assignment method
JP6625267B1 (en) * 2018-06-22 2019-12-25 三菱電機株式会社 Sensor control device, vehicle, sensing method, and sensor control program
JP2020020694A (en) * 2018-08-01 2020-02-06 トヨタ自動車株式会社 Axis deviation detector and vehicle
JP2020034354A (en) * 2018-08-28 2020-03-05 ヤンマー株式会社 Obstacle detection system
WO2020121838A1 (en) * 2018-12-12 2020-06-18 日立オートモティブシステムズ株式会社 External environment recognition device
CN111902731A (en) * 2018-03-21 2020-11-06 祖克斯有限公司 Automatic detection of sensor calibration errors
CN112147598A (en) * 2019-06-27 2020-12-29 武汉爱速达机器人科技有限公司 Laser calibration method based on right-angle wall surface
WO2020260242A1 (en) * 2019-06-27 2020-12-30 Valeo Schalter Und Sensoren Gmbh Determining a pitch angle position of an active optical sensor system
CN112368592A (en) * 2019-11-05 2021-02-12 深圳市大疆创新科技有限公司 Method for detecting radar installation state, movable platform, equipment and storage medium
WO2021049233A1 (en) * 2019-09-11 2021-03-18 ソニー株式会社 Information processing device, information processing method, and program
JP2021060371A (en) * 2019-10-09 2021-04-15 株式会社Soken Axial misalignment estimation device
WO2021140864A1 (en) * 2020-01-10 2021-07-15 株式会社デンソー System for detecting orientation/position of detector and method for detecting orientation/position of detector
CN113420732A (en) * 2021-08-23 2021-09-21 深圳市城市交通规划设计研究中心股份有限公司 Pavement disease detection method and device and storage medium
WO2021187041A1 (en) * 2020-03-18 2021-09-23 株式会社デンソー Radar device
JP2021185345A (en) * 2020-05-25 2021-12-09 三菱電機株式会社 Road surface area detection device, road surface area detection system, vehicle and road surface area detection method
JP2022154840A (en) * 2021-03-30 2022-10-13 本田技研工業株式会社 Detection device, vehicle system, detection method, and program
CN116381632A (en) * 2023-06-05 2023-07-04 南京隼眼电子科技有限公司 Self-calibration method and device for radar roll angle and storage medium
JP7477329B2 (en) 2020-03-18 2024-05-01 株式会社Soken Axis offset estimation device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07120555A (en) * 1993-10-22 1995-05-12 Nissan Motor Co Ltd Environment recognition device for vehicle
JP2006146372A (en) * 2004-11-16 2006-06-08 Denso Corp Object recognition device for vehicle
US20100017060A1 (en) * 2008-07-18 2010-01-21 Gm Global Technology Operations, Inc. Road-edge detection
JP2010515183A (en) * 2007-01-04 2010-05-06 コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツング Rider sensor vertical alignment
JP2010175423A (en) * 2009-01-30 2010-08-12 Mitsubishi Electric Corp Measuring device, method for correcting position and posture value of laser in measuring device, and laser position/posture value correcting program
JP2011232325A (en) * 2010-04-09 2011-11-17 Denso Corp Object recognition device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07120555A (en) * 1993-10-22 1995-05-12 Nissan Motor Co Ltd Environment recognition device for vehicle
JP2006146372A (en) * 2004-11-16 2006-06-08 Denso Corp Object recognition device for vehicle
JP2010515183A (en) * 2007-01-04 2010-05-06 コンチネンタル オートモーティヴ ゲゼルシャフト ミット ベシュレンクテル ハフツング Rider sensor vertical alignment
US20100017060A1 (en) * 2008-07-18 2010-01-21 Gm Global Technology Operations, Inc. Road-edge detection
JP2010175423A (en) * 2009-01-30 2010-08-12 Mitsubishi Electric Corp Measuring device, method for correcting position and posture value of laser in measuring device, and laser position/posture value correcting program
JP2011232325A (en) * 2010-04-09 2011-11-17 Denso Corp Object recognition device

Cited By (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015081854A (en) * 2013-10-23 2015-04-27 株式会社デンソー Radar displacement determination device
JP2016206025A (en) * 2015-04-23 2016-12-08 株式会社デンソー Posture estimation device
KR20170020963A (en) * 2015-08-17 2017-02-27 주식회사 만도 Autonomous emergency braking system and control method thereof
KR102398028B1 (en) * 2015-08-17 2022-05-17 주식회사 에이치엘클레무브 Autonomous emergency braking system and control method thereof
JP2019512706A (en) * 2016-03-21 2019-05-16 ベロダイン ライダー, インク. Three-dimensional imaging based on LIDAR with variable irradiation field density
JP7258554B2 (en) 2016-03-21 2023-04-17 ベロダイン ライダー ユーエスエー,インコーポレイテッド Three-dimensional imaging based on LIDAR with variable irradiation field density
US11614528B2 (en) 2016-05-17 2023-03-28 Konica Minolta, Inc. Setting method of monitoring system and monitoring system
WO2017199785A1 (en) 2016-05-17 2017-11-23 コニカミノルタ株式会社 Monitoring system setting method, and monitoring system
JP2018132376A (en) * 2017-02-14 2018-08-23 日立建機株式会社 Delivery vehicle and road surface estimation method
JP2018155694A (en) * 2017-03-21 2018-10-04 株式会社Ihiエアロスペース Concave obstacle detection device and method
WO2019021887A1 (en) * 2017-07-27 2019-01-31 シャープ株式会社 Optical radar device
CN109425861B (en) * 2017-08-25 2023-04-18 丰田自动车株式会社 Device for calculating reliability of vehicle position
CN109425861A (en) * 2017-08-25 2019-03-05 丰田自动车株式会社 This truck position confidence level arithmetic unit
KR20190064798A (en) * 2017-12-01 2019-06-11 현대자동차주식회사 Road surface detection system using Lidar and road surface detection method using the same
KR102401382B1 (en) * 2017-12-01 2022-05-24 현대자동차주식회사 Road surface detection system using Lidar and road surface detection method using the same
CN111902731B (en) * 2018-03-21 2024-04-16 祖克斯有限公司 Automatic detection of sensor calibration errors
JP2021518308A (en) * 2018-03-21 2021-08-02 ズークス インコーポレイテッド Automatic detection of sensor miscalibration
CN111902731A (en) * 2018-03-21 2020-11-06 祖克斯有限公司 Automatic detection of sensor calibration errors
JP7168353B2 (en) 2018-06-13 2022-11-09 株式会社デンソーテン Radar device and target data allocation method
JP2019215279A (en) * 2018-06-13 2019-12-19 株式会社デンソーテン Radar device and target data assignment method
JP6625267B1 (en) * 2018-06-22 2019-12-25 三菱電機株式会社 Sensor control device, vehicle, sensing method, and sensor control program
JP7119724B2 (en) 2018-08-01 2022-08-17 トヨタ自動車株式会社 Shaft deviation detector and vehicle
US11243308B2 (en) 2018-08-01 2022-02-08 Toyota Jidosha Kabushiki Kaisha Axial deviation detection device and vehicle
JP2020020694A (en) * 2018-08-01 2020-02-06 トヨタ自動車株式会社 Axis deviation detector and vehicle
JP2020034354A (en) * 2018-08-28 2020-03-05 ヤンマー株式会社 Obstacle detection system
JP7181026B2 (en) 2018-08-28 2022-11-30 ヤンマーパワーテクノロジー株式会社 Obstacle detection system
CN109655798A (en) * 2018-11-29 2019-04-19 惠州华阳通用电子有限公司 A kind of trailer-mounted radar self-adapting regulation method and device
CN113167903A (en) * 2018-12-12 2021-07-23 日立安斯泰莫株式会社 External recognition device
JPWO2020121838A1 (en) * 2018-12-12 2021-10-14 日立Astemo株式会社 External recognition device
WO2020121838A1 (en) * 2018-12-12 2020-06-18 日立オートモティブシステムズ株式会社 External environment recognition device
JP7123167B2 (en) 2018-12-12 2022-08-22 日立Astemo株式会社 External recognition device
CN109613544A (en) * 2018-12-26 2019-04-12 长安大学 A kind of highway sighting distance detection method based on laser radar
CN109613544B (en) * 2018-12-26 2022-11-11 长安大学 Expressway sight distance detection method based on laser radar
CN112147598A (en) * 2019-06-27 2020-12-29 武汉爱速达机器人科技有限公司 Laser calibration method based on right-angle wall surface
WO2020260242A1 (en) * 2019-06-27 2020-12-30 Valeo Schalter Und Sensoren Gmbh Determining a pitch angle position of an active optical sensor system
WO2021049233A1 (en) * 2019-09-11 2021-03-18 ソニー株式会社 Information processing device, information processing method, and program
JP2021060371A (en) * 2019-10-09 2021-04-15 株式会社Soken Axial misalignment estimation device
JP7339114B2 (en) 2019-10-09 2023-09-05 株式会社Soken Axial misalignment estimator
WO2021070916A1 (en) * 2019-10-09 2021-04-15 株式会社デンソー Axial deviation estimating device
CN112368592A (en) * 2019-11-05 2021-02-12 深圳市大疆创新科技有限公司 Method for detecting radar installation state, movable platform, equipment and storage medium
WO2021140864A1 (en) * 2020-01-10 2021-07-15 株式会社デンソー System for detecting orientation/position of detector and method for detecting orientation/position of detector
JP7477329B2 (en) 2020-03-18 2024-05-01 株式会社Soken Axis offset estimation device
WO2021187041A1 (en) * 2020-03-18 2021-09-23 株式会社デンソー Radar device
JP2021148562A (en) * 2020-03-18 2021-09-27 株式会社Soken Radar device
JP2021185345A (en) * 2020-05-25 2021-12-09 三菱電機株式会社 Road surface area detection device, road surface area detection system, vehicle and road surface area detection method
JP2022154840A (en) * 2021-03-30 2022-10-13 本田技研工業株式会社 Detection device, vehicle system, detection method, and program
US11945466B2 (en) 2021-03-30 2024-04-02 Honda Motor Co., Ltd. Detection device, vehicle system, detection method, and program
CN113420732A (en) * 2021-08-23 2021-09-21 深圳市城市交通规划设计研究中心股份有限公司 Pavement disease detection method and device and storage medium
CN113420732B (en) * 2021-08-23 2022-02-01 深圳市城市交通规划设计研究中心股份有限公司 Pavement disease detection method and device and storage medium
CN116381632B (en) * 2023-06-05 2023-08-18 南京隼眼电子科技有限公司 Self-calibration method and device for radar roll angle and storage medium
CN116381632A (en) * 2023-06-05 2023-07-04 南京隼眼电子科技有限公司 Self-calibration method and device for radar roll angle and storage medium

Also Published As

Publication number Publication date
JP6221607B2 (en) 2017-11-01

Similar Documents

Publication Publication Date Title
JP6221607B2 (en) Object detection device
US10260889B2 (en) Position estimation device and position estimation method
JP4428208B2 (en) Vehicle object recognition device
WO2018221453A1 (en) Output device, control method, program, and storage medium
US8164628B2 (en) Estimating distance to an object using a sequence of images recorded by a monocular camera
US7965871B2 (en) Moving-state determining device
JP4433887B2 (en) Vehicle external recognition device
US20210109205A1 (en) Dynamic calibration of lidar sensors
US20030021445A1 (en) Method for optically monitoring the environment of a moving vehicle to determine an inclination angle
WO2018061084A1 (en) Self-position estimation method and self-position estimation device
JP6458651B2 (en) Road marking detection device and road marking detection method
RU2626424C1 (en) Device and method for evaluation of vehicle attitude angle and position
JP7077967B2 (en) Driving lane estimation device, driving lane estimation method, and control program
JP6552448B2 (en) Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection
KR101558660B1 (en) Apparatus for correcting beam angle of multi-layer lidar
KR102614157B1 (en) Method and system for recognizing position of self-driving car
US10589747B2 (en) Method for determining the incline of a road
JP6263453B2 (en) Momentum estimation device and program
CN115243932A (en) Method and device for calibrating camera distance of vehicle and method and device for continuously learning vanishing point estimation model
US11851069B2 (en) Method and device for locating a vehicle
WO2020090320A1 (en) Information processing device, information processing method, and information processing program
WO2018221458A1 (en) Updating device, control method, program, and storage medium
CN112731451B (en) Method and system for detecting ground obstacle based on laser radar
US20240020868A1 (en) Vehicle and method of controlling the same
JP7225079B2 (en) Obstacle recognition device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170905

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170918

R151 Written notification of patent or utility model registration

Ref document number: 6221607

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250