JP6453701B2 - Posture estimation device - Google Patents

Posture estimation device Download PDF

Info

Publication number
JP6453701B2
JP6453701B2 JP2015088454A JP2015088454A JP6453701B2 JP 6453701 B2 JP6453701 B2 JP 6453701B2 JP 2015088454 A JP2015088454 A JP 2015088454A JP 2015088454 A JP2015088454 A JP 2015088454A JP 6453701 B2 JP6453701 B2 JP 6453701B2
Authority
JP
Japan
Prior art keywords
road surface
angle
distance
posture
distance measuring
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015088454A
Other languages
Japanese (ja)
Other versions
JP2016206025A (en
Inventor
映 酒井
映 酒井
秀明 三澤
秀明 三澤
村瀬 洋
洋 村瀬
大輔 出口
大輔 出口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya University NUC
Denso Corp
Tokai National Higher Education and Research System NUC
Original Assignee
Nagoya University NUC
Denso Corp
Tokai National Higher Education and Research System NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya University NUC, Denso Corp, Tokai National Higher Education and Research System NUC filed Critical Nagoya University NUC
Priority to JP2015088454A priority Critical patent/JP6453701B2/en
Publication of JP2016206025A publication Critical patent/JP2016206025A/en
Application granted granted Critical
Publication of JP6453701B2 publication Critical patent/JP6453701B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、自車両の姿勢を推定する姿勢推定装置に関する。   The present invention relates to a posture estimation device that estimates the posture of a host vehicle.

上記の姿勢推定装置として、自車両の真下の路面に向けて複数のレーザ光を照射し、それぞれの反射光にて得られる路面との距離に基づいて自車両の姿勢を推定するものが知られている(例えば、特許文献1参照)。   As the above posture estimation device, a device that irradiates a plurality of laser beams toward a road surface directly below the host vehicle and estimates the posture of the host vehicle based on the distance from the road surface obtained by each reflected light is known. (For example, refer to Patent Document 1).

特表2011−511262号公報Special table 2011-511262 gazette

しかしながら、上記姿勢推定装置は、路面を検出することが前提の装置であるため、障害物等の物体を検出することができないという問題点があった。
そこで、このような問題点を鑑み、自車両の姿勢を推定する姿勢推定装置において、物体を検出する構成と兼用できるようにすることを本発明の目的とする。
However, since the posture estimation device is a device based on the assumption that the road surface is detected, there is a problem in that an object such as an obstacle cannot be detected.
Therefore, in view of such problems, it is an object of the present invention to enable a posture estimation device that estimates the posture of the host vehicle to also be used as a configuration for detecting an object.

本発明の姿勢推定装置において、測距点群取得手段は、物体を検出する検出領域を予め水平方向および鉛直方向に格子状に区分した照射領域毎にレーザ光を照射し、それぞれの照射領域にてレーザ光の反射光を受光することで得られるそれぞれの距離および反射強度を含む測距点群を取得する。また、路面判定手段は、それぞれの測距点に基づいて各測距点が路面のものであるか否かを判定する。そして、姿勢角演算手段は、路面であると判定された測距点との距離に基づいて、自車両の姿勢角を演算する。   In the posture estimation apparatus of the present invention, the distance measurement point group acquisition unit irradiates a laser beam for each irradiation region obtained by dividing a detection region for detecting an object in a grid shape in the horizontal direction and the vertical direction in advance, Then, a distance measuring point group including each distance and reflection intensity obtained by receiving the reflected light of the laser light is acquired. The road surface determination means determines whether each distance measuring point is on the road surface based on each distance measuring point. Then, the attitude angle calculation means calculates the attitude angle of the host vehicle based on the distance from the distance measuring point determined to be the road surface.

このような姿勢推定装置によれば、物体を検出する構成において路面を特定し、路面との位置関係に基づいて自車両の姿勢を推定することができる。よって、自車両の姿勢を推定する構成と物体を検出する構成と兼用することができる。   According to such a posture estimation device, it is possible to specify a road surface in a configuration for detecting an object, and to estimate the posture of the host vehicle based on the positional relationship with the road surface. Therefore, the configuration for estimating the posture of the host vehicle and the configuration for detecting an object can be combined.

なお、各請求項の記載は、可能な限りにおいて任意に組み合わせることができる。この際、一部構成を除外してもよい。   In addition, description of each claim can be arbitrarily combined as much as possible. At this time, a part of the configuration may be excluded.

本実施形態に係るシステム構成の概略を示すブロック図である。It is a block diagram which shows the outline of the system configuration | structure which concerns on this embodiment. 鉛直方向においてレーザレーダ1が照射するレーザ光の照射方向を説明するための側面図である。It is a side view for demonstrating the irradiation direction of the laser beam which the laser radar 1 irradiates in a perpendicular direction. レーザレーダ1の路面上の測距点軌跡を示す鳥瞰図である。3 is a bird's-eye view showing a distance measuring point locus on the road surface of the laser radar 1. FIG. ECU2が実行する姿勢推定処理を示すフローチャートである。It is a flowchart which shows the attitude | position estimation process which ECU2 performs. ピッチ角の変化とともに路面との距離が変化する様子を示す概念図である。It is a conceptual diagram which shows a mode that the distance with a road surface changes with the change of a pitch angle. 路面判定処理を示すフローチャートである。It is a flowchart which shows a road surface determination process. 第1実施形態の姿勢角演算処理を示すフローチャートである。It is a flowchart which shows the attitude angle calculation process of 1st Embodiment. 第2実施形態の姿勢角演算処理を示すフローチャートである。It is a flowchart which shows the attitude angle calculation process of 2nd Embodiment. 座標変換の定義を示す説明図である。It is explanatory drawing which shows the definition of coordinate transformation. 第3実施形態の姿勢角演算処理を示すフローチャートである。It is a flowchart which shows the attitude angle calculation process of 3rd Embodiment. レーザレーダ1により路面上に描かれる測距点軌跡と路面の傾きの関係を示す立体図である。FIG. 3 is a three-dimensional view showing a relationship between a distance measuring point locus drawn on the road surface by the laser radar 1 and a road surface inclination. モデルフィッティングの概念を示すブロック図である。It is a block diagram which shows the concept of model fitting.

以下に本発明にかかる実施の形態を図面と共に説明する。
[第1実施形態]
[本実施形態の構成]
以下、本発明の実施形態の一例について図を用いて説明する。図1に、本発明が適用された物体検出システム100の構成の一例を示す。図1に示す物体検出システム100は、車両5(図2参照)に搭載され、車両5の左右前後など全方位に存在する物体との距離を検出する。物体検出システム100は、レーザレーダ1およびECU(電子制御装置)2を備えている。
Embodiments according to the present invention will be described below with reference to the drawings.
[First Embodiment]
[Configuration of this embodiment]
Hereinafter, an example of an embodiment of the present invention will be described with reference to the drawings. FIG. 1 shows an example of the configuration of an object detection system 100 to which the present invention is applied. An object detection system 100 shown in FIG. 1 is mounted on a vehicle 5 (see FIG. 2) and detects a distance from an object that exists in all directions such as left and right of the vehicle 5. The object detection system 100 includes a laser radar 1 and an ECU (electronic control unit) 2.

また、図1中の運転支援システム3は、物体検出システム100の検出結果を利用する機能の一例である。運転支援システム3は、物体検出システム100の検出結果に基づいて、ドライバの運転を支援する種々の制御を実施する。ただし、運転支援システム3に限らず、車両に搭載される種々のシステムが、物体検出システム100の検出結果を利用することができる。   The driving support system 3 in FIG. 1 is an example of a function that uses the detection result of the object detection system 100. The driving support system 3 performs various controls that support driving of the driver based on the detection result of the object detection system 100. However, the detection result of the object detection system 100 can be used not only by the driving support system 3 but also by various systems mounted on the vehicle.

レーザレーダ1は、モータなどからなる回転機構を備え、この回転機構を回転させることによって、車両周囲360°(すなわち、全方位)に向けてレーザ光を照射する。
ここで、レーザレーダ1の構成および作動について説明する前に、その取付位置や路面6に対するレーザレーダ1の姿勢(これを取付姿勢とする)について、センサ固定座標系を用いて説明する。
The laser radar 1 includes a rotating mechanism including a motor and the like, and rotates the rotating mechanism to irradiate laser light toward 360 ° around the vehicle (that is, all directions).
Here, before describing the configuration and operation of the laser radar 1, the mounting position and the posture of the laser radar 1 with respect to the road surface 6 (this will be referred to as the mounting posture) will be described using a sensor fixed coordinate system.

センサ固定座標系は、図2および図3に示すように、レーザレーダ1の取付位置の中心を、路面6に正射影した点を原点とし、車両左右方向にx軸を、車両前後方向にy軸を、鉛直方向にz軸を、それぞれ直交するように備えている。したがって、センサ固定座標系のxy平面は、路面6に平行となる。   As shown in FIGS. 2 and 3, the sensor fixed coordinate system has the center of the mounting position of the laser radar 1 as the origin and a point orthogonally projected onto the road surface 6, the x axis in the vehicle left-right direction, and y in the vehicle front-rear direction. The axis is provided so that the z axis is perpendicular to the vertical direction. Therefore, the xy plane of the sensor fixed coordinate system is parallel to the road surface 6.

レーザレーダ1は、図2および図3に示すように、例えば車両ルーフの上面に、所定の取付姿勢となるように設置されている。ここでいう取付姿勢とは、レーザレーダ1のセンサ固定座標系に関するピッチ角α、ロール角β、ヨー角γ、および搭載高さHを指す。搭載高さHとは、路面6からのレーザレーダ1(厳密には発光部11)との高さHを指す。   As shown in FIGS. 2 and 3, the laser radar 1 is installed, for example, on the upper surface of the vehicle roof so as to have a predetermined mounting posture. The mounting posture here refers to the pitch angle α, the roll angle β, the yaw angle γ, and the mounting height H related to the sensor fixed coordinate system of the laser radar 1. The mounting height H indicates the height H from the road surface 6 to the laser radar 1 (strictly, the light emitting unit 11).

ピッチ角とは、x軸を中心とした回転角を指し、ロール角とは、y軸を中心とした回転角を指す。また、ヨー角とは、z軸を中心とした回転角を指す。
また、ピッチ角は、xy平面を0とし、y軸方向からz軸方向への回転方向を正の値にとり、ロール角は、xy平面を0とし、z軸方向からx軸方向への回転方向を正の値にとる。また、ヨー角は、yz平面を0とし、y軸方向からx軸方向への回転方向を正の値とする。ここでは簡単のため、α=β=γ=0とする。なお、センサ固定座標系における路面6は、z=−Hで表される。
The pitch angle refers to a rotation angle about the x axis, and the roll angle refers to a rotation angle about the y axis. The yaw angle refers to a rotation angle around the z axis.
The pitch angle is 0 on the xy plane, the rotation direction from the y-axis direction to the z-axis direction is a positive value, and the roll angle is 0 on the xy plane, and the rotation direction from the z-axis direction to the x-axis direction. To a positive value. The yaw angle is 0 on the yz plane, and the rotation direction from the y-axis direction to the x-axis direction is a positive value. Here, for simplicity, α = β = γ = 0. The road surface 6 in the sensor fixed coordinate system is represented by z = −H.

再び図1に戻って、レーザレーダ1の構成および作動について説明する。レーザレーダ1は、発光部11、受光部12、およびTOF(Time Of Flight)算出部13を備えている。   Returning to FIG. 1 again, the configuration and operation of the laser radar 1 will be described. The laser radar 1 includes a light emitting unit 11, a light receiving unit 12, and a TOF (Time Of Flight) calculating unit 13.

発光部11は、レーザダイオードを備えており、ECU2からの駆動信号に従って、回転軸方向において所定角度の範囲(これを回転軸方向照射範囲とする)で不連続にレーザ光を照射する。より具体的には、回転軸方向照射範囲をL個(Lは正の整数)の照射方向に分割してなるライン毎に、パルス状のレーザ光を照射する。   The light emitting unit 11 includes a laser diode, and irradiates laser light discontinuously in a range of a predetermined angle in the rotation axis direction (this is an irradiation range in the rotation axis direction) according to a drive signal from the ECU 2. More specifically, pulsed laser light is irradiated for each line formed by dividing the irradiation range in the rotation axis direction into L (L is a positive integer) irradiation directions.

本実施形態において、発光部11の回転軸方向照射範囲は、回転軸に垂直な方向(すなわち光軸の方向)に対して+10°から−30°の範囲とし、当該回転軸方向照射範囲をL=32個のラインに分割してレーザ光を照射する。すなわちレーザ光は、ライン毎に、鉛直方向において1.25°間隔で照射される。各ラインの番号は、回転軸方向において光軸と為す角度θが小さい順に1、2、…、31、32とする。 In the present embodiment, the rotation axis direction irradiation range of the light emitting unit 11 is a range of + 10 ° to −30 ° with respect to the direction perpendicular to the rotation axis (that is, the direction of the optical axis), and the rotation axis direction irradiation range is L = Laser light is divided into 32 lines. In other words, the laser light is irradiated at intervals of 1.25 ° in the vertical direction for each line. The numbers of the respective lines are 1, 2,..., 31, 32 in ascending order of the angle θ i formed with the optical axis in the rotation axis direction.

なお、回転軸方向においてレーザ光が光軸と為す角度(これを照射仰俯角とする)は、回転軸方向からy軸方向への回転角を正の値で表すものとする。照射仰俯角θは、ライン毎に定まっており、例えばライン1(i=1)であればθ1=−10°であり、ライン32(i=32)であれば、θ32=30°である。 Note that the angle formed by the laser beam with the optical axis in the rotation axis direction (this is the irradiation elevation angle) represents the rotation angle from the rotation axis direction to the y-axis direction as a positive value. The irradiation elevation angle θ i is determined for each line. For example, θ 1 = −10 ° for line 1 (i = 1), and θ 32 = 30 ° for line 32 (i = 32). It is.

そして、発光部11は、回転機構が一定角度(例えば0.1°)回転する毎に、各ラインのレーザ光を逐次照射することによって、レーザレーダ1は、ライン毎に、車両全方位に向けてレーザ光を掃引照射する。なお、各ラインの回転軸方向の照射角度の概念を図2に、また、360°スキャンした際に、各ラインの路面6上の測距点軌跡を図3に示している。測距点とは、レーザ光を反射した点であり、レーザレーダ1によって検出された点を指す。   The light emitting unit 11 sequentially irradiates the laser light of each line every time the rotation mechanism rotates by a certain angle (for example, 0.1 °), so that the laser radar 1 is directed toward the vehicle in all directions. The laser beam is swept and irradiated. The concept of the irradiation angle in the rotation axis direction of each line is shown in FIG. 2, and the distance measuring point locus on the road surface 6 of each line when 360 ° scanning is shown in FIG. The distance measuring point is a point where the laser beam is reflected and refers to a point detected by the laser radar 1.

レーザ光の照射角度とは、照射仰俯角θと、照射方位角φjで表される。照射仰俯角θは前述の通り、回転軸方向においてレーザ光が光軸と為す角度であって、ライン毎に定まっている。照射方位角φjとは、回転機構の中立位置からの回転角である。照射方位角φjは、図3に示すように時計回りの角度を正の値で表す。 The irradiation angle of the laser beam is represented by an irradiation elevation angle θ i and an irradiation azimuth angle φ j . As described above, the irradiation elevation angle θ i is an angle formed by the laser beam with the optical axis in the rotation axis direction, and is determined for each line. The irradiation azimuth angle φ j is a rotation angle from the neutral position of the rotation mechanism. As shown in FIG. 3, the irradiation azimuth angle φ j represents a clockwise angle as a positive value.

ECU2は、CPU、ROM、RAM、バックアップRAM等よりなるコンピュータを主体として構成され、入力される情報をもとに、ROMに記憶された各種の制御プログラムを実行することで各種の処理を実行する。このECU2が、請求項の物体検出装置に相当する。より具体的にECU2は、図1に示すように種々の処理を実施するための機能ブロックとして、記憶部20、距離算出部21、位置算出部22、車両情報取得部23、および車両姿勢推定部24を備えている。   The ECU 2 is mainly configured by a computer including a CPU, ROM, RAM, backup RAM, and the like, and executes various processes by executing various control programs stored in the ROM based on input information. . This ECU 2 corresponds to the object detection device recited in the claims. More specifically, the ECU 2 includes a storage unit 20, a distance calculation unit 21, a position calculation unit 22, a vehicle information acquisition unit 23, and a vehicle posture estimation unit as functional blocks for performing various processes as shown in FIG. 24.

記憶部20は、書き換え可能な不揮発性の記憶媒体で構成されている。記憶部20には、レーザレーダ1の取付姿勢が登録されているとともに、後述する車両姿勢推定部24で推定される車両姿勢など種々のデータを記憶する。
取付姿勢としての搭載高さHは、予め設計されている値を用いる構成とする。
The storage unit 20 is configured by a rewritable nonvolatile storage medium. The storage unit 20 registers the mounting posture of the laser radar 1 and stores various data such as a vehicle posture estimated by a vehicle posture estimation unit 24 described later.
As the mounting height H as the mounting posture, a value designed in advance is used.

距離算出部21は、TOF算出部13からTOF信号(つまり、レーザ光の出射時刻と反射光の受光時刻との時間差)が入力された場合、その時間差に基づいてレーザ光の反射点との距離r(図3参照)を算出する。   When the TOF signal (that is, the time difference between the emission time of the laser beam and the reception time of the reflected beam) is input from the TOF calculation unit 13, the distance calculation unit 21 is a distance from the reflection point of the laser beam based on the time difference. r (see FIG. 3) is calculated.

位置算出部22は、距離算出部21が算出した距離rと反射光が得られたレーザ光の照射角度と、記憶部20に記憶されている取付姿勢と、をもとにして、測距点の座標値(x、y、z)を作成する。ここでの座標値は、前記センサ固定座標系で表される。   The position calculation unit 22 is a distance measurement point based on the distance r calculated by the distance calculation unit 21, the irradiation angle of the laser beam from which the reflected light is obtained, and the mounting orientation stored in the storage unit 20. The coordinate values (x, y, z) are created. The coordinate values here are expressed in the sensor fixed coordinate system.

車両情報取得部23は、自車両5の情報を検出するセンサ群からなる車両情報検出部4と、図示しない車内LANで接続されている。車両情報検出部4は、例えば自車の走行速度を検出する車速センサ、自車に作用するヨーレートの大きさを検出するヨーレートセンサ、およびステアリングホイールの操舵角を検出する操舵角センサ(何れも図示略)を備えている。車両情報取得部23は、これらのセンサからのセンサ信号を用いて、自車両5の走行速度、ヨーレートの大きさ、移動量などを算出する。   The vehicle information acquisition unit 23 is connected to the vehicle information detection unit 4 including a sensor group that detects information of the host vehicle 5 via an in-vehicle LAN (not shown). The vehicle information detection unit 4 includes, for example, a vehicle speed sensor that detects the traveling speed of the host vehicle, a yaw rate sensor that detects the magnitude of the yaw rate acting on the host vehicle, and a steering angle sensor that detects the steering angle of the steering wheel (all illustrated). Abbreviation). The vehicle information acquisition unit 23 calculates the traveling speed of the host vehicle 5, the magnitude of the yaw rate, the amount of movement, and the like using sensor signals from these sensors.

車両姿勢推定部24は、レーザレーダ1の検出結果から、車両姿勢を推定する。この車両姿勢推定部24の作動については、図4以下に示すフローチャートを用いて後で詳細に説明する。   The vehicle attitude estimation unit 24 estimates the vehicle attitude from the detection result of the laser radar 1. The operation of the vehicle posture estimation unit 24 will be described later in detail using the flowcharts shown in FIG.

運転支援システム3は、物体検出システム100の検出結果に基づいて、例えば公知のACC(Adaptive Cruise Control)や、AEB(Autonomous Emergency Braking)、LKA(Lane Keeping Assist)などを実施する。例えばACCであれば、物体検出システム100が検出する先行車との距離に基づいて、車間距離を一定に保つように、駆動系および制動系システムを制御する。   Based on the detection result of the object detection system 100, the driving support system 3 performs, for example, known ACC (Adaptive Cruise Control), AEB (Autonomous Emergency Braking), LKA (Lane Keeping Assist), and the like. For example, in the case of ACC, the driving system and the braking system are controlled so as to keep the inter-vehicle distance constant based on the distance from the preceding vehicle detected by the object detection system 100.

また、本実施形態における運転支援システム3は、上述した機能に加えて、車両5を自動で走行させる自動運転機能や、駐車位置に車両5を自動で駐車させる自動駐車機能を実施する。   In addition to the functions described above, the driving support system 3 in the present embodiment implements an automatic driving function for automatically driving the vehicle 5 and an automatic parking function for automatically parking the vehicle 5 at the parking position.

[本実施形態の処理]
このように構成された物体検出システム100において、ECU2(車両姿勢推定部24)は、図4に示す姿勢推定処理を実施する。姿勢推定処理は、車両の姿勢(回転角)を推定する処理である。特に、本実施形態では、ピッチ角αのみを求める場合の例について説明する。
[Process of this embodiment]
In the object detection system 100 configured as described above, the ECU 2 (vehicle posture estimation unit 24) performs posture estimation processing shown in FIG. The attitude estimation process is a process for estimating the attitude (rotation angle) of the vehicle. In particular, in the present embodiment, an example in which only the pitch angle α is obtained will be described.

すなわち、図5に示すように、ピッチ角αが0である場合には、レーザレーダ1によって検出される路面との距離がライン番号によって決定される所定値となる(図5の上図参照)。これに対してピッチ角が0でない場合には、路面との距離が該所定値と異なる値をとる。例えば、正方向のピッチングが発生すると、路面との距離が大きくなる(図5の下図参照)。   That is, as shown in FIG. 5, when the pitch angle α is 0, the distance from the road surface detected by the laser radar 1 is a predetermined value determined by the line number (see the upper diagram of FIG. 5). . On the other hand, when the pitch angle is not 0, the distance from the road surface takes a value different from the predetermined value. For example, when positive-direction pitching occurs, the distance from the road surface increases (see the lower diagram in FIG. 5).

本実施形態では、この原理を利用して、ピッチ角αを推定する。なお、説明を簡単にするため、ロール角βについては0であるものとする。
姿勢推定処理は、例えば、物体検出システム100の電源が投入されると開始され、その後、周期的に繰り返し実施される処理である。姿勢推定処理では、図4に示すように、まず、測距点群を取得する(S110)。
In this embodiment, the pitch angle α is estimated using this principle. For simplicity of explanation, it is assumed that the roll angle β is zero.
The posture estimation process is, for example, a process that is started when the power of the object detection system 100 is turned on, and then repeatedly executed periodically. In the posture estimation process, as shown in FIG. 4, first, a distance measuring point group is acquired (S110).

測距点群とは、レーザレーダ1による1周期分の測距点の集合である。測距点群は、ライン数L、および方位数Bの積の数だけ、距離r、反射強度Iの組みの集合である。   The range-finding point group is a set of range-finding points for one cycle by the laser radar 1. The distance measuring point group is a set of combinations of the distance r and the reflection intensity I by the number of products of the number of lines L and the number of directions B.

続いて、測距点群から立体物の検出を行う(S115)。立体物の検出には周知の処理を用いる。例えば、測距点群を構成する各測距点について、類似する距離を有する点をクラスタリングし、その形状が予め設定されたモデル(人物や車両の点群を表現するモデル)に近いものを立体物として検出する。立体物として検出された測距点は、フラグ等により識別可能とされる。   Subsequently, a three-dimensional object is detected from the distance measuring point group (S115). A well-known process is used for detection of a three-dimensional object. For example, for each distance measuring point constituting the distance measuring point group, points having similar distances are clustered, and a shape whose shape is close to a preset model (a model representing a point group of a person or a vehicle) is three-dimensional. Detect as an object. A distance measuring point detected as a three-dimensional object can be identified by a flag or the like.

続いて、路面判定処理を実施する(S120)。路面判定処理は、測距点群に基づいて路面に相当する測距点を判別する処理である。路面判定処理では、図6に示すように、まず、i=1番目のラインを選択する(S210)。そして、路面判定フラグの初期化を行う(S220)。   Subsequently, a road surface determination process is performed (S120). The road surface determination process is a process of determining a distance measurement point corresponding to the road surface based on the distance measurement point group. In the road surface determination process, as shown in FIG. 6, first, the i = 1st line is selected (S210). Then, the road surface determination flag is initialized (S220).

ここでは、全てのラインiについてのフラグFをfalseにセットする。
続いて、選択されたラインが路面判定用ラインであるか否かを判定する(S230)。ここで、路面判定用ラインとしては、水平方向よりも下向きのラインを含む任意の1または複数のラインが設定されている。
Here, the flag F for all lines i is set to false.
Subsequently, it is determined whether or not the selected line is a road surface determination line (S230). Here, as the road surface determination line, any one or a plurality of lines including a line downward from the horizontal direction are set.

選択されたラインが路面判定用ラインでなければ(S230:NO)、後述するS290の処理に移行する。また、選択されたラインが路面判定用ラインであれば(S230:YES)、測距点群のうちの選択中のラインのものから立体物を示す点を除外した立体物除外点群を生成する(S235)。   If the selected line is not a road surface determination line (S230: NO), the process proceeds to S290 described later. If the selected line is a road surface determination line (S230: YES), a three-dimensional object exclusion point group is generated by excluding a point indicating a three-dimensional object from that of the currently selected line of the distance measurement point group. (S235).

そして、生成した立体物除外点群に含まれる各測距点の距離についてのばらつきを求める(S240)。特に本実施形態では、距離の分散Vを算出する。なお、分散Vを求める際に算出される距離の平均値(平均路面距離) And the dispersion | variation about the distance of each ranging point contained in the produced | generated solid object exclusion point group is calculated | required (S240). In particular, in this embodiment, the variance V r of distance is calculated. In addition, the average value (average road surface distance) calculated when calculating the variance V r

を記憶部20に格納しておく。
続いて、立体物除外点群に含まれる各測距点の反射強度についてのばらつきを求める(S250)。特に本実施形態では、反射強度の分散Vを算出する。
Is stored in the storage unit 20.
Then, the dispersion | variation about the reflection intensity of each ranging point contained in a solid object exclusion point group is calculated | required (S250). In particular, in this embodiment, it calculates the variance V I of the reflected intensity.

続いて、立体物除外点群に含まれる各測距点のz座標のばらつきを求める(S260)。特に本実施形態では、各測距点のz座標の分散Vを算出する。
続いて、各分散と予め設定された閾値とを比較する(S270)。ここで、閾値は、それぞれの分散に対して実験的に求められた値がそれぞれ設定されており、各分散は、それぞれ対応する閾値と比較される。
Subsequently, the variation of the z coordinate of each ranging point included in the three-dimensional object excluded point group is obtained (S260). In particular, in the present embodiment, the variance V z of the z coordinate of each ranging point is calculated.
Subsequently, each variance is compared with a preset threshold value (S270). Here, the threshold value is set to an experimentally obtained value for each variance, and each variance is compared with a corresponding threshold value.

各分散の全てが対応する閾値未満であれば(S270:YES)、このラインについての路面判定フラグを更新する(S280)。   If all of the variances are less than the corresponding threshold values (S270: YES), the road surface determination flag for this line is updated (S280).

すなわち、フラグFをTrueにセットする。つまり、このラインが路面を示すものであると推定される。また、各分散の何れかが対応する閾値以上であれば(S270:NO)、S290の処理に移行する。   That is, the flag F is set to True. That is, it is estimated that this line indicates a road surface. Further, if any of the variances is equal to or greater than the corresponding threshold value (S270: NO), the process proceeds to S290.

続いて、選択中のラインのライン番号iがライン数Lと一致するか否かを判定する(S290)。ライン番号iがライン数Lと一致しなければ(S290:NO)、ライン番号iをインクリメントし(S300)、S230の処理に戻る。また、ライン番号iがライン数Lと一致すれば(S290:YES)、路面判定処理を終了する。   Subsequently, it is determined whether or not the line number i of the selected line matches the line number L (S290). If the line number i does not match the line number L (S290: NO), the line number i is incremented (S300), and the process returns to S230. If the line number i matches the line number L (S290: YES), the road surface determination process is terminated.

続いて、図4に戻り、姿勢角演算処理を実施する(S130)。姿勢角演算処理は、路面との距離に基づいて車両の姿勢角を演算する処理である。姿勢角演算処理では、図7に示すように、まず、路面距離の演算を行う(S410)。この処理では、路面と判定されたラインにおいて演算された平均路面距離をそのまま路面距離として利用する。   Subsequently, returning to FIG. 4, the posture angle calculation process is performed (S130). The attitude angle calculation process is a process for calculating the attitude angle of the vehicle based on the distance from the road surface. In the attitude angle calculation process, as shown in FIG. 7, first, a road surface distance is calculated (S410). In this process, the average road surface distance calculated in the line determined as the road surface is used as it is as the road surface distance.

続いて、回転角の演算を行う(S420)。この処理では、次式を用いて路面と判定されたラインのそれぞれについて推定ピッチ角αを求める。 Subsequently, the rotation angle is calculated (S420). In this process, an estimated pitch angle α i is obtained for each line determined to be a road surface using the following equation.

続いて、代表角の演算を行う(S430)。代表角の演算では、推定ピッチ角αから代表角αを算出する。例えば、推定ピッチ角αの平均値を推定ピッチ角αとする。 Subsequently, the representative angle is calculated (S430). In the calculation of the representative angle, the representative angle α is calculated from the estimated pitch angle α i . For example, the average value of the estimated pitch angle α i is set as the estimated pitch angle α.

このような処理が終了すると、図4に戻り、姿勢の推定結果(回転角の値)を運転支援システム3等に出力し(S140)、姿勢推定処理を終了する。
[本実施形態による効果]
以上のように詳述した物体検出システム100においてECU2は、物体を検出する検出領域を予め水平方向および鉛直方向に格子状に区分した照射領域毎にレーザ光を照射し、それぞれの照射領域にてレーザ光の反射光を受光することで得られるそれぞれの距離および反射強度を含む測距点群を取得する。また、ECU2は、測距点群に基づいて各測距点が路面のものであるか否かを判定する。そして、ECU2は、路面であると判定された測距点の距離に基づいて、自車両の姿勢角を演算する。
When such processing is completed, the process returns to FIG. 4 and the posture estimation result (rotation angle value) is output to the driving support system 3 or the like (S140), and the posture estimation processing is terminated.
[Effects of this embodiment]
In the object detection system 100 described in detail above, the ECU 2 irradiates a laser beam for each irradiation region obtained by dividing the detection region for detecting an object in a grid shape in the horizontal direction and the vertical direction in advance. A distance measuring point group including each distance and reflection intensity obtained by receiving the reflected light of the laser light is acquired. Moreover, ECU2 determines whether each ranging point is a road surface based on a ranging point group. And ECU2 calculates the attitude angle of the own vehicle based on the distance of the ranging point determined to be a road surface.

このような物体検出システム100によれば、物体を検出する構成において路面を特定し、路面との位置関係に基づいて自車両の姿勢を推定することができる。よって、自車両の姿勢を推定する構成と物体を検出する構成と兼用することができる。   According to such an object detection system 100, it is possible to specify a road surface in a configuration for detecting an object and estimate the posture of the host vehicle based on the positional relationship with the road surface. Therefore, the configuration for estimating the posture of the host vehicle and the configuration for detecting an object can be combined.

また、上記物体検出システム100においてECU2は、測距点群のうちの水平方向に並ぶ複数の測距点をラインとして、少なくとも1つのラインにおいて、距離および反射強度のばらつきが基準値未満となる部位を路面として推定する。   Further, in the object detection system 100, the ECU 2 uses a plurality of distance measuring points arranged in the horizontal direction in the distance measuring point group as a line, and a portion where variations in distance and reflection intensity are less than a reference value in at least one line. Is estimated as the road surface.

このような物体検出システム100によれば、路面においては距離および反射強度が概ね一様になる特性があることを鑑みて路面の判定を行うので、精度よく路面を判定することができる。   According to such an object detection system 100, since the road surface is determined in view of the characteristics that the distance and the reflection intensity are substantially uniform on the road surface, the road surface can be determined with high accuracy.

また、上記物体検出システム100においてECU2は、複数のラインについて、路面を判定する。
このような物体検出システム100によれば、複数のラインでの路面の判定結果を利用して路面を判定するので、より精度よく路面を判定することができる。
In the object detection system 100, the ECU 2 determines road surfaces for a plurality of lines.
According to such an object detection system 100, since the road surface is determined using the road surface determination results for a plurality of lines, the road surface can be determined with higher accuracy.

また、上記物体検出システム100においてECU2は、測距点群から立体物を検出し、測距点群から立体物に関する測距点を除外した立体物除外点群を生成する。そして、立体物除外点群を用いて各測距点が路面のものであるか否かを判定する。   In the object detection system 100, the ECU 2 detects a three-dimensional object from the distance measuring point group, and generates a three-dimensional object excluded point group from which the distance measuring point related to the three-dimensional object is excluded from the distance measuring point group. And it is determined whether each ranging point is a thing of a road surface using a solid object exclusion point group.

このような物体検出システム100によれば、路面ではない立体物を検出できた場合、この立体物を除外した測距点を用いて路面を判定することができる。よって路面の判定精度を向上させることができる。   According to such an object detection system 100, when a solid object that is not a road surface can be detected, the road surface can be determined using a distance measuring point excluding the solid object. Therefore, the road surface determination accuracy can be improved.

また、上記物体検出システム100においてECU2は、路面と判定された測距点の少なくとも1つから得られる路面との距離、当該測距点を得るために照射したレーザ光の照射角と、レーザ光の発光部の取付高さと、取付姿勢と、を用いて自車両のピッチ角を推定する。   Further, in the object detection system 100, the ECU 2 detects the distance from the road surface obtained from at least one of the distance measurement points determined as the road surface, the irradiation angle of the laser light irradiated to obtain the distance measurement point, and the laser light. The pitch angle of the host vehicle is estimated using the mounting height of the light emitting unit and the mounting posture.

このような物体検出システム100によれば、自車両のピッチ角に応じて路面との距離が変化することを利用して自車両の姿勢を推定することができる。
[第2実施形態]
次に、別形態の物体検出システム100について説明する。本実施形態(第2実施形態)では、第1実施形態の物体検出システム100と異なる箇所のみを詳述し、第1実施形態の物体検出システム100と同様の箇所については、同一の符号を付して説明を省略する。
According to such an object detection system 100, the posture of the host vehicle can be estimated using the fact that the distance from the road surface changes according to the pitch angle of the host vehicle.
[Second Embodiment]
Next, another type of object detection system 100 will be described. In the present embodiment (second embodiment), only the parts different from the object detection system 100 of the first embodiment will be described in detail, and the same parts as those of the object detection system 100 of the first embodiment will be denoted by the same reference numerals. Therefore, the description is omitted.

第2実施形態の物体検出システム100では、姿勢推定処理にて、回転行列を用いてピッチ角αを演算する。詳細には、図7の姿勢角演算処理に代えて図8に示す姿勢角演算処理を実施する。   In the object detection system 100 of the second embodiment, the pitch angle α is calculated using the rotation matrix in the posture estimation process. Specifically, the attitude angle calculation process shown in FIG. 8 is performed instead of the attitude angle calculation process of FIG.

第2実施形態の姿勢角演算処理では、図8に示すように、まず、回転角を演算する(S510)。
まず、ピッチ角αを求める場合を考える。ピッチ角α回転を表現する回転行列をR(α)とおく。
In the posture angle calculation process of the second embodiment, as shown in FIG. 8, first, a rotation angle is calculated (S510).
First, consider the case of obtaining the pitch angle α. Let R x (α) be a rotation matrix expressing the pitch angle α rotation.

すると、ピッチ角αを推定するためのピッチ推定方程式は次のようになる。   Then, the pitch estimation equation for estimating the pitch angle α is as follows.

なお、極座標系と直交座標系との関係は、図9に示す通りである。また、ピッチ角αが充分に小さい値と仮定できる場合には、三角関数を多項式として近似して演算を行うとよい。   The relationship between the polar coordinate system and the orthogonal coordinate system is as shown in FIG. When the pitch angle α can be assumed to be a sufficiently small value, the calculation may be performed by approximating a trigonometric function as a polynomial.

このように近似すれば、演算コストを低減できる。上記の回転行列を用いた連立方程式を解くことで、ピッチ角αを推定できる。
ここで、回転行列を用いる場合、ピッチ角αに加えてロール角βについても同時に推定することができる。ロール角β回転を表現する回転行列をR(β)とおく。
If approximated in this way, the calculation cost can be reduced. The pitch angle α can be estimated by solving the simultaneous equations using the rotation matrix.
Here, when the rotation matrix is used, the roll angle β can be estimated simultaneously in addition to the pitch angle α. A rotation matrix expressing the roll angle β rotation is R y (β).

ピッチ角αとロール角βを求める回転行列Rx、y(α、β)は、回転行列R(α)と回転行列R(β)との行列の積で表現できる。 The rotation matrix R x, y (α, β) for obtaining the pitch angle α and the roll angle β can be expressed by the product of the rotation matrix R x (α) and the rotation matrix R y (β).

この回転行列Rx、y(α、β)を[数8]にて示したピッチ推定方程式における回転行列R(α)と置換すると、ピッチ角αとロール角βとを求めることができる。なお、ピッチ角αとロール角βとを求める際には、路面の測距点が2つ以上必要となる。 When this rotation matrix R x, y (α, β) is replaced with the rotation matrix R x (α) in the pitch estimation equation shown in [Equation 8], the pitch angle α and the roll angle β can be obtained. When the pitch angle α and the roll angle β are obtained, two or more distance measuring points on the road surface are required.

続いて、代表角の演算を行う(S520)。ここでは、求められたピッチ角αについて平均を求める。即ち、次式を用いる。   Subsequently, the representative angle is calculated (S520). Here, an average is obtained for the obtained pitch angle α. That is, the following equation is used.

ロール角βも求めた場合には、同様にロール角βについて平均値を求めればよい。
上記物体検出システム100においてECU2は、路面と判定された測距点群の少なくとも2つから得られる路面との距離、当該測距点群を得るために照射したレーザ光の照射角、レーザ光の発光部の取付高さ、を用いてピッチ角α、およびロール角βを推定できる。
When the roll angle β is also obtained, the average value may be obtained similarly for the roll angle β.
In the object detection system 100, the ECU 2 detects the distance from the road surface obtained from at least two of the distance measurement point groups determined as the road surface, the irradiation angle of the laser light irradiated to obtain the distance measurement point group, The pitch angle α and the roll angle β can be estimated using the mounting height of the light emitting part.

このような物体検出システム100によれば、ピッチ角αとともにロール角βについても推定することができる。
このような物体検出システム100によれば、ピッチ角αおよびロール角βを同時推定することができる。
According to such an object detection system 100, it is possible to estimate the roll angle β as well as the pitch angle α.
According to such an object detection system 100, the pitch angle α and the roll angle β can be estimated simultaneously.

[第3実施形態]
次に、第3実施形態の物体検出システム100について説明する。
第3実施形態の姿勢推定処理では、モデルフィッティング技術を用いて車両の姿勢を推定する。詳細には、図10に示すように、まず、路面軌跡の楕円推定を実施する(S610)。
[Third Embodiment]
Next, the object detection system 100 of 3rd Embodiment is demonstrated.
In the posture estimation process of the third embodiment, the posture of the vehicle is estimated using a model fitting technique. Specifically, as shown in FIG. 10, first, ellipse estimation of a road surface trajectory is performed (S610).

この処理では、例えば、RANSAC(RANdom SAmple Consensus)等のロバスト推定を行う周知アルゴリズムを用いて、路面を示す点群(立体物除外点群)にて示される楕円を決定するためのパラメータ(軸傾きと楕円のアスペクト比)を推定する。   In this process, for example, a parameter (axis inclination) for determining an ellipse indicated by a point group indicating a road surface (three-dimensional object exclusion point group) using a well-known algorithm that performs robust estimation such as RANSAC (RANdom SAmple Consensus). And the aspect ratio of the ellipse).

ここで、立体物除外点群にて示される図形は、ピッチ角αおよびロール角βが0である場合、図11(A)に示すように、円錐41Aが傾きのない平面43Aで切断された真円42Aとなる。また、立体物除外点群にて示される図形は、ピッチ角α又はロール角βが0でない場合、図11(B)に示すように、円錐41Bがピッチ角αおよびロール角βに応じて傾いた平面43Bで切断された楕円42Bとなる。   Here, in the figure indicated by the three-dimensional object exclusion point group, when the pitch angle α and the roll angle β are 0, as shown in FIG. 11A, the cone 41A is cut by a plane 43A having no inclination. It becomes a perfect circle 42A. Further, in the figure indicated by the three-dimensional object exclusion point group, when the pitch angle α or the roll angle β is not 0, the cone 41B is inclined according to the pitch angle α and the roll angle β as shown in FIG. It becomes an ellipse 42B cut by the flat surface 43B.

そこで、本実施形態では、既知であるレーザレーダの出射モデル(円錐41A又は41B)と、観測図形(楕円42A又は42B)とを用いて、逆算的にピッチ角αとロール角βとを演算する。   Therefore, in the present embodiment, the pitch angle α and the roll angle β are calculated inversely using the known laser radar emission model (cone 41A or 41B) and the observed figure (ellipse 42A or 42B). .

具体的には、図12に示すように、レーザ光の射出角度から特定され、レーザ光の軌跡によって描かれる円錐の形状を特定する既知の円錐パラメタと、立体物除外点群から得られる楕円の形状を特定する楕円パラメタから、路面の位置と傾きを特定する平面パラメタを求める(S620)。そして、得られた平面パラメタからピッチ角αとロール角βとを求める(S630)。このとき、計算量削減のため、楕円パラメタに応じてピッチ角αとロール角βとを対応付けたマップを予め準備しておき、このマップを参照することによって、ピッチ角αおよびロール角βを求めてもよい。   Specifically, as shown in FIG. 12, a known cone parameter that specifies the shape of a cone that is specified from the laser beam emission angle and is drawn by the locus of the laser beam, and an ellipse obtained from the three-dimensional object exclusion point group A plane parameter for specifying the position and inclination of the road surface is obtained from the ellipse parameter for specifying the shape (S620). Then, the pitch angle α and the roll angle β are obtained from the obtained plane parameters (S630). At this time, in order to reduce the amount of calculation, a map in which the pitch angle α and the roll angle β are associated with each other according to the ellipse parameter is prepared in advance, and the pitch angle α and the roll angle β are determined by referring to this map. You may ask for it.

このような物体検出システム100によれば、観測した路面上の図形から自車両のピッチ角およびロール角を推定することにより、ノイズに影響され難い姿勢角推定が可能となる。   According to such an object detection system 100, it is possible to estimate a posture angle that is hardly affected by noise by estimating the pitch angle and roll angle of the host vehicle from the observed figure on the road surface.

[その他の実施形態]
本発明は、上記の実施形態によって何ら限定して解釈されない。また、上記の実施形態の説明で用いる符号を特許請求の範囲にも適宜使用しているが、各請求項に係る発明の理解を容易にする目的で使用しており、各請求項に係る発明の技術的範囲を限定する意図ではない。上記実施形態における1つの構成要素が有する機能を複数の構成要素として分散させたり、複数の構成要素が有する機能を1つの構成要素に統合させたりしてもよい。また、上記実施形態の構成の少なくとも一部を、同様の機能を有する公知の構成に置き換えてもよい。また、上記実施形態の構成の一部を、課題を解決できる限りにおいて省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。
[Other Embodiments]
The present invention is not construed as being limited by the above embodiment. Further, the reference numerals used in the description of the above embodiments are also used in the claims as appropriate, but they are used for the purpose of facilitating the understanding of the invention according to each claim, and the invention according to each claim. It is not intended to limit the technical scope of The functions of one component in the above embodiment may be distributed as a plurality of components, or the functions of a plurality of components may be integrated into one component. Further, at least a part of the configuration of the above embodiment may be replaced with a known configuration having the same function. Moreover, you may abbreviate | omit a part of structure of the said embodiment as long as a subject can be solved. In addition, at least a part of the configuration of the above embodiment may be added to or replaced with the configuration of the other embodiment. In addition, all the aspects included in the technical idea specified only by the wording described in the claim are embodiment of this invention.

上述した物体検出システム100の他、当該物体検出システム100の構成要素となる装置、当該物体検出システム100としてコンピュータを機能させるためのプログラム、このプログラムを記録した媒体、物体検出方法など、種々の形態で本発明を実現することもできる。   In addition to the object detection system 100 described above, various forms such as an apparatus that is a component of the object detection system 100, a program for causing a computer to function as the object detection system 100, a medium on which the program is recorded, an object detection method, etc. Thus, the present invention can be realized.

例えば、上記第1実施形態においては、距離や反射強度、或いはz座標のばらつきが小さい場合に路面であると推定したが、道路標示を検出し、道路標示がある位置を路面であると推定してもよい。   For example, in the first embodiment, the road surface is estimated when the distance, the reflection intensity, or the z-coordinate variation is small. However, the road marking is detected and the position where the road marking is located is estimated as the road surface. May be.

具体的には、物体検出システム100においてECU2は、少なくとも1つのラインにおいて、距離のばらつきが小さく、かつ隣接する部位との反射強度の差が判定値以上となるエッジが検出された場合、これらの測距点によって特定される領域を路面として推定するようにすればよい。   Specifically, in the object detection system 100, the ECU 2 detects these edges when at least one line has a small variation in distance and the difference in reflection intensity between adjacent parts is equal to or greater than a determination value. The area specified by the distance measuring point may be estimated as the road surface.

このような物体検出システム100によれば、距離のばらつきが小さく、かつ反射強度のエッジを検出することで、白線等の道路標示を検出できる。道路標示は路面の表面に存在するものであるため、この測距点を路面として判定すればより精度よく路面を判定することができる。   According to such an object detection system 100, a road marking such as a white line can be detected by detecting an edge having a small distance variation and reflection intensity. Since the road marking is present on the surface of the road surface, the road surface can be determined with higher accuracy if the distance measuring point is determined as the road surface.

[実施形態の構成と本発明の手段との対応関係]
上記実施形態において、物体検出システム100のECU2は本発明でいう車両姿勢推定装置に相当する。また、ECU2が実行する処理のうちのS110の処理は本発明でいう測距点群取得手段に相当し、上記実施形態におけるS120の処理は本発明でいう路面判定手段に相当する。
[Correspondence between Configuration of Embodiment and Means of Present Invention]
In the above embodiment, the ECU 2 of the object detection system 100 corresponds to the vehicle attitude estimation device referred to in the present invention. In addition, the process of S110 among the processes executed by the ECU 2 corresponds to the distance measurement point group acquisition unit referred to in the present invention, and the process of S120 in the above embodiment corresponds to the road surface determination unit referred to in the present invention.

さらに、上記実施形態におけるS130の処理は本発明でいう姿勢角演算手段に相当し、上記実施形態におけるS115の処理は本発明でいう立体物検出手段に相当する。また、上記実施形態におけるS235の処理は本発明でいう立体物除外点群生成手段に相当する。   Furthermore, the process of S130 in the above embodiment corresponds to the attitude angle calculation means referred to in the present invention, and the process of S115 in the above embodiment corresponds to the three-dimensional object detection means referred to in the present invention. Moreover, the process of S235 in the said embodiment is corresponded to the solid object exclusion point cloud production | generation means said by this invention.

1…レーザレーダ、2…ECU、3…運転支援システム、4…車両情報検出部、5…車両、6…路面、11…発光部、12…受光部、13…TOF算出部、20…記憶部、21…距離算出部、22…位置算出部、23…車両情報取得部、24…車両姿勢推定部、100…物体検出システム。   DESCRIPTION OF SYMBOLS 1 ... Laser radar, 2 ... ECU, 3 ... Driving support system, 4 ... Vehicle information detection part, 5 ... Vehicle, 6 ... Road surface, 11 ... Light emission part, 12 ... Light-receiving part, 13 ... TOF calculation part, 20 ... Memory | storage part , 21 ... distance calculation unit, 22 ... position calculation unit, 23 ... vehicle information acquisition unit, 24 ... vehicle posture estimation unit, 100 ... object detection system.

Claims (6)

自車両に搭載され、自車両の姿勢を推定する車両姿勢推定装置(2)であって、
物体を検出する検出領域を予め水平方向および鉛直方向に格子状に区分した照射領域毎にレーザ光を照射し、それぞれの照射領域にて前記レーザ光の反射光を受光することで得られるそれぞれの物体との距離および反射強度を含む情報を測距点として、複数の測距点の集合を表す測距点群を取得する測距点群取得手段(S110)と、
前記測距点群から立体物を検出する立体物検出手段(S115)と、
前記測距点群から立体物に関する測距点を除外した立体物除外点群を生成する立体物除外点群生成手段(S235)と、
前記立体物除外点群を用いて各測距点が路面のものであるか否かを判定する路面判定手段(S120)と、
路面であると判定された測距点の距離に基づいて、自車両の姿勢角を演算する姿勢角演算手段(S130)と、
を備え
前記路面判定手段は、前記測距点群のうちの前記水平方向に並ぶ複数の測距点をラインとして、少なくとも1つのラインにおいて、前記距離のばらつきが小さく、かつ隣接する測距点の反射強度の差が判定値以上となるエッジが検出された場合、道路標示が検出されたものとして、これらの測距点によって特定される領域を路面として判定することを特徴とする姿勢推定装置。
A vehicle attitude estimation device (2) mounted on the own vehicle for estimating the attitude of the own vehicle,
Each of the detection areas obtained by detecting the detection area for detecting an object in each of the irradiation areas obtained by previously dividing the detection area into a grid shape in the horizontal direction and the vertical direction, and receiving the reflected light of the laser light in each irradiation area Distance measurement point group acquisition means (S110) for acquiring a distance measurement point group representing a set of a plurality of distance measurement points using information including the distance to the object and the reflection intensity as a distance measurement point;
Three-dimensional object detection means (S115) for detecting a three-dimensional object from the distance measuring point group;
Three-dimensional object excluded point group generation means (S235) for generating a three-dimensional object excluded point group excluding distance measuring points related to a three-dimensional object from the distance measuring point group;
Road surface determination means (S120) for determining whether or not each ranging point is on the road surface using the three-dimensional object exclusion point group ;
Attitude angle calculation means (S130) for calculating the attitude angle of the host vehicle based on the distance of the distance measuring point determined to be the road surface;
Equipped with a,
The road surface judging means has a plurality of distance measuring points arranged in the horizontal direction in the distance measuring point group as a line, and the variation in the distance is small in at least one line and the reflection intensity of an adjacent distance measuring point. A posture estimation device characterized in that when an edge whose difference is equal to or greater than a determination value is detected, a region specified by these distance measurement points is determined as a road surface as a road marking is detected .
請求項1に記載の姿勢推定装置において、
前記路面判定手段は、複数のラインについて、路面を推定すること
を特徴とする姿勢推定装置。
The posture estimation apparatus according to claim 1 ,
The said road surface determination means estimates a road surface about a some line. The attitude | position estimation apparatus characterized by these.
請求項1または請求項2に記載の姿勢推定装置において、
前記姿勢角演算手段は、前記路面と判定された測距点の少なくとも1つから得られる路面との距離、当該測距点を得るために照射したレーザ光の照射角、前記レーザ光の発光部の取付高さ、取付姿勢、を用いて自車両の前後方向の傾きを表すピッチ角を演算すること
を特徴とする姿勢推定装置。
In the posture estimation apparatus according to claim 1 or 2 ,
The attitude angle calculation means includes a distance from at least one of the determined distance measurement points to a road surface, an irradiation angle of laser light irradiated to obtain the distance measurement point, and a laser light emitting unit. A posture angle estimation device that calculates a pitch angle representing an inclination in the front-rear direction of the host vehicle using the mounting height and mounting posture of the vehicle.
請求項1〜請求項3の何れか1項に記載の姿勢推定装置において、
前記姿勢角演算手段は、前記路面と判定された測距点の少なくとも2つから得られる路面との距離、当該測距点を得るために照射したレーザ光の照射角、前記レーザ光の発光部の取付高さ、取付姿勢、を用いて自車両の前後方向の傾きを表すピッチ角、および自車両
の左右方向の傾きを表すロール角を演算すること
を特徴とする姿勢推定装置。
In the posture estimation apparatus according to any one of claims 1 to 3 ,
The posture angle calculation means includes a distance between at least two distance measuring points determined as the road surface, an irradiation angle of laser light irradiated to obtain the distance measuring points, and a laser light emitting unit. A posture estimation device that calculates a pitch angle that represents a front-rear direction inclination of the host vehicle and a roll angle that represents a left-right direction tilt of the host vehicle using the mounting height and the mounting posture.
請求項4に記載の姿勢推定装置において、
前記姿勢角演算手段は、ピッチ角に関する回転行列とロール角に関する回転行列との積を用いて表される連立方程式を解くことにより、前記ピッチ角および前記ロール角を演算すること
を特徴とする姿勢推定装置。
The posture estimation apparatus according to claim 4 ,
The posture angle calculating means calculates the pitch angle and the roll angle by solving simultaneous equations expressed using a product of a rotation matrix related to the pitch angle and a rotation matrix related to the roll angle. Estimating device.
請求項1〜請求項3の何れか1項に記載の姿勢推定装置において、
前記姿勢角演算手段は、レーザ出射パラメタと、路面判定された測距点の軌跡パラメタと、を用いて路面パラメタを求めることによって、自車両の前後方向の傾きを表すピッチ角および自車両の左右方向の傾きを表すロール角を演算すること
を特徴とする姿勢推定装置。
In the posture estimation apparatus according to any one of claims 1 to 3 ,
The attitude angle calculation means obtains a road surface parameter by using a laser emission parameter and a path parameter of a distance measurement point determined to be a road surface, thereby obtaining a pitch angle representing an inclination in the front-rear direction of the host vehicle and a right and left of the host vehicle. A posture estimation device characterized by calculating a roll angle representing a tilt of a direction .
JP2015088454A 2015-04-23 2015-04-23 Posture estimation device Active JP6453701B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015088454A JP6453701B2 (en) 2015-04-23 2015-04-23 Posture estimation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015088454A JP6453701B2 (en) 2015-04-23 2015-04-23 Posture estimation device

Publications (2)

Publication Number Publication Date
JP2016206025A JP2016206025A (en) 2016-12-08
JP6453701B2 true JP6453701B2 (en) 2019-01-16

Family

ID=57487653

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015088454A Active JP6453701B2 (en) 2015-04-23 2015-04-23 Posture estimation device

Country Status (1)

Country Link
JP (1) JP6453701B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7064163B2 (en) * 2017-12-07 2022-05-10 コニカミノルタ株式会社 3D information acquisition system
JP7021569B2 (en) * 2018-03-08 2022-02-17 株式会社デンソーウェーブ Laser radar device
WO2019198789A1 (en) * 2018-04-12 2019-10-17 株式会社小糸製作所 Object identification system, automobile, vehicle lamp fitting, and object clustering method
DE102018110775A1 (en) * 2018-05-04 2019-11-07 Valeo Schalter Und Sensoren Gmbh Method for determining an orientation of an optoelectronic sensor by means of sampling points of a sensor image and optoelectronic sensor
DE102018110774A1 (en) * 2018-05-04 2019-11-07 Valeo Schalter Und Sensoren Gmbh Method for determining a roll angle of an optoelectronic sensor by means of sampling points of a sensor image and optoelectronic sensor
FR3085656B1 (en) * 2018-09-11 2023-04-28 Renault Sas ROAD DETECTION METHOD FOR A MOTOR VEHICLE PROVIDED WITH A LIDAR SENSOR
JP7324026B2 (en) 2019-03-26 2023-08-09 株式会社トプコン measuring device
WO2023145043A1 (en) * 2022-01-31 2023-08-03 日本電信電話株式会社 Device, method and program for detecting target facility
CN115435077A (en) * 2022-08-31 2022-12-06 中国重汽集团济南动力有限公司 Gear control method and device based on heavy-duty vehicle and storage medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4644800B2 (en) * 2005-01-07 2011-03-02 国立大学法人電気通信大学 3D position input device
EP2682784B1 (en) * 2011-03-02 2015-06-24 Toyota Jidosha Kabushiki Kaisha Laser radar device
JP2012225806A (en) * 2011-04-20 2012-11-15 Toyota Central R&D Labs Inc Road gradient estimation device and program
JP6221607B2 (en) * 2013-10-08 2017-11-01 株式会社デンソー Object detection device

Also Published As

Publication number Publication date
JP2016206025A (en) 2016-12-08

Similar Documents

Publication Publication Date Title
JP6453701B2 (en) Posture estimation device
JP6756124B2 (en) Object detection device and object detection program
CN110389586B (en) System and method for ground and free space exploration
JPWO2018221453A1 (en) Output device, control method, program, and storage medium
JPWO2017104163A1 (en) Parking support method and apparatus
JP2018194562A (en) Method and device for detecting road boundary
US20110235861A1 (en) Method and apparatus for estimating road shape
JP7077967B2 (en) Driving lane estimation device, driving lane estimation method, and control program
WO2020235396A1 (en) Obstacle detection device and obstacle detection method
US20110227781A1 (en) Method and apparatus for detecting road-edges
JP2018025490A (en) Position estimation device
WO2021070916A1 (en) Axial deviation estimating device
JP2020071122A (en) Own vehicle position estimation device
JP5781126B2 (en) Obstacle determination device, autonomous mobile device, and obstacle determination method
US20230008630A1 (en) Radar device
JP7081098B2 (en) Driving environment recognition device, driving environment recognition method, program
JP2023095904A (en) Self-position estimation device
JP2020148470A (en) Road surface detector
JP2020066246A (en) Road surface state estimation device
JP2017129446A (en) Object detector
JP2019164098A (en) Road surface shape estimation device, road surface shape estimation program, and moving body
CN112526530B (en) Unmanned aerial vehicle obstacle avoidance method and unmanned aerial vehicle
JP2012008706A (en) Road shape detector
JP2020086489A (en) White line position estimation device and white line position estimation method
JP7252110B2 (en) Axial misalignment estimator

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170914

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180920

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181213

R150 Certificate of patent or registration of utility model

Ref document number: 6453701

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250