JP2010002334A - Road surface gradient estimating device - Google Patents

Road surface gradient estimating device Download PDF

Info

Publication number
JP2010002334A
JP2010002334A JP2008162149A JP2008162149A JP2010002334A JP 2010002334 A JP2010002334 A JP 2010002334A JP 2008162149 A JP2008162149 A JP 2008162149A JP 2008162149 A JP2008162149 A JP 2008162149A JP 2010002334 A JP2010002334 A JP 2010002334A
Authority
JP
Japan
Prior art keywords
road surface
angle
sensor
pitch angle
gradient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008162149A
Other languages
Japanese (ja)
Inventor
Ayako Nishimura
絢子 西村
Mikio Obayashi
幹生 大林
Masayuki Naito
政行 内藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Advics Co Ltd
Toyota Motor Corp
Original Assignee
Advics Co Ltd
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Advics Co Ltd, Toyota Motor Corp filed Critical Advics Co Ltd
Priority to JP2008162149A priority Critical patent/JP2010002334A/en
Publication of JP2010002334A publication Critical patent/JP2010002334A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a road surface gradient estimating device for accurately estimating a gradient angle of a road surface. <P>SOLUTION: The road surface gradient estimating device 10 for estimating the gradient angle of the road surface positioned by an own vehicle C based on a plurality of camera images due to a camera 1 includes: an extracting part 31 for extracting a static object common in each camera image as a characteristic point; a detecting part 32 for detecting a movement amount moved by the characteristic point extracted with the extracting part 31 over the plurality of the camera images; a calculating part 33 for calculating a pitch angle of the own vehicle C based on the movement amount detected with the detecting part 32; a G sensor 2 for obtaining a sensor value indicating acceleration of a vertical direction of the own vehicle C; and a correcting part 34 for calculating the gradient angle based on the sensor value obtained with the G sensor 2 and the pitch angle calculated with the calculating part 33. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、自車両が位置する路面の勾配角度を推定する路面勾配推定装置に関する。   The present invention relates to a road surface gradient estimation device that estimates a gradient angle of a road surface on which a host vehicle is located.

従来、様々な方法により、自車両が位置している路面の勾配角度を推定することが行われている。例えば、特許文献1には、角速度センサにより得られた検出信号を積分することにより、路面の勾配角度を算出して推定することが記載されている。   Conventionally, the gradient angle of the road surface on which the host vehicle is located is estimated by various methods. For example, Patent Document 1 describes that a gradient angle of a road surface is calculated and estimated by integrating detection signals obtained by an angular velocity sensor.

一方、車両にかかる加速度を加速度センサによって計測し、この加速度に基づいて勾配角度を推定することも考えられている。ここで、車両に前後ピッチングが発生した場合、加速度センサによる計測結果はこのピッチングの影響を受けてしまうため、加速度センサのみを用いただけでは路面の勾配角度を精度良く推定できないおそれがある。   On the other hand, it is also considered that the acceleration applied to the vehicle is measured by an acceleration sensor and the gradient angle is estimated based on the acceleration. Here, when front-rear pitching occurs in the vehicle, the measurement result by the acceleration sensor is affected by the pitching. Therefore, there is a possibility that the slope angle of the road surface cannot be accurately estimated using only the acceleration sensor.

このため、車両のピッチング角(以下、ピッチ角という。)を検出してから、このピッチ角に基づいて加速度センサによる計測結果を補正することが考えられる。例えば、特許文献2には、車両に固定したカメラにより撮影された路面上の白線又は車線の幅に基づいて、ピッチ角を検出することが記載されている。
特開平8−327378号公報 特開平7−141486号公報
For this reason, it is conceivable to detect the pitching angle of the vehicle (hereinafter referred to as the pitch angle) and then correct the measurement result by the acceleration sensor based on the pitch angle. For example, Patent Document 2 describes that a pitch angle is detected based on the width of a white line or a lane on a road surface photographed by a camera fixed to a vehicle.
JP-A-8-327378 JP-A-7-141486

しかしながら、特許文献2に記載の技術では、路面上の白線又は車線の幅を精度良く撮影できないことがあるために、ピッチ角の検出結果にロバスト性が無いおそれがある。即ち、ピッチ角の検出結果にバラツキが生じやすくなる可能性がある。この結果、路面の勾配角度を精度良く推定することができないおそれがある。   However, in the technique described in Patent Document 2, since the white line or the lane width on the road surface may not be photographed with high accuracy, the pitch angle detection result may not be robust. That is, there is a possibility that the pitch angle detection result is likely to vary. As a result, the slope angle of the road surface may not be accurately estimated.

そこで本発明は、路面の勾配角度をより精度良く推定することが可能な路面勾配推定装置を提供することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide a road surface gradient estimation device that can estimate a road surface gradient angle with higher accuracy.

すなわち、本発明に係る路面勾配推定装置は、撮像手段による複数の撮像画像に基づいて、自車両が位置する路面の勾配角度を推定する路面勾配推定装置であって、各撮像画像に共通する静止物を特徴点として抽出する抽出手段と、抽出手段によって抽出された特徴点が複数の撮像画像にわたって移動する移動量に基づいて自車両のピッチ角を算出する算出手段と、自車両の上下方向の加速度を検出する検出手段と、検出手段によって検出された上下方向の加速度と算出手段によって算出されたピッチ角とに基づいて勾配角度を演算する演算手段と、を備えることを特徴とする。   That is, the road surface gradient estimation apparatus according to the present invention is a road surface gradient estimation apparatus that estimates a gradient angle of a road surface on which the host vehicle is located based on a plurality of captured images obtained by an imaging unit, and is a stationary common to each captured image. Extraction means for extracting an object as a feature point; calculation means for calculating a pitch angle of the host vehicle based on a movement amount by which the feature point extracted by the extraction unit moves over a plurality of captured images; And a detection unit that detects acceleration, and a calculation unit that calculates a gradient angle based on the vertical acceleration detected by the detection unit and the pitch angle calculated by the calculation unit.

本発明では、まず、各撮像画像に共通する静止物を特徴点として抽出手段が抽出し、この特徴点が複数の撮像画像にわたって移動する移動量に基づいて自車両のピッチ角を算出手段が算出する。そして、検出手段が検出した上下方向の加速度とこのピッチ角とに基づいて演算手段が勾配角度を演算する。   In the present invention, first, the extraction unit extracts a stationary object common to each captured image as a feature point, and the calculation unit calculates the pitch angle of the host vehicle based on the amount of movement of the feature point over a plurality of captured images. To do. Then, the calculating means calculates the gradient angle based on the vertical acceleration detected by the detecting means and the pitch angle.

このように、路面上の白線又は車線の幅に基づいてピッチ角を検出することなく、特徴点が複数の撮像画像にわたって移動する移動量に基づいて自車両のピッチ角が算出され、そして、上下方向の加速度とこのピッチ角とに基づいて勾配角度が演算される。このため、路面上の白線又は車線の幅に基づいてピッチ角を検出する場合に比べて、算出されたピッチ角にバラツキが生じ難くなる。このことから、路面の勾配角度をより精度良く推定することが可能となる。   In this way, the pitch angle of the host vehicle is calculated based on the amount of movement of the feature points across the plurality of captured images without detecting the pitch angle based on the width of the white line or lane on the road surface, and A gradient angle is calculated based on the direction acceleration and the pitch angle. For this reason, the calculated pitch angle is less likely to vary than when the pitch angle is detected based on the width of the white line or lane on the road surface. From this, it becomes possible to estimate the gradient angle of the road surface with higher accuracy.

また、算出手段は、抽出手段によって特徴点が抽出された撮像画像の数が所定数以上である場合に、当該特徴点の移動量を検出して当該移動量に基づいてピッチ角を算出するのも好ましい。これにより、所定数以上の撮像画像に共通する静止物が特徴点として抽出されるので、特徴点の移動量を精度良く検出することができる。   The calculating means detects the movement amount of the feature point and calculates the pitch angle based on the movement amount when the number of captured images from which the feature point has been extracted by the extracting means is equal to or greater than a predetermined number. Is also preferable. As a result, a stationary object that is common to a predetermined number or more of the captured images is extracted as a feature point, so that the amount of movement of the feature point can be accurately detected.

本発明によれば、路面の勾配角度をより精度良く推定することが可能な路面勾配推定装置を提供することが可能である。   ADVANTAGE OF THE INVENTION According to this invention, it is possible to provide the road surface gradient estimation apparatus which can estimate the road surface gradient angle more accurately.

以下、添付図面を参照して本発明の好適な実施の形態について詳細に説明する。説明の理解を容易にするため、各図面において同一の構成要素に対しては可能な限り同一の符号を附し、重複する説明は省略する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the accompanying drawings. In order to facilitate understanding of the description, the same components in the drawings are denoted by the same reference numerals as much as possible, and redundant description will be omitted.

まず、図1を用いて、本発明の実施形態に係る路面勾配推定装置の構成について説明する。図1は、本実施形態に係る路面勾配推定装置10の構成概略図である。   First, the configuration of a road surface gradient estimation apparatus according to an embodiment of the present invention will be described with reference to FIG. FIG. 1 is a schematic configuration diagram of a road surface gradient estimation apparatus 10 according to the present embodiment.

路面勾配推定装置10は、自車両C(例えば乗用車)に取り付けられて、カメラ1(撮像手段)による複数のカメラ画像(撮像画像)に基づいて、自車両Cが位置する路面の勾配角度を推定する装置である。より詳しくは、路面勾配推定装置10は、複数のカメラ画像内の特徴点を抽出してこの特徴点の移動量を検出し、この移動量に基づいて路面のピッチ角を算出する。そして、路面勾配推定装置10は、加速度センサ(以下、Gセンサという。)によって計測された自車両Cの上下方向の加速度(又はこの加速度に基づく路面の勾配角度)と、このピッチ角とに基づいて勾配角度を演算する。   The road surface gradient estimation device 10 is attached to the host vehicle C (for example, a passenger car), and estimates the gradient angle of the road surface on which the host vehicle C is located based on a plurality of camera images (captured images) by the camera 1 (imaging means). It is a device to do. More specifically, the road surface gradient estimation device 10 extracts feature points in a plurality of camera images, detects the movement amount of the feature points, and calculates the pitch angle of the road surface based on the movement amount. The road surface gradient estimation device 10 is based on the vertical acceleration (or the road surface gradient angle based on this acceleration) of the host vehicle C measured by an acceleration sensor (hereinafter referred to as G sensor) and the pitch angle. To calculate the gradient angle.

路面勾配推定装置10は、カメラ1、Gセンサ2(検出手段)、及びカメラ1及びGセンサ2のそれぞれに接続されたECU3(Electronic Control Unitの略、即ち電子制御装置)を備えている。なお、路面勾配推定装置10が取り付けられている自車両Cには、ECU3に接続された各種センサ4〜6と、ブレーキ7とが含まれている。   The road surface gradient estimation device 10 includes a camera 1, a G sensor 2 (detection means), and an ECU 3 (abbreviation of Electronic Control Unit, that is, an electronic control device) connected to each of the camera 1 and the G sensor 2. Note that the host vehicle C to which the road surface gradient estimation device 10 is attached includes various sensors 4 to 6 connected to the ECU 3 and a brake 7.

ここで、ECU3は、抽出部31(抽出手段)、検出部32(算出手段)、算出部33(算出手段)、及び補正部34(演算手段)を有している。抽出部31、検出部32、算出部33、及び補正部34による機能は、ECU3により実現される。ECU3は、CPU、ROM、RAM等からなるマイクロコンピュータを主要構成部品とするユニットである。各種センサ4〜6とは、舵角センサ4、車輪速センサ5、及びブレーキ圧力センサ6のことである。ブレーキ圧力センサ6は、ブレーキ7と接続されている。   Here, the ECU 3 includes an extraction unit 31 (extraction unit), a detection unit 32 (calculation unit), a calculation unit 33 (calculation unit), and a correction unit 34 (calculation unit). The functions of the extraction unit 31, the detection unit 32, the calculation unit 33, and the correction unit 34 are realized by the ECU 3. The ECU 3 is a unit whose main component is a microcomputer including a CPU, a ROM, a RAM, and the like. The various sensors 4 to 6 are the steering angle sensor 4, the wheel speed sensor 5, and the brake pressure sensor 6. The brake pressure sensor 6 is connected to the brake 7.

カメラ1は、CCDあるいはCMOS等の半導体素子を用いた魚眼カメラであり、比較的広角なレンズを有している。このため、カメラ1は、自車両Cの周辺を広角撮像してカメラ画像を取得することができる。カメラ1は、例えば、路面勾配推定装置10によって路面の勾配角度の推定が行われる方向を向いている。路面の勾配角度の推定が行われる方向は特に限定されないが、例えば、自車両Cの前方方向(即ち、図1におけるECU3からカメラ1に向かう方向)である場合(即ち、図1における抽出部31から補正部34に向かう方向の軸まわりのピッチ角を検出する場合)は、カメラ1は自車両Cのこの前方方向、後方方向、又は横方向(即ち、図1における抽出部31から補正部34に向かう方向)を向いている(ただし、図1における抽出部31から補正部34に向かう方向の軸に、垂直又は平行な向きの方向を向いている)。カメラ1によって取得されたカメラ画像のデータは、ECU3の抽出部31に送信される。   The camera 1 is a fish-eye camera using a semiconductor element such as a CCD or a CMOS, and has a relatively wide angle lens. For this reason, the camera 1 can acquire a camera image by performing wide-angle imaging of the periphery of the host vehicle C. For example, the camera 1 faces a direction in which the road surface gradient estimation device 10 estimates the road surface gradient angle. The direction in which the gradient angle of the road surface is estimated is not particularly limited. For example, the direction is the forward direction of the host vehicle C (that is, the direction from the ECU 3 to the camera 1 in FIG. 1) (that is, the extraction unit 31 in FIG. 1). When detecting the pitch angle around the axis in the direction from the correction unit 34 to the correction unit 34), the camera 1 moves the vehicle C forward, backward, or laterally (that is, from the extraction unit 31 to the correction unit 34 in FIG. 1). (However, it is oriented in a direction perpendicular or parallel to the axis in the direction from the extraction unit 31 to the correction unit 34 in FIG. 1). Data of the camera image acquired by the camera 1 is transmitted to the extraction unit 31 of the ECU 3.

Gセンサ2は、自車両C(例えば自車両Cの重心)の上下方向の加速度を定期的に計測して、この加速度を示すセンサ値を取得する挙動観測用センサである。Gセンサ2は、自車両Cの上下方向(即ち図1の紙面を貫く方向)や、左右方向(即ち図1の紙面に平行な方向)等あらゆる方向の加速度(重力加速度を含む)を計測することができる。通常、Gセンサ2が計測する加速度の方向は、自車両Cの上下方向である。なお、Gセンサ2は、センサ値を取得した後で、このセンサ値に基づく勾配角度の算出までを行ってもよい。   The G sensor 2 is a behavior observation sensor that periodically measures the vertical acceleration of the host vehicle C (for example, the center of gravity of the host vehicle C) and acquires a sensor value indicating the acceleration. The G sensor 2 measures accelerations (including gravitational acceleration) in all directions such as the vertical direction of the host vehicle C (that is, the direction penetrating the paper surface of FIG. 1) and the horizontal direction (that is, the direction parallel to the paper surface of FIG. 1). be able to. Usually, the direction of acceleration measured by the G sensor 2 is the vertical direction of the host vehicle C. The G sensor 2 may perform calculation of the gradient angle based on the sensor value after acquiring the sensor value.

抽出部31は、カメラ1によって取得された複数のカメラ画像に関して、各カメラ画像に共通する静止物を特徴点として抽出してECU3に記憶させる部分である。特徴点とは、ECU3のROMやRAMに予め記憶された画像パターンと一致するとECU3によって判定された特徴的な点のことである。ECU3によって、カメラ画像と画像パターンとのそれぞれが互いに対応する画素ごとの輝度の比較に基づくテンプレートマッチングが行われる。画像パターンとは、信号機や標識や建造物等といったパターン化可能な静止物を画像として類型化したものである。なお、画像パターンは、ECU3のROMやRAMに予め記憶されていなくてもよく、この場合、自車両Cが車外と通信可能な通信手段を用いることによって、車外の記憶装置内のデータベースから取得可能に構成してもよい。   The extraction unit 31 is a part that extracts a stationary object common to each camera image as a feature point and stores it in the ECU 3 with respect to a plurality of camera images acquired by the camera 1. A feature point is a characteristic point determined by the ECU 3 to match an image pattern stored in advance in the ROM or RAM of the ECU 3. The ECU 3 performs template matching based on a comparison of luminance for each pixel in which the camera image and the image pattern correspond to each other. An image pattern is a pattern of stationary objects that can be patterned, such as traffic lights, signs, and buildings. Note that the image pattern may not be stored in advance in the ROM or RAM of the ECU 3, and in this case, the vehicle C can be acquired from a database in a storage device outside the vehicle by using communication means that can communicate with the outside of the vehicle. You may comprise.

検出部32は、抽出部31によって抽出された特徴点が、複数のカメラ画像にわたって移動する移動量(即ち移動距離)を検出してECU3に記憶させる部分である。検出部32は、所定数以内の(即ち一定時間内での)カメラ画像における特徴点の上下方向等の移動に関する変化量を算出する。この移動量は、例えば、特徴点の移動方向が、カメラ画像における上方向の成分を有する場合はこの上方向成分を+(プラス)としてその成分の大きさとともに算出し、一方、下方向の成分を有する場合はこの下方向成分を−(マイナス)としてその成分の大きさとともに算出する。複数のカメラ画像に共通する特徴点が複数ある場合は、各特徴点に関して移動量が算出される。   The detection unit 32 is a part that detects the amount of movement (that is, the movement distance) that the feature point extracted by the extraction unit 31 moves over a plurality of camera images and stores it in the ECU 3. The detection unit 32 calculates a change amount related to the movement of the feature point in the vertical direction or the like in the camera image within a predetermined number (that is, within a predetermined time). For example, when the moving direction of the feature point has an upward component in the camera image, the amount of movement is calculated along with the magnitude of the upward component as + (plus), while the downward component If this is the case, the downward component is-(minus) and calculated along with the size of the component. When there are a plurality of feature points common to a plurality of camera images, a movement amount is calculated for each feature point.

算出部33は、検出部32によって検出された移動量に基づいて、自車両Cのピッチ角を算出してECU3に記憶させる部分である。算出部33は、例えば、各特徴点に関して、移動量が0(ゼロ)の場合はピッチ角は0(ゼロ)であるとし、移動量が+(プラス)の方向に大きくなるほどピッチ角が−(マイナス)の方向に小さくなるとし、移動量が−(マイナス)の方向に小さくなるほどピッチ角が+(プラス)の方向に大きくなるとして算出してもよい。   The calculation unit 33 is a part that calculates the pitch angle of the host vehicle C based on the movement amount detected by the detection unit 32 and stores it in the ECU 3. For example, with respect to each feature point, the calculation unit 33 assumes that the pitch angle is 0 (zero) when the movement amount is 0 (zero), and the pitch angle becomes-(+) as the movement amount increases in the + (plus) direction. It may be calculated that the pitch angle becomes smaller in the minus direction, and the pitch angle becomes larger in the plus (plus) direction as the movement amount becomes smaller in the minus (minus) direction.

補正部34は、Gセンサ2によって取得されたセンサ値(又はこのセンサ値に基づく路面の勾配角度)と、算出部33によって算出されたピッチ角とに基づいて勾配角度を演算してECU3に記憶させる部分である。より詳しくは、補正部34は、Gセンサ2によって取得されたセンサ値(又はこのセンサ値に基づく路面の勾配角度)から、算出部33によって算出されたピッチ角を差し引くことによって、センサ値のピッチ角に基づく補正を行う。補正部34によって補正演算された結果の値が、路面勾配推定装置10による勾配角度の推定結果として算出される。なお、補正部34は、後述の各種センサ4〜6から送信されるデータに基づいて、更なる補正を行ってもよい。   The correction unit 34 calculates the gradient angle based on the sensor value acquired by the G sensor 2 (or the gradient angle of the road surface based on this sensor value) and the pitch angle calculated by the calculation unit 33 and stores it in the ECU 3. It is a part to be made. More specifically, the correcting unit 34 subtracts the pitch angle calculated by the calculating unit 33 from the sensor value acquired by the G sensor 2 (or the gradient angle of the road surface based on the sensor value), thereby obtaining the pitch of the sensor value. Perform correction based on corners. A value obtained as a result of the correction operation performed by the correction unit 34 is calculated as an estimation result of the gradient angle by the road surface gradient estimation device 10. In addition, the correction | amendment part 34 may perform the further correction | amendment based on the data transmitted from the below-mentioned various sensors 4-6.

舵角センサ4は、自車両Cの車輪(例えば前輪)の向きを検出するセンサである。舵角センサ4によって検出された車輪の向きに関するデータは、ECU3に送信される。   The steering angle sensor 4 is a sensor that detects the direction of the wheel (for example, the front wheel) of the host vehicle C. Data on the direction of the wheel detected by the steering angle sensor 4 is transmitted to the ECU 3.

車輪速センサ5は、自車両Cの車輪(例えば前輪)の回転速度を検出するセンサである。車輪速センサ5によって検出された回転速度に関するデータは、ECU3に送信される。   The wheel speed sensor 5 is a sensor that detects the rotational speed of the wheel (for example, the front wheel) of the host vehicle C. Data regarding the rotational speed detected by the wheel speed sensor 5 is transmitted to the ECU 3.

ブレーキ圧力センサ6は、ブレーキ7が踏み込まれた際の圧力を検出するセンサである。ブレーキ圧力センサ6によって検出された圧力に関するデータは、ECU3に送信される。   The brake pressure sensor 6 is a sensor that detects a pressure when the brake 7 is depressed. Data regarding the pressure detected by the brake pressure sensor 6 is transmitted to the ECU 3.

引き続き、図2を用いて、路面勾配推定装置10で実行される処理の一連の流れについて説明する。図2は、路面勾配推定装置10で実行される処理の一連の流れを説明するためのフローチャートである。図2のフローチャートに示される処理は、主としてカメラ1、Gセンサ2、及びECU3によって行われるものであり、路面勾配推定装置10の電源がオンされてからオフされるまでの間、所定のタイミングで繰り返し実行される。   Next, a series of processes executed by the road surface gradient estimation apparatus 10 will be described with reference to FIG. FIG. 2 is a flowchart for explaining a series of processes executed by the road surface gradient estimation apparatus 10. The processing shown in the flowchart of FIG. 2 is mainly performed by the camera 1, the G sensor 2, and the ECU 3, and at a predetermined timing from when the road surface gradient estimation device 10 is turned on until it is turned off. Repeatedly executed.

まず、ECU3が、ROMやRAMから画像パターンを取得する(ステップS01)。そして、カメラ1が、自車両Cの周辺を広角撮像してカメラ画像を取得する(ステップS02)。   First, the ECU 3 acquires an image pattern from the ROM or RAM (step S01). Then, the camera 1 captures a wide-angle image of the periphery of the host vehicle C and acquires a camera image (step S02).

次に、抽出部31が、カメラ1によって取得された複数のカメラ画像に関して、画像パターンを用いて、各カメラ画像に共通する静止物を特徴点として抽出する(ステップS03)。そして、検出部32が、抽出部31による抽出処理が行われたカメラ画像の数が所定数(即ち、ECU3に事前に設定された設定枚数)以上であるか否かを判定する(ステップS04)。所定数以上のカメラ画像が未だ処理されていない場合、ステップS03に戻って移行する。一方、所定数以上のカメラ画像が既に処理された場合、後述のステップS05に移行する。   Next, the extraction part 31 extracts the stationary object common to each camera image as a feature point using an image pattern regarding the several camera image acquired by the camera 1 (step S03). Then, the detection unit 32 determines whether or not the number of camera images subjected to the extraction process by the extraction unit 31 is equal to or greater than a predetermined number (that is, a set number set in advance in the ECU 3) (step S04). . If a predetermined number or more of camera images have not yet been processed, the process returns to step S03 and proceeds. On the other hand, if a predetermined number or more of camera images have already been processed, the process proceeds to step S05 described later.

ステップS05では、検出部32が、抽出部31によって抽出された特徴点が複数のカメラ画像にわたって一定時間内で移動した移動量を検出する(ステップS05)。そして、算出部33が、検出部32によって検出された移動量に基づいて、自車両Cのピッチ角を算出する(ステップS06)。次に、補正部34が、Gセンサ2によって取得されたセンサ値(又はこのセンサ値に基づく路面の勾配角度)と、算出部33によって算出されたピッチ角とに基づいて勾配角度の演算(即ちセンサ値のピッチ角に基づく補正演算)を行う(ステップS07)。そして、補正部34によって演算された結果の値が、路面勾配推定装置10による勾配角度の推定値として算出される(ステップS08)。   In step S05, the detection unit 32 detects the amount of movement of the feature points extracted by the extraction unit 31 within a certain time over a plurality of camera images (step S05). And the calculation part 33 calculates the pitch angle of the own vehicle C based on the movement amount detected by the detection part 32 (step S06). Next, the correction unit 34 calculates a gradient angle based on the sensor value acquired by the G sensor 2 (or the road surface gradient angle based on the sensor value) and the pitch angle calculated by the calculation unit 33 (that is, Correction calculation based on the pitch angle of the sensor value is performed (step S07). And the value of the result calculated by the correction | amendment part 34 is calculated as an estimated value of the gradient angle by the road surface gradient estimation apparatus 10 (step S08).

引き続き、本実施形態の作用効果について説明する。本実施形態によれば、まず、各カメラ画像に共通する静止物を特徴点として抽出部31が抽出し、この特徴点が複数のカメラ画像にわたって移動した移動量を検出部32が検出する。そして、この移動量に基づいて自車両Cのピッチ角を算出部33が算出し、Gセンサ2によって取得されたセンサ値(又はこのセンサ値に基づく路面の勾配角度)と、このピッチ角とに基づいて補正部34が勾配角度を演算して、この演算結果を勾配角度の推定値とする。   Continuously, the effect of this embodiment is demonstrated. According to this embodiment, first, the extraction unit 31 extracts a stationary object common to each camera image as a feature point, and the detection unit 32 detects the amount of movement of the feature point over a plurality of camera images. Then, the calculation unit 33 calculates the pitch angle of the host vehicle C based on the amount of movement, and uses the sensor value acquired by the G sensor 2 (or the gradient angle of the road surface based on the sensor value) and the pitch angle. Based on this, the correction unit 34 calculates the gradient angle, and this calculation result is used as the estimated value of the gradient angle.

このように、路面上の白線又は車線の幅に基づいてピッチ角を検出することなく、特徴点が複数のカメラ画像にわたって移動した移動量に基づいて自車両Cのピッチ角が算出され、そして、Gセンサ2によって取得されたセンサ値(又はこのセンサ値に基づく路面の勾配角度)と、このピッチ角とに基づいて勾配角度が演算され、この演算結果が勾配角度の推定値となる。このため、路面上の白線又は車線の幅に基づいてピッチ角を検出する場合に比べて、算出されたピッチ角にバラツキが生じ難くなる。このことから、路面の勾配角度をより精度良く推定することが可能となる。   Thus, without detecting the pitch angle based on the width of the white line or lane on the road surface, the pitch angle of the host vehicle C is calculated based on the amount of movement of the feature point across the plurality of camera images, and The gradient angle is calculated based on the sensor value acquired by the G sensor 2 (or the gradient angle of the road surface based on the sensor value) and the pitch angle, and the calculation result becomes the estimated value of the gradient angle. For this reason, the calculated pitch angle is less likely to vary than when the pitch angle is detected based on the width of the white line or lane on the road surface. From this, it becomes possible to estimate the gradient angle of the road surface with higher accuracy.

更に、所定数以上のカメラ画像に共通する静止物が特徴点として抽出されるので、特徴点の移動量を精度良く検出することができる。   Furthermore, since a stationary object common to a predetermined number or more of camera images is extracted as a feature point, the amount of movement of the feature point can be detected with high accuracy.

以上、本発明の好適な実施形態について説明したが、本発明は上記の実施形態に限定されるものではない。例えば、上記の実施形態では、ECU3に抽出部31、検出部32、算出部33、及び補正部34が含まれる構成としたが、これらを個別に分離独立させた構成としてもよい。   The preferred embodiments of the present invention have been described above, but the present invention is not limited to the above-described embodiments. For example, in the above embodiment, the ECU 3 includes the extraction unit 31, the detection unit 32, the calculation unit 33, and the correction unit 34. However, these may be configured separately and independently.

本実施形態に係る路面勾配推定装置の構成概略図である。1 is a schematic configuration diagram of a road surface gradient estimation apparatus according to the present embodiment. 路面勾配推定装置で実行される処理の一連の流れを説明するためのフローチャートである。It is a flowchart for demonstrating a series of flows of the process performed with a road surface gradient estimation apparatus.

符号の説明Explanation of symbols

1…カメラ、2…Gセンサ、3…ECU、4…舵角センサ、5…車輪速センサ、6…ブレーキ圧力センサ、7…ブレーキ、10…路面勾配推定装置、31…抽出部、32…検出部、33…算出部、34…補正部、C…自車両。
DESCRIPTION OF SYMBOLS 1 ... Camera, 2 ... G sensor, 3 ... ECU, 4 ... Steering angle sensor, 5 ... Wheel speed sensor, 6 ... Brake pressure sensor, 7 ... Brake, 10 ... Road surface gradient estimation apparatus, 31 ... Extraction part, 32 ... Detection Part, 33 ... calculating part, 34 ... correcting part, C ... own vehicle.

Claims (2)

撮像手段による複数の撮像画像に基づいて、自車両が位置する路面の勾配角度を推定する路面勾配推定装置であって、
各撮像画像に共通する静止物を特徴点として抽出する抽出手段と、
前記抽出手段によって抽出された前記特徴点が前記複数の撮像画像にわたって移動する移動量に基づいて前記自車両のピッチ角を算出する算出手段と、
前記自車両の上下方向の加速度を検出する検出手段と、
前記検出手段によって検出された前記上下方向の加速度と前記算出手段によって算出された前記ピッチ角とに基づいて前記勾配角度を演算する演算手段と、
を備えることを特徴とする路面勾配推定装置。
A road surface gradient estimation device that estimates a gradient angle of a road surface on which the host vehicle is located based on a plurality of captured images by an imaging unit,
Extraction means for extracting a stationary object common to each captured image as a feature point;
Calculating means for calculating a pitch angle of the host vehicle based on a movement amount by which the feature points extracted by the extracting means move across the plurality of captured images;
Detecting means for detecting acceleration in the vertical direction of the host vehicle;
A computing means for computing the gradient angle based on the vertical acceleration detected by the detecting means and the pitch angle calculated by the calculating means;
A road surface gradient estimation device comprising:
前記算出手段は、前記抽出手段によって前記特徴点が抽出された撮像画像の数が所定数以上である場合に、当該特徴点の前記移動量を検出して当該移動量に基づいて前記ピッチ角を算出することを特徴とする請求項1に記載の路面勾配推定装置。
When the number of captured images from which the feature points have been extracted by the extraction unit is equal to or greater than a predetermined number, the calculation unit detects the movement amount of the feature points and calculates the pitch angle based on the movement amount. The road surface gradient estimation device according to claim 1, wherein the road surface gradient estimation device is calculated.
JP2008162149A 2008-06-20 2008-06-20 Road surface gradient estimating device Pending JP2010002334A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008162149A JP2010002334A (en) 2008-06-20 2008-06-20 Road surface gradient estimating device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008162149A JP2010002334A (en) 2008-06-20 2008-06-20 Road surface gradient estimating device

Publications (1)

Publication Number Publication Date
JP2010002334A true JP2010002334A (en) 2010-01-07

Family

ID=41584181

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008162149A Pending JP2010002334A (en) 2008-06-20 2008-06-20 Road surface gradient estimating device

Country Status (1)

Country Link
JP (1) JP2010002334A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140051915A (en) * 2011-07-27 2014-05-02 로베르트 보쉬 게엠베하 Method and apparatus for determining current vehicle-specific orientation data for a vehicle
CN107560599A (en) * 2017-09-04 2018-01-09 清华大学 A kind of road grade data processing method of feature based point sampling and curve matching
KR20180114723A (en) * 2017-04-11 2018-10-19 현대자동차주식회사 Vehicle and method for collision avoidance assist when backing up the vehicle

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140051915A (en) * 2011-07-27 2014-05-02 로베르트 보쉬 게엠베하 Method and apparatus for determining current vehicle-specific orientation data for a vehicle
KR102003574B1 (en) 2011-07-27 2019-07-24 로베르트 보쉬 게엠베하 Method and apparatus for determining current vehicle-specific orientation data for a vehicle
KR20180114723A (en) * 2017-04-11 2018-10-19 현대자동차주식회사 Vehicle and method for collision avoidance assist when backing up the vehicle
KR102313026B1 (en) * 2017-04-11 2021-10-15 현대자동차주식회사 Vehicle and method for collision avoidance assist when backing up the vehicle
CN107560599A (en) * 2017-09-04 2018-01-09 清华大学 A kind of road grade data processing method of feature based point sampling and curve matching
CN107560599B (en) * 2017-09-04 2020-05-12 清华大学 Road gradient data processing method based on feature point sampling and curve fitting

Similar Documents

Publication Publication Date Title
JP6601352B2 (en) Vehicle posture estimation device
JP2018036067A (en) Own vehicle position recognition device
JP2008282386A (en) Object detector, object detection method, and object detection program
JP2007034989A (en) Slippage detection method and slippage correction method of imaging device, and imaging device
JP2014115247A (en) Vehicle position estimation device and sensor information integration apparatus
JP2008292278A (en) Optical deviation detection method of distance detection device, and distance detection device
JP5587250B2 (en) Ranging device
JP2013129264A (en) Calibration method for on-vehicle camera and calibration device for on-vehicle camera
KR20180122382A (en) Mainly a detection method and mainly a detection device
JP5425500B2 (en) Calibration apparatus and calibration method
JP2010002334A (en) Road surface gradient estimating device
JP2019504986A (en) VISUAL SYSTEM FOR AUTOMOBILE AND METHOD FOR CONTROLLING VISUAL SYSTEM
JP2012159470A (en) Vehicle image recognition device
JP2019007739A (en) Self position estimation method and self position estimation device
JP4069919B2 (en) Collision determination device and method
JP4026641B2 (en) Object detection apparatus and object detection method
JP6032141B2 (en) Travel road marking detection device and travel road marking detection method
JP5193148B2 (en) Vehicle imaging device
JP2015121954A (en) Luminance value calculation device and traffic lane detection system
JP7269130B2 (en) Image processing device
JP2021193340A (en) Self-position estimation device
JP5330341B2 (en) Ranging device using in-vehicle camera
KR101183645B1 (en) System for measuring attitude of aircraft using camera and method therefor
JP2013183311A (en) Estimation device and detection system of attitude angle in on-vehicle camera
JP6365744B2 (en) Program, recording medium, and calibration method