JP2015158417A - Self position calculation apparatus and self position calculation method - Google Patents

Self position calculation apparatus and self position calculation method Download PDF

Info

Publication number
JP2015158417A
JP2015158417A JP2014032998A JP2014032998A JP2015158417A JP 2015158417 A JP2015158417 A JP 2015158417A JP 2014032998 A JP2014032998 A JP 2014032998A JP 2014032998 A JP2014032998 A JP 2014032998A JP 2015158417 A JP2015158417 A JP 2015158417A
Authority
JP
Japan
Prior art keywords
vehicle
road surface
change
gradient
self
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014032998A
Other languages
Japanese (ja)
Other versions
JP6398217B2 (en
Inventor
山口 一郎
Ichiro Yamaguchi
一郎 山口
西内 秀和
Hidekazu Nishiuchi
秀和 西内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2014032998A priority Critical patent/JP6398217B2/en
Publication of JP2015158417A publication Critical patent/JP2015158417A/en
Application granted granted Critical
Publication of JP6398217B2 publication Critical patent/JP6398217B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide a self position calculation apparatus and a self position calculation method capable of accurately and stably estimating a vehicle moving amount irrespective of a road surface gradient.SOLUTION: A self position calculation apparatus comprises: a gradient-change calculation unit 36 calculating a change in a gradient of a road surface; an attitude-angle calculation unit 22 calculating an attitude angle of a vehicle with respect to the road surface from a position of pattern light acquired by a camera 12; an attitude-change-amount calculation unit 24 calculating an attitude change amount of the vehicle on the basis of temporal changes in a plurality of feature points on the road surface; and a self-position calculation unit 26 calculating a current position and the attitude angle of the vehicle by adding the attitude change amount to an initial position and the attitude angle of the vehicle. The self-position calculation unit 26 starts adding the attitude change amount to the current position of the vehicle and the attitude angle of the vehicle calculated by the attitude angle calculation unit 22 if the change in the gradient of the road surface is greater than a predetermined threshold.

Description

本発明は、自己位置算出装置及び自己位置算出方法に係り、特に、移動量を推定する精度を向上させる技術に関する。   The present invention relates to a self-position calculation device and a self-position calculation method, and more particularly to a technique for improving the accuracy of estimating a movement amount.

従来より、車両にカメラを搭載し、該カメラにて車両近傍の映像を撮像し、撮像した画像の変化に基づいて車両の移動量を求める技術が提案されている(特許文献1参照)。特許文献1では、車両の低速かつ微妙な移動においても精度よく移動量を求めるために、画像に含まれる特徴点を検出し、この特徴点の画像上での位置を求め、該特徴点の移動方向及び移動距離(移動量)から車両の移動量を求めている。   Conventionally, a technique has been proposed in which a camera is mounted on a vehicle, an image of the vicinity of the vehicle is captured by the camera, and the amount of movement of the vehicle is obtained based on a change in the captured image (see Patent Document 1). In Patent Document 1, in order to obtain the amount of movement with high accuracy even when the vehicle is moving slowly and delicately, a feature point included in the image is detected, the position of the feature point on the image is obtained, and the feature point is moved. The moving amount of the vehicle is obtained from the direction and the moving distance (moving amount).

特開2008−175717号公報JP 2008-175717 A

しかしながら、車両が坂道等の勾配のある路面を走行する場合には、カメラと路面との位置関係に変化が生じるので、高精度な移動量の測定ができなくなるという問題が生じる。つまり、カメラで撮像した画像に基づいて移動量を推定する場合、路面の勾配が変化することにより路面に対するカメラの姿勢角が変化する。従って、このカメラで撮像した画像に基づいて車両の移動量を推定すると、姿勢角の変化に起因して、移動量の推定値に大きな誤差が生じてしまい、高精度な測定ができなくなってしまう。   However, when the vehicle travels on a road surface with a gradient such as a hill, the positional relationship between the camera and the road surface changes, which causes a problem that it is impossible to measure the amount of movement with high accuracy. That is, when the movement amount is estimated based on the image captured by the camera, the posture angle of the camera with respect to the road surface changes due to the change in the gradient of the road surface. Therefore, if the amount of movement of the vehicle is estimated based on the image captured by this camera, a large error occurs in the estimated value of the amount of movement due to the change in the attitude angle, and high-precision measurement cannot be performed. .

本発明は、このような従来の課題を解決するためになされたものであり、その目的とするところは、路面の勾配に拘わらず、車両の移動量を精度よく且つ安定して算出することができる自己位置算出装置及び自己位置算出方法を提供することにある。   The present invention has been made to solve such a conventional problem, and an object of the present invention is to accurately and stably calculate the amount of movement of the vehicle regardless of the slope of the road surface. An object of the present invention is to provide a self-position calculation device and a self-position calculation method.

上記目的を達成するため、本願発明は、路面の勾配を取得して路面勾配の変化を算出する勾配変化算出部と、撮像部により取得されるパターン光の位置から、路面に対する車両の姿勢角を算出する姿勢角算出部と、路面上の複数の特徴点の時間変化に基づいて、車両の姿勢変化量を算出する姿勢変化量算出部と、車両の初期位置及び姿勢角に、姿勢変化量を加算してゆくことで、車両の現在位置及び姿勢角を算出する自己位置算出部とを備える。そして、自己位置算出部は、路面勾配の変化が所定の閾値よりも大きい場合、そのときの車両の現在位置及び姿勢角算出部による車両の姿勢角に対して姿勢変化量の加算を開始する。   In order to achieve the above object, the present invention obtains a vehicle attitude angle with respect to a road surface from a gradient change calculation unit that acquires a road surface gradient and calculates a change in the road surface gradient, and a pattern light position acquired by the imaging unit. A posture angle calculation unit to calculate, a posture change amount calculation unit to calculate a posture change amount of the vehicle based on time changes of a plurality of feature points on the road surface, and a posture change amount to an initial position and a posture angle of the vehicle. A self-position calculating unit that calculates the current position and the attitude angle of the vehicle by adding them. Then, when the change in the road surface gradient is larger than a predetermined threshold, the self-position calculation unit starts adding the posture change amount to the current vehicle position and the posture angle of the vehicle by the posture angle calculation unit at that time.

本発明によれば、路面勾配の変化が所定の閾値よりも大きい場合には、そのときの車両の現在位置及び姿勢角算出部による車両の姿勢角に対して姿勢角変化量の加算を開始する。従って、路面勾配の変化率が大きい場合でも、車両の初期位置及び姿勢角の算出精度が低下することを防止でき、車両の移動量を精度よく且つ安定して算出することが可能となる。   According to the present invention, when the change in the road surface gradient is larger than the predetermined threshold, the addition of the posture angle change amount to the current vehicle position at that time and the posture angle of the vehicle by the posture angle calculation unit is started. . Therefore, even when the change rate of the road surface gradient is large, it is possible to prevent the calculation accuracy of the initial position and attitude angle of the vehicle from being lowered, and it is possible to calculate the movement amount of the vehicle with high accuracy and stability.

本発明の第1実施形態に係る自己位置算出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the self-position calculation apparatus which concerns on 1st Embodiment of this invention. 車両に搭載される投光器により照射される投光パターン、及びカメラによる撮像範囲を示す説明図である。It is explanatory drawing which shows the light projection pattern irradiated with the light projector mounted in a vehicle, and the imaging range by a camera. (a)は、投光器とカメラの間の基線長Lbと、各スポット光の画像上の座標(Uj,Vj)とから、各スポット光が照射された路面上の位置を算出する様子を示す図であり、(b)は、パターン光が照射された領域とは異なる他の領域から検出された特徴点の時間変化から、カメラの移動方向を求める様子を示す説明図である。(A) is a figure which shows a mode that the position on the road surface irradiated with each spot light is calculated from the base line length Lb between a projector and a camera, and the coordinate (Uj, Vj) on the image of each spot light. (B) is an explanatory view showing a state in which the moving direction of the camera is obtained from the temporal change of the feature points detected from another area different from the area irradiated with the pattern light. (a)は、カメラにより取得した画像に対して二値化処理を施したパターン光の画像を示す図、(b)はその拡大図、(c)はパターン光抽出部により抽出した各スポット光の重心の位置を示す図である。(A) is the figure which shows the image of the pattern light which binarized the image acquired with the camera, (b) is the enlarged view, (c) is each spot light extracted by the pattern light extraction part It is a figure which shows the position of the gravity center. 距離及び姿勢角の変化量を算出する方法を説明するための模式図である。It is a schematic diagram for demonstrating the method of calculating the variation | change_quantity of a distance and a posture angle. (a)は、時刻tに取得した画像の一例を示し、(b)は、時刻tから時間Δtだけ経過した時刻(t+Δt)に取得した画像の一例を示す。(A) shows an example of an image acquired at time t, and (b) shows an example of an image acquired at time (t + Δt) when time Δt has elapsed from time t. スポット光の傾き、及び間隔に基づいて路面勾配を算出する様子を示す説明図である。It is explanatory drawing which shows a mode that a road surface gradient is calculated based on the inclination of a spot light, and a space | interval. 本発明の実施形態に係る自己位置算出装置の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the self-position calculation apparatus which concerns on embodiment of this invention. 第1実施形態に係り、図8のステップS09に示す処理の詳細な処理手順を示すフローチャートである。FIG. 9 is a flowchart showing a detailed processing procedure of the process shown in step S09 of FIG. 8 according to the first embodiment. 第1実施形態に係る自己位置算出装置の、路面の勾配変化と起点設定のタイミングを示すタイミングチャートである。It is a timing chart which shows the timing of the gradient change of a road surface, and starting point setting of the self-position calculation device concerning a 1st embodiment. 第2実施形態に係る自己位置算出装置の、路面の勾配変化と起点設定のタイミングを示すタイミングチャートである。It is a timing chart which shows the gradient of a road surface, and the timing of starting point setting of the self-position calculation device concerning a 2nd embodiment. 第3実施形態に係り、図8のステップS09に示す処理の詳細な処理手順を示すフローチャートである。FIG. 10 is a flowchart showing a detailed processing procedure of the process shown in step S09 of FIG. 8 according to the third embodiment. 第3実施形態に係る自己位置算出装置の、路面の勾配変化と起点設定のタイミングを示すタイミングチャートである。It is a timing chart which shows the gradient of a road surface, and the timing of starting point setting of the self-position calculation device concerning a 3rd embodiment.

以下、本発明の実施形態について、図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[第1実施形態の説明]
図1は、本発明の実施形態に係る自己位置算出装置の構成を示すブロック図である。図1に示すように、自己位置算出装置100は、投光器11と、カメラ12(撮像部)と、エンジンコントロールユニット(ECU)13と、を備える。投光器11は、車両に搭載され、車両周囲の路面にパターン光を投光する。パターン光の詳細については後述する。カメラ12は、車両に搭載され、パターン光が投光された領域を含む車両周囲の路面を撮像して画像を取得する。ECU13は、投光器11の作動を制御し、且つカメラ12により取得された画像から車両の移動量を推定する一連の情報処理サイクルを実行する。
[Description of First Embodiment]
FIG. 1 is a block diagram showing a configuration of a self-position calculation apparatus according to an embodiment of the present invention. As shown in FIG. 1, the self-position calculation device 100 includes a projector 11, a camera 12 (imaging unit), and an engine control unit (ECU) 13. The projector 11 is mounted on the vehicle and projects pattern light onto a road surface around the vehicle. Details of the pattern light will be described later. The camera 12 is mounted on a vehicle and captures an image of a road surface around the vehicle including an area where pattern light is projected. The ECU 13 controls the operation of the projector 11 and executes a series of information processing cycles for estimating the movement amount of the vehicle from the image acquired by the camera 12.

カメラ12は、固体撮像素子、例えばCCD及びCMOSを用いたデジタルカメラであって、画像処理が可能なデジタル画像を取得する。カメラ12の撮像対象は車両周囲の路面であって、車両周囲の路面には、車両の前部、後部、側部、車両底部の路面が含まれる。例えば、図2に示すように、カメラ12は、車両10の前部、具体的にはフロントバンパ上に搭載することができる。   The camera 12 is a digital camera using a solid-state imaging device, for example, a CCD and a CMOS, and acquires a digital image that can be processed. The imaging target of the camera 12 is a road surface around the vehicle, and the road surface around the vehicle includes the road surface of the front, rear, side, and bottom of the vehicle. For example, as shown in FIG. 2, the camera 12 can be mounted on the front portion of the vehicle 10, specifically on the front bumper.

車両10の前方の路面31上の特徴点(「テクスチャ」ともいう)及び投光器11により投光されたパターン光32bを撮像できるように、カメラ12が設置される高さ及び向きが調整され、且つ、カメラ12が備えるレンズのピント及び絞りが自動調整される。ここで、「特徴点」とは、アスファルト上に存在する凹凸部分である。   The height and direction at which the camera 12 is installed are adjusted so that the feature point (also referred to as “texture”) on the road surface 31 in front of the vehicle 10 and the pattern light 32b projected by the projector 11 can be imaged. The lens focus and aperture of the camera 12 are automatically adjusted. Here, the “feature point” is an uneven portion present on the asphalt.

カメラ12は、所定の時間間隔をおいて繰り返し撮像を行い、一連の画像(フレーム)群を取得する。カメラ12により取得された画像データは、撮像周期毎にECU13へ転送され、ECU13が備えるメモリ(図示省略)に記憶される。   The camera 12 repeatedly captures images at a predetermined time interval and acquires a series of images (frames). The image data acquired by the camera 12 is transferred to the ECU 13 for each imaging cycle and stored in a memory (not shown) provided in the ECU 13.

投光器11は、図2に示すように、カメラ12の撮像範囲内の路面31に向けて、正方形や長方形の格子像を含む所定の形状を有するパターン光32bを投光する。カメラ12は、パターン光を含む路面31の領域を撮像する。投光器11は、例えば、レーザポインター及び回折格子を備える。レーザポインターから射出されたレーザ光を回折格子で回折することにより、投光器11は、図2〜図4に示すように、格子像、或いは行列状に配列された複数のスポット光からなるパターン光(32b、32a)を生成する。図3及び図4に示す例では、5×7のスポット光からなるパターン光32aを生成している。   As shown in FIG. 2, the projector 11 projects pattern light 32 b having a predetermined shape including a square or rectangular lattice image toward the road surface 31 within the imaging range of the camera 12. The camera 12 images the area of the road surface 31 that includes the pattern light. The projector 11 includes, for example, a laser pointer and a diffraction grating. As shown in FIGS. 2 to 4, the projector 11 diffracts the laser light emitted from the laser pointer with a diffraction grating, and as shown in FIG. 2 to FIG. 4, pattern light (pattern light consisting of a plurality of spot lights arranged in a matrix form) 32b, 32a). In the example shown in FIGS. 3 and 4, the pattern light 32a composed of 5 × 7 spot light is generated.

図3(a)は、路面31にパターン光32aを照射し、この照射領域をカメラ12で撮像する様子を示している。また、図3(b)は、路面31にパターン光32aを照射し、この照射領域とは異なる他の領域33をカメラ12で撮像して特徴点を検出し、該特徴点の時間変化からカメラ12の移動方向34を求める様子を示している。   FIG. 3A shows a state in which the road surface 31 is irradiated with the pattern light 32 a and the irradiation area is imaged by the camera 12. 3B irradiates the road surface 31 with the pattern light 32a, picks up an image of another region 33 different from the irradiated region with the camera 12, detects a feature point, and detects the feature point over time from the camera. 12 shows how 12 movement directions 34 are obtained.

図1に戻り、ECU13は、CPU、メモリ、及び入出力部を備えるマイクロコントローラからなり、予めインストールされたコンピュータプログラムを実行することにより、自己位置算出装置100が備える複数の情報処理部を構成する。ECU13は、カメラ12により取得された画像から車両10の移動量を推定する一連の情報処理サイクルを、画像(フレーム)毎に繰り返し実行する。ECU13は、車両10に関連する他の制御に用いるECUと兼用してもよい。   Returning to FIG. 1, the ECU 13 includes a microcontroller including a CPU, a memory, and an input / output unit, and configures a plurality of information processing units included in the self-position calculating device 100 by executing a computer program installed in advance. . The ECU 13 repeatedly executes a series of information processing cycles for estimating the amount of movement of the vehicle 10 from the image acquired by the camera 12 for each image (frame). The ECU 13 may also be used as an ECU used for other controls related to the vehicle 10.

複数の情報処理部には、パターン光抽出部21と、姿勢角算出部22と、特徴点検出部23と、姿勢変化量算出部24と、自己位置算出部26と、パターン光制御部27、及び勾配変化算出部36が含まれる。姿勢変化量算出部24には、特徴点検出部23が含まれる。   The plurality of information processing units include a pattern light extraction unit 21, an attitude angle calculation unit 22, a feature point detection unit 23, an attitude change amount calculation unit 24, a self-position calculation unit 26, a pattern light control unit 27, In addition, a gradient change calculation unit 36 is included. The posture change amount calculation unit 24 includes a feature point detection unit 23.

パターン光制御部27は、投光器11によるパターン光32aの投光を制御する。例えば、車両10のイグニションスイッチがオン状態となり、当該自己位置算出装置100が起動すると同時に、パターン光制御部27は、パターン光32aの投光を開始する。その後、パターン光制御部27は、自己位置算出装置100が停止するまで、パターン光32aを連続して投光する。或いは、所定の時間間隔をおいて、投光のオン、オフを繰り返してもよい。或いは、勾配変化算出部36で検出される路面勾配の変化率が大きくなった場合に限って、一時的にパターン光32aを投光してもよい。   The pattern light control unit 27 controls the projection of the pattern light 32 a by the projector 11. For example, when the ignition switch of the vehicle 10 is turned on and the self-position calculating device 100 is activated, the pattern light control unit 27 starts projecting the pattern light 32a. Thereafter, the pattern light control unit 27 continuously projects the pattern light 32a until the self-position calculating device 100 stops. Alternatively, the light projection may be turned on and off repeatedly at predetermined time intervals. Alternatively, the pattern light 32a may be temporarily projected only when the change rate of the road surface gradient detected by the gradient change calculation unit 36 becomes large.

パターン光抽出部21は、カメラ12により取得された画像をメモリから読み込み、画像からパターン光の位置を抽出する。図3(a)に示すように、例えば、投光器11が行列状に配列された複数のスポット光からなるパターン光32aを路面31に向けて投光し、路面31で反射したパターン光32aをカメラ12で検出する。パターン光抽出部21は、カメラ12により取得された画像に対して二値化処理を施すことにより、図4(a)及びその拡大図である図4(b)に示すように、スポット光Spの画像のみを抽出する。パターン光抽出部21は、図4(c)に示すように、各スポット光Spの重心の位置He、即ち、スポット光Spの画像上の座標(Uj,Vj)を算出することにより、パターン光32aの位置を抽出する。座標は、カメラ12の撮像素子の画素を単位とし、5×7のスポット光Spの場合、「j」は1以上35以下の自然数である。スポット光Spの画像上の座標(Uj,Vj)は、パターン光32aの位置を示すデータとしてメモリに記憶される。   The pattern light extraction unit 21 reads an image acquired by the camera 12 from the memory and extracts the position of the pattern light from the image. As shown in FIG. 3A, for example, a pattern light 32a composed of a plurality of spot lights in which the projectors 11 are arranged in a matrix is projected toward the road surface 31, and the pattern light 32a reflected by the road surface 31 is captured by the camera. 12 to detect. The pattern light extraction unit 21 performs a binarization process on the image acquired by the camera 12, and as shown in FIG. 4A and an enlarged view of FIG. 4B, the spot light Sp Extract only images. As illustrated in FIG. 4C, the pattern light extraction unit 21 calculates the position He of the center of gravity of each spot light Sp, that is, the coordinates (Uj, Vj) on the image of the spot light Sp, thereby calculating the pattern light. The position 32a is extracted. The coordinates are in units of pixels of the image sensor of the camera 12, and in the case of 5 × 7 spot light Sp, “j” is a natural number between 1 and 35. The coordinates (Uj, Vj) on the image of the spot light Sp are stored in the memory as data indicating the position of the pattern light 32a.

姿勢角算出部22は、パターン光32aの位置を示すデータをメモリから読み込み、カメラ12により取得された画像におけるパターン光32aの位置から、路面31に対する車両10の距離及び姿勢角を算出する。例えば、図3(a)に示すように、投光器11とカメラ12の間の基線長Lbと、各スポット光の画像上の座標(Uj,Vj)とから、三角測量の原理を用いて、各スポット光が照射された路面31上の位置を、カメラ12に対する相対位置として算出する。そして、該姿勢角算出部22は、カメラ12に対する各スポット光の相対位置から、パターン光32aが投光された路面31の平面式、即ち、路面31に対するカメラ12の距離及び姿勢角(法線ベクトル)を算出する。なお、車両10に対するカメラ12の搭載位置及び撮像方向は既知であるので、実施形態においては、路面31に対する車両10の距離及び姿勢角の一例として、路面31に対するカメラ12の距離及び姿勢角を算出する。換言すれば、路面31に対するカメラ12の距離及び姿勢角を算出することにより、路面31と車両10との間の距離、及び路面31に対する車両10の姿勢角を求めることができる。以下では、路面31に対するカメラ12の距離及び姿勢角を、「距離及び姿勢角」と略す。姿勢角算出部22により算出された距離及び姿勢角は、メモリに記憶される。   The posture angle calculation unit 22 reads data indicating the position of the pattern light 32 a from the memory, and calculates the distance and posture angle of the vehicle 10 with respect to the road surface 31 from the position of the pattern light 32 a in the image acquired by the camera 12. For example, as shown in FIG. 3A, from the baseline length Lb between the projector 11 and the camera 12 and the coordinates (Uj, Vj) of each spot light on the image, The position on the road surface 31 irradiated with the spot light is calculated as a relative position with respect to the camera 12. Then, the posture angle calculation unit 22 calculates the plane type of the road surface 31 on which the pattern light 32a is projected from the relative position of each spot light with respect to the camera 12, that is, the distance and posture angle (normal line) Vector). In addition, since the mounting position and imaging direction of the camera 12 with respect to the vehicle 10 are known, in the embodiment, the distance and posture angle of the camera 12 with respect to the road surface 31 are calculated as an example of the distance and posture angle of the vehicle 10 with respect to the road surface 31. To do. In other words, by calculating the distance and posture angle of the camera 12 with respect to the road surface 31, the distance between the road surface 31 and the vehicle 10 and the posture angle of the vehicle 10 with respect to the road surface 31 can be obtained. Hereinafter, the distance and posture angle of the camera 12 with respect to the road surface 31 are abbreviated as “distance and posture angle”. The distance and the posture angle calculated by the posture angle calculation unit 22 are stored in the memory.

具体的に説明すると、カメラ12及び投光器11は車両10にそれぞれ固定されているので、パターン光32aの照射方向と、カメラ12と投光器11との距離(図3の基線長Lb)は既知である。そこで、姿勢角算出部22は、三角測量の原理を用いて、各スポット光の画像上の座標(Uj,Vj)から各スポット光が照射された路面31上の位置を、カメラ12に対する相対位置を3次元座標(Xj,Yj,Zj)として求めることができる。   More specifically, since the camera 12 and the projector 11 are respectively fixed to the vehicle 10, the irradiation direction of the pattern light 32a and the distance between the camera 12 and the projector 11 (baseline length Lb in FIG. 3) are known. . Therefore, the posture angle calculation unit 22 uses the principle of triangulation to determine the position on the road surface 31 irradiated with each spot light from the coordinates (Uj, Vj) on the image of each spot light as a relative position to the camera 12. Can be obtained as three-dimensional coordinates (Xj, Yj, Zj).

なお、カメラ12に対する各スポット光の相対位置(Xj,Yj,Zj)は同一平面上に存在しない場合が多い。なぜなら、路面31に表出するアスファルトの凹凸に応じて各スポット光の相対位置が変化するからである。そこで、最小二乗法を用いて、各スポット光との距離誤差の二乗和が最小となるような平面式を求めてもよい。こうして算出される距離及び姿勢角のデータは、図1に示す自己位置算出部26にて用いられることになる。   The relative position (Xj, Yj, Zj) of each spot light with respect to the camera 12 often does not exist on the same plane. This is because the relative position of each spot light changes according to the asphalt unevenness exposed on the road surface 31. Therefore, a plane formula that minimizes the sum of squares of distance errors with respect to each spot light may be obtained by using the least square method. The distance and posture angle data calculated in this way are used by the self-position calculation unit 26 shown in FIG.

特徴点検出部23は、カメラ12により取得された画像をメモリから読み込み、メモリから読み込んだ画像から、路面31上の特徴点を検出する。特徴点検出部23は、路面31上の特徴点を検出するために、例えば、「D.G. Lowe,“Distinctive Image Features from Scale-Invariant Keypoints,” Int. J. Comput. Vis., vol.60, no.2, pp. 91-110, Nov. 200 」、或いは、「金澤 靖, 金谷健一, “コンピュータビジョンのための画像の特徴点抽出,” 信学誌, vol.87, no.12, pp.1043-1048, Dec. 2004」に記載の手法を用いることができる。   The feature point detection unit 23 reads an image acquired by the camera 12 from the memory, and detects a feature point on the road surface 31 from the image read from the memory. The feature point detection unit 23 detects, for example, “DG Lowe,“ Distinctive Image Features from Scale-Invariant Keypoints, ”Int. J. Comput. Vis., Vol. 60, no, .2, pp. 91-110, Nov. 200 "or" Kanazawa Satoshi, Kanaya Kenichi, "Extracting image feature points for computer vision," IEICE Journal, vol.87, no.12, pp. 1043-1048, Dec. 2004 "can be used.

具体的には、特徴点検出部23は、例えば、ハリス(Harris)作用素又はSUSANオペレータを用いて、物体の頂点のように周囲に比べて輝度値が大きく変化する点を特徴点として検出する。或いは、特徴点検出部23は、SIFT(Scale-Invariant Feature Transform)特徴量を用いて、その周囲で輝度値がある規則性のもとで変化している点を特徴点として検出してもよい。そして、特徴点検出部23は、1つの画像から検出した特徴点の総数Nを計数し、各特徴点に識別番号(i(1≦i≦N))を付す。各特徴点の画像上の位置(Ui,Vi)は、ECU13内のメモリに記憶される。図6(a)及び図6(b)は、カメラ12により取得された画像から検出された特徴点Teの例を示す。各特徴点の画像上の位置(Ui,Vi)は、メモリに記憶される。更に、各特徴点Teの変化方向及び変化量をベクトルDteとして示している。   Specifically, the feature point detection unit 23 uses, for example, a Harris operator or a SUSAN operator to detect, as a feature point, a point whose luminance value changes greatly as compared to the surroundings, such as a vertex of an object. Alternatively, the feature point detection unit 23 may detect, as a feature point, a point where the luminance value changes under certain regularity using a SIFT (Scale-Invariant Feature Transform) feature amount. . Then, the feature point detection unit 23 counts the total number N of feature points detected from one image, and assigns an identification number (i (1 ≦ i ≦ N)) to each feature point. The position (Ui, Vi) on the image of each feature point is stored in a memory in the ECU 13. FIGS. 6A and 6B show examples of feature points Te detected from an image acquired by the camera 12. The position (Ui, Vi) on the image of each feature point is stored in the memory. Furthermore, the change direction and change amount of each feature point Te are shown as a vector Dte.

なお、実施形態において、路面31上の特徴点は、主に大きさが1cm以上2cm以下のアスファルト混合物の粒を想定している。この特徴点を検出するために、カメラ12の解像度はVGA(約30万画素)である。また、路面31に対するカメラ12の距離は、おおよそ70cmである。更に、カメラ12の撮像方向は、水平面から約45degだけ路面31に向けて傾斜させる。また、カメラ12により取得される画像をECU13に転送するときの輝度数値は、0〜255(0:最も暗い、255:最も明るい)の範囲内である。   In the embodiment, the feature points on the road surface 31 are mainly assumed to be asphalt mixture grains having a size of 1 cm to 2 cm. In order to detect this feature point, the resolution of the camera 12 is VGA (approximately 300,000 pixels). Moreover, the distance of the camera 12 with respect to the road surface 31 is about 70 cm. Furthermore, the imaging direction of the camera 12 is inclined toward the road surface 31 by about 45 degrees from the horizontal plane. In addition, the luminance value when the image acquired by the camera 12 is transferred to the ECU 13 is in the range of 0 to 255 (0: darkest, 255: brightest).

姿勢変化量算出部24は、一定の情報処理サイクル毎に撮像される各フレームの画像のうち、前回(時刻t)フレームの画像に含まれる複数の特徴点の画像上の位置座標(Ui,Vi)をメモリから読み込み、更に、今回(時刻t+Δt)フレームの画像に含まれる複数の特徴点の画像上の位置座標(Ui,Vi)をメモリから読み込む。そして、複数の特徴点の画像上での位置変化に基づいて、車両10の姿勢変化量を求める。ここで、「車両の姿勢変化量」とは、路面に対する車両10の「距離及び姿勢角の変化量」、及び路面上での「車両の移動量」の双方を含んでいる。以下、「距離及び姿勢角の変化量」及び「車両の移動量」の算出方法について説明する。   The posture change amount calculation unit 24 includes the position coordinates (Ui, Vi) on the image of a plurality of feature points included in the image of the previous (time t) frame among the images of each frame imaged for each fixed information processing cycle. ) From the memory, and the position coordinates (Ui, Vi) on the image of a plurality of feature points included in the image of the current (time t + Δt) frame are read from the memory. And the attitude | position change amount of the vehicle 10 is calculated | required based on the position change on the image of a some feature point. Here, the “vehicle attitude change amount” includes both the “distance and attitude angle change amount” of the vehicle 10 relative to the road surface and the “vehicle movement amount” on the road surface. Hereinafter, a method of calculating “the amount of change in distance and attitude angle” and “the amount of movement of the vehicle” will be described.

距離及び姿勢角の変化量は、例えば、以下のようにして求めることができる。図6(a)は、時刻tに取得された第1フレームの画像38の一例を示す。図5及び図6(a)に示すように、画像38において、例えば3つの特徴点Te1、Te2、Te3の相対位置(xi,yi,zi)がそれぞれ算出されている場合を考える。この場合、特徴点Te1、Te2、Te3によって特定される平面G(図6(a)参照)を路面と見なすことができる。よって、姿勢変化量算出部24は、各特徴点の相対位置(xi,yi,zi)から、路面(平面G)に対するカメラ12の距離及び姿勢角(法線ベクトル)を求めることができる。更に、姿勢変化量算出部24は、既知のカメラモデルによって、各特徴点Te1、Te2、Te3の間の距離(l1,l2,l3)及び夫々の特徴点Te1、Te2、Te3を結ぶ直線が成す角度を求めることができる。図5のカメラ12は、第1フレーム(時刻t)におけるカメラの位置を示す。   The amount of change in the distance and the posture angle can be obtained as follows, for example. FIG. 6A shows an example of the first frame image 38 acquired at time t. As shown in FIGS. 5 and 6A, a case is considered in which, for example, relative positions (xi, yi, zi) of three feature points Te1, Te2, Te3 are calculated in the image 38, respectively. In this case, the plane G (see FIG. 6A) specified by the feature points Te1, Te2, Te3 can be regarded as a road surface. Therefore, the posture change amount calculation unit 24 can obtain the distance and posture angle (normal vector) of the camera 12 with respect to the road surface (plane G) from the relative position (xi, yi, zi) of each feature point. Furthermore, the posture change amount calculation unit 24 forms distances (11, 12, 13) between the feature points Te1, Te2, Te3 and straight lines connecting the feature points Te1, Te2, Te3 by a known camera model. The angle can be determined. The camera 12 in FIG. 5 shows the position of the camera in the first frame (time t).

なお、カメラ12に対する特徴点の相対位置を示す3次元座標(xi,yi,zi)として、カメラ12の撮像方向をZ軸に設定し、撮像方向を法線とし且つカメラ12を含む平面内に、互いに直交するX軸及びY軸を設定する。一方、画像38上の座標として、水平方向及び垂直方向をそれぞれV軸及びU軸に設定する。   It should be noted that as the three-dimensional coordinates (xi, yi, zi) indicating the relative position of the feature point with respect to the camera 12, the imaging direction of the camera 12 is set to the Z axis, the imaging direction is a normal line, and the plane including the camera 12 is included. , X axis and Y axis orthogonal to each other are set. On the other hand, as the coordinates on the image 38, the horizontal direction and the vertical direction are set to the V axis and the U axis, respectively.

図6(b)は、時刻tから時間Δtだけ経過した時刻(t+Δt)に取得された第2フレームの画像38’を示す。図5のカメラ12’は、第2フレームの画像38’を撮像したときのカメラ12の位置を示す。図5及び図6(b)に示すように、画像38’において、カメラ12’が特徴点Te1、Te2、Te3を撮像し、特徴点検出部23が特徴点Te1、Te2、Te3を検出する。この場合、姿勢変化量算出部24は、時刻tにおける各特徴点Te1、Te2、Te3の相対位置(xi,yi,zi)と、各特徴点の画像38’上の位置P1(Ui,Vi)と、カメラ12のカメラモデルとから、時間Δtにおけるカメラ12の移動量ΔL(図5参照)を算出でき、ひいては車両10の移動量を算出できる。更には、距離及び姿勢角の変化量も算出することができる。例えば、以下の(1)〜(4)式からなる連立方程式を解くことにより、姿勢変化量算出部24は、カメラ12(車両)の移動量(ΔL)、及び、距離及び姿勢角の変化量を算出することができる。なお、下記の(1)式はカメラ12が歪みや光軸ずれのない理想的なピンホールカメラとしてモデル化したものであり、λiは定数、fは焦点距離である。カメラモデルのパラメータは、予めキャリブレーションをしておけばよい。
FIG. 6B shows an image 38 ′ of the second frame acquired at time (t + Δt) when time Δt has elapsed from time t. The camera 12 ′ in FIG. 5 indicates the position of the camera 12 when the second frame image 38 ′ is captured. As shown in FIGS. 5 and 6B, in the image 38 ′, the camera 12 ′ captures the feature points Te1, Te2, and Te3, and the feature point detection unit 23 detects the feature points Te1, Te2, and Te3. In this case, the posture change amount calculation unit 24 calculates the relative positions (xi, yi, zi) of the feature points Te1, Te2, Te3 at time t and the position P1 (Ui, Vi) of the feature points on the image 38 ′. Then, from the camera model of the camera 12, the movement amount ΔL (see FIG. 5) of the camera 12 at time Δt can be calculated, and as a result, the movement amount of the vehicle 10 can be calculated. Furthermore, the amount of change in distance and posture angle can also be calculated. For example, by solving simultaneous equations consisting of the following equations (1) to (4), the posture change amount calculation unit 24 can change the movement amount (ΔL) of the camera 12 (vehicle) and the change amounts of the distance and posture angle. Can be calculated. The following equation (1) is modeled as an ideal pinhole camera in which the camera 12 has no distortion or optical axis deviation, λi is a constant, and f is a focal length. The camera model parameters may be calibrated in advance.

なお、姿勢変化量算出部24は、時刻tと時刻t+Δtで検出される各画像中で相対位置が算出された特徴点の全てを用いるのではなく、特徴点同士の位置関係に基づいて最適な特徴点を選定してもよい。選定方法としては、例えば、エピポーラ幾何(エピ極線幾何,R.I. Hartley: “A linear method for reconstruction from lines and points,” Proc. 5th International Conference on Computer Vision, Cambridge, Massachusetts, pp.882-887(1995))を用いることができる。   Note that the posture change amount calculation unit 24 does not use all of the feature points whose relative positions are calculated in the images detected at time t and time t + Δt, but is optimal based on the positional relationship between the feature points. A feature point may be selected. For example, Epipolar geometry (RI Hartley: “A linear method for reconstruction from lines and points,” Proc. 5th International Conference on Computer Vision, Cambridge, Massachusetts, pp.882-887 (1995) )) Can be used.

このように、姿勢変化量算出部24が、時刻tのフレーム画像38で相対位置(xi,yi,zi)が算出された特徴点Te1、Te2、Te3を、時刻t+Δtにおけるフレーム画像38’からも検出された場合に、該姿勢変化量算出部24は、路面上の複数の特徴点の相対位置(xi,yi,zi)と特徴点の画像上の位置(Ui,Vi)の時間変化から、「車両の姿勢角変化量」を算出することができる。更には、車両10の移動量を算出することができる。   As described above, the posture change amount calculation unit 24 also uses the feature points Te1, Te2, and Te3 whose relative positions (xi, yi, zi) are calculated in the frame image 38 at time t from the frame image 38 ′ at time t + Δt. When detected, the posture change amount calculation unit 24 calculates the relative position (xi, yi, zi) of the plurality of feature points on the road surface and the time change of the position (Ui, Vi) of the feature points on the image. The “vehicle attitude angle change amount” can be calculated. Furthermore, the amount of movement of the vehicle 10 can be calculated.

即ち、前回フレームと今回フレームの間で対応関係が取れる3点以上の特徴点を検出し続けることができれば、距離及び姿勢角の変化量を加算する処理(即ち、積分演算)を継続することにより、パターン光32aを用いることなく、距離及び姿勢角を更新し続けることができる。但し、最初の情報処理サイクルにおいては、パターン光32aを用いて算出された距離及び姿勢角、或いは所定の初期的な距離及び姿勢角を用いてもよい。つまり、積分演算の起点となる距離及び姿勢角は、パターン光32aを用いて算出しても、或いは、所定の初期値を用いても構わない。所定の初期的な距離及び姿勢角は、少なくとも車両10への乗員及び搭載物を考慮した距離及び姿勢角であることが望ましい。例えば、車両10のイグニションスイッチがオン状態であって、且つシフトポジションがパーキングから他のポジションへ移動した時に、パターン光32aを投光し、パターン光32aから算出された距離及び姿勢角を、所定の初期的な距離及び姿勢角として用いればよい。これにより、車両10の旋回や加減速によるロール運動或いはピッチ運動が発生していない時の距離や姿勢角を求めることができる。   That is, if it is possible to continue to detect three or more feature points that can be correlated between the previous frame and the current frame, by continuing the process of adding the distance and the change amount of the posture angle (that is, the integral calculation). The distance and the posture angle can be continuously updated without using the pattern light 32a. However, in the first information processing cycle, a distance and posture angle calculated using the pattern light 32a or a predetermined initial distance and posture angle may be used. That is, the distance and the attitude angle that are the starting points of the integration calculation may be calculated using the pattern light 32a, or may use predetermined initial values. It is desirable that the predetermined initial distance and posture angle be a distance and posture angle in consideration of at least an occupant and a load on the vehicle 10. For example, when the ignition switch of the vehicle 10 is on and the shift position moves from parking to another position, the pattern light 32a is projected, and the distance and posture angle calculated from the pattern light 32a are set to a predetermined value. The initial distance and posture angle may be used. Thereby, the distance and the posture angle when the roll motion or the pitch motion due to the turning or acceleration / deceleration of the vehicle 10 is not generated can be obtained.

なお、前後フレーム間で特徴点を対応付けるには、例えば、検出した特徴点の周辺の小領域の画像をメモリに記録しておき、輝度や色情報の類似度から判断すればよい。具体的には、ECU13は、検出した特徴点を中心とする5×5(水平×垂直)画素分の画像をメモリに記録する。姿勢変化量算出部24は、例えば、輝度情報が20画素以上で誤差1%以下に収まっていれば、前後フレーム間で対応関係が取れる特徴点であると判断する。そして、上記の処理で取得した姿勢変化量は、後段の自己位置算出部26にて車両10の自己位置を算出する際に用いられる。   In order to associate the feature points between the preceding and following frames, for example, an image of a small area around the detected feature points may be recorded in a memory and determined from the similarity of luminance and color information. Specifically, the ECU 13 records an image for 5 × 5 (horizontal × vertical) pixels centered on the detected feature point in the memory. For example, if the luminance information is 20 pixels or more and the error is within 1% or less, the posture change amount calculation unit 24 determines that the feature point is a feature point that can be correlated between the previous and next frames. Then, the posture change amount acquired by the above processing is used when the self-position calculating unit 26 in the subsequent stage calculates the self-position of the vehicle 10.

図1に示す自己位置算出部26は、姿勢変化量算出部24で算出された「距離及び姿勢角の変化量」から車両10の距離及び姿勢角を算出する。更に、姿勢変化量算出部24で算出された「車両の移動量」から車両10の自己位置を算出する。   The self-position calculator 26 shown in FIG. 1 calculates the distance and posture angle of the vehicle 10 from the “distance and change amount of posture angle” calculated by the posture change amount calculator 24. Further, the self position of the vehicle 10 is calculated from the “movement amount of the vehicle” calculated by the posture change amount calculation unit 24.

具体的は、姿勢角算出部22(図1参照)にて算出された距離及び姿勢角(パターン光を用いて算出された距離及び姿勢角)が起点として設定された場合について説明する。この場合には、この起点(距離及び姿勢角)に対して、自己位置算出部26は、姿勢角算出部22で算出された距離及び姿勢角に対して、姿勢変化量算出部24で算出された各フレーム毎の距離及び姿勢角の変化量を逐次加算して(積分演算して)、距離及び姿勢角を最新な数値に更新する。また、姿勢角算出部22にて距離及び姿勢角が算出された際の車両位置を起点(車両の初期位置)とし、この初期位置からの車両10の移動量を逐次加算して(積分演算して)、車両10の自己位置を算出する。例えば、地図上の位置と照合さされた起点(車両の初期位置)を設定することで、地図上の車両の現在位置を逐次算出することができる。   Specifically, a case where the distance and posture angle calculated by the posture angle calculation unit 22 (see FIG. 1) (the distance and posture angle calculated using the pattern light) are set as the starting points will be described. In this case, for this starting point (distance and posture angle), the self-position calculation unit 26 calculates the posture change amount calculation unit 24 for the distance and posture angle calculated by the posture angle calculation unit 22. Then, the distance and posture angle change amount for each frame are sequentially added (integral calculation), and the distance and posture angle are updated to the latest numerical values. Further, the vehicle position when the distance and posture angle are calculated by the posture angle calculation unit 22 is set as a starting point (initial position of the vehicle), and the amount of movement of the vehicle 10 from this initial position is sequentially added (integral calculation is performed). The self-position of the vehicle 10 is calculated. For example, the current position of the vehicle on the map can be sequentially calculated by setting the starting point (the initial position of the vehicle) that is collated with the position on the map.

従って、姿勢変化量算出部24は、時間Δtの間でのカメラ12の移動量(ΔL)を求めることにより、車両10の自己位置を算出することができる。更には、距離及び姿勢角の変化量も同時に算出することができるので、姿勢変化量算出部24は、車両10の距離及び姿勢角の変化量を考慮して、6自由度(前後、左右、上下、ヨー、ピッチ、ロール)の移動量(ΔL)を精度よく算出することができる。即ち、車両10の旋回や加減速によるロール運動或いはピッチ運動によって距離や姿勢角が変化しても、移動量(ΔL)の推定誤差を抑制することができる。   Therefore, the posture change amount calculation unit 24 can calculate the self-position of the vehicle 10 by obtaining the movement amount (ΔL) of the camera 12 during the time Δt. Furthermore, since the change amount of the distance and the posture angle can be calculated at the same time, the posture change amount calculation unit 24 considers the change amount of the distance and the posture angle of the vehicle 10 and has six degrees of freedom (front and rear, left and right, The amount of movement (ΔL) of up and down, yaw, pitch, and roll) can be calculated with high accuracy. That is, even if the distance and the posture angle change due to roll motion or pitch motion caused by turning or acceleration / deceleration of the vehicle 10, an estimation error of the movement amount (ΔL) can be suppressed.

なお、実施形態では、距離及び姿勢角の変化量を算出し、距離及び姿勢角を更新することにより、カメラ12の移動量(ΔL)を算出した。しかし、路面31に対するカメラ12の姿勢角だけを変化量算出及び更新の対象としても構わない。この場合、路面31とカメラ12との距離は一定と仮定すればよい。これにより、姿勢角の変化量を考慮して、移動量(ΔL)の推定誤差を抑制しつつ、ECU13の演算負荷を軽減し、且つ演算速度を向上させることもできる。   In the embodiment, the movement amount (ΔL) of the camera 12 is calculated by calculating the change amount of the distance and the posture angle and updating the distance and the posture angle. However, only the attitude angle of the camera 12 with respect to the road surface 31 may be the target of the change amount calculation and update. In this case, the distance between the road surface 31 and the camera 12 may be assumed to be constant. Accordingly, it is possible to reduce the calculation load of the ECU 13 and improve the calculation speed while suppressing the estimation error of the movement amount (ΔL) in consideration of the change amount of the posture angle.

また、図1に示す勾配変化算出部36は、車両10が走行する路面の勾配データを取得し、この勾配データから路面勾配の変化率を算出する。ここで、路面の勾配データは、一例としてナビゲーションシステムに登録されている路面の勾配データ、及びGPSにより取得される車両10の現在位置データに基づいて取得することができる。該勾配変化算出部36は、取得した勾配データに対して微分演算することにより路面の勾配変化率R1を演算する。そして、勾配変化率R1の絶対値が予め設定した勾配変化率の所定の閾値Rthを上回った場合に、路面が急勾配であると判断する。急勾配であると判断した場合には、姿勢角算出部22は、パターン光抽出部21より抽出されるパターン光に基づいて、位置及び姿勢角を算出する処理を行う。   Moreover, the gradient change calculation part 36 shown in FIG. 1 acquires the gradient data of the road surface which the vehicle 10 drive | works, and calculates the change rate of a road surface gradient from this gradient data. Here, the road surface gradient data can be acquired based on the road surface gradient data registered in the navigation system as an example and the current position data of the vehicle 10 acquired by GPS. The gradient change calculation unit 36 calculates a road gradient change rate R1 by performing differentiation on the acquired gradient data. Then, when the absolute value of the gradient change rate R1 exceeds a predetermined gradient change rate threshold Rth, it is determined that the road surface is steep. When it is determined that the slope is steep, the posture angle calculation unit 22 performs a process of calculating the position and posture angle based on the pattern light extracted by the pattern light extraction unit 21.

本実施形態では、路面の勾配変化に起因して生じる車両の移動量算出の誤差を5%以下に抑えるために、勾配変化率の所定の閾値Rthを、0.05[rad/sec]に設定する。即ち、車両が1秒間走行する間に路面の勾配が0.05[rad]より大きく変化した場合に、勾配変化率R1が勾配変化率の所定の閾値Rthに達したものと判断する。勾配変化率は、GPSデータから取得することができる。また、車載したジャイロセンサの検出値から求めることも可能である。   In the present embodiment, the predetermined threshold Rth of the gradient change rate is set to 0.05 [rad / sec] in order to suppress the error in calculating the vehicle movement amount caused by the change in the road surface gradient to 5% or less. To do. That is, when the road gradient changes more than 0.05 [rad] while the vehicle travels for 1 second, it is determined that the gradient change rate R1 has reached a predetermined threshold Rth of the gradient change rate. The gradient change rate can be obtained from GPS data. It can also be obtained from the detection value of the on-vehicle gyro sensor.

なお、路面の勾配変化を勾配変化率で判断しているが、これに限定されるものではなく、例えば、一定処理時間内の勾配変化の絶対値でも構わない。   In addition, although the gradient change of a road surface is determined by the gradient change rate, it is not limited to this, For example, the absolute value of the gradient change within a fixed processing time may be sufficient.

[第1実施形態の作用]
次に、カメラ12により取得された画像38(図5参照)から車両10の自己位置、即ち、「車両の距離及び姿勢角」、及び「車両の移動量」を算出する算出方法の一例として、ECU13により繰り返し実行される情報処理サイクルを、図8及び図9に示すフローチャートを参照して説明する。図8に示す情報処理サイクルは、車両10のイグニションスイッチがオン状態となり、自己位置算出装置100が起動すると同時に開始され、該自己位置算出装置100が停止するまで、繰り返し実行される。
[Operation of First Embodiment]
Next, as an example of a calculation method for calculating the self-position of the vehicle 10 from the image 38 (see FIG. 5) acquired by the camera 12, that is, the “vehicle distance and attitude angle” and the “vehicle movement amount”. An information processing cycle repeatedly executed by the ECU 13 will be described with reference to flowcharts shown in FIGS. The information processing cycle shown in FIG. 8 is repeated at the same time as the ignition switch of the vehicle 10 is turned on, the self-position calculation device 100 is started, and the self-position calculation device 100 is stopped.

初めに、図8のステップS01において、パターン光制御部27は、投光器11を制御して、車両周囲の路面31にパターン光32aを投光する。図8では、パターン光32aを連続して投光する例を説明する。なお、前述したように、必要に応じてパターン光32aを投光するようにしてもよい。   First, in step S01 of FIG. 8, the pattern light control unit 27 controls the projector 11 to project the pattern light 32a onto the road surface 31 around the vehicle. In FIG. 8, an example in which the pattern light 32a is continuously projected will be described. As described above, the pattern light 32a may be projected as necessary.

ステップS03に進み、ECU13は、カメラ12を制御して、パターン光32aが投光された領域を含む車両周囲の路面31を撮像して画像38を取得する。ECU13は、カメラ12により取得された画像データを、メモリに記憶する。   In step S03, the ECU 13 controls the camera 12 to capture the road surface 31 around the vehicle including the area where the pattern light 32a is projected, and obtain an image 38. The ECU 13 stores the image data acquired by the camera 12 in a memory.

なお、ECU13はカメラ12の絞りを自動制御できる。前回の情報処理サイクルで取得した画像38の平均輝度から、輝度値の最大値と最小値の中間値になるようにカメラ12の絞りをフィードバック制御してもよい。また、パターン光32aが投光されている領域は輝度値が高いため、パターン光32aを抽出した部分を除いた領域から、平均輝度値を求めてもよい。   The ECU 13 can automatically control the aperture of the camera 12. The aperture of the camera 12 may be feedback-controlled so that the average luminance of the image 38 acquired in the previous information processing cycle becomes an intermediate value between the maximum value and the minimum value of the luminance value. Moreover, since the brightness | luminance value is high in the area | region where the pattern light 32a is projected, you may obtain | require an average luminance value from the area | region except the part which extracted the pattern light 32a.

ステップS05に進み、パターン光抽出部21は、カメラ12により取得された画像38をメモリから読み込み、図4(c)に示したように、画像38からパターン光32aの位置を抽出する。パターン光抽出部21は、パターン光32aの位置を示すデータとして算出されたスポット光Spの画像上の座標(Uj,Vj)をメモリに記憶する。更に、ステップS05では、姿勢角算出部22は、パターン光32aの位置を示すデータをメモリから読み込み、パターン光32aの位置から、距離及び姿勢角を算出し、メモリに記憶する。距離及び姿勢角の算出方法は、前述した通りである。なお、姿勢角算出部22で算出した距離及び姿勢角は、後述するように、情報処理サイクルが初回の場合、及び後述する条件となった場合に、積分演算を実行する際の新たな起点として設定する。   In step S05, the pattern light extraction unit 21 reads the image 38 acquired by the camera 12 from the memory, and extracts the position of the pattern light 32a from the image 38 as shown in FIG. The pattern light extraction unit 21 stores the coordinates (Uj, Vj) on the image of the spot light Sp calculated as data indicating the position of the pattern light 32a in the memory. Further, in step S05, the posture angle calculation unit 22 reads data indicating the position of the pattern light 32a from the memory, calculates the distance and the posture angle from the position of the pattern light 32a, and stores them in the memory. The method for calculating the distance and the posture angle is as described above. Note that the distance and posture angle calculated by the posture angle calculation unit 22 are a new starting point when executing the integral calculation when the information processing cycle is the first time and when the conditions described later are satisfied, as will be described later. Set.

ステップS07に進み、ECU13は、画像38から特徴点(例えば、アスファルト上に存在する凹凸部位)を検出し、前回の情報処理サイクルと今回の情報処理サイクルの間で対応関係が取れる特徴点を抽出し、特徴点の画像上の位置(Ui,Vi)から距離及び姿勢角の変化量を算出する。更に、車両10の移動量を算出する。   Proceeding to step S07, the ECU 13 detects feature points (for example, uneven portions present on the asphalt) from the image 38, and extracts feature points that can be correlated between the previous information processing cycle and the current information processing cycle. Then, the amount of change in distance and posture angle is calculated from the position (Ui, Vi) of the feature point on the image. Furthermore, the movement amount of the vehicle 10 is calculated.

具体的には、まず特徴点検出部23は、カメラ12により取得された画像38をメモリから読み込み、画像38から路面31上の特徴点を検出し、各特徴点の画像上の位置(Ui,Vi)をメモリに記憶する。   Specifically, the feature point detection unit 23 first reads an image 38 acquired by the camera 12 from the memory, detects a feature point on the road surface 31 from the image 38, and determines the position (Ui, Vi) is stored in memory.

姿勢変化量算出部24は、各特徴点の画像上の位置(Ui,Vi)をメモリから読み込み、距離及び姿勢角と、特徴点の画像上の位置(Ui,Vi)とから、カメラ12に対する特徴点の相対位置(xi,yi,zi)を算出する。なお、姿勢変化量算出部24は、前回の情報処理サイクルのステップS09(後述)において選択された距離及び姿勢角を用いる。姿勢変化量算出部24は、カメラ12に対する特徴点の相対位置(xi,yi,zi)をメモリに記憶する。   The posture change amount calculation unit 24 reads the position (Ui, Vi) of each feature point on the image from the memory, and uses the distance and posture angle and the position (Ui, Vi) of the feature point on the image to the camera 12. The relative position (xi, yi, zi) of the feature point is calculated. Note that the posture change amount calculation unit 24 uses the distance and posture angle selected in step S09 (described later) of the previous information processing cycle. The posture change amount calculation unit 24 stores the relative position (xi, yi, zi) of the feature point with respect to the camera 12 in the memory.

そして、姿勢変化量算出部24は、特徴点の画像上の位置(Ui,Vi)と、前回の情報処理サイクルのステップS07において算出された特徴点の相対位置(xi,yi,zi)をメモリから読み込む。姿勢変化量算出部24は、今回の情報処理サイクルと今回の情報処理サイクルの間で対応関係が取れる特徴点の相対位置(xi,yi,zi)及び画像上の位置(Ui,Vi)を用いて、距離及び姿勢角の変化量を算出する。更に、前回の特徴点の相対位置(xi,yi,zi)と今回の特徴点の相対位置(xi,yi,zi)から、車両10の移動量を算出する。そして、この処理で算出した「距離及び姿勢角の変化量」及び「車両の移動量」は、ステップS11の処理で用いられる。   The posture change amount calculation unit 24 stores the position (Ui, Vi) of the feature point on the image and the relative position (xi, yi, zi) of the feature point calculated in step S07 of the previous information processing cycle. Read from. The posture change amount calculation unit 24 uses the relative position (xi, yi, zi) of the feature point and the position (Ui, Vi) on the image that can be correlated between the current information processing cycle and the current information processing cycle. Thus, the change amount of the distance and the posture angle is calculated. Furthermore, the movement amount of the vehicle 10 is calculated from the previous relative position (xi, yi, zi) of the feature point and the current relative position (xi, yi, zi) of the feature point. The “distance and change amount of posture angle” and “vehicle movement amount” calculated in this process are used in the process of step S11.

ステップS09に進み、ECU13は、車両10が走行する路面勾配の変化率に応じて、距離及び姿勢角を積分演算にて算出する際の起点を設定する。詳細な処理手順については、図9に示すフローチャートを参照して後述する。   Proceeding to step S09, the ECU 13 sets a starting point for calculating the distance and the attitude angle by integral calculation according to the change rate of the road surface gradient on which the vehicle 10 travels. The detailed processing procedure will be described later with reference to the flowchart shown in FIG.

ステップS11に進み、自己位置算出部26は、ステップS09の処理で設定された積分演算の起点、及びステップS07の処理で算出された車両10の移動量から、車両10の自己位置を算出する。   Proceeding to step S11, the self-position calculating unit 26 calculates the self-position of the vehicle 10 from the starting point of the integral calculation set in the process of step S09 and the movement amount of the vehicle 10 calculated in the process of step S07.

こうして、本実施形態に係る自己位置算出装置100は、上記した一連の情報処理サイクルを繰り返し実行して車両10の移動量を積算することにより、車両10の自己位置を算出することができる。   Thus, the self-position calculation apparatus 100 according to the present embodiment can calculate the self-position of the vehicle 10 by repeatedly executing the above-described series of information processing cycles and integrating the movement amount of the vehicle 10.

次に、図9のフローチャートを参照して、図8のステップS09の詳細な手順を説明する。ステップS901において、ECU13は、今回の情報処理サイクルが初回であるか否かを判断する。そして、初回である場合、即ち、前回の情報処理サイクルのデータが無い場合にはステップS909に処理を進め、初回でない場合にはステップS903に処理を進める。   Next, a detailed procedure of step S09 in FIG. 8 will be described with reference to the flowchart in FIG. In step S901, the ECU 13 determines whether or not the current information processing cycle is the first time. If it is the first time, that is, if there is no data of the previous information processing cycle, the process proceeds to step S909, and if not the first time, the process proceeds to step S903.

ステップS903において、勾配変化算出部36は、車両10に搭載されるナビゲーションシステムが有するGPSの情報に基づき、路面の勾配変化率R1を検出する。この処理では、GPSより得られる路面勾配のデータを微分演算する。   In step S903, the gradient change calculation unit 36 detects the gradient change rate R1 of the road surface based on GPS information included in the navigation system mounted on the vehicle 10. In this process, the road surface gradient data obtained from the GPS is differentiated.

ステップS905において、勾配変化算出部36は、路面の勾配変化率R1の絶対値が予め設定した勾配変化率の所定の閾値Rthより大きいか否かを判断する。そして、勾配変化率の所定の閾値Rthより大きい場合には(ステップS905でYES)、ステップS907に処理を進める。一方、勾配変化率の所定の閾値Rth以下である場合には(ステップS905でNO)、ステップS913に処理を進める。ここで、本実施形態では、路面変化の影響による車両10の移動量算出の誤差を5%以下に抑えるために、路面勾配の変化率が0.05[rad/sec]となった時点で特徴点の初期位置を設定する。即ち、上記の勾配変化率の所定の閾値を0.05[rad/sec]とする。   In step S905, the gradient change calculation unit 36 determines whether or not the absolute value of the gradient change rate R1 of the road surface is greater than a predetermined threshold Rth of the preset gradient change rate. If the gradient change rate is larger than the predetermined threshold Rth (YES in step S905), the process proceeds to step S907. On the other hand, if the gradient change rate is equal to or less than the predetermined threshold Rth (NO in step S905), the process proceeds to step S913. Here, in the present embodiment, in order to suppress the error in calculating the movement amount of the vehicle 10 due to the influence of the road surface change to 5% or less, it is characterized when the road surface slope change rate becomes 0.05 [rad / sec]. Set the initial position of the point. That is, the predetermined threshold value of the gradient change rate is set to 0.05 [rad / sec].

ステップS907において、姿勢角算出部22は、パターン光抽出部21で抽出されたパターン光32aに基づき、距離及び姿勢角が算出されているか否かを判断する。具体的な例として、投光器11より照射される35点のスポット光のうち、3点以上のスポット光が検出されている場合に距離及び姿勢角の算出が可能なので、3点以上のスポット光が検出されているか否かを判断する。そして、距離及び姿勢角が算出されている場合には(ステップS907でYES)、ステップS909に処理を進める。一方、距離及び姿勢角が算出されていない場合には(ステップS907でNO)、ステップS911に処理を進める。   In step S907, the posture angle calculation unit 22 determines whether the distance and the posture angle are calculated based on the pattern light 32a extracted by the pattern light extraction unit 21. As a specific example, since the distance and the posture angle can be calculated when three or more spot lights are detected among the 35 spot lights irradiated from the projector 11, the three or more spot lights are detected. It is determined whether or not it has been detected. If the distance and the posture angle are calculated (YES in step S907), the process proceeds to step S909. On the other hand, when the distance and the posture angle are not calculated (NO in step S907), the process proceeds to step S911.

ステップS909において、ECU13は、車両10の現在位置を起点とし、更に、同じ情報処理サイクルのステップS05(図8参照)で算出された距離及び姿勢角、即ち、パターン光の位置から算出された距離及び姿勢角を積分演算の起点として設定する。従って、距離及び姿勢角は、パターン光32aから算出された距離及び姿勢角に設定される。この距離及び姿勢角を起点として新たな積分演算が開始される。また、車両10の移動量算出の起点が新たに設定される。つまり、この位置を起点として新たに車両10の移動量の積分演算を開始する。   In step S909, the ECU 13 starts from the current position of the vehicle 10, and further calculates the distance and posture angle calculated in step S05 (see FIG. 8) of the same information processing cycle, that is, the distance calculated from the position of the pattern light. And the attitude angle is set as the starting point of the integral calculation. Accordingly, the distance and posture angle are set to the distance and posture angle calculated from the pattern light 32a. A new integration operation is started from this distance and posture angle as the starting point. In addition, a starting point for calculating the movement amount of the vehicle 10 is newly set. That is, the integral calculation of the movement amount of the vehicle 10 is newly started from this position.

ステップS911において、ECU13は、車両10の現在位置を起点とし、更に、前回の情報処理サイクルで採用した距離及び姿勢角を積分演算の起点として設定する。即ち、姿勢角算出部22により、パターン光から車両の姿勢角を算出できない場合には、直前に算出された姿勢角を用いて、積分演算の起点とする。また、直前に算出された姿勢角の代わりに、予め設定した姿勢角の初期値を用いるようにしてもよい。この距離及び姿勢角を起点として新たな積分演算が開始される。また、車両10の移動量算出の起点が新たに設定される。つまり、この位置を起点として新たに車両10の移動量の積分演算を開始する。その後、図8のステップS11に処理を進める。   In step S911, the ECU 13 sets the current position of the vehicle 10 as a starting point, and further sets the distance and the posture angle employed in the previous information processing cycle as starting points for integration calculation. That is, when the posture angle calculation unit 22 cannot calculate the posture angle of the vehicle from the pattern light, the posture angle calculated immediately before is used as the starting point of the integration calculation. Further, instead of the posture angle calculated immediately before, an initial value of a preset posture angle may be used. A new integration operation is started from this distance and posture angle as the starting point. In addition, a starting point for calculating the movement amount of the vehicle 10 is newly set. That is, the integral calculation of the movement amount of the vehicle 10 is newly started from this position. Thereafter, the process proceeds to step S11 in FIG.

つまり、路面の勾配変化率R1が勾配変化率の所定の閾値Rthより大きい場合(ステップS905でYESの場合)には、車両10の距離及び姿勢角が大きく変動し、これに伴って、カメラ12の距離及び姿勢角が大きく変動するので、特徴点の位置座標を正確に求められなくなる可能性が高い。従って、このような場合には姿勢変化量算出部24は、距離及び姿勢角の変化量を算出せず、パターン光から算出した距離及び姿勢角(ステップS909)、或いは、前回の情報処理サイクルで採用した距離及び姿勢角(ステップS911)を起点として設定する。即ち、車両10の初期位置、距離及び姿勢角を、その時点の位置、距離及び姿勢角に設定して、距離及び姿勢角の変化量の加算を開始する。こうすることにより、距離及び姿勢角に大きな誤差が生じることを防止し、車両10の移動量の算出の精度が低下することを防止する。   That is, when the road surface gradient change rate R1 is larger than a predetermined threshold value Rth of the gradient change rate (YES in step S905), the distance and posture angle of the vehicle 10 vary greatly, and accordingly, the camera 12 Since the distance and the posture angle fluctuate greatly, there is a high possibility that the position coordinates of the feature points cannot be obtained accurately. Therefore, in such a case, the posture change amount calculation unit 24 does not calculate the amount of change in the distance and posture angle, but the distance and posture angle calculated from the pattern light (step S909) or in the previous information processing cycle. The adopted distance and posture angle (step S911) are set as starting points. That is, the initial position, distance, and posture angle of the vehicle 10 are set to the current position, distance, and posture angle, and addition of the amount of change in the distance and posture angle is started. By doing so, it is possible to prevent a large error in the distance and the posture angle, and to prevent the calculation accuracy of the movement amount of the vehicle 10 from being lowered.

一方、図9のステップS913において、ECU13は、現在の設定されている起点を維持する。路面の勾配変化率R1が勾配変化率の所定の閾値Rth以下である場合(ステップS905でNOの場合)には、現在の起点を維持しても車両10の移動量の算出に大きな誤差は発生しないものと判断されるので、起点を維持する。その後、図8のステップS11に処理を進める。   On the other hand, in step S <b> 913 in FIG. 9, the ECU 13 maintains the current set starting point. When the slope change rate R1 of the road surface is equal to or less than a predetermined threshold Rth of the slope change rate (NO in step S905), a large error occurs in calculating the movement amount of the vehicle 10 even if the current starting point is maintained. Since it is judged not to do so, the starting point is maintained. Thereafter, the process proceeds to step S11 in FIG.

上記の処理をまとめると、以下の通りである。カメラ12を用いて路面に存在する特徴点を含む画像を撮影し、この特徴点の時間的な変化から車両10の移動量(6自由度の移動量)を算出する場合には、カメラ12と路面との位置関係が一定であることが条件となる。しかし、実際にはカメラ12は車両10に搭載されるので、該車両10の走行状態、或いは路面環境に応じて路面との相対的な位置が時々刻々と変化する。従って、カメラ12と路面との間の位置関係、即ち、距離及び姿勢角を時間経過に伴って更新する必要がある。   The above processing is summarized as follows. When an image including a feature point existing on the road surface is captured using the camera 12 and the movement amount of the vehicle 10 (movement amount of six degrees of freedom) is calculated from the temporal change of the feature point, The condition is that the positional relationship with the road surface is constant. However, since the camera 12 is actually mounted on the vehicle 10, the relative position with respect to the road surface changes from moment to moment according to the traveling state of the vehicle 10 or the road surface environment. Accordingly, it is necessary to update the positional relationship between the camera 12 and the road surface, that is, the distance and the posture angle with the passage of time.

ここで、距離及び姿勢角の測定方法として、投光器11より投光したパターン光32aを用いる方法(図8のS05の処理)がある。従って、各情報処理サイクル毎に常にパターン光32aを用いて距離及び姿勢角を算出し、更に、特徴点の時間的な変化を検出すれば、車両10の移動量を算出でき、ひいては車両10の自己位置を算出できる。しかし、路面がコンクリートの場合等、路面が平坦でパターン光32aをよく反射する状況下であればこの方法は有効であるが、実際の路面は凹凸が多く存在するアスファルトの路面であることが多い。この場合には、パターン光32aを用いるよりも、特徴点の時間的な変化に基づいて、距離及び姿勢角の変化量を算出し、起点として設定されている距離及び姿勢角に対して、変化量を逐次加算する処理(積分演算)を実行する方が距離及び姿勢角を高精度に求めることができる。   Here, as a method of measuring the distance and the posture angle, there is a method using the pattern light 32a projected from the projector 11 (processing of S05 in FIG. 8). Therefore, if the distance and posture angle are always calculated using the pattern light 32a for each information processing cycle, and the temporal change of the feature point is detected, the movement amount of the vehicle 10 can be calculated. Self-position can be calculated. However, this method is effective if the road surface is flat and the pattern light 32a is reflected well, such as when the road surface is concrete, but the actual road surface is often an asphalt road surface with many irregularities. . In this case, rather than using the pattern light 32a, the amount of change in the distance and posture angle is calculated based on the temporal change of the feature point, and the change with respect to the distance and posture angle set as the starting point is calculated. It is possible to obtain the distance and the posture angle with higher accuracy by executing the process of sequentially adding the quantities (integral calculation).

そこで、本実施形態では、初回にパターン光32aを用いた距離及び姿勢角の算出を行ってこれを起点とし、それ以後は、特徴点の時間的な変化に基づく距離及び姿勢角の変化量を算出して、この算出結果を逐次加算することにより、距離及び姿勢角を最新なものに更新する。更に、路面の路面勾配の変化率R1が大きくなった場合には、特徴点の検出精度が低下するので、特徴点に基づいて算出される距離及び姿勢角の変化量の精度が低下する。従って、このような条件下、即ち、路面勾配の変化率R1の絶対値が勾配変化率の所定の閾値Rthを上回った場合にはパターン光32aを用いた距離及び姿勢角を用いて車両10の移動量を算出することにより、車両10の自己位置の算出精度を向上させるようにしている。   Therefore, in the present embodiment, the distance and posture angle are calculated using the pattern light 32a for the first time, and this is used as the starting point. Thereafter, the amount of change in the distance and posture angle based on the temporal change of the feature points is calculated. By calculating and sequentially adding the calculation results, the distance and the posture angle are updated to the latest ones. Further, when the change rate R1 of the road surface gradient of the road surface increases, the detection accuracy of the feature points decreases, and thus the accuracy of the distance and posture angle change amount calculated based on the feature points decreases. Therefore, under such conditions, that is, when the absolute value of the road surface slope change rate R1 exceeds a predetermined threshold value Rth of the slope change rate, the distance and posture angle using the pattern light 32a are used. By calculating the movement amount, the calculation accuracy of the self-position of the vehicle 10 is improved.

次に、図10に示すタイミングチャートを参照して、路面の勾配変化と、新たな起点を設定するタイミングとの関係について説明する。図10(a)は、距離及び姿勢角の起点を設定するタイミングを示す図、(b)は路面の勾配を示す図、(c)は路面の勾配変化率R1を示す図である。また、横軸は時間を示しており、一つの目盛りが1回の情報処理サイクルを示している。   Next, with reference to the timing chart shown in FIG. 10, the relationship between the change in the road surface gradient and the timing for setting a new starting point will be described. FIG. 10A is a diagram illustrating timings for setting the starting points of the distance and the attitude angle, FIG. 10B is a diagram illustrating a road surface gradient, and FIG. 10C is a diagram illustrating a road surface gradient change rate R1. The horizontal axis indicates time, and one scale indicates one information processing cycle.

いま、図10(b)に示すように、時刻t1にて平坦な道路から上り坂に変化し、その後、時刻t6にて上り坂から平坦な道路に変化する場合を想定する。時刻t1にて、路面の勾配が徐々に大きくなるので、図10(c)に示すように勾配変化率R1は上昇する。その後、時刻t2にてピークとなり、勾配変化率R1は下降し時刻t3にてほぼ0となる。つまり、一定勾配の上り坂となる。そして、時刻t4にて勾配変化率R1が負の方向に上昇し、時刻t5にてピークとなり、時刻t6にて勾配変化率R1はほぼ0となる。つまり、平坦な道路になる。   Now, as shown in FIG. 10B, a case is assumed in which the road changes from a flat road to an uphill at time t1, and then the road changes from an uphill to a flat road at time t6. Since the road surface gradient gradually increases at time t1, the gradient change rate R1 increases as shown in FIG. Thereafter, the peak is reached at time t2, and the gradient change rate R1 falls and becomes substantially zero at time t3. In other words, the slope is a certain slope. Then, the gradient change rate R1 rises in the negative direction at time t4, reaches a peak at time t5, and the gradient change rate R1 becomes substantially zero at time t6. That is, it becomes a flat road.

また、勾配変化率R1に対して、勾配変化率の所定の閾値Rthが設定されており、勾配変化率R1の絶対値が勾配変化率の所定の閾値Rthを上回った場合、即ち、「R1>Rth」または「R1<−Rth」となった場合に、距離及び姿勢角の起点を設定する処理を行う。つまり、図10(a)に示すT1,T2の時間帯における各情報処理サイクルにおいては、パターン光による距離及び姿勢角を算出し、これを起点として設定する。   In addition, a predetermined threshold value Rth of the gradient change rate is set for the gradient change rate R1, and when the absolute value of the gradient change rate R1 exceeds the predetermined threshold value Rth of the gradient change rate, that is, “R1> When “Rth” or “R1 <−Rth”, processing for setting the starting point of the distance and the posture angle is performed. That is, in each information processing cycle in the time periods T1 and T2 shown in FIG. 10A, the distance and posture angle by the pattern light are calculated and set as the starting points.

このようにして、本願発明の第1実施形態に係る自己位置算出装置100では、以下の作用効果が得られる。即ち、坂道を走行することにより、路面の勾配変化率R1の絶対値が大きくなり、これに起因して車両10の距離及び姿勢角が大きく変化する場合には、特徴点の時間変化に基づく距離及び姿勢角の積分演算を停止する。そして、パターン光を用いた距離及び姿勢角が求められている場合には、この距離及び姿勢角を新たな起点として設定する。即ち、自己位置算出部26は、路面勾配の変化率が勾配変化率の所定の閾値よりも大きい場合、そのときの車両10の現在位置と距離及び姿勢角を、車両10の初期位置と距離及び姿勢角に設定し、距離及び姿勢角の変化量の加算を開始する。また、パターン光を用いた距離及び姿勢角が求められていない場合には、前回のサイクルで更新された距離及び姿勢角を新たな起点として設定する。その結果、距離及び姿勢角の算出結果に大きな誤差が生じることを防止できる。このため、車両10の移動距離の推定精度を著しく向上させることができる。   As described above, the self-position calculating apparatus 100 according to the first embodiment of the present invention provides the following operational effects. That is, when the vehicle travels on a slope, the absolute value of the slope change rate R1 of the road surface increases, and when the distance and posture angle of the vehicle 10 change greatly due to this, the distance based on the time change of the feature point. And the integration calculation of the attitude angle is stopped. When the distance and posture angle using the pattern light are obtained, the distance and posture angle are set as a new starting point. That is, when the change rate of the road surface gradient is larger than a predetermined threshold value of the gradient change rate, the self-position calculation unit 26 determines the current position, distance, and attitude angle of the vehicle 10 at that time, the initial position of the vehicle 10, the distance, Set the posture angle, and start adding the distance and the change amount of the posture angle. If the distance and posture angle using the pattern light are not obtained, the distance and posture angle updated in the previous cycle are set as a new starting point. As a result, it is possible to prevent a large error from occurring in the calculation results of the distance and the posture angle. For this reason, the estimation accuracy of the moving distance of the vehicle 10 can be remarkably improved.

また、ナビゲーションシステム等から得られる地図情報に登録されている路面の勾配データにより、路面勾配を取得するので、路面勾配の変化を高精度、且つ迅速に算出することができ、車両10の移動量測定を高精度に行うことができる。   Further, since the road surface gradient is acquired from the road surface gradient data registered in the map information obtained from the navigation system or the like, the change in the road surface gradient can be calculated with high accuracy and speed, and the amount of movement of the vehicle 10 Measurement can be performed with high accuracy.

第1実施形態では、勾配変化算出部36で使用する路面勾配検出の一例として、GPS情報を用いる場合について説明したが、本発明はこれに限定されるものではなく、車載したストロークセンサ或いはジャイロセンサの検出結果に基づいて路面高さを算出し、この路面高さの変化量から路面勾配の変化を求めることも可能である。   In the first embodiment, the case where GPS information is used as an example of road surface gradient detection used in the gradient change calculation unit 36 has been described. However, the present invention is not limited to this, and a vehicle-mounted stroke sensor or gyro sensor is used. It is also possible to calculate the road surface height based on the detection result of this and to determine the change in the road surface gradient from the amount of change in the road surface height.

この場合には、車両挙動変化の影響による車両10の移動量算出の誤差を5%以下に抑えるために、車両10が静止している状態と比較して、路面に対する距離が5%以上変化したときに、特徴点の初期位置を設定すればよい。例えば、路面からカメラ12までの高さが1.0mである場合には、0.05mが閾値となる。なお、路面高さの変化は、ストロークセンサ等により求めることができる。そして、ジャイロセンサやストロークセンサを用いる場合には、GPS情報を取得することなく路面勾配を検出できるので、GPS情報に含まれない路面勾配を検出でき、より高精度な車両10の移動量測定が可能となる。   In this case, the distance to the road surface has changed by 5% or more compared to the state in which the vehicle 10 is stationary in order to suppress the error in calculating the movement amount of the vehicle 10 due to the influence of the vehicle behavior change to 5% or less. Sometimes the initial position of the feature point may be set. For example, when the height from the road surface to the camera 12 is 1.0 m, 0.05 m is the threshold value. The change in road surface height can be obtained by a stroke sensor or the like. When a gyro sensor or a stroke sensor is used, the road surface gradient can be detected without acquiring GPS information. Therefore, the road surface gradient not included in the GPS information can be detected, and the movement amount of the vehicle 10 can be measured with higher accuracy. It becomes possible.

また、路面に投光したパターン光に含まれる行列に各スポット光を結ぶ線分の傾斜角度を用いて路面の勾配を測定することも可能である。パターン光を用いる方法として、図7に示す如くのパターン光が得られた場合には、行方向に並ぶスポット光を結ぶ線分(Y軸方向)と、列方向に並ぶスポット光を結ぶ線分(Q1の方向)の傾き(X軸方向を0degとしたときの傾斜角度)を算出し、この傾きが平坦な路面を走行している場合と対比して所定角度(例えば、5deg)より大きくなった場合に、路面の勾配が大きくなったものと判断することができる。つまり、路面勾配が大きくなるほど、線分Q1のX軸に対する傾きが大きくなるので、この線分Q1の傾きから路面勾配を推定できる。そして、単位時間当たりの路面勾配の変化を算出することにより、勾配変化率を求めることが可能となる。   It is also possible to measure the gradient of the road surface using the inclination angle of the line segment connecting each spot light to the matrix included in the pattern light projected onto the road surface. As a method using pattern light, when pattern light as shown in FIG. 7 is obtained, a line segment connecting spot lights arranged in the row direction (Y-axis direction) and a line segment connecting spot lights arranged in the column direction. The inclination of (Q1 direction) (inclination angle when the X-axis direction is 0 deg) is calculated, and this inclination is larger than a predetermined angle (for example, 5 deg) as compared with the case of traveling on a flat road surface. In this case, it can be determined that the slope of the road surface has increased. That is, as the road surface gradient increases, the slope of the line segment Q1 with respect to the X-axis increases. Therefore, the road surface gradient can be estimated from the slope of the line segment Q1. Then, by calculating the change in the road surface gradient per unit time, it is possible to obtain the gradient change rate.

このように、行方向に並ぶスポット光を結ぶ線分に対する、列方向に並ぶスポット光を結ぶ線分の傾斜角度を算出し、この傾斜角度に基づいて路面勾配を取得することにより、より高精度な路面勾配の変化率の算出が可能となる。   As described above, the inclination angle of the line segment connecting the spot lights arranged in the column direction with respect to the line segment connecting the spot lights arranged in the row direction is calculated, and the road surface gradient is obtained based on the inclination angle, thereby obtaining higher accuracy. It is possible to calculate the rate of change of the road surface gradient.

更には、スポット光の間隔q1が変化した場合、例えば、平坦な路面を走行している場合と対比して5%以上変化した場合に、路面の勾配が大きくなったものと判断することができる。即ち、路面勾配が大きくなると、間隔q1の変化量が大きくなるのでこの間隔q1から路面勾配を推定できる。   Further, when the spot light interval q1 changes, for example, when it changes by 5% or more as compared to when traveling on a flat road surface, it can be determined that the road surface gradient has increased. . That is, as the road surface gradient increases, the amount of change in the interval q1 increases, so the road surface gradient can be estimated from this interval q1.

また、第1実施形態では、姿勢角算出部22による姿勢角の算出ができない場合には、直前に算出された姿勢角を用いるので、大きな誤差を含むことなく車両の位置を算出することができる。更に、予め設定した姿勢角の初期値(姿勢角初期値)を用いても同様に、大きな誤差を含むことなく車両の位置を算出することが可能となる。   In the first embodiment, when the posture angle cannot be calculated by the posture angle calculation unit 22, the posture angle calculated immediately before is used, so that the position of the vehicle can be calculated without including a large error. . Furthermore, even if a preset initial value of posture angle (posture angle initial value) is used, the position of the vehicle can be calculated without including a large error.

[第2実施形態の説明]
次に、本発明に係る自己位置算出装置100の第2実施形態について説明する。前述した第1実施形態では、情報処理サイクルの初回にパターン光を用いた距離及び姿勢角の算出を行い、その後、特徴点を用いた距離及び姿勢角の更新処理を行い、更に、路面の勾配変化率R1が大きくなった場合(勾配変化率の所定の閾値Rthを超えた場合)に、パターン光を用いた距離及び姿勢角の起点を設定することについて説明した。
[Description of Second Embodiment]
Next, a second embodiment of the self-position calculation apparatus 100 according to the present invention will be described. In the first embodiment described above, the distance and posture angle are calculated using the pattern light at the first time of the information processing cycle, and then the distance and posture angle are updated using the feature points. It has been described that the starting point of the distance and the posture angle using the pattern light is set when the change rate R1 becomes large (when the gradient change rate exceeds a predetermined threshold Rth).

これに対して、第2実施形態では、予め設定した周期(第1の周期)で周期的にパターン光を用いた距離及び姿勢角を算出し、この距離及び姿勢角に起点を設定する点で第1実施形態と相違する。具体的には、例えば、情報処理サイクルの10回毎にパターン光を用いた距離及び姿勢角を算出し、距離及び姿勢角の起点を設定する処理を行う。装置構成は、第1実施形態に示した図1と同様であるので、説明を省略する。   On the other hand, in the second embodiment, the distance and posture angle using the pattern light are calculated periodically in a preset cycle (first cycle), and the starting point is set to the distance and posture angle. This is different from the first embodiment. Specifically, for example, a distance and posture angle using pattern light is calculated every 10 information processing cycles, and processing for setting the starting point of the distance and posture angle is performed. Since the apparatus configuration is the same as that of FIG. 1 shown in the first embodiment, the description thereof is omitted.

以下、第2実施形態に係る自己位置算出装置100の作用を図11に示すタイミングチャートを参照して説明する。図11(a)は、パターン光を用いて距離及び姿勢角を算出するタイミング(距離及び姿勢角をリセットするタイミング)を示す図、(b)は周期的に距離及び姿勢角を算出するタイミングを示す図、(c)は路面の勾配変化率R1を示す図である。また、横軸は時間を示しており、一つの目盛りが1回の情報処理サイクルを示している。   Hereinafter, the operation of the self-position calculation apparatus 100 according to the second embodiment will be described with reference to the timing chart shown in FIG. FIG. 11A is a diagram illustrating timing for calculating the distance and posture angle using the pattern light (timing for resetting the distance and posture angle), and FIG. 11B is a timing for periodically calculating the distance and posture angle. The figure shown, (c) is a figure which shows the gradient change rate R1 of the road surface. The horizontal axis indicates time, and one scale indicates one information processing cycle.

図11(b)に示すように、路面の勾配変化率R1が低い場合(図11(c)のように勾配が変化しない場合)には、一定の周期でパターン光を用いた距離及び姿勢角の算出を行う。即ち、図1に示した姿勢変化量算出部24にて演算される距離及び姿勢角は、一定の周期でリセットされ、パターン光を用いた距離及び姿勢角により起点が設定される。   As shown in FIG. 11B, when the gradient change rate R1 of the road surface is low (when the gradient does not change as shown in FIG. 11C), the distance and posture angle using the pattern light at a constant period. Is calculated. That is, the distance and posture angle calculated by the posture change amount calculation unit 24 shown in FIG. 1 are reset at a constant cycle, and the starting point is set by the distance and posture angle using the pattern light.

また、図11(c)に示すように、時刻t11にて平坦な道路から上り坂に変化する場合には、時刻t11にて路面の勾配が徐々に大きくなるので、勾配変化率R1は上昇する。その後、勾配変化率R1がピークとなり、勾配変化率R1は下降し時刻t12にてほぼ0となる。つまり、一定勾配の上り坂となる。そして、時刻t13にて勾配変化率R1が負の方向に上昇し、時刻t14にて勾配変化率R1はほぼ0となる。つまり、平坦な道路になる。   Further, as shown in FIG. 11C, when the road changes from a flat road to an uphill at time t11, the gradient of the road surface gradually increases at time t11, so that the gradient change rate R1 increases. . Thereafter, the gradient change rate R1 reaches a peak, and the gradient change rate R1 decreases and becomes substantially zero at time t12. In other words, the slope is a certain slope. Then, the gradient change rate R1 rises in the negative direction at time t13, and the gradient change rate R1 becomes substantially zero at time t14. That is, it becomes a flat road.

そして、勾配変化率R1に対して、勾配変化率の所定の閾値Rthが設定されており、勾配変化率R1の絶対値が勾配変化率の所定の閾値Rthを上回った場合、即ち、「R1>Rth」または「R1<−Rth」となった場合に、距離及び姿勢角の起点を設定する処理を行う。つまり、図11(a)に示すT11,T12の時間帯において積分演算を停止して、パターン光による距離及び姿勢角の起点の設定を行う。従って、周期的に設定される時刻(図11(b)に示すタイミング)に加え、時間T11,T12において、距離及び姿勢角の起点を設定する処理を行う。   A predetermined threshold value Rth of the gradient change rate is set for the gradient change rate R1, and when the absolute value of the gradient change rate R1 exceeds the predetermined threshold value Rth of the gradient change rate, that is, “R1> When “Rth” or “R1 <−Rth”, processing for setting the starting point of the distance and the posture angle is performed. That is, the integration calculation is stopped in the time periods T11 and T12 shown in FIG. 11A, and the starting point of the distance and posture angle by the pattern light is set. Therefore, in addition to the periodically set time (timing shown in FIG. 11B), processing for setting the starting point of the distance and posture angle is performed at times T11 and T12.

そして、上記のように距離及び姿勢角の起点を設定することにより、図11(d)に示すように、車両10の移動量をより正確に推定することが可能になる。図11(d)において、曲線r1は、車両10の移動量の真の数値を示し、曲線r2は第2実施形態を採用した場合の車両10の移動量を示し、曲線r3は第2実施形態を採用せずに、周期的な起点設定のみを用いた場合の車両10の移動量を示している。   Then, by setting the starting point of the distance and the attitude angle as described above, it is possible to estimate the movement amount of the vehicle 10 more accurately as shown in FIG. In FIG.11 (d), the curve r1 shows the true numerical value of the moving amount of the vehicle 10, the curve r2 shows the moving amount of the vehicle 10 when the second embodiment is adopted, and the curve r3 is the second embodiment. The movement amount of the vehicle 10 when only periodic starting point setting is used without adopting the above is shown.

そして、図11(d)から理解されるように、第2実施形態に係る移動量の算出を採用した場合には、車両10の移動量がより真の数値に近づいている。   As understood from FIG. 11D, when the movement amount calculation according to the second embodiment is adopted, the movement amount of the vehicle 10 is closer to a true value.

このようにして、第2実施形態に係る自己位置算出装置100では、前述した第1実施形態と同様の効果を達成できる。更に、第2実施形態では、第1の周期でパターン光を用いた距離及び姿勢角の算出を行い、この距離及び姿勢角にて起点を設定するので、路面勾配の変化率が大きい場合に高精度な移動距離の推定が可能になる。更に、その他の要因により距離及び姿勢角に誤差が生じた場合でも、第1の周期で起点を設定するので、車両10の移動距離に大きな誤差が生じることを回避できる。   In this way, the self-position calculating apparatus 100 according to the second embodiment can achieve the same effects as those of the first embodiment described above. Furthermore, in the second embodiment, the distance and posture angle are calculated using the pattern light in the first period, and the starting point is set based on the distance and posture angle. It is possible to estimate the movement distance with accuracy. Furthermore, even if an error occurs in the distance and the posture angle due to other factors, since the starting point is set in the first cycle, it is possible to avoid a large error in the moving distance of the vehicle 10.

[第3実施形態の説明]
次に、本発明の第3実施形態について説明する。前述した第2実施形態では、所定の周期でパターン光を用いた距離及び姿勢角の算出を実行し、距離及び姿勢角の起点を設定した。更に、路面勾配の変化率R1が勾配変化率の所定の閾値Rthを上回った場合に、パターン光を用いた距離及び姿勢角により起点を設定する例について説明した。
[Description of Third Embodiment]
Next, a third embodiment of the present invention will be described. In the second embodiment described above, the distance and posture angle are calculated using the pattern light at a predetermined cycle, and the starting point of the distance and posture angle is set. Furthermore, the example in which the starting point is set based on the distance and posture angle using the pattern light when the road surface slope change rate R1 exceeds a predetermined threshold value Rth of the slope change rate has been described.

これに対して、第3実施形態では、通常時(R1<Rthの場合)には第1の周期でパターン光を用いた距離及び姿勢角の算出を実行し、路面の勾配変化率R1の絶対値が勾配変化率の所定の閾値Rthを上回った場合には、第1の周期よりも短い第2の周期でパターン光を用いた距離及び姿勢角の算出を実行する。装置構成は、前述の第1実施形態で説明した図1と同一であるので説明を省略する。   On the other hand, in the third embodiment, the distance and posture angle are calculated using the pattern light in the first period in the normal time (when R1 <Rth), and the absolute gradient change rate R1 of the road surface is calculated. When the value exceeds a predetermined threshold Rth of the gradient change rate, the distance and posture angle are calculated using the pattern light in the second period shorter than the first period. Since the apparatus configuration is the same as that of FIG. 1 described in the first embodiment, description thereof is omitted.

第3実施形態に係る自己位置算出装置100は、前述した図8に示した処理により実行される。図8におけるステップS09の処理が相違するので、以下、移動量算出の起点設定処理について図12に示すフローチャートを参照して説明する。   The self-position calculation apparatus 100 according to the third embodiment is executed by the process shown in FIG. Since the process of step S09 in FIG. 8 is different, the movement amount calculation starting point setting process will be described below with reference to the flowchart shown in FIG.

図12に示すフローチャートは、図9と対比して、ステップS906a、S906bの処理が加えられている点で相違する。以下詳細に説明する。   The flowchart shown in FIG. 12 differs from FIG. 9 in that the processing of steps S906a and S906b is added. This will be described in detail below.

ステップS901において、ECU13は、今回の情報処理サイクルが初回であるか否かを判断する。そして、初回である場合、即ち、前回の情報処理サイクルのデータが無い場合にはステップS909に処理を進め、初回でない場合にはステップS903に処理を進める。   In step S901, the ECU 13 determines whether or not the current information processing cycle is the first time. If it is the first time, that is, if there is no data of the previous information processing cycle, the process proceeds to step S909, and if not the first time, the process proceeds to step S903.

ステップS903において、勾配変化算出部36は、車両10に搭載されるナビゲーションシステムが有するGPSの情報に基づき、路面の勾配変化率R1を検出する。この処理では、GPSより得られる路面勾配のデータを微分演算する。   In step S903, the gradient change calculation unit 36 detects the gradient change rate R1 of the road surface based on GPS information included in the navigation system mounted on the vehicle 10. In this process, the road surface gradient data obtained from the GPS is differentiated.

ステップS905において、勾配変化算出部36は、路面の勾配変化率R1の絶対値が予め設定した勾配変化率の所定の閾値Rthより大きいか否かを判定する。そして、勾配変化率の所定の閾値Rthより大きい場合には(ステップS905でYES)、ステップS906bに処理を進める。一方、勾配変化率の所定の閾値Rth以下である場合には(ステップS905でNO)、ステップS906bに処理を進める。   In step S905, the gradient change calculation unit 36 determines whether or not the absolute value of the road gradient change rate R1 is greater than a predetermined gradient change rate threshold Rth. If the gradient change rate is greater than the predetermined threshold Rth (YES in step S905), the process proceeds to step S906b. On the other hand, if the gradient change rate is equal to or less than the predetermined threshold Rth (NO in step S905), the process proceeds to step S906b.

ステップS906aにおいてECU13は、パターン光を用いた距離及び姿勢の算出周期を第1の周期に設定する。例えば、情報処理サイクル10回分を第1の周期に設定する。その後、ステップS906cに処理を進める。   In step S906a, the ECU 13 sets the distance and orientation calculation cycle using the pattern light to the first cycle. For example, 10 information processing cycles are set as the first cycle. Thereafter, the process proceeds to step S906c.

ステップS906bにおいてECU13は、パターン光を用いた距離及び姿勢の算出周期を第1の周期よりも短い第2の周期に設定する。例えば、情報処理サイクル2回分を第2の周期に設定する。その後、ステップS906cに処理を進める。   In step S906b, the ECU 13 sets the distance and orientation calculation cycle using the pattern light to a second cycle shorter than the first cycle. For example, two information processing cycles are set as the second period. Thereafter, the process proceeds to step S906c.

ステップS906cにおいて、ECU13は、検出のタイミングであるか否かを判断する。そして、検出のタイミングである場合にはステップS907に処理を進め、検出のタイミングでない場合にはステップS913に処理を進める。ステップS907以降の処理は、図9と同一であるので、説明を省略する。   In step S906c, the ECU 13 determines whether it is a detection timing. If it is the detection timing, the process proceeds to step S907. If it is not the detection timing, the process proceeds to step S913. Since the process after step S907 is the same as that of FIG. 9, description is abbreviate | omitted.

次に、図13に示すタイミングチャートを参照して、路面の勾配変化と、距離及び姿勢角の設定との関係について説明する。図13(a)は、周期を変更して(第2の周期として)距離及び姿勢角の起点を設定する処理のタイミングを示す図、(b)は周期を変更せずに(第1の周期として)距離及び姿勢角の起点を設定する処理のタイミングを示す図、(c)は路面の勾配変化率R1を示す図である。また、横軸は時間を示しており、一つの目盛りが1回の情報処理サイクルを示している。   Next, with reference to the timing chart shown in FIG. 13, the relationship between the change in the road surface gradient and the setting of the distance and the posture angle will be described. FIG. 13A shows the timing of processing for setting the starting point of the distance and posture angle by changing the cycle (as the second cycle), and FIG. 13B shows the first cycle without changing the cycle. FIG. 4C is a diagram showing timing of processing for setting a starting point of a distance and a posture angle, and FIG. 5C is a diagram showing a slope change rate R1 of a road surface. The horizontal axis indicates time, and one scale indicates one information processing cycle.

いま、路面の勾配変化率R1が大きく変化しない場合には、図13(b)に示すように、第1の周期、一例として、情報処理サイクルの10回分を1周期として距離及び姿勢角のリセット処理が行われる。具体的には、時刻t21、t23、t25、t27のタイミングで距離及び姿勢角の起点設定処理が行われる。   If the road surface gradient change rate R1 does not change greatly, as shown in FIG. 13B, the distance and posture angle are reset with the first period, for example, 10 information processing cycles as one period. Processing is performed. Specifically, the starting point setting process of the distance and the posture angle is performed at timings t21, t23, t25, and t27.

いま、図13(c)に示すように、路面の勾配変化率R1が増加し、その絶対値が勾配変化率の所定の閾値Rthを上回ると、起点設定の周期が第1の周期から第2の周期に変更される(図12のS906bの処理)。一例として、情報処理サイクルの2回分を1周期として距離及び姿勢角の起点設定処理が行われる。即ち、図13(c)に示す時刻t22〜t23の間でR1がRthを上回っている時間帯において、図13(a)に示すように、起点設定の周期が第2の周期に変更される。   Now, as shown in FIG. 13 (c), when the slope change rate R1 of the road surface increases and the absolute value thereof exceeds a predetermined threshold value Rth of the slope change rate, the starting point setting period is changed from the first period to the second period. (The processing of S906b in FIG. 12). As an example, the distance and posture angle starting point setting process is performed with two cycles of the information processing cycle as one cycle. That is, in the time zone in which R1 exceeds Rth between times t22 and t23 shown in FIG. 13C, the starting point setting period is changed to the second period as shown in FIG. 13A. .

同様に、図13(c)に示す時刻t26〜t27の間で勾配変化率R1の絶対値が勾配変化率の所定の閾値Rthを上回っているので、この時間帯においてリセット処理の周期が第2の周期に変更される。   Similarly, since the absolute value of the gradient change rate R1 exceeds a predetermined threshold Rth of the gradient change rate between times t26 and t27 shown in FIG. 13C, the reset process cycle is the second in this time zone. The cycle is changed.

このようにして、第3実施形態によれば、路面の勾配変化率R1が大きくならない場合には、第1の周期で距離及び姿勢角の起点設定が行われ、勾配変化率R1の絶対値が勾配変化率の所定の閾値Rthを上回った場合に、第1の周期よりも短い第2の周期で距離及び姿勢角の起点設定が行われる。従って、勾配変化率R1が大きいという車両10の移動距離測定に大きな誤差が生じることが予想される状況下において、パターン光を用いた距離及び姿勢角の算出周期が短くなる。即ち、距離及び算出角の起点設定の周期が短くなる。従って、距離及び姿勢角の算出結果に大きな誤差が生じることを防止でき、車両10の移動距離の推定精度を著しく向上させることができる。   Thus, according to the third embodiment, when the slope change rate R1 of the road surface does not increase, the starting point of the distance and the posture angle is set in the first cycle, and the absolute value of the slope change rate R1 is When the gradient change rate exceeds a predetermined threshold value Rth, the starting point of the distance and the posture angle is set in a second cycle shorter than the first cycle. Therefore, in a situation where a large error is expected to occur in the measurement of the moving distance of the vehicle 10 in which the gradient change rate R1 is large, the distance and posture angle calculation cycle using the pattern light is shortened. That is, the cycle for setting the starting point of the distance and the calculated angle is shortened. Accordingly, it is possible to prevent a large error from occurring in the calculation results of the distance and the posture angle, and it is possible to significantly improve the estimation accuracy of the moving distance of the vehicle 10.

以上、本発明の自己位置算出装置及び自己位置算出方法を図示の実施形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置き換えることができる。   The self-position calculation apparatus and self-position calculation method of the present invention have been described based on the illustrated embodiment. However, the present invention is not limited to this, and the configuration of each unit may be any arbitrary function having the same function. It can be replaced with a configuration one.

例えば、図2では、カメラ12と投光器11を車両10の前面に取り付ける例について示したが、本発明はこれに限定されず、車両10の側方、後方、真下に向けて設置してもよい。また、上記した各実施形態では車両10に搭載した場合について記述したが、オートバイや建設機械など、道路の路面或いは壁面上の特徴点を撮像することが可能な移動体すべてに適用可能である。   For example, FIG. 2 shows an example in which the camera 12 and the projector 11 are attached to the front surface of the vehicle 10, but the present invention is not limited to this, and the camera 12 and the projector 11 may be installed sideways, rearward, or directly below. . In each of the above-described embodiments, the case where it is mounted on the vehicle 10 has been described. However, the present invention can be applied to all moving bodies capable of imaging feature points on road surfaces or wall surfaces of roads such as motorcycles and construction machines.

10 車両
11 投光器
12 カメラ(撮像部)
13 ECU
21 パターン光抽出部
22 姿勢角算出部
23 特徴点検出部
24 姿勢変化量算出部
26 自己位置算出部
27 パターン光制御部
31 路面
32a,32b パターン光
36 勾配変化算出部
100 自己位置算出装置
10 vehicle 11 projector 12 camera (imaging part)
13 ECU
DESCRIPTION OF SYMBOLS 21 Pattern light extraction part 22 Posture angle calculation part 23 Feature point detection part 24 Posture change amount calculation part 26 Self position calculation part 27 Pattern light control part 31 Road surface 32a, 32b Pattern light 36 Gradient change calculation part 100 Self position calculation apparatus

Claims (7)

車両周囲の路面にパターン光を投光する投光器と、
前記車両に搭載され、前記パターン光が投光された領域を含む車両周囲の路面を撮像して画像を取得する撮像部と、
路面の勾配を取得して路面勾配の変化を算出する勾配変化算出部と、
前記撮像部により取得された画像における前記パターン光の位置から、前記路面に対する車両の姿勢角を算出する姿勢角算出部と、
前記撮像部により取得された画像の前記路面上の複数の特徴点の時間変化に基づいて、前記車両の姿勢変化量を算出する姿勢変化量算出部と、
前記車両の初期位置及び姿勢角に、前記姿勢変化量を加算してゆくことで、前記車両の現在位置及び姿勢角を算出する自己位置算出部と、
を備え、
前記自己位置算出部は、路面勾配の変化が所定の閾値よりも大きい場合、そのときの前記車両の現在位置及び前記姿勢角算出部による前記車両の姿勢角に対して前記姿勢変化量の加算を開始する
ことを特徴とする自己位置算出装置。
A projector that projects pattern light onto the road surface around the vehicle;
An imaging unit that is mounted on the vehicle and captures an image of a road surface around the vehicle including an area where the pattern light is projected; and
A gradient change calculating unit for obtaining a road gradient and calculating a change in the road gradient;
An attitude angle calculation unit that calculates an attitude angle of the vehicle with respect to the road surface from the position of the pattern light in the image acquired by the imaging unit;
An attitude change amount calculation unit that calculates an attitude change amount of the vehicle based on temporal changes of a plurality of feature points on the road surface of the image acquired by the imaging unit;
A self-position calculator that calculates the current position and posture angle of the vehicle by adding the amount of posture change to the initial position and posture angle of the vehicle;
With
When the change in the road surface gradient is larger than a predetermined threshold, the self-position calculation unit adds the posture change amount to the current position of the vehicle at that time and the posture angle of the vehicle by the posture angle calculation unit. A self-position calculation device characterized by starting.
前記自己位置算出部は、路面勾配の変化が所定の閾値以下の場合、第1の周期で、そのときの前記車両の現在位置及び前記姿勢角算出部による前記車両の姿勢角に対して、前記姿勢変化量の加算を開始し、
路面勾配の変化が所定の閾値よりも大きい場合、前記第1の周期よりも短い第2の周期で、そのときの前記車両の現在位置及び前記姿勢角算出部による前記車両の姿勢角に対して、前記姿勢変化量の加算を開始する
ことを特徴とする請求項1に記載の自己位置算出装置。
When the change in road surface gradient is equal to or less than a predetermined threshold, the self-position calculation unit is configured to calculate the current position of the vehicle at that time and the posture angle of the vehicle by the posture angle calculation unit in the first period. Start adding posture change amount,
When the change in the road surface gradient is larger than a predetermined threshold, the current position of the vehicle at that time and the attitude angle of the vehicle by the attitude angle calculation unit at a second period shorter than the first period. The self-position calculation apparatus according to claim 1, wherein addition of the posture change amount is started.
前記勾配変化算出部は、路面高さの変化量から路面の勾配変化を求めることを特徴とする請求項1または2に記載の自己位置算出装置。   The self-position calculation device according to claim 1, wherein the gradient change calculation unit obtains a change in the gradient of the road surface from the amount of change in the road surface height. 前記パターン光は、行列方向に並ぶ光からなり、前記勾配変化算出部は、行方向に並ぶ光の線分に対する、列方向に並ぶ光の線分の傾斜度合から、路面の勾配変化を求めることを特徴とする請求項1または2に記載の自己位置算出装置。   The pattern light is composed of light arranged in a matrix direction, and the gradient change calculating unit obtains a change in the gradient of the road surface from the degree of inclination of the line segments of light arranged in the column direction with respect to the line segments of light arranged in the row direction. The self-position calculating device according to claim 1, wherein: 前記自己位置算出部は、前記姿勢角算出部により、パターン光から車両の姿勢角を算出できない場合には、予め設定した姿勢角初期値を用いることを特徴とする請求項1〜4のいずれか1項に記載の自己位置算出装置。   The self-position calculation unit uses a preset attitude angle initial value when the attitude angle calculation unit cannot calculate the attitude angle of the vehicle from the pattern light. The self-position calculation device according to item 1. 前記自己位置算出部は、前記姿勢角算出部により、パターン光から車両の姿勢角を算出できない場合には、直前に算出された姿勢角を用いることを特徴とする請求項1〜4のいずれか1項に記載の自己位置算出装置。   The self-position calculation unit uses the posture angle calculated immediately before when the posture angle calculation unit cannot calculate the posture angle of the vehicle from the pattern light. The self-position calculation device according to item 1. 車両周囲の路面にパターン光を投光する投光手順と、
前記パターン光が投光された領域を含む車両周囲の路面を撮像して画像を取得する手順と、
路面の勾配を取得して路面勾配の変化を算出する勾配変化算出手順と、
前記画像における前記パターン光の位置から、前記路面に対する車両の姿勢角を算出する姿勢角算出手順と、
前記画像に含まれる複数の特徴点の時間変化に基づいて、前記車両の姿勢変化量を算出する姿勢変化量算出手順と、
前記車両の初期位置及び姿勢角に、前記姿勢変化量を加算してゆくことで、前記車両の現在位置及び姿勢角を算出する自己位置算出手順と、
を備え、
前記自己位置算出手順は、路面勾配の変化が所定の閾値よりも大きい場合、そのときの前記車両の現在位置及び前記パターン光の位置から算出された前記車両の姿勢角に対して、前記姿勢変化量の加算を開始する
ことを特徴とする自己位置算出方法。
Projection procedure of projecting pattern light onto the road surface around the vehicle,
A procedure for obtaining an image by imaging a road surface around a vehicle including an area where the pattern light is projected;
A gradient change calculation procedure for obtaining a road gradient and calculating a change in the road gradient,
An attitude angle calculation procedure for calculating an attitude angle of the vehicle with respect to the road surface from the position of the pattern light in the image;
An attitude change amount calculating procedure for calculating an attitude change amount of the vehicle based on temporal changes of a plurality of feature points included in the image;
A self-position calculation procedure for calculating the current position and attitude angle of the vehicle by adding the attitude change amount to the initial position and attitude angle of the vehicle;
With
In the self-position calculation procedure, when the change in the road surface gradient is larger than a predetermined threshold, the attitude change with respect to the attitude angle of the vehicle calculated from the current position of the vehicle and the position of the pattern light at that time A self-position calculation method characterized by starting addition of a quantity.
JP2014032998A 2014-02-24 2014-02-24 Self-position calculation device and self-position calculation method Active JP6398217B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014032998A JP6398217B2 (en) 2014-02-24 2014-02-24 Self-position calculation device and self-position calculation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014032998A JP6398217B2 (en) 2014-02-24 2014-02-24 Self-position calculation device and self-position calculation method

Publications (2)

Publication Number Publication Date
JP2015158417A true JP2015158417A (en) 2015-09-03
JP6398217B2 JP6398217B2 (en) 2018-10-03

Family

ID=54182502

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014032998A Active JP6398217B2 (en) 2014-02-24 2014-02-24 Self-position calculation device and self-position calculation method

Country Status (1)

Country Link
JP (1) JP6398217B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017057052A1 (en) * 2015-09-30 2017-04-06 ソニー株式会社 Information processing device, information processing method, and program
US11301695B2 (en) 2017-11-10 2022-04-12 Denso Corporation Orientation detection device and non-transitory computer readable medium
CN114407782A (en) * 2020-10-28 2022-04-29 上海汽车集团股份有限公司 Method and device for adjusting exterior rearview mirror

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09189564A (en) * 1996-01-11 1997-07-22 Matsushita Electric Ind Co Ltd Traveling body position speed calculating device
JP2004198211A (en) * 2002-12-18 2004-07-15 Aisin Seiki Co Ltd Apparatus for monitoring vicinity of mobile object
JP2004198212A (en) * 2002-12-18 2004-07-15 Aisin Seiki Co Ltd Apparatus for monitoring vicinity of mobile object
JP2007278951A (en) * 2006-04-10 2007-10-25 Alpine Electronics Inc Car body behavior measuring device
JP2008275530A (en) * 2007-05-02 2008-11-13 Alpine Electronics Inc Position detector and position detecting method
JP2009236532A (en) * 2008-03-26 2009-10-15 Seiko Epson Corp Method for geolocation, program, and apparatus for geolocation
JP2010032398A (en) * 2008-07-30 2010-02-12 Alpine Electronics Inc Location detecting apparatus and method of navigation system
JP2012247396A (en) * 2011-05-31 2012-12-13 Sanyo Electric Co Ltd Speed detection apparatus and method
US20130242089A1 (en) * 2012-03-16 2013-09-19 Lg Innotek Co., Ltd. Apparatus for measuring distance and method thereof
JP2013196353A (en) * 2012-03-19 2013-09-30 Sharp Corp Peripheral information generating apparatus, conveyance, peripheral information generating method, peripheral information generating program and computer-readable storage medium
JP2013205196A (en) * 2012-03-28 2013-10-07 Toyota Motor Corp Road surface condition estimation device

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09189564A (en) * 1996-01-11 1997-07-22 Matsushita Electric Ind Co Ltd Traveling body position speed calculating device
JP2004198211A (en) * 2002-12-18 2004-07-15 Aisin Seiki Co Ltd Apparatus for monitoring vicinity of mobile object
JP2004198212A (en) * 2002-12-18 2004-07-15 Aisin Seiki Co Ltd Apparatus for monitoring vicinity of mobile object
JP2007278951A (en) * 2006-04-10 2007-10-25 Alpine Electronics Inc Car body behavior measuring device
JP2008275530A (en) * 2007-05-02 2008-11-13 Alpine Electronics Inc Position detector and position detecting method
JP2009236532A (en) * 2008-03-26 2009-10-15 Seiko Epson Corp Method for geolocation, program, and apparatus for geolocation
JP2010032398A (en) * 2008-07-30 2010-02-12 Alpine Electronics Inc Location detecting apparatus and method of navigation system
JP2012247396A (en) * 2011-05-31 2012-12-13 Sanyo Electric Co Ltd Speed detection apparatus and method
US20130242089A1 (en) * 2012-03-16 2013-09-19 Lg Innotek Co., Ltd. Apparatus for measuring distance and method thereof
JP2013196353A (en) * 2012-03-19 2013-09-30 Sharp Corp Peripheral information generating apparatus, conveyance, peripheral information generating method, peripheral information generating program and computer-readable storage medium
JP2013205196A (en) * 2012-03-28 2013-10-07 Toyota Motor Corp Road surface condition estimation device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017057052A1 (en) * 2015-09-30 2017-04-06 ソニー株式会社 Information processing device, information processing method, and program
CN108027230A (en) * 2015-09-30 2018-05-11 索尼公司 Information processing equipment, information processing method and program
US10731994B2 (en) 2015-09-30 2020-08-04 Sony Corporation Information processing device and information processing method
US11301695B2 (en) 2017-11-10 2022-04-12 Denso Corporation Orientation detection device and non-transitory computer readable medium
CN114407782A (en) * 2020-10-28 2022-04-29 上海汽车集团股份有限公司 Method and device for adjusting exterior rearview mirror
CN114407782B (en) * 2020-10-28 2023-09-26 上海汽车集团股份有限公司 Outer rearview mirror adjusting method and device

Also Published As

Publication number Publication date
JP6398217B2 (en) 2018-10-03

Similar Documents

Publication Publication Date Title
JP6237876B2 (en) Self-position calculation device and self-position calculation method
JP6269838B2 (en) Self-position calculation device and self-position calculation method
JP6237875B2 (en) Self-position calculation device and self-position calculation method
JP6176387B2 (en) Self-position calculation device and self-position calculation method
JP6187671B2 (en) Self-position calculation device and self-position calculation method
JP6237874B2 (en) Self-position calculation device and self-position calculation method
JP6187672B2 (en) Self-position calculation device and self-position calculation method
JP6398218B2 (en) Self-position calculation device and self-position calculation method
JP6398217B2 (en) Self-position calculation device and self-position calculation method
JP6547362B2 (en) Self-position calculation device and self-position calculation method
JP6369897B2 (en) Self-position calculation device and self-position calculation method
JP6299319B2 (en) Self-position calculation device and self-position calculation method
JP6492974B2 (en) Self-position calculation device and self-position calculation method
JP6398219B2 (en) Self-position calculation device and self-position calculation method
JP6369898B2 (en) Self-position calculation device and self-position calculation method
JP6459745B2 (en) Self-position calculation device and self-position calculation method
JP6459701B2 (en) Self-position calculation device and self-position calculation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180820

R151 Written notification of patent or utility model registration

Ref document number: 6398217

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151