JP6398219B2 - Self-position calculation device and self-position calculation method - Google Patents

Self-position calculation device and self-position calculation method Download PDF

Info

Publication number
JP6398219B2
JP6398219B2 JP2014033012A JP2014033012A JP6398219B2 JP 6398219 B2 JP6398219 B2 JP 6398219B2 JP 2014033012 A JP2014033012 A JP 2014033012A JP 2014033012 A JP2014033012 A JP 2014033012A JP 6398219 B2 JP6398219 B2 JP 6398219B2
Authority
JP
Japan
Prior art keywords
vehicle
posture angle
self
posture
amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014033012A
Other languages
Japanese (ja)
Other versions
JP2015158419A (en
Inventor
山口 一郎
一郎 山口
西内 秀和
秀和 西内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2014033012A priority Critical patent/JP6398219B2/en
Publication of JP2015158419A publication Critical patent/JP2015158419A/en
Application granted granted Critical
Publication of JP6398219B2 publication Critical patent/JP6398219B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Navigation (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、自己位置算出装置及び自己位置算出方法に係り、特に、移動量を推定する精度を向上させる技術に関する。   The present invention relates to a self-position calculation device and a self-position calculation method, and more particularly to a technique for improving the accuracy of estimating a movement amount.

従来より、車両にカメラを搭載し、該カメラにて車両近傍の映像を撮像し、撮像した画像の変化に基づいて車両の移動量を求める技術が提案されている(特許文献1参照)。特許文献1では、車両の低速かつ微妙な移動においても精度よく移動量を求めるために、画像に含まれる特徴点を検出し、この特徴点の画像上での位置を求め、該特徴点の移動方向及び移動距離(移動量)から車両の移動量を求めている。   Conventionally, a technique has been proposed in which a camera is mounted on a vehicle, an image of the vicinity of the vehicle is captured by the camera, and the amount of movement of the vehicle is obtained based on a change in the captured image (see Patent Document 1). In Patent Document 1, in order to obtain the amount of movement with high accuracy even when the vehicle is moving slowly and delicately, a feature point included in the image is detected, the position of the feature point on the image is obtained, and the feature point is moved. The moving amount of the vehicle is obtained from the direction and the moving distance (moving amount).

特開2008−175717号公報JP 2008-175717 A

しかしながら、車両の挙動量、例えば、車両の前後方向の加速度が大きい場合には、カメラと路面との位置関係に変化が生じるので、高精度な移動量の測定ができなくなるという問題が生じる。つまり、カメラで撮像した画像に基づいて移動量を推定する際に、急発進、急停車等、車両の挙動量が大きい場合には、車両の姿勢が変化することにより路面に対するカメラの姿勢角が変化する。従って、このカメラで撮像した画像に基づいて車両の移動量を推定すると、姿勢角の変化に起因して、移動量の推定値に大きな誤差が生じてしまい、高精度な測定ができなくなってしまう。   However, when the vehicle behavior amount, for example, the acceleration in the front-rear direction of the vehicle is large, the positional relationship between the camera and the road surface changes, which causes a problem that it is impossible to measure the movement amount with high accuracy. In other words, when estimating the amount of movement based on the image captured by the camera, if the amount of behavior of the vehicle is large, such as sudden start or stop, the posture angle of the camera with respect to the road surface changes due to the change in the posture of the vehicle. To do. Therefore, if the amount of movement of the vehicle is estimated based on the image captured by this camera, a large error occurs in the estimated value of the amount of movement due to the change in the attitude angle, and high-precision measurement cannot be performed. .

本発明は、このような従来の課題を解決するためになされたものであり、その目的とするところは、車両の挙動量が大きい場合においても、車両の移動量を精度よく且つ安定して算出することができる自己位置算出装置及び自己位置算出方法を提供することにある。   The present invention has been made to solve such conventional problems, and the object of the present invention is to accurately and stably calculate the amount of movement of the vehicle even when the amount of behavior of the vehicle is large. It is an object of the present invention to provide a self-position calculation device and a self-position calculation method that can be performed.

上記目的を達成するため、本願発明は、車両の挙動量を検出する挙動量検出部と、撮像部により取得されるパターン光の位置から、路面に対する車両の姿勢角を算出する姿勢角算出部と、路面上の複数の特徴点の時間変化に基づいて、車両の姿勢変化量を算出する姿勢変化量算出部と、車両の初期位置及び、前記車両の初期位置にて前記姿勢各算出部で検出された姿勢角に、姿勢変化量を継続して加算してゆくことで、車両の現在位置及び姿勢角を算出する自己位置算出部とを備える。そして、自己位置算出部は、車両の挙動量が閾値挙動量よりも大きい場合、そのときの車両の現在位置及び姿勢角算出部による車両の姿勢角に対して、姿勢変化量の加算を開始する。 To achieve the above object, the present invention includes a behavior amount detection unit that detects a vehicle behavior amount, and a posture angle calculation unit that calculates a posture angle of the vehicle with respect to a road surface from the position of pattern light acquired by the imaging unit. , A posture change amount calculation unit for calculating a posture change amount of the vehicle based on a temporal change of a plurality of feature points on the road surface, and an initial position of the vehicle, and detected by each of the posture calculation units at the initial position of the vehicle the attitude angle that is, that slide into adding continuously the posture variation, and a self-position calculating unit that calculates a current position and attitude angle of the vehicle. Then, when the behavior amount of the vehicle is greater than the threshold behavior amount, the self-position calculation unit starts adding the posture change amount to the current vehicle position and the posture angle of the vehicle by the posture angle calculation unit at that time. .

本発明によれば、車両の挙動量が閾値挙動量よりも大きい場合には、そのときの車両の現在位置及び姿勢角算出部による車両の姿勢角に対して姿勢角変化量の加算を開始する。従って、車両の挙動量が大きい場合でも、車両の初期位置及び姿勢角の算出精度が低下することを防止でき、車両の移動量を精度よく且つ安定して算出することが可能となる。   According to the present invention, when the behavior amount of the vehicle is larger than the threshold behavior amount, the addition of the posture angle change amount to the vehicle current posture and the posture angle calculation unit by the posture angle calculation unit at that time is started. . Therefore, even when the amount of behavior of the vehicle is large, it is possible to prevent the calculation accuracy of the initial position and attitude angle of the vehicle from being lowered, and the amount of movement of the vehicle can be calculated accurately and stably.

本発明の第1実施形態に係る自己位置算出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the self-position calculation apparatus which concerns on 1st Embodiment of this invention. 車両に搭載される投光器により照射される投光パターン、及びカメラによる撮像範囲を示す説明図である。It is explanatory drawing which shows the light projection pattern irradiated with the light projector mounted in a vehicle, and the imaging range by a camera. (a)は、投光器とカメラの間の基線長Lbと、各スポット光の画像上の座標(Uj,Vj)とから、各スポット光が照射された路面上の位置を算出する様子を示す図であり、(b)は、パターン光が照射された領域とは異なる他の領域から検出された特徴点の時間変化から、カメラの移動方向を求める様子を示す説明図である。(A) is a figure which shows a mode that the position on the road surface irradiated with each spot light is calculated from the base line length Lb between a projector and a camera, and the coordinate (Uj, Vj) on the image of each spot light. (B) is an explanatory view showing a state in which the moving direction of the camera is obtained from the temporal change of the feature points detected from another area different from the area irradiated with the pattern light. (a)は、カメラにより取得した画像に対して二値化処理を施したパターン光の画像を示す図、(b)はその拡大図、(c)はパターン光抽出部により抽出した各スポット光の重心の位置を示す図である。(A) is the figure which shows the image of the pattern light which binarized the image acquired with the camera, (b) is the enlarged view, (c) is each spot light extracted by the pattern light extraction part It is a figure which shows the position of the gravity center. 距離及び姿勢角の変化量を算出する方法を説明するための模式図である。It is a schematic diagram for demonstrating the method of calculating the variation | change_quantity of a distance and a posture angle. (a)は、時刻tに取得した画像の一例を示し、(b)は、時刻tから時間Δtだけ経過した時刻(t+Δt)に取得した画像の一例を示す。(A) shows an example of an image acquired at time t, and (b) shows an example of an image acquired at time (t + Δt) when time Δt has elapsed from time t. 本発明の実施形態に係る自己位置算出装置の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the self-position calculation apparatus which concerns on embodiment of this invention. 第1実施形態に係り、図8のステップS09に示す処理の詳細な処理手順を示すフローチャートである。FIG. 9 is a flowchart showing a detailed processing procedure of the process shown in step S09 of FIG. 8 according to the first embodiment. 第1実施形態に係る自己位置算出装置の、路面の勾配変化と起点設定のタイミングを示すタイミングチャートである。It is a timing chart which shows the timing of the gradient change of a road surface, and starting point setting of the self-position calculation device concerning a 1st embodiment. 第2実施形態に係る自己位置算出装置の、車両の加速度と起点設定のタイミングを示すタイミングチャートである。It is a timing chart which shows the timing of the acceleration of a vehicle, and starting point setting of the self position calculation device concerning a 2nd embodiment. 第3実施形態に係り、図8のステップS09に示す処理の詳細な処理手順を示すフローチャートである。FIG. 10 is a flowchart showing a detailed processing procedure of the process shown in step S09 of FIG. 8 according to the third embodiment. 第3実施形態に係る自己位置算出装置の、車両の加速度と起点設定のタイミングを示すタイミングチャートである。It is a timing chart which shows the timing of the acceleration of a vehicle, and starting point setting of the self-position calculation device concerning a 3rd embodiment.

以下、本発明の実施形態について、図面を参照して説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[第1実施形態の説明]
図1は、本発明の実施形態に係る自己位置算出装置の構成を示すブロック図である。図1に示すように、自己位置算出装置100は、投光器11と、カメラ12(撮像部)と、エンジンコントロールユニット(ECU)13と、を備える。投光器11は、車両に搭載され、車両周囲の路面にパターン光を投光する。パターン光の詳細については後述する。カメラ12は、車両に搭載され、パターン光が投光された領域を含む車両周囲の路面を撮像して画像を取得する。ECU13は、投光器11の作動を制御し、且つカメラ12により取得された画像から車両の移動量を推定する一連の情報処理サイクルを実行する。
[Description of First Embodiment]
FIG. 1 is a block diagram showing a configuration of a self-position calculation apparatus according to an embodiment of the present invention. As shown in FIG. 1, the self-position calculation device 100 includes a projector 11, a camera 12 (imaging unit), and an engine control unit (ECU) 13. The projector 11 is mounted on the vehicle and projects pattern light onto a road surface around the vehicle. Details of the pattern light will be described later. The camera 12 is mounted on a vehicle and captures an image of a road surface around the vehicle including an area where pattern light is projected. The ECU 13 controls the operation of the projector 11 and executes a series of information processing cycles for estimating the movement amount of the vehicle from the image acquired by the camera 12.

カメラ12は、固体撮像素子、例えばCCD及びCMOSを用いたデジタルカメラであって、画像処理が可能なデジタル画像を取得する。カメラ12の撮像対象は車両周囲の路面であって、車両周囲の路面には、車両の前部、後部、側部、車両底部の路面が含まれる。例えば、図2に示すように、カメラ12は、車両10の前部、具体的にはフロントバンパ上に搭載することができる。   The camera 12 is a digital camera using a solid-state imaging device, for example, a CCD and a CMOS, and acquires a digital image that can be processed. The imaging target of the camera 12 is a road surface around the vehicle, and the road surface around the vehicle includes the road surface of the front, rear, side, and bottom of the vehicle. For example, as shown in FIG. 2, the camera 12 can be mounted on the front portion of the vehicle 10, specifically on the front bumper.

車両10の前方の路面31上の特徴点(「テクスチャ」ともいう)及び投光器11により投光されたパターン光32bを撮像できるように、カメラ12が設置される高さ及び向きが調整され、且つ、カメラ12が備えるレンズのピント及び絞りが自動調整される。ここで、「特徴点」とは、アスファルト上に存在する凹凸部分である。   The height and direction at which the camera 12 is installed are adjusted so that the feature point (also referred to as “texture”) on the road surface 31 in front of the vehicle 10 and the pattern light 32b projected by the projector 11 can be imaged. The lens focus and aperture of the camera 12 are automatically adjusted. Here, the “feature point” is an uneven portion present on the asphalt.

カメラ12は、所定の時間間隔をおいて繰り返し撮像を行い、一連の画像(フレーム)群を取得する。カメラ12により取得された画像データは、撮像周期毎にECU13へ転送され、ECU13が備えるメモリ(図示省略)に記憶される。   The camera 12 repeatedly captures images at a predetermined time interval and acquires a series of images (frames). The image data acquired by the camera 12 is transferred to the ECU 13 for each imaging cycle and stored in a memory (not shown) provided in the ECU 13.

投光器11は、図2に示すように、カメラ12の撮像範囲内の路面31に向けて、正方形や長方形の格子像を含む所定の形状を有するパターン光32bを投光する。カメラ12は、パターン光を含む路面31の領域を撮像する。投光器11は、例えば、レーザポインター及び回折格子を備える。レーザポインターから射出されたレーザ光を回折格子で回折することにより、投光器11は、図2〜図4に示すように、格子像、或いは行列状に配列された複数のスポット光からなるパターン光(32b、32a)を生成する。図3及び図4に示す例では、5×7のスポット光からなるパターン光32aを生成している。   As shown in FIG. 2, the projector 11 projects pattern light 32 b having a predetermined shape including a square or rectangular lattice image toward the road surface 31 within the imaging range of the camera 12. The camera 12 images the area of the road surface 31 that includes the pattern light. The projector 11 includes, for example, a laser pointer and a diffraction grating. As shown in FIGS. 2 to 4, the projector 11 diffracts the laser light emitted from the laser pointer with a diffraction grating, and as shown in FIG. 2 to FIG. 4, pattern light (pattern light consisting of a plurality of spot lights arranged in a matrix form) 32b, 32a). In the example shown in FIGS. 3 and 4, the pattern light 32a composed of 5 × 7 spot light is generated.

図3(a)は、路面31にパターン光32aを照射し、この照射領域をカメラ12で撮像する様子を示している。また、図3(b)は、路面31にパターン光32aを照射し、この照射領域とは異なる他の領域33をカメラ12で撮像して特徴点を検出し、該特徴点の時間変化からカメラ12の移動方向34を求める様子を示している。   FIG. 3A shows a state in which the road surface 31 is irradiated with the pattern light 32 a and the irradiation area is imaged by the camera 12. 3B irradiates the road surface 31 with the pattern light 32a, picks up an image of another region 33 different from the irradiated region with the camera 12, detects a feature point, and detects the feature point over time from the camera. 12 shows how 12 movement directions 34 are obtained.

図1に戻り、ECU13は、CPU、メモリ、及び入出力部を備えるマイクロコントローラからなり、予めインストールされたコンピュータプログラムを実行することにより、自己位置算出装置100が備える複数の情報処理部を構成する。ECU13は、カメラ12により取得された画像から車両10の移動量を推定する一連の情報処理サイクルを、画像(フレーム)毎に繰り返し実行する。ECU13は、車両10に関連する他の制御に用いるECUと兼用してもよい。   Returning to FIG. 1, the ECU 13 includes a microcontroller including a CPU, a memory, and an input / output unit, and configures a plurality of information processing units included in the self-position calculating device 100 by executing a computer program installed in advance. . The ECU 13 repeatedly executes a series of information processing cycles for estimating the amount of movement of the vehicle 10 from the image acquired by the camera 12 for each image (frame). The ECU 13 may also be used as an ECU used for other controls related to the vehicle 10.

複数の情報処理部には、パターン光抽出部21と、姿勢角算出部22と、特徴点検出部23と、姿勢変化量算出部24と、自己位置算出部26と、パターン光制御部27、及び挙動量検出部36が含まれる。姿勢変化量算出部24には、特徴点検出部23が含まれている。   The plurality of information processing units include a pattern light extraction unit 21, an attitude angle calculation unit 22, a feature point detection unit 23, an attitude change amount calculation unit 24, a self-position calculation unit 26, a pattern light control unit 27, And a behavior amount detector 36 is included. The posture change amount calculation unit 24 includes a feature point detection unit 23.

パターン光制御部27は、投光器11によるパターン光32aの投光を制御する。例えば、車両10のイグニションスイッチがオン状態となり、当該自己位置算出装置100が起動すると同時に、パターン光制御部27は、パターン光32aの投光を開始する。その後、パターン光制御部27は、自己位置算出装置100が停止するまで、パターン光32aを連続して投光する。或いは、所定の時間間隔をおいて、投光のオン、オフを繰り返してもよい。或いは、挙動量検出部36で検出される車両10の挙動量(例えば、車両10の前後方向の加速度)が大きくなった場合に限って、一時的にパターン光32aを投光してもよい。   The pattern light control unit 27 controls the projection of the pattern light 32 a by the projector 11. For example, when the ignition switch of the vehicle 10 is turned on and the self-position calculating device 100 is activated, the pattern light control unit 27 starts projecting the pattern light 32a. Thereafter, the pattern light control unit 27 continuously projects the pattern light 32a until the self-position calculating device 100 stops. Alternatively, the light projection may be turned on and off repeatedly at predetermined time intervals. Alternatively, the pattern light 32a may be temporarily projected only when the behavior amount of the vehicle 10 detected by the behavior amount detection unit 36 (for example, acceleration in the front-rear direction of the vehicle 10) increases.

パターン光抽出部21は、カメラ12により取得された画像をメモリから読み込み、画像からパターン光の位置を抽出する。図3(a)に示すように、例えば、投光器11が行列状に配列された複数のスポット光からなるパターン光32aを路面31に向けて投光し、路面31で反射したパターン光32aをカメラ12で検出する。パターン光抽出部21は、カメラ12により取得された画像に対して二値化処理を施すことにより、図4(a)及びその拡大図である図4(b)に示すように、スポット光Spの画像のみを抽出する。パターン光抽出部21は、図4(c)に示すように、各スポット光Spの重心の位置He、即ち、スポット光Spの画像上の座標(Uj,Vj)を算出することにより、パターン光32aの位置を抽出する。座標は、カメラ12の撮像素子の画素を単位とし、5×7のスポット光Spの場合、「j」は1以上35以下の自然数である。スポット光Spの画像上の座標(Uj,Vj)は、パターン光32aの位置を示すデータとしてメモリに記憶される。   The pattern light extraction unit 21 reads an image acquired by the camera 12 from the memory and extracts the position of the pattern light from the image. As shown in FIG. 3A, for example, a pattern light 32a composed of a plurality of spot lights in which the projectors 11 are arranged in a matrix is projected toward the road surface 31, and the pattern light 32a reflected by the road surface 31 is captured by the camera. 12 to detect. The pattern light extraction unit 21 performs a binarization process on the image acquired by the camera 12, and as shown in FIG. 4A and an enlarged view of FIG. 4B, the spot light Sp Extract only images. As illustrated in FIG. 4C, the pattern light extraction unit 21 calculates the position He of the center of gravity of each spot light Sp, that is, the coordinates (Uj, Vj) on the image of the spot light Sp, thereby calculating the pattern light. The position 32a is extracted. The coordinates are in units of pixels of the image sensor of the camera 12, and in the case of 5 × 7 spot light Sp, “j” is a natural number between 1 and 35. The coordinates (Uj, Vj) on the image of the spot light Sp are stored in the memory as data indicating the position of the pattern light 32a.

姿勢角算出部22は、パターン光32aの位置を示すデータをメモリから読み込み、カメラ12により取得された画像におけるパターン光32aの位置から、路面31に対する車両10の距離及び姿勢角を算出する。例えば、図3(a)に示すように、投光器11とカメラ12の間の基線長Lbと、各スポット光の画像上の座標(Uj,Vj)とから、三角測量の原理を用いて、各スポット光が照射された路面31上の位置を、カメラ12に対する相対位置として算出する。   The posture angle calculation unit 22 reads data indicating the position of the pattern light 32 a from the memory, and calculates the distance and posture angle of the vehicle 10 with respect to the road surface 31 from the position of the pattern light 32 a in the image acquired by the camera 12. For example, as shown in FIG. 3A, from the baseline length Lb between the projector 11 and the camera 12 and the coordinates (Uj, Vj) of each spot light on the image, The position on the road surface 31 irradiated with the spot light is calculated as a relative position with respect to the camera 12.

そして、該姿勢角算出部22は、カメラ12に対する各スポット光の相対位置から、パターン光32aが投光された路面31の平面式、即ち、路面31に対するカメラ12の距離及び姿勢角を算出する。なお、車両10に対するカメラ12の搭載位置及び撮像方向は既知であるので、実施形態においては、路面31に対する車両10の距離及び姿勢角の一例として、路面31に対するカメラ12の距離及び姿勢角を算出する。換言すれば、路面31に対するカメラ12の距離及び姿勢角を算出することにより、路面31と車両10との間の距離、及び路面31に対する車両10の姿勢角を求めることができる。以下では、路面31に対するカメラ12の距離及び姿勢角を、「距離及び姿勢角」と略す。姿勢角算出部22により算出された距離及び姿勢角は、メモリに記憶される。 Then, the posture angle calculation unit 22 calculates the plane type of the road surface 31 on which the pattern light 32 a is projected, that is, the distance and posture angle of the camera 12 with respect to the road surface 31 from the relative position of each spot light with respect to the camera 12. . In addition, since the mounting position and imaging direction of the camera 12 with respect to the vehicle 10 are known, in the embodiment, the distance and posture angle of the camera 12 with respect to the road surface 31 are calculated as an example of the distance and posture angle of the vehicle 10 with respect to the road surface 31. To do. In other words, by calculating the distance and posture angle of the camera 12 with respect to the road surface 31, the distance between the road surface 31 and the vehicle 10 and the posture angle of the vehicle 10 with respect to the road surface 31 can be obtained. Hereinafter, the distance and posture angle of the camera 12 with respect to the road surface 31 are abbreviated as “distance and posture angle”. The distance and the posture angle calculated by the posture angle calculation unit 22 are stored in the memory.

具体的に説明すると、カメラ12及び投光器11は車両10にそれぞれ固定されているので、パターン光32aの照射方向と、カメラ12と投光器11との距離(図3の基線長Lb)は既知である。そこで、姿勢角算出部22は、三角測量の原理を用いて、各スポット光の画像上の座標(Uj,Vj)から各スポット光が照射された路面31上の位置を、カメラ12に対する相対位置を3次元座標(Xj,Yj,Zj)として求めることができる。   More specifically, since the camera 12 and the projector 11 are respectively fixed to the vehicle 10, the irradiation direction of the pattern light 32a and the distance between the camera 12 and the projector 11 (baseline length Lb in FIG. 3) are known. . Therefore, the posture angle calculation unit 22 uses the principle of triangulation to determine the position on the road surface 31 irradiated with each spot light from the coordinates (Uj, Vj) on the image of each spot light as a relative position to the camera 12. Can be obtained as three-dimensional coordinates (Xj, Yj, Zj).

なお、カメラ12に対する各スポット光の相対位置(Xj,Yj,Zj)は同一平面上に存在しない場合が多い。なぜなら、路面31に表出するアスファルトの凹凸に応じて各スポット光の相対位置が変化するからである。そこで、最小二乗法を用いて、各スポット光との距離誤差の二乗和が最小となるような平面式を求めてもよい。こうして算出される距離及び姿勢角のデータは、図1に示す自己位置算出部26にて用いられることになる。   The relative position (Xj, Yj, Zj) of each spot light with respect to the camera 12 often does not exist on the same plane. This is because the relative position of each spot light changes according to the asphalt unevenness exposed on the road surface 31. Therefore, a plane formula that minimizes the sum of squares of distance errors with respect to each spot light may be obtained by using the least square method. The distance and posture angle data calculated in this way are used by the self-position calculation unit 26 shown in FIG.

特徴点検出部23は、カメラ12により取得された画像をメモリから読み込み、メモリから読み込んだ画像から、路面31上の特徴点を検出する。特徴点検出部23は、路面31上の特徴点を検出するために、例えば、「D.G. Lowe,“Distinctive Image Features from Scale-Invariant Keypoints,” Int. J. Comput. Vis., vol.60, no.2, pp. 91-110, Nov. 200 」、或いは、「金澤 靖, 金谷健一, “コンピュータビジョンのための画像の特徴点抽出,” 信学誌, vol.87, no.12, pp.1043-1048, Dec. 2004」に記載の手法を用いることができる。   The feature point detection unit 23 reads an image acquired by the camera 12 from the memory, and detects a feature point on the road surface 31 from the image read from the memory. The feature point detection unit 23 detects, for example, “DG Lowe,“ Distinctive Image Features from Scale-Invariant Keypoints, ”Int. J. Comput. Vis., Vol. 60, no, .2, pp. 91-110, Nov. 200 "or" Kanazawa Satoshi, Kanaya Kenichi, "Extracting image feature points for computer vision," IEICE Journal, vol.87, no.12, pp. 1043-1048, Dec. 2004 "can be used.

具体的には、特徴点検出部23は、例えば、ハリス(Harris)作用素又はSUSANオペレータを用いて、物体の頂点のように周囲に比べて輝度値が大きく変化する点を特徴点として検出する。或いは、特徴点検出部23は、SIFT(Scale-Invariant Feature Transform)特徴量を用いて、その周囲で輝度値がある規則性のもとで変化している点を特徴点として検出してもよい。そして、特徴点検出部23は、1つの画像から検出した特徴点の総数Nを計数し、各特徴点に識別番号(i(1≦i≦N))を付す。各特徴点の画像上の位置(Ui,Vi)は、ECU13内のメモリに記憶される。図6(a)及び図6(b)は、カメラ12により取得された画像から検出された特徴点Teの例を示す。各特徴点の画像上の位置(Ui,Vi)は、メモリに記憶される。更に、各特徴点Teの変化方向及び変化量をベクトルDteとして示している。   Specifically, the feature point detection unit 23 uses, for example, a Harris operator or a SUSAN operator to detect, as a feature point, a point whose luminance value changes greatly as compared to the surroundings, such as a vertex of an object. Alternatively, the feature point detection unit 23 may detect, as a feature point, a point where the luminance value changes under certain regularity using a SIFT (Scale-Invariant Feature Transform) feature amount. . Then, the feature point detection unit 23 counts the total number N of feature points detected from one image, and assigns an identification number (i (1 ≦ i ≦ N)) to each feature point. The position (Ui, Vi) on the image of each feature point is stored in a memory in the ECU 13. FIGS. 6A and 6B show examples of feature points Te detected from an image acquired by the camera 12. The position (Ui, Vi) on the image of each feature point is stored in the memory. Furthermore, the change direction and change amount of each feature point Te are shown as a vector Dte.

なお、実施形態において、路面31上の特徴点は、主に大きさが1cm以上2cm以下のアスファルト混合物の粒を想定している。この特徴点を検出するために、カメラ12の解像度はVGA(約30万画素)である。また、路面31に対するカメラ12の距離は、おおよそ70cmである。更に、カメラ12の撮像方向は、水平面から約45degだけ路面31に向けて傾斜させる。また、カメラ12により取得される画像をECU13に転送するときの輝度数値は、0〜255(0:最も暗い、255:最も明るい)の範囲内である。   In the embodiment, the feature points on the road surface 31 are mainly assumed to be asphalt mixture grains having a size of 1 cm to 2 cm. In order to detect this feature point, the resolution of the camera 12 is VGA (approximately 300,000 pixels). Moreover, the distance of the camera 12 with respect to the road surface 31 is about 70 cm. Furthermore, the imaging direction of the camera 12 is inclined toward the road surface 31 by about 45 degrees from the horizontal plane. In addition, the luminance value when the image acquired by the camera 12 is transferred to the ECU 13 is in the range of 0 to 255 (0: darkest, 255: brightest).

姿勢変化量算出部24は、一定の情報処理サイクル毎に撮像される各フレームの画像のうち、前回(時刻t)フレームの画像に含まれる複数の特徴点の画像上の位置座標(Ui,Vi)をメモリから読み込み、更に、今回(時刻t+Δt)フレームの画像に含まれる複数の特徴点の画像上の位置座標(Ui,Vi)をメモリから読み込む。そして、複数の特徴点の画像上での位置変化に基づいて、車両10の姿勢変化量を求める。ここで、「車両の姿勢変化量」とは、路面に対する車両10の「距離及び姿勢角の変化量」、及び路面上での「車両の移動量」の双方を含んでいる。以下、「距離及び姿勢角の変化量」及び「車両の移動量」の算出方法について説明する。   The posture change amount calculation unit 24 includes the position coordinates (Ui, Vi) on the image of a plurality of feature points included in the image of the previous (time t) frame among the images of each frame imaged for each fixed information processing cycle. ) From the memory, and the position coordinates (Ui, Vi) on the image of a plurality of feature points included in the image of the current (time t + Δt) frame are read from the memory. And the attitude | position change amount of the vehicle 10 is calculated | required based on the position change on the image of a some feature point. Here, the “vehicle attitude change amount” includes both the “distance and attitude angle change amount” of the vehicle 10 relative to the road surface and the “vehicle movement amount” on the road surface. Hereinafter, a calculation method of “the amount of change in the distance and posture angle” and “the amount of movement of the vehicle” will be described.

距離及び姿勢角の変化量は、例えば、以下のようにして求めることができる。図6(a)は、時刻tに取得された第1フレームの画像38の一例を示す。図5及び図6(a)に示すように、画像38において、例えば3つの特徴点Te1、Te2、Te3の相対位置(xi,yi,zi)がそれぞれ算出されている場合を考える。この場合、特徴点Te1、Te2、Te3によって特定される平面G(図6(a)参照)を路面と見なすことができる。よって、姿勢変化量算出部24は、各特徴点の相対位置(xi,yi,zi)から、路面(平面G)に対するカメラ12の距離及び姿勢角を求めることができる。更に、姿勢変化量算出部24は、既知のカメラモデルによって、各特徴点Te1、Te2、Te3の間の距離(l1,l2,l3)及び夫々の特徴点Te1、Te2、Te3を結ぶ直線が成す角度を求めることができる。図5のカメラ12は、第1フレーム(時刻t)におけるカメラの位置を示す。 The amount of change in the distance and the posture angle can be obtained as follows, for example. FIG. 6A shows an example of the first frame image 38 acquired at time t. As shown in FIGS. 5 and 6A, a case is considered in which, for example, relative positions (xi, yi, zi) of three feature points Te1, Te2, Te3 are calculated in the image 38, respectively. In this case, the plane G (see FIG. 6A) specified by the feature points Te1, Te2, Te3 can be regarded as a road surface. Therefore, the posture change amount calculation unit 24 can obtain the distance and posture angle of the camera 12 with respect to the road surface (plane G) from the relative positions (xi, yi, zi) of the feature points. Furthermore, the posture change amount calculation unit 24 forms distances (11, 12, 13) between the feature points Te1, Te2, Te3 and straight lines connecting the feature points Te1, Te2, Te3 by a known camera model. The angle can be determined. The camera 12 in FIG. 5 shows the position of the camera in the first frame (time t).

なお、カメラ12に対する特徴点の相対位置を示す3次元座標(xi,yi,zi)として、カメラ12の撮像方向をZ軸に設定し、撮像方向を法線とし且つカメラ12を含む平面内に、互いに直交するX軸及びY軸を設定する。一方、画像38上の座標として、水平方向及び垂直方向をそれぞれV軸及びU軸に設定する。   It should be noted that as the three-dimensional coordinates (xi, yi, zi) indicating the relative position of the feature point with respect to the camera 12, the imaging direction of the camera 12 is set to the Z axis, the imaging direction is a normal line, and the plane including the camera 12 is included. , X axis and Y axis orthogonal to each other are set. On the other hand, as the coordinates on the image 38, the horizontal direction and the vertical direction are set to the V axis and the U axis, respectively.

図6(b)は、時刻tから時間Δtだけ経過した時刻(t+Δt)に取得された第2フレームの画像38’を示す。図5のカメラ12’は、第2フレームの画像38’を撮像したときのカメラ12の位置を示す。図5及び図6(b)に示すように、画像38’において、カメラ12’が特徴点Te1、Te2、Te3を撮像し、特徴点検出部23が特徴点Te1、Te2、Te3を検出する。この場合、姿勢変化量算出部24は、時刻tにおける各特徴点Te1、Te2、Te3の相対位置(xi,yi,zi)と、各特徴点の画像38’上の位置P1(Ui,Vi)と、カメラ12のカメラモデルとから、時間Δtにおけるカメラ12の移動量ΔL(図5参照)を算出でき、ひいては車両10の移動量を算出できる。更には、距離及び姿勢角の変化量も算出することができる。例えば、以下の(1)〜(4)式からなる連立方程式を解くことにより、姿勢変化量算出部24は、カメラ12(車両)の移動量(ΔL)、及び、距離及び姿勢角の変化量を算出することができる。なお、下記の(1)式はカメラ12が歪みや光軸ずれのない理想的なピンホールカメラとしてモデル化したものであり、λiは定数、fは焦点距離である。カメラモデルのパラメータは、予めキャリブレーションをしておけばよい。
FIG. 6B shows an image 38 ′ of the second frame acquired at time (t + Δt) when time Δt has elapsed from time t. The camera 12 ′ in FIG. 5 indicates the position of the camera 12 when the second frame image 38 ′ is captured. As shown in FIGS. 5 and 6B, in the image 38 ′, the camera 12 ′ captures the feature points Te1, Te2, and Te3, and the feature point detection unit 23 detects the feature points Te1, Te2, and Te3. In this case, the posture change amount calculation unit 24 calculates the relative positions (xi, yi, zi) of the feature points Te1, Te2, Te3 at time t and the position P1 (Ui, Vi) of the feature points on the image 38 ′. From the camera model of the camera 12, the movement amount ΔL (see FIG. 5) of the camera 12 at the time Δt can be calculated, and the movement amount of the vehicle 10 can be calculated. Furthermore, the amount of change in distance and posture angle can also be calculated. For example, by solving simultaneous equations consisting of the following equations (1) to (4), the posture change amount calculation unit 24 can change the movement amount (ΔL) of the camera 12 (vehicle) and the change amounts of the distance and posture angle. Can be calculated. The following equation (1) is modeled as an ideal pinhole camera in which the camera 12 has no distortion or optical axis deviation, λi is a constant, and f is a focal length. The camera model parameters may be calibrated in advance.

なお、姿勢変化量算出部24は、時刻tと時刻t+Δtで検出される各画像中で相対位置が算出された特徴点の全てを用いるのではなく、特徴点同士の位置関係に基づいて最適な特徴点を選定してもよい。選定方法としては、例えば、エピポーラ幾何(エピ極線幾何,R.I. Hartley: “A linear method for reconstruction from lines and points,” Proc. 5th International Conference on Computer Vision, Cambridge, Massachusetts, pp.882-887(1995))を用いることができる。   Note that the posture change amount calculation unit 24 does not use all of the feature points whose relative positions are calculated in the images detected at time t and time t + Δt, but is optimal based on the positional relationship between the feature points. A feature point may be selected. For example, Epipolar geometry (RI Hartley: “A linear method for reconstruction from lines and points,” Proc. 5th International Conference on Computer Vision, Cambridge, Massachusetts, pp.882-887 (1995) )) Can be used.

このように、姿勢変化量算出部24が、時刻tのフレーム画像38で相対位置(xi,yi,zi)が算出された特徴点Te1、Te2、Te3を、時刻t+Δtにおけるフレーム画像38’からも検出された場合に、該姿勢変化量算出部24は、路面上の複数の特徴点の相対位置(xi,yi,zi)と特徴点の画像上の位置(Ui,Vi)の時間変化から、「車両の姿勢角変化量」を算出することができる。更には、車両10の移動量を算出することができる。   As described above, the posture change amount calculation unit 24 also uses the feature points Te1, Te2, and Te3 whose relative positions (xi, yi, zi) are calculated in the frame image 38 at time t from the frame image 38 ′ at time t + Δt. When detected, the posture change amount calculation unit 24 calculates the relative position (xi, yi, zi) of the plurality of feature points on the road surface and the time change of the position (Ui, Vi) of the feature points on the image. The “vehicle attitude angle change amount” can be calculated. Furthermore, the amount of movement of the vehicle 10 can be calculated.

即ち、前回フレームと今回フレームの間で対応関係が取れる3点以上の特徴点を検出し続けることができれば、距離及び姿勢角の変化量を加算する処理(即ち、積分演算)を継続することにより、パターン光32aを用いることなく、距離及び姿勢角を更新し続けることができる。但し、最初の情報処理サイクルにおいては、パターン光32aを用いて算出された距離及び姿勢角、或いは所定の初期的な距離及び姿勢角を用いてもよい。つまり、積分演算の起点となる距離及び姿勢角は、パターン光32aを用いて算出しても、或いは、所定の初期値を用いても構わない。所定の初期的な距離及び姿勢角は、少なくとも車両10への乗員及び搭載物を考慮した距離及び姿勢角であることが望ましい。例えば、車両10のイグニションスイッチがオン状態であって、且つシフトポジションがパーキングから他のポジションへ移動した時に、パターン光32aを投光し、パターン光32aから算出された距離及び姿勢角を、所定の初期的な距離及び姿勢角として用いればよい。これにより、車両10の旋回や加減速によるロール運動或いはピッチ運動が発生していない時の距離や姿勢角を求めることができる。   That is, if it is possible to continue to detect three or more feature points that can be correlated between the previous frame and the current frame, by continuing the process of adding the distance and the change amount of the posture angle (that is, the integral calculation). The distance and the posture angle can be continuously updated without using the pattern light 32a. However, in the first information processing cycle, a distance and posture angle calculated using the pattern light 32a or a predetermined initial distance and posture angle may be used. That is, the distance and the attitude angle that are the starting points of the integration calculation may be calculated using the pattern light 32a, or may use predetermined initial values. It is desirable that the predetermined initial distance and posture angle be a distance and posture angle in consideration of at least an occupant and a load on the vehicle 10. For example, when the ignition switch of the vehicle 10 is on and the shift position moves from parking to another position, the pattern light 32a is projected, and the distance and posture angle calculated from the pattern light 32a are set to a predetermined value. The initial distance and posture angle may be used. Thereby, the distance and the posture angle when the roll motion or the pitch motion due to the turning or acceleration / deceleration of the vehicle 10 is not generated can be obtained.

なお、前後フレーム間で特徴点を対応付けるには、例えば、検出した特徴点の周辺の小領域の画像をメモリに記録しておき、輝度や色情報の類似度から判断すればよい。具体的には、ECU13は、検出した特徴点を中心とする5×5(水平×垂直)画素分の画像をメモリに記録する。姿勢変化量算出部24は、例えば、輝度情報が20画素以上で誤差1%以下に収まっていれば、前後フレーム間で対応関係が取れる特徴点であると判断する。そして、上記の処理で取得した姿勢変化量は、後段の自己位置算出部26にて車両10の自己位置を算出する際に用いられる。   In order to associate the feature points between the preceding and following frames, for example, an image of a small area around the detected feature points may be recorded in a memory and determined from the similarity of luminance and color information. Specifically, the ECU 13 records an image for 5 × 5 (horizontal × vertical) pixels centered on the detected feature point in the memory. For example, if the luminance information is 20 pixels or more and the error is within 1% or less, the posture change amount calculation unit 24 determines that the feature point is a feature point that can be correlated between the previous and next frames. Then, the posture change amount acquired by the above processing is used when the self-position calculating unit 26 in the subsequent stage calculates the self-position of the vehicle 10.

図1に示す自己位置算出部26は、姿勢変化量算出部24で算出された「距離及び姿勢角の変化量」から車両10の距離及び姿勢角を算出する。更に、姿勢変化量算出部24で算出された「車両の移動量」から車両10の自己位置を算出する。   The self-position calculator 26 shown in FIG. 1 calculates the distance and posture angle of the vehicle 10 from the “distance and change amount of posture angle” calculated by the posture change amount calculator 24. Further, the self position of the vehicle 10 is calculated from the “movement amount of the vehicle” calculated by the posture change amount calculation unit 24.

具体的は、姿勢角算出部22(図1参照)にて算出された距離及び姿勢角(パターン光を用いて算出された距離及び姿勢角)が起点として設定された場合について説明する。この場合には、この起点(距離及び姿勢角)に対して、自己位置算出部26は、姿勢角算出部22で算出された距離及び姿勢角に対して、姿勢変化量算出部24で算出された各フレーム毎の距離及び姿勢角の変化量を逐次加算して(積分演算して)、距離及び姿勢角を最新な数値に更新する。また、自己位置算出部26は、姿勢角算出部22にて距離及び姿勢角が算出された際の車両位置を起点(車両の初期位置)とし、この初期位置からの車両10の移動量を逐次加算して(積分演算して)、車両10の自己位置を算出する。例えば、地図上の位置と照合された起点(車両の初期位置)を設定することで、地図上の車両の現在位置を逐次算出することができる。   Specifically, a case where the distance and posture angle calculated by the posture angle calculation unit 22 (see FIG. 1) (the distance and posture angle calculated using the pattern light) are set as the starting points will be described. In this case, for this starting point (distance and posture angle), the self-position calculation unit 26 calculates the posture change amount calculation unit 24 for the distance and posture angle calculated by the posture angle calculation unit 22. Then, the distance and posture angle change amount for each frame are sequentially added (integral calculation), and the distance and posture angle are updated to the latest numerical values. The self-position calculation unit 26 uses the vehicle position when the distance and posture angle are calculated by the posture angle calculation unit 22 as a starting point (the initial position of the vehicle), and sequentially determines the movement amount of the vehicle 10 from the initial position. Addition (integral calculation) is performed to calculate the self-position of the vehicle 10. For example, the current position of the vehicle on the map can be sequentially calculated by setting the starting point (the initial position of the vehicle) that is collated with the position on the map.

従って、姿勢変化量算出部24は、時間Δtの間でのカメラ12の移動量(ΔL)を求めることにより、車両10の自己位置を算出することができる。更には、距離及び姿勢角の変化量も同時に算出することができるので、姿勢変化量算出部24は、車両10の距離及び姿勢角の変化量を考慮して、6自由度(前後、左右、上下、ヨー、ピッチ、ロール)の移動量(ΔL)を精度よく算出することができる。即ち、車両10の旋回や加減速によるロール運動或いはピッチ運動によって距離や姿勢角が変化しても、移動量(ΔL)の推定誤差を抑制することができる。   Therefore, the posture change amount calculation unit 24 can calculate the self-position of the vehicle 10 by obtaining the movement amount (ΔL) of the camera 12 during the time Δt. Furthermore, since the change amount of the distance and the posture angle can be calculated at the same time, the posture change amount calculation unit 24 considers the change amount of the distance and the posture angle of the vehicle 10 and has six degrees of freedom (front and rear, left and right, The amount of movement (ΔL) of up and down, yaw, pitch, and roll) can be calculated with high accuracy. That is, even if the distance and the posture angle change due to roll motion or pitch motion caused by turning or acceleration / deceleration of the vehicle 10, an estimation error of the movement amount (ΔL) can be suppressed.

なお、実施形態では、距離及び姿勢角の変化量を算出し、距離及び姿勢角を更新することにより、カメラ12の移動量(ΔL)を算出した。しかし、路面31に対するカメラ12の姿勢角だけを変化量算出及び更新の対象としても構わない。この場合、路面31とカメラ12との距離は一定と仮定すればよい。これにより、姿勢角の変化量を考慮して、移動量(ΔL)の推定誤差を抑制しつつ、ECU13の演算負荷を軽減し、且つ演算速度を向上させることもできる。   In the embodiment, the movement amount (ΔL) of the camera 12 is calculated by calculating the change amount of the distance and the posture angle and updating the distance and the posture angle. However, only the attitude angle of the camera 12 with respect to the road surface 31 may be the target of the change amount calculation and update. In this case, the distance between the road surface 31 and the camera 12 may be assumed to be constant. Accordingly, it is possible to reduce the calculation load of the ECU 13 and improve the calculation speed while suppressing the estimation error of the movement amount (ΔL) in consideration of the change amount of the posture angle.

また、図1に示す挙動量検出部36は、車両10に搭載される各種のセンサから車両10の挙動量を取得する。例えば、車速センサより、車両10の走行速度を検出し、この走行速度を微分演算して、車両10の前後方向の加速度α1(前方の加速度、後方の加速度)を検出する。他の挙動量として、ヨーレートセンサにて検出される車両10の左右方向の移動速度を取得し、これを挙動量とすることも可能である。或いは、ストロークセンサにて検出される車両10の鉛直方向(上下方向)の移動速度を検出し、これを挙動量とすることも可能である。そして、加速度α1が予め設定した閾値加速度αthを上回った場合、挙動量が過多であると判断する。   Further, the behavior amount detection unit 36 illustrated in FIG. 1 acquires the behavior amount of the vehicle 10 from various sensors mounted on the vehicle 10. For example, the traveling speed of the vehicle 10 is detected by a vehicle speed sensor, and the traveling speed is differentially calculated to detect the longitudinal acceleration α1 (forward acceleration, backward acceleration) of the vehicle 10. As another behavior amount, it is also possible to acquire the moving speed in the left-right direction of the vehicle 10 detected by the yaw rate sensor and use this as the behavior amount. Alternatively, it is also possible to detect the moving speed in the vertical direction (vertical direction) of the vehicle 10 detected by the stroke sensor and use this as the behavior amount. When the acceleration α1 exceeds the preset threshold acceleration αth, it is determined that the behavior amount is excessive.

例えば、車両10の移動距離の算出精度を、車両10の挙動変化による車両10の移動量算出の誤差を5%以下に抑えるとすると、車両10のピッチ角、或いはロール角の算出値が、実際のピッチ角に対して0.05[rad]より大きく変化することを防止する必要がある。ピッチ角、及びロール角は車載したジャイロセンサの検出値を積分して求めることができる。   For example, assuming that the calculation accuracy of the movement distance of the vehicle 10 is such that an error in calculating the movement amount of the vehicle 10 due to a change in the behavior of the vehicle 10 is 5% or less, the calculated value of the pitch angle or roll angle of the vehicle 10 is actually It is necessary to prevent the pitch angle from changing more than 0.05 [rad]. The pitch angle and the roll angle can be obtained by integrating the detection values of the on-vehicle gyro sensor.

一例として、車両10の前後方向の加速度を用いる場合には、車両10のピッチ角が車両停止時のピッチ角と比較して0.05[rad]変化するときの、前後方向の加速度を予め求めておき、この加速度を閾値加速度αthとして設定する。車両10のロール角の算出値が、実際の車両停止時のロール角に対して0.05[rad]より大きく変化することを防止する。   As an example, when the longitudinal acceleration of the vehicle 10 is used, the longitudinal acceleration when the pitch angle of the vehicle 10 changes by 0.05 [rad] compared to the pitch angle when the vehicle is stopped is obtained in advance. This acceleration is set as the threshold acceleration αth. The calculated value of the roll angle of the vehicle 10 is prevented from changing more than 0.05 [rad] relative to the roll angle when the vehicle is actually stopped.

また他の例として、車両10の横方向速度を用いる場合には、車両10のロール角が、車両10が停止している状態と比較して、0.05[rad]変化するときの車両10の横方向加速度Yg[m/sec2]を予め算出しておき、この加速度となる車速V[m/sec]に応じたヨーレートγ[rad/sec]を閾値とすることができる。   As another example, when the lateral speed of the vehicle 10 is used, the vehicle 10 when the roll angle of the vehicle 10 changes by 0.05 [rad] compared to the state in which the vehicle 10 is stopped. The lateral acceleration Yg [m / sec2] is calculated in advance, and the yaw rate γ [rad / sec] corresponding to the vehicle speed V [m / sec] as the acceleration can be set as a threshold value.

更に他の例として、車両10の鉛直方向の速度を用いる場合には、路面に対する距離が1秒間に5%より大きく変化する際の鉛直方向の速度を閾値とすることができる。この場合は、車両挙動の変化の周波数が最速1[Hz]と想定しているので、カメラ12の路面からの高さが1.0mであれば、0.05[m/sec]が鉛直方向の閾値速度となる。   As yet another example, when the vertical speed of the vehicle 10 is used, the vertical speed when the distance to the road surface changes more than 5% per second can be used as the threshold value. In this case, since the frequency of the change in vehicle behavior is assumed to be 1 [Hz] at the highest speed, if the height of the camera 12 from the road surface is 1.0 m, 0.05 [m / sec] is the vertical direction. Threshold speed.

そして、車両10の挙動量が過多であると判断した場合には、姿勢角算出部22は、パターン光抽出部21より抽出されるパターン光に基づいて、車両の距離及び姿勢角を算出する処理を行う。   When it is determined that the behavior amount of the vehicle 10 is excessive, the posture angle calculation unit 22 calculates the distance and posture angle of the vehicle based on the pattern light extracted by the pattern light extraction unit 21. I do.

[第1実施形態の作用]
次に、カメラ12により取得された画像38(図5参照)から車両10の自己位置、即ち、「車両の距離及び姿勢角」、及び「車両の移動量」を算出する算出方法の一例として、ECU13により繰り返し実行される情報処理サイクルを、図7及び図8に示すフローチャートを参照して説明する。図7に示す情報処理サイクルは、車両10のイグニションスイッチがオン状態となり、自己位置算出装置100が起動すると同時に開始され、該自己位置算出装置100が停止するまで、繰り返し実行される。
[Operation of First Embodiment]
Next, as an example of a calculation method for calculating the self-position of the vehicle 10 from the image 38 (see FIG. 5) acquired by the camera 12, that is, the “vehicle distance and attitude angle” and the “vehicle movement amount”. An information processing cycle repeatedly executed by the ECU 13 will be described with reference to flowcharts shown in FIGS. The information processing cycle shown in FIG. 7 is repeatedly executed until the ignition switch of the vehicle 10 is turned on, the self-position calculating device 100 is started, and the self-position calculating device 100 is stopped.

初めに、図7のステップS01において、パターン光制御部27は、投光器11を制御して、車両周囲の路面31にパターン光32aを投光する。図7では、パターン光32aを連続して投光する例を説明する。なお、前述したように、必要に応じてパターン光32aを投光するようにしてもよい。   First, in step S01 of FIG. 7, the pattern light control unit 27 controls the projector 11 to project the pattern light 32a onto the road surface 31 around the vehicle. FIG. 7 illustrates an example in which the pattern light 32a is continuously projected. As described above, the pattern light 32a may be projected as necessary.

ステップS03に進み、ECU13は、カメラ12を制御して、パターン光32aが投光された領域を含む車両周囲の路面31を撮像して画像38を取得する。ECU13は、カメラ12により取得された画像データを、メモリに記憶する。   In step S03, the ECU 13 controls the camera 12 to capture the road surface 31 around the vehicle including the area where the pattern light 32a is projected, and obtain an image 38. The ECU 13 stores the image data acquired by the camera 12 in a memory.

なお、ECU13はカメラ12の絞りを自動制御できる。前回の情報処理サイクルで取得した画像38の平均輝度から、輝度値の最大値と最小値の中間値になるようにカメラ12の絞りをフィードバック制御してもよい。また、パターン光32aが投光されている領域は輝度値が高いため、パターン光32aを抽出した部分を除いた領域から、平均輝度値を求めてもよい。   The ECU 13 can automatically control the aperture of the camera 12. The aperture of the camera 12 may be feedback-controlled so that the average luminance of the image 38 acquired in the previous information processing cycle becomes an intermediate value between the maximum value and the minimum value of the luminance value. Moreover, since the brightness | luminance value is high in the area | region where the pattern light 32a is projected, you may obtain | require an average luminance value from the area | region except the part which extracted the pattern light 32a.

ステップS05に進み、パターン光抽出部21は、カメラ12により取得された画像38をメモリから読み込み、図4(c)に示したように、画像38からパターン光32aの位置を抽出する。パターン光抽出部21は、パターン光32aの位置を示すデータとして算出されたスポット光Spの画像上の座標(Uj,Vj)をメモリに記憶する。更に、ステップS05では、姿勢角算出部22は、パターン光32aの位置を示すデータをメモリから読み込み、パターン光32aの位置から、距離及び姿勢角を算出し、メモリに記憶する。距離及び姿勢角の算出方法は、前述した通りである。なお、姿勢角算出部22で算出した距離及び姿勢角は、後述するように、情報処理サイクルが初回の場合、及び後述する条件となった場合に、積分演算を実行する際の新たな起点として設定する。   In step S05, the pattern light extraction unit 21 reads the image 38 acquired by the camera 12 from the memory, and extracts the position of the pattern light 32a from the image 38 as shown in FIG. The pattern light extraction unit 21 stores the coordinates (Uj, Vj) on the image of the spot light Sp calculated as data indicating the position of the pattern light 32a in the memory. Further, in step S05, the posture angle calculation unit 22 reads data indicating the position of the pattern light 32a from the memory, calculates the distance and the posture angle from the position of the pattern light 32a, and stores them in the memory. The method for calculating the distance and the posture angle is as described above. Note that the distance and posture angle calculated by the posture angle calculation unit 22 are a new starting point when executing the integral calculation when the information processing cycle is the first time and when the conditions described later are satisfied, as will be described later. Set.

ステップS07に進み、ECU13は、画像38から特徴点(例えば、アスファルト上に存在する凹凸部位)を検出し、前回の情報処理サイクルと今回の情報処理サイクルの間で対応関係が取れる特徴点を抽出し、特徴点の画像上の位置(Ui,Vi)から距離及び姿勢角の変化量を算出する。更に、車両10の移動量を算出する。   Proceeding to step S07, the ECU 13 detects feature points (for example, uneven portions present on the asphalt) from the image 38, and extracts feature points that can be correlated between the previous information processing cycle and the current information processing cycle. Then, the amount of change in distance and posture angle is calculated from the position (Ui, Vi) of the feature point on the image. Furthermore, the movement amount of the vehicle 10 is calculated.

具体的には、まず特徴点検出部23は、カメラ12により取得された画像38をメモリから読み込み、画像38から路面31上の特徴点を検出し、各特徴点の画像上の位置(Ui,Vi)をメモリに記憶する。   Specifically, the feature point detection unit 23 first reads an image 38 acquired by the camera 12 from the memory, detects a feature point on the road surface 31 from the image 38, and determines the position (Ui, Vi) is stored in memory.

姿勢変化量算出部24は、各特徴点の画像上の位置(Ui,Vi)をメモリから読み込み、距離及び姿勢角と、特徴点の画像上の位置(Ui,Vi)とから、カメラ12に対する特徴点の相対位置(xi,yi,zi)を算出する。なお、姿勢変化量算出部24は、前回の情報処理サイクルのステップS09(後述)において選択された距離及び姿勢角を用いる。姿勢変化量算出部24は、カメラ12に対する特徴点の相対位置(xi,yi,zi)をメモリに記憶する。   The posture change amount calculation unit 24 reads the position (Ui, Vi) of each feature point on the image from the memory, and uses the distance and posture angle and the position (Ui, Vi) of the feature point on the image to the camera 12. The relative position (xi, yi, zi) of the feature point is calculated. Note that the posture change amount calculation unit 24 uses the distance and posture angle selected in step S09 (described later) of the previous information processing cycle. The posture change amount calculation unit 24 stores the relative position (xi, yi, zi) of the feature point with respect to the camera 12 in the memory.

そして、姿勢変化量算出部24は、特徴点の画像上の位置(Ui,Vi)と、前回の情報処理サイクルのステップS07において算出された特徴点の相対位置(xi,yi,zi)をメモリから読み込む。姿勢変化量算出部24は、今回の情報処理サイクルと今回の情報処理サイクルの間で対応関係が取れる特徴点の相対位置(xi,yi,zi)及び画像上の位置(Ui,Vi)を用いて、距離及び姿勢角の変化量を算出する。更に、前回の特徴点の相対位置(xi,yi,zi)と今回の特徴点の相対位置(xi,yi,zi)から、車両10の移動量を算出する。そして、この処理で算出した「距離及び姿勢角の変化量」及び「車両の移動量」は、ステップS11の処理で用いられる。   The posture change amount calculation unit 24 stores the position (Ui, Vi) of the feature point on the image and the relative position (xi, yi, zi) of the feature point calculated in step S07 of the previous information processing cycle. Read from. The posture change amount calculation unit 24 uses the relative position (xi, yi, zi) of the feature point and the position (Ui, Vi) on the image that can be correlated between the current information processing cycle and the current information processing cycle. Thus, the change amount of the distance and the posture angle is calculated. Furthermore, the movement amount of the vehicle 10 is calculated from the previous relative position (xi, yi, zi) of the feature point and the current relative position (xi, yi, zi) of the feature point. The “distance and change amount of posture angle” and “vehicle movement amount” calculated in this process are used in the process of step S11.

ステップS09に進み、ECU13は、車両10の走行時の挙動量に応じて、距離及び姿勢角を積分演算にて算出する際の起点を設定する。詳細な処理手順については、図8に示すフローチャートを参照して後述する。   Proceeding to step S09, the ECU 13 sets a starting point for calculating the distance and the attitude angle by integral calculation according to the behavior amount when the vehicle 10 travels. The detailed processing procedure will be described later with reference to the flowchart shown in FIG.

ステップS11に進み、自己位置算出部26は、ステップS09の処理で設定された積分演算の起点、及びステップS07の処理で算出された車両10の移動量から、車両10の自己位置を算出する。   Proceeding to step S11, the self-position calculating unit 26 calculates the self-position of the vehicle 10 from the starting point of the integral calculation set in the process of step S09 and the movement amount of the vehicle 10 calculated in the process of step S07.

こうして、本実施形態に係る自己位置算出装置100は、上記した一連の情報処理サイクルを繰り返し実行して車両10の移動量を積算することにより、車両10の自己位置を算出することができる。   Thus, the self-position calculation apparatus 100 according to the present embodiment can calculate the self-position of the vehicle 10 by repeatedly executing the above-described series of information processing cycles and integrating the movement amount of the vehicle 10.

次に、図8のフローチャートを参照して、図7のステップS09の詳細な手順を説明する。ステップS901において、ECU13は、今回の情報処理サイクルが初回であるか否かを判断する。そして、初回である場合、即ち、前回の情報処理サイクルのデータが無い場合にはステップS909に処理を進め、初回でない場合にはステップS903に処理を進める。   Next, the detailed procedure of step S09 in FIG. 7 will be described with reference to the flowchart in FIG. In step S901, the ECU 13 determines whether or not the current information processing cycle is the first time. If it is the first time, that is, if there is no data of the previous information processing cycle, the process proceeds to step S909, and if not the first time, the process proceeds to step S903.

ステップS903において、挙動量検出部36は、車両10に搭載される車速センサより取得される走行速度データに基づき、車両10の前後方向の加速度α1を検出する。この処理では、走行速度データを微分演算する。   In step S <b> 903, the behavior amount detection unit 36 detects an acceleration α <b> 1 in the front-rear direction of the vehicle 10 based on travel speed data acquired from a vehicle speed sensor mounted on the vehicle 10. In this process, the traveling speed data is differentiated.

ステップS905において、挙動量検出部36は、車両10の加速度α1が予め設定した閾値加速度αthより大きいか否かを判断する。そして、閾値加速度αthより大きい場合には(ステップS905でYES)、ステップS907に処理を進める。一方、閾値加速度αth以下である場合には(ステップS905でNO)、ステップS913に処理を進める。   In step S905, the behavior amount detection unit 36 determines whether or not the acceleration α1 of the vehicle 10 is greater than a preset threshold acceleration αth. If it is larger than the threshold acceleration αth (YES in step S905), the process proceeds to step S907. On the other hand, if the acceleration is equal to or less than the threshold acceleration αth (NO in step S905), the process proceeds to step S913.

ステップS907において、姿勢角算出部22は、パターン光抽出部21で抽出されたパターン光32aに基づき、距離及び姿勢角が算出されているか否かを判断する。具体的な例として、投光器11より照射される35点のスポット光のうち、3点以上のスポット光が検出されている場合に距離及び姿勢角の算出が可能なので、3点以上のスポット光が検出されているか否かを判断する。そして、距離及び姿勢角が算出されている場合には(ステップS907でYES)、ステップS909に処理を進める。一方、距離及び姿勢角が算出されていない場合には(ステップS907でNO)、ステップS911に処理を進める。   In step S907, the posture angle calculation unit 22 determines whether the distance and the posture angle are calculated based on the pattern light 32a extracted by the pattern light extraction unit 21. As a specific example, since the distance and the posture angle can be calculated when three or more spot lights are detected among the 35 spot lights irradiated from the projector 11, the three or more spot lights are detected. It is determined whether or not it has been detected. If the distance and the posture angle are calculated (YES in step S907), the process proceeds to step S909. On the other hand, when the distance and the posture angle are not calculated (NO in step S907), the process proceeds to step S911.

ステップS909において、ECU13は、車両10の現在位置を起点とし、更に、同じ情報処理サイクルのステップS05(図7参照)で算出された距離及び姿勢角、即ち、パターン光の位置から算出された距離及び姿勢角を積分演算の起点として設定する。従って、距離及び姿勢角は、パターン光32aから算出された距離及び姿勢角に設定される。この距離及び姿勢角を起点として新たな積分演算が開始される。また、車両10の移動量算出の起点が新たに設定される。つまり、この位置を起点として新たに車両10の移動量の積分演算を開始する。   In step S909, the ECU 13 starts from the current position of the vehicle 10, and further calculates the distance and posture angle calculated in step S05 (see FIG. 7) of the same information processing cycle, that is, the distance calculated from the position of the pattern light. And the attitude angle is set as the starting point of the integral calculation. Accordingly, the distance and posture angle are set to the distance and posture angle calculated from the pattern light 32a. A new integration operation is started from this distance and posture angle as the starting point. In addition, a starting point for calculating the movement amount of the vehicle 10 is newly set. That is, the integral calculation of the movement amount of the vehicle 10 is newly started from this position.

ステップS911において、ECU13は、車両10の現在位置を起点とし、更に、前回の情報処理サイクルで採用した距離及び姿勢角を積分演算の起点として設定する。この距離及び姿勢角を起点として新たな積分演算が開始される。また、車両10の移動量算出の起点が新たに設定される。つまり、この位置を起点として新たに車両10の移動量の積分演算を開始する。その後、図7のステップS11に処理を進める。   In step S911, the ECU 13 sets the current position of the vehicle 10 as a starting point, and further sets the distance and the posture angle employed in the previous information processing cycle as starting points for integration calculation. A new integration operation is started from this distance and posture angle as the starting point. In addition, a starting point for calculating the movement amount of the vehicle 10 is newly set. That is, the integral calculation of the movement amount of the vehicle 10 is newly started from this position. Thereafter, the process proceeds to step S11 in FIG.

つまり、車両10の加速度α1が閾値加速度αthより大きい場合(ステップS905でYESの場合)には、車両10の距離及び姿勢角が大きく変動し、これに伴って、カメラ12の距離及び姿勢角が大きく変動するので、特徴点の位置座標を正確に求められなくなる可能性が高い。従って、このような場合には姿勢変化量算出部24は、距離及び姿勢角の変化量を算出せず、パターン光から算出した距離及び姿勢角(ステップS909)、或いは、前回の情報処理サイクルで採用した距離及び姿勢角(ステップS911)を起点として設定する。即ち、車両10の初期位置、距離及び姿勢角を、その時点の位置、距離及び姿勢角に設定して、距離及び姿勢角の変化量の加算を開始する。こうすることにより、距離及び姿勢角に大きな誤差が生じることを防止し、車両10の移動量の算出の精度が低下することを防止する。   That is, when the acceleration α1 of the vehicle 10 is larger than the threshold acceleration αth (in the case of YES in step S905), the distance and posture angle of the vehicle 10 fluctuate greatly, and accordingly, the distance and posture angle of the camera 12 change. Since it fluctuates greatly, there is a high possibility that the position coordinates of feature points cannot be obtained accurately. Therefore, in such a case, the posture change amount calculation unit 24 does not calculate the amount of change in the distance and posture angle, but the distance and posture angle calculated from the pattern light (step S909) or in the previous information processing cycle. The adopted distance and posture angle (step S911) are set as starting points. That is, the initial position, distance, and posture angle of the vehicle 10 are set to the current position, distance, and posture angle, and addition of the amount of change in the distance and posture angle is started. By doing so, it is possible to prevent a large error in the distance and the posture angle, and to prevent the calculation accuracy of the movement amount of the vehicle 10 from being lowered.

一方、図8のステップS913において、ECU13は、現在の設定されている起点を維持する。車両10の加速度α1が閾値加速度αth以下である場合(ステップS905でNOの場合)には、現在の起点を維持しても車両10の移動量の算出に大きな誤差は発生しないものと判断されるので、起点を維持する。その後、図7のステップS11に処理を進める。   On the other hand, in step S913 in FIG. 8, the ECU 13 maintains the current set starting point. If the acceleration α1 of the vehicle 10 is equal to or less than the threshold acceleration αth (NO in step S905), it is determined that no large error occurs in the calculation of the movement amount of the vehicle 10 even if the current starting point is maintained. So keep the starting point. Thereafter, the process proceeds to step S11 in FIG.

上記の処理をまとめると、以下の通りである。カメラ12を用いて路面に存在する特徴点を含む画像を撮影し、この特徴点の時間的な変化から車両10の移動量(6自由度の移動量)を算出する場合には、カメラ12と路面との位置関係が一定であることが条件となる。しかし、実際にはカメラ12は車両10に搭載されるので、該車両10の走行状態、或いは路面環境に応じて路面との相対的な位置が時々刻々と変化する。従って、カメラ12と路面との間の位置関係、即ち、距離及び姿勢角を時間経過に伴って更新する必要がある。   The above processing is summarized as follows. When an image including a feature point existing on the road surface is captured using the camera 12 and the movement amount of the vehicle 10 (movement amount of six degrees of freedom) is calculated from the temporal change of the feature point, The condition is that the positional relationship with the road surface is constant. However, since the camera 12 is actually mounted on the vehicle 10, the relative position with respect to the road surface changes from moment to moment according to the traveling state of the vehicle 10 or the road surface environment. Accordingly, it is necessary to update the positional relationship between the camera 12 and the road surface, that is, the distance and the posture angle with the passage of time.

ここで、距離及び姿勢角の測定方法として、投光器11より投光したパターン光32aを用いる方法(図7のS05の処理)がある。従って、各情報処理サイクル毎に常にパターン光32aを用いて距離及び姿勢角を算出し、更に、特徴点の時間的な変化を検出すれば、車両10の移動量を算出でき、ひいては車両10の自己位置を算出できる。しかし、路面がコンクリートの場合等、路面が平坦でパターン光32aをよく反射する状況下であればこの方法は有効であるが、実際の路面は凹凸が多く存在するアスファルトの路面であることが多い。この場合には、パターン光32aを用いるよりも、特徴点の時間的な変化に基づいて、距離及び姿勢角の変化量を算出し、起点として設定されている距離及び姿勢角に対して、変化量を逐次加算する処理(積分演算)を実行する方が距離及び姿勢角を高精度に求めることができる。   Here, as a method of measuring the distance and the posture angle, there is a method using the pattern light 32a projected from the projector 11 (processing of S05 in FIG. 7). Therefore, if the distance and posture angle are always calculated using the pattern light 32a for each information processing cycle, and the temporal change of the feature point is detected, the movement amount of the vehicle 10 can be calculated. Self-position can be calculated. However, this method is effective if the road surface is flat and the pattern light 32a is reflected well, such as when the road surface is concrete, but the actual road surface is often an asphalt road surface with many irregularities. . In this case, rather than using the pattern light 32a, the amount of change in the distance and posture angle is calculated based on the temporal change of the feature point, and the change with respect to the distance and posture angle set as the starting point is calculated. It is possible to obtain the distance and the posture angle with higher accuracy by executing the process of sequentially adding the quantities (integral calculation).

そこで、本実施形態では、初回にパターン光32aを用いた距離及び姿勢角の算出を行ってこれを起点とし、それ以後は、特徴点の時間的な変化に基づく距離及び姿勢角の変化量を算出して、この算出結果を逐次加算することにより、距離及び姿勢角を最新なものに更新する。更に、車両10の加速度α1(挙動量)が大きくなった場合には、特徴点の検出精度が低下するので、特徴点に基づいて算出される距離及び姿勢角の変化量の精度が低下する。従って、このような条件下、即ち、車両10の加速度α1の絶対値が閾値加速度αthを上回った場合にはパターン光32aを用いた距離及び姿勢角を用いて車両10の移動量を算出することにより、車両10の自己位置の算出精度を向上させるようにしている。   Therefore, in the present embodiment, the distance and posture angle are calculated using the pattern light 32a for the first time, and this is used as the starting point. Thereafter, the amount of change in the distance and posture angle based on the temporal change of the feature points is calculated. By calculating and sequentially adding the calculation results, the distance and the posture angle are updated to the latest ones. Further, when the acceleration α1 (behavior amount) of the vehicle 10 increases, the detection accuracy of the feature points decreases, and therefore the accuracy of the distance and posture angle change amount calculated based on the feature points decreases. Therefore, under such conditions, that is, when the absolute value of the acceleration α1 of the vehicle 10 exceeds the threshold acceleration αth, the movement amount of the vehicle 10 is calculated using the distance and the attitude angle using the pattern light 32a. Thus, the calculation accuracy of the self-position of the vehicle 10 is improved.

次に、図9に示すタイミングチャートを参照して、車両10の加速度α1の変化と、新たな起点を設定するタイミングとの関係について説明する。図9(a)は、距離及び姿勢角の起点を設定するタイミングを示す図、(b)は車両の加速度α1を示す図である。また、横軸は時間を示しており、一つの目盛りが1回の情報処理サイクルを示している。   Next, the relationship between the change in the acceleration α1 of the vehicle 10 and the timing for setting a new starting point will be described with reference to the timing chart shown in FIG. FIG. 9A is a diagram showing the timing for setting the starting point of the distance and the posture angle, and FIG. 9B is a diagram showing the acceleration α1 of the vehicle. The horizontal axis indicates time, and one scale indicates one information processing cycle.

いま、図9(b)に示すように、時刻t1にて車両が加速を開始して一定速度に達し、その後、時刻t4にて減速を開始して停止する場合を想定する。時刻t1にて、車両10の加速を開始するので、図9(b)に示すように加速度α1は上昇する。その後、時刻t2にてピークとなり、加速度α1は下降し時刻t3にてほぼ0となる。つまり、一定速度となる。そして、時刻t4にて減速を開始することにより加速度α1が負の方向に上昇し、時刻t5にてピークとなり、時刻t6にて加速度α1はほぼ0となる。つまり、車両10が停止する。   Now, as shown in FIG. 9B, it is assumed that the vehicle starts to accelerate at a time t1 and reaches a certain speed, and then starts to decelerate and stops at a time t4. Since the acceleration of the vehicle 10 is started at time t1, the acceleration α1 increases as shown in FIG. 9B. Thereafter, the peak is reached at time t2, and the acceleration α1 decreases and becomes almost zero at time t3. That is, the speed is constant. Then, by starting deceleration at time t4, the acceleration α1 increases in the negative direction, reaches a peak at time t5, and the acceleration α1 becomes almost zero at time t6. That is, the vehicle 10 stops.

また、車両10の加速度α1に対して、閾値加速度αthが設定されており、加速度αが閾値加速度αthを上回った場合、即ち、「α1>αth」または「α1<−αth」となった場合に、距離及び姿勢角の起点を設定する処理を行う。つまり、図9(a)に示すT1,T2の時間帯における各情報処理サイクルでは、パターン光による距離及び姿勢角を算出し、これを起点として設定する。   When the threshold acceleration αth is set with respect to the acceleration α1 of the vehicle 10 and the acceleration α exceeds the threshold acceleration αth, that is, when “α1> αth” or “α1 <−αth”. Then, a process for setting the starting point of the distance and the posture angle is performed. That is, in each information processing cycle in the time periods T1 and T2 shown in FIG. 9A, the distance and posture angle by the pattern light are calculated and set as the starting points.

このようにして、本願発明の第1実施形態に係る自己位置算出装置100では、以下の作用効果が得られる。即ち、車両10を加速、或いは減速することにより、加速度α1が大きくなり、これに起因して車両10の距離及び姿勢角が大きく変化する場合には、特徴点の時間変化に基づく距離及び姿勢角の積分演算を停止する。そして、パターン光を用いた距離及び姿勢角が求められている場合には、この距離及び姿勢角を新たな起点として設定する。つまり、自己位置算出部26は、車両10の加速度(挙動量)が閾値加速度(閾値挙動量)よりも大きい場合、そのときの車両10の現在位置と距離及び姿勢角を、車両10の初期位置と距離及び姿勢角に設定し、距離及び姿勢角の変化量の加算を開始する。また、パターン光を用いた距離及び姿勢角が求められていない場合には、前回のサイクルで更新された距離及び姿勢角を新たな起点として設定する。その結果、距離及び姿勢角の算出結果に大きな誤差が生じることを防止できる。このため、車両10の移動量の推定精度を著しく向上させることができる。   As described above, the self-position calculating apparatus 100 according to the first embodiment of the present invention provides the following operational effects. That is, when the vehicle 10 is accelerated or decelerated, the acceleration α1 increases, and when the distance and posture angle of the vehicle 10 change greatly due to this, the distance and posture angle based on the temporal change of the feature points. Stop the integral operation of. When the distance and posture angle using the pattern light are obtained, the distance and posture angle are set as a new starting point. That is, when the acceleration (behavior amount) of the vehicle 10 is larger than the threshold acceleration (threshold behavior amount), the self-position calculating unit 26 determines the current position, distance, and posture angle of the vehicle 10 at that time as the initial position of the vehicle 10. And the distance and the posture angle are set, and the addition of the change amount of the distance and the posture angle is started. If the distance and posture angle using the pattern light are not obtained, the distance and posture angle updated in the previous cycle are set as a new starting point. As a result, it is possible to prevent a large error from occurring in the calculation results of the distance and the posture angle. For this reason, the estimation accuracy of the movement amount of the vehicle 10 can be remarkably improved.

また、挙動量検出部36は、車両の前後方向の加速度を挙動量として検出するので、距離及び姿勢角の算出精度を向上させることができる。更に、車両10の移動距離の推定精度を著しく向上させることができる。   Moreover, since the behavior amount detection unit 36 detects the acceleration in the front-rear direction of the vehicle as the behavior amount, the calculation accuracy of the distance and the posture angle can be improved. Furthermore, the estimation accuracy of the moving distance of the vehicle 10 can be remarkably improved.

第1実施形態では、車両10の挙動量の一例として、前後方向の加速度α1を用いる場合を例に挙げた。本発明は、その他の挙動量として、前述したように、横方向の移動速度、或いは鉛直方向の移動速度を挙動量として用いることができる。   In the first embodiment, as an example of the behavior amount of the vehicle 10, the case where the longitudinal acceleration α1 is used is taken as an example. In the present invention, as another behavior amount, as described above, the lateral movement speed or the vertical movement speed can be used as the behavior amount.

即ち、車両10の横方向速度を用いる場合には、車両10のロール角が、車両10が停止している状態と比較して、0.05[rad]変化するときの車両10の横方向加速度Yg[m/sec2]を予め算出しておき、この加速度となる車速V[m/sec]に応じたヨーレートγ[rad/sec]を閾値とすることができる。従って、挙動量検出部36は、車両の左右方向の移動速度を前記挙動量として検出することにより、距離及び姿勢角の算出精度を向上させることができる。更に、車両10の移動距離の推定精度を著しく向上させることができる。   That is, when the lateral speed of the vehicle 10 is used, the lateral acceleration of the vehicle 10 when the roll angle of the vehicle 10 changes by 0.05 [rad] compared to the state where the vehicle 10 is stopped. Yg [m / sec2] is calculated in advance, and the yaw rate γ [rad / sec] corresponding to the vehicle speed V [m / sec] that becomes the acceleration can be set as a threshold value. Therefore, the behavior amount detection unit 36 can improve the calculation accuracy of the distance and the posture angle by detecting the moving speed of the vehicle in the left-right direction as the behavior amount. Furthermore, the estimation accuracy of the moving distance of the vehicle 10 can be remarkably improved.

また、鉛直方向の移動量を用いる場合には、ストロークセンサで検出される鉛直方向の移動距離データを微分演算することにより、鉛直方向の移動速度を求める。この際、車両10の移動量算出の誤差を5%以内に抑えるために、路面からカメラ12までの距離(路面を基準としたカメラ12の高さ)が1秒間に5%変化する速度を閾値とすることが望ましい。例えば、路面からカメラ12までの距離が1mである場合には、閾値移動速度(閾値挙動量)を0.05[m/s]とすればよい。   When the vertical movement amount is used, the vertical movement speed is obtained by differentiating the vertical movement distance data detected by the stroke sensor. At this time, in order to suppress an error in calculating the amount of movement of the vehicle 10 within 5%, a speed at which the distance from the road surface to the camera 12 (the height of the camera 12 with respect to the road surface) changes by 5% per second is a threshold value. Is desirable. For example, when the distance from the road surface to the camera 12 is 1 m, the threshold moving speed (threshold behavior amount) may be set to 0.05 [m / s].

こうすることにより、車両10が鉛直方向に移動し、その移動速度が閾値移動速度に達した場合には、パターン光を用いた距離及び姿勢角を新たな基点として設定し、車両10の移動量の演算を開始するので、車両10の移動距離の推定精度を著しく向上させることができる。   Thus, when the vehicle 10 moves in the vertical direction and the movement speed reaches the threshold movement speed, the distance and posture angle using the pattern light are set as new base points, and the movement amount of the vehicle 10 Thus, the estimation accuracy of the moving distance of the vehicle 10 can be remarkably improved.

また、第1実施形態では、姿勢角算出部22による姿勢角の算出ができない場合には、直前に算出された姿勢角を用いるので、大きな誤差を含むことなく車両の位置を算出することができる。更に、予め設定した姿勢角の初期値(姿勢角初期値)を用いても同様に、大きな誤差を含むことなく車両の位置を算出することが可能となる。   In the first embodiment, when the posture angle cannot be calculated by the posture angle calculation unit 22, the posture angle calculated immediately before is used, so that the position of the vehicle can be calculated without including a large error. . Furthermore, even if a preset initial value of posture angle (posture angle initial value) is used, the position of the vehicle can be calculated without including a large error.

[第2実施形態の説明]
次に、本発明に係る自己位置算出装置100の第2実施形態について説明する。前述した第1実施形態では、情報処理サイクルの初回にパターン光を用いた距離及び姿勢角の算出を行い、その後、特徴点を用いた距離及び姿勢角の更新処理を行い、更に、車両10の加速度α1が大きくなった場合(閾値加速度αthを超えた場合)に、パターン光を用いた距離及び姿勢角の起点を設定することについて説明した。
[Description of Second Embodiment]
Next, a second embodiment of the self-position calculation apparatus 100 according to the present invention will be described. In the first embodiment described above, the distance and posture angle are calculated using the pattern light at the first time of the information processing cycle, and thereafter the distance and posture angle are updated using the feature points. It has been described that the starting point of the distance and the posture angle using the pattern light is set when the acceleration α1 increases (when the threshold acceleration αth is exceeded).

これに対して、第2実施形態では、予め設定した周期(第1の周期)で周期的にパターン光を用いた距離及び姿勢角を算出し、この距離及び姿勢角に起点を設定する点で第1実施形態と相違する。具体的には、例えば、情報処理サイクルの10回毎にパターン光を用いた距離及び姿勢角を算出し、距離及び姿勢角の起点を設定する処理を行う。装置構成は、第1実施形態に示した図1と同様であるので、説明を省略する。   On the other hand, in the second embodiment, the distance and posture angle using the pattern light are calculated periodically in a preset cycle (first cycle), and the starting point is set to the distance and posture angle. This is different from the first embodiment. Specifically, for example, a distance and posture angle using pattern light is calculated every 10 information processing cycles, and processing for setting the starting point of the distance and posture angle is performed. Since the apparatus configuration is the same as that of FIG. 1 shown in the first embodiment, the description thereof is omitted.

以下、第2実施形態に係る自己位置算出装置100の作用を図10に示すタイミングチャートを参照して説明する。図10(a)は、パターン光を用いて距離及び姿勢角を算出するタイミング(距離及び姿勢角をリセットするタイミング)を示す図、(b)は周期的に距離及び姿勢角を算出するタイミングを示す図、(c)は車両10の前後方向の加速度α1を示す図である。また、横軸は時間を示しており、一つの目盛りが1回の情報処理サイクルを示している。   Hereinafter, the operation of the self-position calculating apparatus 100 according to the second embodiment will be described with reference to the timing chart shown in FIG. FIG. 10A shows a timing for calculating the distance and posture angle using the pattern light (timing for resetting the distance and posture angle), and FIG. 10B shows a timing for periodically calculating the distance and posture angle. FIG. 2C is a diagram showing the acceleration α1 in the front-rear direction of the vehicle 10. The horizontal axis indicates time, and one scale indicates one information processing cycle.

図10(b)に示すように、車両10の加速度α1が小さい場合(図10(c)とは異なり加速度α1が変化しない場合)には、一定の周期でパターン光を用いた距離及び姿勢角の算出を行う。即ち、図1に示した自己位置算出部26にて演算される距離及び姿勢角は、一定の周期でリセットされ、パターン光を用いた距離及び姿勢角により起点が設定される。   As shown in FIG. 10B, when the acceleration α1 of the vehicle 10 is small (unless the acceleration α1 changes unlike FIG. 10C), the distance and posture angle using the pattern light at a constant cycle. Is calculated. That is, the distance and posture angle calculated by the self-position calculation unit 26 shown in FIG. 1 are reset at a constant cycle, and the starting point is set by the distance and posture angle using the pattern light.

また、図10(c)に示すように、時刻t11にて車両10が加速を開始する場合には、時刻t11にて加速度α1が徐々に大きくなる。その後、加速度α1がピークとなり、加速度α1は下降し時刻t12にてほぼ0となる。つまり、ほぼ一定の速度となる。そして、時刻t13にて加速度α1が負の方向に上昇し、時刻t14にて加速度α1はほぼ0となる。つまり、車両10が停止する。   As shown in FIG. 10C, when the vehicle 10 starts to accelerate at time t11, the acceleration α1 gradually increases at time t11. Thereafter, the acceleration α1 reaches a peak, and the acceleration α1 decreases and becomes almost zero at time t12. That is, the speed is almost constant. Then, at time t13, the acceleration α1 increases in the negative direction, and at time t14, the acceleration α1 becomes almost zero. That is, the vehicle 10 stops.

そして、加速度α1に対して、閾値加速度αthが設定されており、加速度α1が閾値加速度αthを上回った場合、即ち、「α1>αth」または「α1<−αth」となった場合に、距離及び姿勢角の起点を設定する処理を行う。つまり、図10(a)に示すT11,T12の時間帯において積分演算を停止して、パターン光による距離及び姿勢角の起点の設定を行う。従って、周期的に設定される時刻(図10(b)に示すタイミング)に加え、時間T11,T12において、距離及び姿勢角の起点を設定する処理を行う。   When the threshold acceleration αth is set with respect to the acceleration α1 and the acceleration α1 exceeds the threshold acceleration αth, that is, when “α1> αth” or “α1 <−αth”, the distance and A process for setting the starting point of the posture angle is performed. That is, the integration calculation is stopped in the time periods T11 and T12 shown in FIG. 10A, and the starting point of the distance and posture angle by the pattern light is set. Therefore, in addition to the periodically set time (timing shown in FIG. 10B), processing for setting the starting point of the distance and the posture angle is performed at times T11 and T12.

そして、上記のように距離及び姿勢角の起点を設定することにより、図10(d)に示すように、車両10の移動量をより正確に推定することが可能になる。図10(d)において、曲線r1は、車両10の移動量の真の数値を示し、曲線r2は第2実施形態を採用した場合の車両10の移動量を示し、曲線r3は第2実施形態を採用せずに、周期的な起点設定のみを用いた場合の車両10の移動量を示している。   Then, by setting the starting point of the distance and the posture angle as described above, the movement amount of the vehicle 10 can be estimated more accurately as shown in FIG. In FIG. 10 (d), a curve r1 indicates the true value of the movement amount of the vehicle 10, a curve r2 indicates the movement amount of the vehicle 10 when the second embodiment is adopted, and a curve r3 indicates the second embodiment. The movement amount of the vehicle 10 when only periodic starting point setting is used without adopting the above is shown.

そして、図10(d)から理解されるように、第2実施形態に係る移動量の算出を採用した場合には、車両10の移動量がより真の数値に近づいている。   As understood from FIG. 10D, when the movement amount calculation according to the second embodiment is employed, the movement amount of the vehicle 10 is closer to a true value.

このようにして、第2実施形態に係る自己位置算出装置100では、前述した第1実施形態と同様の効果を達成できる。即ち、車両10の前後方向の加速度(挙動量)が大きい場合には、距離及び姿勢角の起点を設定するので、挙動量が大きい場合でも車両10の移動量を高精度に算出することができる。更に、第2実施形態では、第1の周期でパターン光を用いた距離及び姿勢角の算出を行い、この距離及び姿勢角にて起点を設定するので、車両10の移動量が大きな誤差を含むことを防止できる。   In this way, the self-position calculating apparatus 100 according to the second embodiment can achieve the same effects as those of the first embodiment described above. That is, when the acceleration (behavior amount) in the front-rear direction of the vehicle 10 is large, the starting point of the distance and the posture angle is set. Therefore, even when the behavior amount is large, the movement amount of the vehicle 10 can be calculated with high accuracy. . Furthermore, in the second embodiment, the distance and posture angle are calculated using the pattern light in the first period, and the starting point is set based on the distance and posture angle, so the movement amount of the vehicle 10 includes a large error. Can be prevented.

[第3実施形態の説明]
次に、本発明の第3実施形態について説明する。前述した第2実施形態では、所定の周期でパターン光を用いた距離及び姿勢角の算出を実行し、距離及び姿勢角の起点を設定した。更に、加速度α1が閾値加速度αthを上回った場合に、パターン光を用いた距離及び姿勢角により起点を設定する例について説明した。
[Description of Third Embodiment]
Next, a third embodiment of the present invention will be described. In the second embodiment described above, the distance and posture angle are calculated using the pattern light at a predetermined cycle, and the starting point of the distance and posture angle is set. Furthermore, the example in which the starting point is set by the distance and the posture angle using the pattern light when the acceleration α1 exceeds the threshold acceleration αth has been described.

これに対して、第3実施形態では、通常時(α1<αthの場合)には第1の周期でパターン光を用いた距離及び姿勢角の算出を実行し、加速度α1が閾値加速度αthを上回った場合には、第1の周期よりも短い第2の周期でパターン光を用いた距離及び姿勢角の算出を実行する。装置構成は、前述の第1実施形態で説明した図1と同一であるので説明を省略する。   On the other hand, in the third embodiment, calculation of the distance and posture angle using the pattern light is executed in the first period in the normal time (when α1 <αth), and the acceleration α1 exceeds the threshold acceleration αth. In such a case, the calculation of the distance and the posture angle using the pattern light is executed in the second cycle shorter than the first cycle. Since the apparatus configuration is the same as that of FIG. 1 described in the first embodiment, description thereof is omitted.

第3実施形態に係る自己位置算出装置100は、前述した図7に示した処理により実行される。図7におけるステップS09の処理が相違するので、以下、移動量算出の起点設定処理について図11に示すフローチャートを参照して説明する。   The self-position calculation apparatus 100 according to the third embodiment is executed by the process shown in FIG. Since the process of step S09 in FIG. 7 is different, the movement amount calculation starting point setting process will be described below with reference to the flowchart shown in FIG.

図11に示すフローチャートは、図8と対比して、ステップS906a、S906bの処理が加えられている点で相違する。以下詳細に説明する。   The flowchart shown in FIG. 11 is different from FIG. 8 in that the processes of steps S906a and S906b are added. This will be described in detail below.

ステップS901において、ECU13は、今回の情報処理サイクルが初回であるか否かを判断する。そして、初回である場合、即ち、前回の情報処理サイクルのデータが無い場合にはステップS909に処理を進め、初回でない場合にはステップS903に処理を進める。   In step S901, the ECU 13 determines whether or not the current information processing cycle is the first time. If it is the first time, that is, if there is no data of the previous information processing cycle, the process proceeds to step S909, and if not the first time, the process proceeds to step S903.

ステップS903において、挙動量検出部36は、車両10に搭載される車速センサで検出される車両速度データを取得し、この車両速度データを微分演算することにより、車両10の前後方向の加速度α1を検出する。   In step S903, the behavior amount detection unit 36 obtains vehicle speed data detected by a vehicle speed sensor mounted on the vehicle 10, and performs a differential operation on the vehicle speed data to obtain the longitudinal acceleration α1 of the vehicle 10. To detect.

ステップS905において、挙動量検出部36は、加速度α1(挙動量)が予め設定した閾値加速度αth(閾値挙動量)より大きいか否かを判定する。そして、閾値挙動量より大きい場合には(ステップS905でYES)、ステップS906に処理を進める。一方、閾値挙動量以下である場合には(ステップS905でNO)、ステップS906bに処理を進める。 In step S905, the behavior amount detection unit 36 determines whether or not the acceleration α1 (behavior amount) is larger than a preset threshold acceleration αth (threshold behavior amount). Then, if the threshold motion amount is larger than (in step S905 YES), the process proceeds to step S906 a. On the other hand, if the amount is equal to or less than the threshold behavior amount (NO in step S905), the process proceeds to step S906b.

ステップS906aにおいてECU13は、パターン光を用いた距離及び姿勢の算出周期を第1の周期に設定する。例えば、情報処理サイクル10回分を第1の周期に設定する。その後、ステップS906cに処理を進める。   In step S906a, the ECU 13 sets the distance and orientation calculation cycle using the pattern light to the first cycle. For example, 10 information processing cycles are set as the first cycle. Thereafter, the process proceeds to step S906c.

ステップS906bにおいてECU13は、パターン光を用いた距離及び姿勢の算出周期を第1の周期よりも短い第2の周期に設定する。例えば、情報処理サイクル2回分を第2の周期に設定する。その後、ステップS906cに処理を進める。   In step S906b, the ECU 13 sets the distance and orientation calculation cycle using the pattern light to a second cycle shorter than the first cycle. For example, two information processing cycles are set as the second period. Thereafter, the process proceeds to step S906c.

ステップS906cにおいて、ECU13は、検出のタイミングであるか否かを判断する。そして、検出のタイミングである場合にはステップS907に処理を進め、検出のタイミングでない場合にはステップS913に処理を進める。ステップS907以降の処理は、図8と同一であるので、説明を省略する。   In step S906c, the ECU 13 determines whether it is a detection timing. If it is the detection timing, the process proceeds to step S907. If it is not the detection timing, the process proceeds to step S913. Since the process after step S907 is the same as that of FIG. 8, description is abbreviate | omitted.

次に、図12に示すタイミングチャートを参照して、路面の勾配変化と、距離及び姿勢角の設定との関係について説明する。図12(a)は、周期を変更して(第2の周期として)距離及び姿勢角の起点を設定する処理のタイミングを示す図、(b)は周期を変更せずに(第1の周期として)距離及び姿勢角の起点を設定する処理のタイミングを示す図、(c)は車両10の加速度α1を示す図である。また、横軸は時間を示しており、一つの目盛りが1回の情報処理サイクルを示している。   Next, with reference to the timing chart shown in FIG. 12, the relationship between the change in the road surface gradient and the setting of the distance and the posture angle will be described. FIG. 12A shows the timing of processing for setting the starting point of the distance and posture angle by changing the cycle (as the second cycle), and FIG. 12B shows the first cycle without changing the cycle. FIG. 4C is a diagram showing the timing of processing for setting the starting point of the distance and the posture angle, and FIG. The horizontal axis indicates time, and one scale indicates one information processing cycle.

いま、車両10の加速度α1が小さい場合には、図12(b)に示すように、第1の周期、一例として、情報処理サイクルの10回分を1周期として距離及び姿勢角のリセット処理が行われる。具体的には、時刻t21、t23、t25、t27のタイミングで距離及び姿勢角の起点設定処理が行われる。   Now, when the acceleration α1 of the vehicle 10 is small, as shown in FIG. 12B, the distance and posture angle reset processing is performed with the first period, for example, 10 information processing cycles as one period. Is called. Specifically, the starting point setting process of the distance and the posture angle is performed at timings t21, t23, t25, and t27.

いま、図12(c)に示すように、加速度α1が大きくなり、閾値加速度αthを上回ると、起点設定の周期が第1の周期から第2の周期に変更される(図11のS906bの処理)。一例として、情報処理サイクルの2回分を1周期として距離及び姿勢角の起点設定処理が行われる。即ち、図12(c)に示す時刻t22〜t23の間でα1がαthを上回っている時間帯において、図12(a)に示すように、起点設定の周期が第2の周期に変更される。   Now, as shown in FIG. 12C, when the acceleration α1 increases and exceeds the threshold acceleration αth, the starting point setting period is changed from the first period to the second period (the process of S906b in FIG. 11). ). As an example, the distance and posture angle starting point setting process is performed with two cycles of the information processing cycle as one cycle. That is, in the time zone in which α1 exceeds αth between times t22 and t23 shown in FIG. 12C, the starting point setting cycle is changed to the second cycle as shown in FIG. .

同様に、図12(c)に示す時刻t26〜t27の間で負の方向の加速度α1が閾値加速度−αthを下回っているので、この時間帯においてリセット処理の周期が第2の周期に変更される。   Similarly, since the acceleration α1 in the negative direction is lower than the threshold acceleration −αth between times t26 and t27 shown in FIG. 12C, the reset processing cycle is changed to the second cycle in this time zone. The

このようにして、第3実施形態によれば、車両10の前後方向の加速度α1が大きくならない場合には、第1の周期で距離及び姿勢角の起点設定が行われ、加速度α1が閾値加速度αthを上回った場合に、第1の周期よりも短い第2の周期で距離及び姿勢角の起点設定が行われる。従って、加速度α1が大きいという車両10の移動距離測定に大きな誤差が生じることが予想される状況下において、パターン光を用いた距離及び姿勢角の算出周期が短くなる。即ち、距離及び算出角の起点設定の周期が短くなる。その結果、距離及び姿勢角の算出結果に大きな誤差が生じることを防止でき、車両10の移動距離の推定精度を著しく向上させることができる。   Thus, according to the third embodiment, when the longitudinal acceleration α1 of the vehicle 10 does not increase, the starting point of the distance and posture angle is set in the first period, and the acceleration α1 is set to the threshold acceleration αth. Is exceeded, the starting point of the distance and the posture angle is set in the second cycle shorter than the first cycle. Therefore, in a situation where a large error is expected to occur in the measurement of the moving distance of the vehicle 10 where the acceleration α1 is large, the calculation period of the distance and posture angle using the pattern light is shortened. That is, the cycle for setting the starting point of the distance and the calculated angle is shortened. As a result, it is possible to prevent a large error from occurring in the calculation results of the distance and the posture angle, and it is possible to significantly improve the estimation accuracy of the moving distance of the vehicle 10.

また、第3実施形態では車両10の挙動量として車両10の前後方向の加速度を例に挙げて説明したが、本発明はこれに限定されるものではなく、車両10の横方向速度、或いは車両10の鉛直方向の移動速度を挙動量として用いることも可能である。更には、前後方向の加速度、横方向の移動速度、及び鉛直方向の移動速度のうち、2以上を組み合わせて車両10の挙動量とすることも可能である。   In the third embodiment, the longitudinal acceleration of the vehicle 10 is described as an example of the behavior amount of the vehicle 10, but the present invention is not limited to this, and the lateral speed of the vehicle 10 or the vehicle It is also possible to use 10 vertical movement speeds as the behavior amount. Furthermore, the behavior amount of the vehicle 10 can be obtained by combining two or more of the longitudinal acceleration, the lateral movement speed, and the vertical movement speed.

以上、本発明の自己位置算出装置及び自己位置算出方法を図示の実施形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置き換えることができる。   The self-position calculation apparatus and self-position calculation method of the present invention have been described based on the illustrated embodiment. However, the present invention is not limited to this, and the configuration of each unit may be any arbitrary function having the same function. It can be replaced with a configuration one.

例えば、図2では、カメラ12と投光器11を車両10の前面に取り付ける例について示したが、本発明はこれに限定されず、車両10の側方、後方、真下に向けて設置してもよい。また、上記した各実施形態では車両10に搭載した場合について記述したが、オートバイや建設機械など、道路の路面或いは壁面上の特徴点を撮像することが可能な移動体すべてに適用可能である。   For example, FIG. 2 shows an example in which the camera 12 and the projector 11 are attached to the front surface of the vehicle 10, but the present invention is not limited to this, and the camera 12 and the projector 11 may be installed sideways, rearward, or directly below. . In each of the above-described embodiments, the case where it is mounted on the vehicle 10 has been described. However, the present invention can be applied to all moving bodies capable of imaging feature points on road surfaces or wall surfaces of roads such as motorcycles and construction machines.

10 車両
11 投光器
12 カメラ(撮像部)
13 ECU
21 パターン光抽出部
22 姿勢角算出部
23 特徴点検出部
24 姿勢変化量算出部
26 自己位置算出部
27 パターン光制御部
31 路面
32a,32b パターン光
36 挙動量検出部
100 自己位置算出装置
10 vehicle 11 projector 12 camera (imaging part)
13 ECU
DESCRIPTION OF SYMBOLS 21 Pattern light extraction part 22 Posture angle calculation part 23 Feature point detection part 24 Posture change amount calculation part 26 Self position calculation part 27 Pattern light control part 31 Road surface 32a, 32b Pattern light 36 Behavior amount detection part 100 Self position calculation apparatus

Claims (8)

車両周囲の路面にパターン光を投光する投光器と、
前記車両に搭載され、前記パターン光が投光された領域を含む車両周囲の路面を撮像して画像を取得する撮像部と、
車両の挙動量を検出する挙動量検出部と、
前記撮像部により取得された画像における前記パターン光の位置から、前記路面に対する車両の姿勢角を算出する姿勢角算出部と、
前記撮像部により取得された画像の前記路面上の複数の特徴点の時間変化に基づいて、前記車両の姿勢変化量を算出する姿勢変化量算出部と、
前記車両の初期位置及び、前記車両の初期位置にて前記姿勢各算出部で検出された姿勢角に、前記姿勢変化量を継続して加算してゆくことで、前記車両の現在位置及び姿勢角を算出する自己位置算出部と、
を備え、
前記自己位置算出部は、車両の挙動量が閾値挙動量よりも大きい場合、そのときの前記車両の現在位置及び前記姿勢角算出部による前記車両の姿勢角に対して、前記姿勢変化量の加算を開始する
ことを特徴とする自己位置算出装置。
A projector that projects pattern light onto the road surface around the vehicle;
An imaging unit that is mounted on the vehicle and captures an image of a road surface around the vehicle including an area where the pattern light is projected; and
A behavior amount detection unit for detecting the behavior amount of the vehicle;
An attitude angle calculation unit that calculates an attitude angle of the vehicle with respect to the road surface from the position of the pattern light in the image acquired by the imaging unit;
An attitude change amount calculation unit that calculates an attitude change amount of the vehicle based on temporal changes of a plurality of feature points on the road surface of the image acquired by the imaging unit;
By continuously adding the posture change amount to the initial position of the vehicle and the posture angle detected by the posture calculation unit at the initial position of the vehicle, the current position and posture angle of the vehicle A self-position calculating unit for calculating
With
When the behavior amount of the vehicle is larger than the threshold behavior amount, the self-position calculation unit adds the posture change amount to the current position of the vehicle at that time and the posture angle of the vehicle by the posture angle calculation unit. A self-position calculation device characterized by starting the operation.
前記自己位置算出部は、車両の挙動量が閾値挙動量以下の場合、第1の周期で、そのときの前記車両の現在位置及び前記姿勢角算出部による前記車両の姿勢角に対して、前記姿勢変化量の加算を開始し、
車両の挙動量が閾値挙動量よりも大きい場合、前記第1の周期よりも短い第2の周期で、そのときの前記車両の現在位置及び前記姿勢角算出部による前記車両の姿勢角に対して、前記姿勢変化量の加算を開始する
ことを特徴とする請求項1に記載の自己位置算出装置。
When the vehicle behavior amount is less than or equal to the threshold behavior amount, the self-position calculation unit is configured to calculate the current position of the vehicle at that time and the posture angle of the vehicle by the posture angle calculation unit in the first period. Start adding posture change amount,
When the vehicle behavior amount is larger than the threshold behavior amount, the current position of the vehicle at that time and the posture angle of the vehicle by the posture angle calculation unit at a second cycle shorter than the first cycle. The self-position calculation apparatus according to claim 1, wherein addition of the posture change amount is started.
前記挙動量検出部は、車両の前後方向の加速度を前記挙動量として検出することを特徴とする請求項1または2に記載の自己位置算出装置 The self-position calculating device according to claim 1, wherein the behavior amount detection unit detects an acceleration in the front-rear direction of the vehicle as the behavior amount . 前記挙動量検出部は、車両の左右方向の移動速度を前記挙動量として検出することを特徴とする請求項1または2に記載の自己位置算出装置 The self-position calculating apparatus according to claim 1, wherein the behavior amount detection unit detects a moving speed of a vehicle in a left-right direction as the behavior amount . 前記挙動量検出部は、車両の鉛直方向の移動速度を前記挙動量として検出することを特徴とする請求項1または2に記載の自己位置算出装置。   The self-position calculating device according to claim 1, wherein the behavior amount detection unit detects a moving speed of a vehicle in a vertical direction as the behavior amount. 前記自己位置算出部は、前記姿勢角算出部により、パターン光から車両の姿勢角を算出できない場合には、予め設定した姿勢角初期値を用いることを特徴とする請求項1〜5のいずれか1項に記載の自己位置算出装置。   The self-position calculation unit uses a preset attitude angle initial value when the attitude angle calculation unit cannot calculate the attitude angle of the vehicle from the pattern light. The self-position calculation device according to item 1. 前記自己位置算出部は、前記姿勢角算出部により、パターン光から車両の姿勢角を算出できない場合には、直前に算出された姿勢角を用いることを特徴とする請求項1〜5のいずれか1項に記載の自己位置算出装置。   The self-position calculation unit uses the posture angle calculated immediately before when the posture angle calculation unit cannot calculate the posture angle of the vehicle from the pattern light. The self-position calculation device according to item 1. 車両周囲の路面にパターン光を投光する投光手順と、
前記パターン光が投光された領域を含む車両周囲の路面を撮像して画像を取得する手順と、
車両の挙動量を検出する車両挙動検出手順と、
前記画像における前記パターン光の位置から、前記路面に対する車両の姿勢角を算出する姿勢角算出手順と、
前記画像に含まれる複数の特徴点の時間変化に基づいて、前記車両の姿勢変化量を算出する姿勢変化量算出手順と、
前記車両の初期位置及び、前記車両の初期位置にて前記姿勢各算出部で検出された姿勢角に、前記姿勢変化量を継続して加算してゆくことで、前記車両の現在位置及び姿勢角を算出する自己位置算出手順と、
を備え、
前記自己位置算出手順は、車両の挙動量が閾値挙動量よりも大きい場合、そのときの前記車両の現在位置及び前記パターン光の位置から算出された前記車両の姿勢角に対して、前記姿勢変化量の加算を開始する
ことを特徴とする自己位置算出方法。
Projection procedure of projecting pattern light onto the road surface around the vehicle,
A procedure for obtaining an image by imaging a road surface around a vehicle including an area where the pattern light is projected;
A vehicle behavior detection procedure for detecting a vehicle behavior amount;
An attitude angle calculation procedure for calculating an attitude angle of the vehicle with respect to the road surface from the position of the pattern light in the image;
An attitude change amount calculating procedure for calculating an attitude change amount of the vehicle based on temporal changes of a plurality of feature points included in the image;
By continuously adding the posture change amount to the initial position of the vehicle and the posture angle detected by the posture calculation unit at the initial position of the vehicle, the current position and posture angle of the vehicle Self-position calculation procedure for calculating
With
When the vehicle behavior amount is larger than the threshold behavior amount, the self-position calculation procedure is configured to change the posture with respect to the vehicle posture angle calculated from the current position of the vehicle and the position of the pattern light at that time. A self-position calculation method characterized by starting addition of a quantity.
JP2014033012A 2014-02-24 2014-02-24 Self-position calculation device and self-position calculation method Active JP6398219B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014033012A JP6398219B2 (en) 2014-02-24 2014-02-24 Self-position calculation device and self-position calculation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014033012A JP6398219B2 (en) 2014-02-24 2014-02-24 Self-position calculation device and self-position calculation method

Publications (2)

Publication Number Publication Date
JP2015158419A JP2015158419A (en) 2015-09-03
JP6398219B2 true JP6398219B2 (en) 2018-10-03

Family

ID=54182504

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014033012A Active JP6398219B2 (en) 2014-02-24 2014-02-24 Self-position calculation device and self-position calculation method

Country Status (1)

Country Link
JP (1) JP6398219B2 (en)

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4653316A (en) * 1986-03-14 1987-03-31 Kabushiki Kaisha Komatsu Seisakusho Apparatus mounted on vehicles for detecting road surface conditions
JP2004198211A (en) * 2002-12-18 2004-07-15 Aisin Seiki Co Ltd Apparatus for monitoring vicinity of mobile object
JP2004198212A (en) * 2002-12-18 2004-07-15 Aisin Seiki Co Ltd Apparatus for monitoring vicinity of mobile object
JP4780614B2 (en) * 2006-04-10 2011-09-28 アルパイン株式会社 Body behavior measuring device
JP4925909B2 (en) * 2007-05-02 2012-05-09 アルパイン株式会社 Position detection apparatus and position detection method
JP5328252B2 (en) * 2008-07-30 2013-10-30 アルパイン株式会社 Position detection apparatus and position detection method for navigation system
JP5032415B2 (en) * 2008-08-06 2012-09-26 株式会社豊田中央研究所 Motion estimation apparatus and program

Also Published As

Publication number Publication date
JP2015158419A (en) 2015-09-03

Similar Documents

Publication Publication Date Title
JP6237876B2 (en) Self-position calculation device and self-position calculation method
JP6269838B2 (en) Self-position calculation device and self-position calculation method
JP6187671B2 (en) Self-position calculation device and self-position calculation method
JP6176387B2 (en) Self-position calculation device and self-position calculation method
JP6237875B2 (en) Self-position calculation device and self-position calculation method
JP6187672B2 (en) Self-position calculation device and self-position calculation method
JP6237874B2 (en) Self-position calculation device and self-position calculation method
JP6398218B2 (en) Self-position calculation device and self-position calculation method
JP6547362B2 (en) Self-position calculation device and self-position calculation method
JP6398217B2 (en) Self-position calculation device and self-position calculation method
JP6369897B2 (en) Self-position calculation device and self-position calculation method
JP6299319B2 (en) Self-position calculation device and self-position calculation method
JP6492974B2 (en) Self-position calculation device and self-position calculation method
JP6398219B2 (en) Self-position calculation device and self-position calculation method
JP6459745B2 (en) Self-position calculation device and self-position calculation method
JP6369898B2 (en) Self-position calculation device and self-position calculation method
JP2016183889A (en) Self-position calculation device and self-position calculation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161226

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171205

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180820

R151 Written notification of patent or utility model registration

Ref document number: 6398219

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151