JP6299319B2 - Self-position calculation device and self-position calculation method - Google Patents

Self-position calculation device and self-position calculation method Download PDF

Info

Publication number
JP6299319B2
JP6299319B2 JP2014061306A JP2014061306A JP6299319B2 JP 6299319 B2 JP6299319 B2 JP 6299319B2 JP 2014061306 A JP2014061306 A JP 2014061306A JP 2014061306 A JP2014061306 A JP 2014061306A JP 6299319 B2 JP6299319 B2 JP 6299319B2
Authority
JP
Japan
Prior art keywords
pattern light
vehicle
feature point
road surface
self
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014061306A
Other languages
Japanese (ja)
Other versions
JP2015184956A (en
Inventor
山口 一郎
一郎 山口
西内 秀和
秀和 西内
光範 中村
光範 中村
松本 淳
淳 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2014061306A priority Critical patent/JP6299319B2/en
Publication of JP2015184956A publication Critical patent/JP2015184956A/en
Application granted granted Critical
Publication of JP6299319B2 publication Critical patent/JP6299319B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、自己位置算出装置及び自己位置算出方法に係り、特に、移動量を推定する精度を向上させる技術に関する。   The present invention relates to a self-position calculation device and a self-position calculation method, and more particularly to a technique for improving the accuracy of estimating a movement amount.

従来より、車両にカメラを搭載し、該カメラにて車両近傍の映像を撮像し、撮像した画像の変化に基づいて車両の移動量を求める技術が提案されている(特許文献1参照)。特許文献1では、車両の低速かつ微妙な移動においても精度よく移動量を求めるために、画像に含まれる特徴点を検出し、この特徴点の画像上での位置を求め、該特徴点の移動方向及び移動距離(移動量)から車両の移動量を求めている。   Conventionally, a technique has been proposed in which a camera is mounted on a vehicle, an image of the vicinity of the vehicle is captured by the camera, and the amount of movement of the vehicle is obtained based on a change in the captured image (see Patent Document 1). In Patent Document 1, in order to obtain the amount of movement with high accuracy even when the vehicle is moving slowly and delicately, a feature point included in the image is detected, the position of the feature point on the image is obtained, and the feature point is moved. The moving amount of the vehicle is obtained from the direction and the moving distance (moving amount).

特開2008−175717号公報JP 2008-175717 A

しかしながら、車両に搭載するカメラは、車両が走行することにより路面との位置関係、即ち、路面との間の距離、及び路面に対する姿勢角が変化するので、車両の移動量を高精度に求めることができない。   However, since the camera mounted on the vehicle changes the positional relationship with the road surface, that is, the distance to the road surface and the attitude angle with respect to the road surface, as the vehicle travels, the vehicle movement amount can be obtained with high accuracy. I can't.

本発明は、このような従来の課題を解決するためになされたものであり、その目的とするところは、車両の移動量を精度良く且つ安定して算出することができる自己位置算出装置及び自己位置算出方法を提供することにある。   The present invention has been made to solve such a conventional problem, and an object of the present invention is to provide a self-position calculating device and a self-computing device capable of calculating the amount of movement of the vehicle accurately and stably. It is to provide a position calculation method.

上記目的を達成するため、本発明は、投光器より投光するパターン光の輝度が周期的に閾値輝度以下に変化するように制御するパターン光制御部と、撮像部で撮像された画像からパターン光を抽出するパターン光抽出部と、パターン光抽出部にて抽出されたパターン光の位置から、路面に対する車両の姿勢角を算出する姿勢角算出部を有する。また、撮像部にて撮像された画像から路面上の複数の特徴点を検出し、各特徴点の時間変化に基づいて、車両の姿勢変化量を算出する姿勢変化量算出部と、車両の初期位置及び姿勢角に、姿勢変化量を加算してゆくことで、車両の現在位置及び姿勢角を算出する自己位置算出部を有する。そして、姿勢変化量算出部は、パターン光の輝度が閾値輝度以下のときに、特徴点を検出する。 In order to achieve the above object, the present invention provides a pattern light control unit for controlling the brightness of pattern light projected from a projector to periodically change to a threshold brightness or lower, and pattern light from an image captured by the imaging unit. And a posture angle calculation unit for calculating the posture angle of the vehicle with respect to the road surface from the position of the pattern light extracted by the pattern light extraction unit. Also, a posture change amount calculation unit that detects a plurality of feature points on the road surface from an image picked up by the image pickup unit, and calculates a posture change amount of the vehicle based on a temporal change of each feature point, and an initial vehicle It has a self-position calculator that calculates the current position and posture angle of the vehicle by adding the posture change amount to the position and posture angle. Then, the posture change amount calculation unit detects a feature point when the luminance of the pattern light is equal to or lower than the threshold luminance.

本発明では、パターン光の輝度を周期的に変化させ、パターン光の輝度が閾値輝度以下のときに、特徴点を検出するので、特徴点の検出精度を向上させることができ、車両の移動量を安定的、且つ高精度に算出することが可能となる。   In the present invention, since the brightness of the pattern light is periodically changed and the feature point is detected when the brightness of the pattern light is equal to or less than the threshold brightness, the detection accuracy of the feature point can be improved, and the amount of movement of the vehicle Can be calculated stably and with high accuracy.

本発明の第1、第2実施形態に係る自己位置算出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the self-position calculation apparatus which concerns on 1st, 2nd embodiment of this invention. 車両に搭載される投光器により照射される投光パターン、及びカメラによる撮像範囲を示す説明図である。It is explanatory drawing which shows the light projection pattern irradiated with the light projector mounted in a vehicle, and the imaging range by a camera. (a)は、投光器とカメラの間の基線長Lbと、各スポット光の画像上の座標(Uj,Vj)とから、各スポット光が照射された路面上の位置を算出する様子を示す図であり、(b)は、パターン光が照射された領域とは異なる他の領域から検出された特徴点の時間変化から、カメラの移動方向を求める様子を示す説明図である。(A) is a figure which shows a mode that the position on the road surface irradiated with each spot light is calculated from the base line length Lb between a projector and a camera, and the coordinate (Uj, Vj) on the image of each spot light. (B) is an explanatory view showing a state in which the moving direction of the camera is obtained from the temporal change of the feature points detected from another area different from the area irradiated with the pattern light. (a)は、カメラにより取得した画像に対して二値化処理を施したパターン光の画像を示す図、(b)はその拡大図、(c)はパターン光抽出部により抽出した各スポット光の重心の位置を示す図である。(A) is the figure which shows the image of the pattern light which binarized the image acquired with the camera, (b) is the enlarged view, (c) is each spot light extracted by the pattern light extraction part It is a figure which shows the position of the gravity center. 距離及び姿勢角の変化量を算出する方法を説明するための模式図である。It is a schematic diagram for demonstrating the method of calculating the variation | change_quantity of a distance and a posture angle. (a)は、時刻tに取得した画像の一例を示し、(b)は、時刻tから時間Δtだけ経過した時刻(t+Δt)に取得した画像の一例を示す。(A) shows an example of an image acquired at time t, and (b) shows an example of an image acquired at time (t + Δt) when time Δt has elapsed from time t. 本発明の第1実施形態に係る自己位置算出装置の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the self-position calculation apparatus which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る自己位置算出装置の、輝度変化、及び特徴点検出フラグの変化を示すタイミングチャートである。It is a timing chart which shows the change of a brightness | luminance and the change of a feature point detection flag of the self-position calculation apparatus which concerns on 1st Embodiment of this invention. 本発明の第1実施形態に係る自己位置算出装置の、パターン光と特徴点を示す説明図である。It is explanatory drawing which shows the pattern light and the feature point of the self-position calculation apparatus which concerns on 1st Embodiment of this invention. 本発明の第2実施形態に係る自己位置算出装置の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the self-position calculation apparatus which concerns on 2nd Embodiment of this invention. 本発明の第2実施形態に係る自己位置算出装置の、輝度変化、及び特徴点検出フラグの変化を示すタイミングチャートである。It is a timing chart which shows the change of a brightness | luminance and the change of a feature point detection flag of the self-position calculation apparatus which concerns on 2nd Embodiment of this invention. 本発明の第3実施形態に係る自己位置算出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the self-position calculation apparatus which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態に係る自己位置算出装置の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the self-position calculation apparatus which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態に係る自己位置算出装置の、輝度変化、及び特徴点検出フラグの変化を示すタイミングチャートである。It is a timing chart which shows the change of a brightness | luminance and the change of a feature point detection flag of the self-position calculation apparatus which concerns on 3rd Embodiment of this invention. 本発明の第3実施形態の第1変形例に係る自己位置算出装置の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the self-position calculation apparatus which concerns on the 1st modification of 3rd Embodiment of this invention. 本発明の第3実施形態の第1変形例に係る自己位置算出装置の、輝度変化、及び特徴点検出フラグの変化を示すタイミングチャートである。It is a timing chart which shows the change of a brightness | luminance and the change of a feature point detection flag of the self-position calculation apparatus concerning the 1st modification of 3rd Embodiment of this invention. 本発明の第3実施形態の第2変形例に係る自己位置算出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the self-position calculation apparatus which concerns on the 2nd modification of 3rd Embodiment of this invention.

以下、本発明の実施形態について図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

[第1実施形態の説明]
図1は、本発明の実施形態に係る自己位置算出装置100の構成を示すブロック図である。図1に示すように、自己位置算出装置100は、投光器11と、カメラ12(撮像部)と、エンジンコントロールユニット(ECU)13と、を備える。投光器11は、車両に搭載され、車両周囲の路面に周期的に輝度が変化するパターン光を投光する。パターン光の詳細については後述する。カメラ12は、車両に搭載され、パターン光が投光された領域を含む車両周囲の路面を撮像して画像を取得する。ECU13は、投光器11の作動を制御し、且つカメラ12により取得された画像から車両の移動量を推定する一連の情報処理サイクルを実行する。
[Description of First Embodiment]
FIG. 1 is a block diagram showing a configuration of a self-position calculation apparatus 100 according to an embodiment of the present invention. As shown in FIG. 1, the self-position calculation device 100 includes a projector 11, a camera 12 (imaging unit), and an engine control unit (ECU) 13. The projector 11 is mounted on a vehicle and projects pattern light whose luminance periodically changes on a road surface around the vehicle. Details of the pattern light will be described later. The camera 12 is mounted on a vehicle and captures an image of a road surface around the vehicle including an area where pattern light is projected. The ECU 13 controls the operation of the projector 11 and executes a series of information processing cycles for estimating the movement amount of the vehicle from the image acquired by the camera 12.

投光器11は、図2に示すように、カメラ12の撮像範囲内の路面31に向けて、正方形や長方形の格子像を含む所定の形状を有するパターン光32bを投光する。この際、パターン光制御部27により、パターン光32bの輝度が、周期的に変化するように制御される。   As shown in FIG. 2, the projector 11 projects pattern light 32 b having a predetermined shape including a square or rectangular lattice image toward the road surface 31 within the imaging range of the camera 12. At this time, the luminance of the pattern light 32b is controlled by the pattern light control unit 27 so as to periodically change.

カメラ12は、固体撮像素子、例えばCCD及びCMOSを用いたデジタルカメラであって、画像処理が可能なデジタル画像を取得する。カメラ12の撮像対象は車両周囲の路面であって、車両周囲の路面には、車両の前部、後部、側部、車両底部の路面が含まれる。例えば、図2に示すように、カメラ12は、車両10の前部、具体的にはフロントバンパ上に搭載することができる。   The camera 12 is a digital camera using a solid-state imaging device, for example, a CCD and a CMOS, and acquires a digital image that can be processed. The imaging target of the camera 12 is a road surface around the vehicle, and the road surface around the vehicle includes the road surface of the front, rear, side, and bottom of the vehicle. For example, as shown in FIG. 2, the camera 12 can be mounted on the front portion of the vehicle 10, specifically on the front bumper.

車両10の前方の路面31上の特徴点(「テクスチャ」ともいう)及び投光器11により投光されたパターン光32bを撮像できるように、カメラ12が設置される高さ及び向きが調整され、且つ、カメラ12が備えるレンズの焦点及び絞りが自動調整される。ここで、「特徴点」とは、アスファルト上に存在する凹凸部分である。   The height and direction at which the camera 12 is installed are adjusted so that the feature point (also referred to as “texture”) on the road surface 31 in front of the vehicle 10 and the pattern light 32b projected by the projector 11 can be imaged. The focus and aperture of the lens provided in the camera 12 are automatically adjusted. Here, the “feature point” is an uneven portion present on the asphalt.

カメラ12は、所定の時間間隔をおいて繰り返し撮像を行い、一連の画像(フレーム)群を取得する。例えば、パターン光32bの輝度を変化させる周期を200[Hz]とした場合、1秒間に2400回の撮像を行う。これにより、パターン光32bの輝度が最も高い時点、及び最も低い時点の画像を周期的に撮像することができる。カメラ12により取得された画像データは、撮像周期毎にECU13へ転送され、ECU13が備えるメモリ(図示省略)に記憶される。   The camera 12 repeatedly captures images at a predetermined time interval and acquires a series of images (frames). For example, when the cycle of changing the luminance of the pattern light 32b is 200 [Hz], 2400 times of imaging are performed per second. As a result, it is possible to periodically capture images at the time when the luminance of the pattern light 32b is the highest and the time at which the pattern light 32b is the lowest. The image data acquired by the camera 12 is transferred to the ECU 13 for each imaging cycle and stored in a memory (not shown) provided in the ECU 13.

カメラ12は、路面31により照射されたパターン光を撮像する。投光器11は、例えば、レーザポインター及び回折格子を備える。レーザポインターから射出されたレーザ光を回折格子で回折することにより、投光器11は、図2〜図4に示すように、格子像、或いは行列状に配列された複数のスポット光からなるパターン光(32b、32a)を生成する。図3及び図4に示す例では、5×7のスポット光からなるパターン光32aを生成している。   The camera 12 images the pattern light irradiated by the road surface 31. The projector 11 includes, for example, a laser pointer and a diffraction grating. As shown in FIGS. 2 to 4, the projector 11 diffracts the laser light emitted from the laser pointer with a diffraction grating, and as shown in FIG. 2 to FIG. 4, pattern light (pattern light consisting of a plurality of spot lights arranged in a matrix form) 32b, 32a). In the example shown in FIGS. 3 and 4, the pattern light 32a composed of 5 × 7 spot light is generated.

図1に戻り、ECU13は、CPU、メモリ、及び入出力部を備えるマイクロコントローラからなり、予めインストールされたコンピュータプログラムを実行することにより、自己位置算出装置100が備える複数の情報処理部を構成する。ECU13は、カメラ12により取得された画像から車両の移動量を推定する一連の情報処理サイクルを、画像(フレーム)毎に繰り返し実行する。ECU13は、車両10に関連する他の制御に用いるECUと兼用しても良い。   Returning to FIG. 1, the ECU 13 includes a microcontroller including a CPU, a memory, and an input / output unit, and configures a plurality of information processing units included in the self-position calculating device 100 by executing a computer program installed in advance. . The ECU 13 repeatedly executes a series of information processing cycles for estimating the amount of movement of the vehicle from the image acquired by the camera 12 for each image (frame). The ECU 13 may also be used as an ECU used for other controls related to the vehicle 10.

複数の情報処理部には、パターン光抽出部21と、姿勢角算出部22と、特徴点検出部23と、姿勢変化量算出部24と、自己位置算出部26、及び、パターン光制御部27が含まれる。姿勢変化量算出部24には、特徴点検出部23が含まれる。   The plurality of information processing units include a pattern light extraction unit 21, an attitude angle calculation unit 22, a feature point detection unit 23, an attitude change amount calculation unit 24, a self-position calculation unit 26, and a pattern light control unit 27. Is included. The posture change amount calculation unit 24 includes a feature point detection unit 23.

パターン光制御部27は、投光器11によるパターン光32aの投光を制御する。例えば、車両10のイグニションスイッチがオン状態となり、自己位置算出装置100が起動すると同時に、パターン光制御部27は、周期的に輝度が変化するパターン光32aの投光を開始する。その後、パターン光制御部27は、自己位置算出装置が停止するまで、パターン光32aを連続して投光する。或いは、必要に応じてパターン光32aを投光してもよい。本実施形態では、輝度変化の一例として、投光パターンの輝度が所定周波数の正弦波状に変化するように、投光器11に供給する電力を制御する。例えば、後述の図8(a)に示すように正弦波状に輝度が変化するように制御する。また、後述する第2実施形態では、図11(a)に示すように、所定の切替周波数でオン、オフを切り替えて投光パターンの輝度を制御する。   The pattern light control unit 27 controls the projection of the pattern light 32 a by the projector 11. For example, when the ignition switch of the vehicle 10 is turned on and the self-position calculating device 100 is activated, the pattern light control unit 27 starts projecting the pattern light 32a whose luminance changes periodically. Thereafter, the pattern light control unit 27 continuously projects the pattern light 32a until the self-position calculating device stops. Alternatively, the pattern light 32a may be projected as necessary. In the present embodiment, as an example of the luminance change, the power supplied to the projector 11 is controlled so that the luminance of the light projection pattern changes in a sine wave shape with a predetermined frequency. For example, the luminance is controlled so as to change in a sine wave shape as shown in FIG. In the second embodiment to be described later, as shown in FIG. 11A, the brightness of the light projection pattern is controlled by switching on and off at a predetermined switching frequency.

パターン光抽出部21は、カメラ12により取得された画像をメモリから読み込み、更に、前述した所定周波数にて同期検波処理を実施することにより、画像に含まれるパターン光32aを抽出する。同期検波処理については後述する。また、後述する第2実施形態では、投光パターンが投光されているとき(オン時)に撮像した画像と、投光パターンが投光されていないとき(オフ時)に撮像した画像の差分を演算することにより、パターン光32aを抽出する。そして、取得したパターン光32aから、該パターン光32aの位置を抽出する。図3(a)に示すように、例えば、投光器11が行列状に配列された複数のスポット光からなるパターン光32aを路面31に向けて投光し、路面31で反射したパターン光32aを同期検波処理、或いは差分演算処理により検出する。   The pattern light extraction unit 21 reads the image acquired by the camera 12 from the memory, and further performs the synchronous detection process at the above-described predetermined frequency, thereby extracting the pattern light 32a included in the image. The synchronous detection process will be described later. In the second embodiment to be described later, the difference between the image captured when the projection pattern is projected (when on) and the image captured when the projection pattern is not projected (when off). To extract the pattern light 32a. Then, the position of the pattern light 32a is extracted from the acquired pattern light 32a. As shown in FIG. 3A, for example, the pattern light 32a composed of a plurality of spot lights arranged in a matrix in the projector 11 is projected toward the road surface 31, and the pattern light 32a reflected by the road surface 31 is synchronized. Detection is performed by detection processing or difference calculation processing.

更に、抽出したパターン光の画像に対して二値化処理を施すことにより、図4(a)及びその拡大図である図4(b)に示すように、スポット光Spの画像のみを抽出する。パターン光抽出部21は、図4(c)に示すように、各スポット光Spの重心の位置He、即ち、スポット光Spの画像上の座標(Uj、Vj)を算出することにより、パターン光32aの位置を抽出する。座標は、カメラ12の撮像素子の画素を単位とし、5×7のスポット光Spの場合、“j”は1以上35以下の整数である。スポット光Spの画像上の座標(Uj、Vj)は、パターン光32aの位置を示すデータとしてメモリに記憶される。   Further, by performing binarization processing on the extracted pattern light image, only the image of the spot light Sp is extracted as shown in FIG. 4A and an enlarged view of FIG. 4B. . As shown in FIG. 4C, the pattern light extraction unit 21 calculates the position He of the center of gravity of each spot light Sp, that is, the coordinates (Uj, Vj) on the image of the spot light Sp. The position 32a is extracted. The coordinates are in units of pixels of the image sensor of the camera 12, and in the case of 5 × 7 spot light Sp, “j” is an integer from 1 to 35. The coordinates (Uj, Vj) on the image of the spot light Sp are stored in the memory as data indicating the position of the pattern light 32a.

次に、同期検波処理について説明する。カメラ12で撮像した画像に含まれる測定信号をsin(ω0+α)とすると、この測定信号には投光パターン以外に様々な周波数成分の太陽光や人工光が含まれている。そこで、周波数が変調周波数ωrとなる参照信号sin(ωr+β)を測定信号sin(ω0+α)に乗じると、その結果は、cos(ω0−ωr+α−β)/2−cos(ω0+ωr+α+β)/2となる。   Next, the synchronous detection process will be described. If the measurement signal included in the image captured by the camera 12 is sin (ω0 + α), the measurement signal includes sunlight and artificial light having various frequency components in addition to the projection pattern. Therefore, when the reference signal sin (ωr + β) whose frequency is the modulation frequency ωr is multiplied by the measurement signal sin (ω0 + α), the result is cos (ω0−ωr + α−β) / 2-cos (ω0 + ωr + α + β) / 2.

この測定信号をローパスフィルタに通すと、ω0≠ωrの信号、即ち、周波数がωrではない投光パターン以外の太陽光や人工光は除去される。その一方で、ω0=ωrの信号、即ち、周波数がωrの投光パターンは、cos(α−β)/2となって抽出することができる。このように、同期検波処理を用いることにより、様々な周波数成分を含む測定信号の中から、投光パターンのみを抽出した画像を得ることができる。   When this measurement signal is passed through a low-pass filter, a signal of ω0 ≠ ωr, that is, sunlight and artificial light other than the projection pattern whose frequency is not ωr is removed. On the other hand, a signal of ω0 = ωr, that is, a light projection pattern having a frequency of ωr can be extracted as cos (α−β) / 2. As described above, by using the synchronous detection processing, it is possible to obtain an image in which only the projection pattern is extracted from the measurement signal including various frequency components.

即ち、本実施形態では、パターン光制御部27は、予め設定した所定の変調周波数ωrにてパターン光32aを輝度変調する。従って、路面には周波数ωrで輝度変調された投光パターンが投光される。そして、姿勢角算出部22は、カメラ12で撮像される画像(測定信号)に変調周波数ωrを乗じることにより、投光パターンのみを抽出することができる。   That is, in the present embodiment, the pattern light control unit 27 modulates the luminance of the pattern light 32a with a predetermined modulation frequency ωr set in advance. Accordingly, a light projection pattern whose luminance is modulated at the frequency ωr is projected onto the road surface. Then, the attitude angle calculation unit 22 can extract only the light projection pattern by multiplying the image (measurement signal) captured by the camera 12 by the modulation frequency ωr.

図1に示す姿勢角算出部22は、パターン光32aの位置を示すデータをメモリから読み込み、カメラ12により取得された画像におけるパターン光32aの位置から、路面31に対する車両10の距離及び姿勢角を算出する。例えば、図3(a)に示すように、投光器11とカメラ12の間の基線長Lbと、各スポット光の画像上の座標(Uj、Vj)とから、三角測量の原理を用いて、各スポット光が照射された路面31上の位置を、カメラ12に対する相対位置として算出する。そして、姿勢角算出部22は、カメラ12に対する各スポット光の相対位置から、パターン光32aが投光された路面31の平面式、即ち、路面31に対するカメラ12の距離及び姿勢角(法線ベクトル)を算出する。なお、車両10に対するカメラ12の搭載位置及び撮像方向は既知であるので、実施形態においては、路面31に対する車両10の距離及び姿勢角の一例として、路面31に対するカメラ12の距離及び姿勢角を算出する。以後、路面31に対するカメラ12の距離及び姿勢角を、「距離及び姿勢角」と略す。姿勢角算出部22により算出された距離及び姿勢角は、メモリに記憶される。   The posture angle calculation unit 22 shown in FIG. 1 reads data indicating the position of the pattern light 32a from the memory, and calculates the distance and posture angle of the vehicle 10 with respect to the road surface 31 from the position of the pattern light 32a in the image acquired by the camera 12. calculate. For example, as shown in FIG. 3A, from the baseline length Lb between the projector 11 and the camera 12 and the coordinates (Uj, Vj) on the image of each spot light, The position on the road surface 31 irradiated with the spot light is calculated as a relative position with respect to the camera 12. Then, the attitude angle calculation unit 22 calculates the plane type of the road surface 31 on which the pattern light 32a is projected, that is, the distance and the attitude angle of the camera 12 with respect to the road surface 31 (normal vector) from the relative position of each spot light with respect to the camera 12. ) Is calculated. In addition, since the mounting position and imaging direction of the camera 12 with respect to the vehicle 10 are known, in the embodiment, the distance and posture angle of the camera 12 with respect to the road surface 31 are calculated as an example of the distance and posture angle of the vehicle 10 with respect to the road surface 31. To do. Hereinafter, the distance and posture angle of the camera 12 with respect to the road surface 31 are abbreviated as “distance and posture angle”. The distance and the posture angle calculated by the posture angle calculation unit 22 are stored in the memory.

具体的には、カメラ12及び投光器11は車両10にそれぞれ固定されているので、パターン光32aの照射方向と、カメラ12と投光器11との距離(図3の基線長Lb)は既知である。そこで、姿勢角算出部22は、三角測量の原理を用いて、各スポット光の画像上の座標(Uj、Vj)から各スポット光が照射された路面31上の位置を、カメラ12に対する相対位置(Xj,Yj,Zj)として求めることができる。   Specifically, since the camera 12 and the projector 11 are respectively fixed to the vehicle 10, the irradiation direction of the pattern light 32a and the distance between the camera 12 and the projector 11 (baseline length Lb in FIG. 3) are known. Therefore, the attitude angle calculation unit 22 uses the principle of triangulation to determine the position on the road surface 31 irradiated with each spot light from the coordinates (Uj, Vj) of each spot light on the image relative to the camera 12. (Xj, Yj, Zj).

なお、カメラ12に対する各スポット光の相対位置(Xj,Yj,Zj)は同一平面上に存在しない場合が多い。なぜなら、路面31に表出するアスファルトの凹凸に応じて各スポット光の相対位置が変化するからである。そこで、最小二乗法を用いて、各スポット光との距離誤差の二乗和が最小となるような平面式を求めても良い。   The relative position (Xj, Yj, Zj) of each spot light with respect to the camera 12 often does not exist on the same plane. This is because the relative position of each spot light changes according to the asphalt unevenness exposed on the road surface 31. Therefore, a plane formula that minimizes the sum of squares of distance errors with respect to each spot light may be obtained using the least square method.

特徴点検出部23は、カメラ12により取得された画像をメモリから読み込み、メモリから読み込んだ画像から、路面31上の特徴点を検出する。詳細には、所定周波数で正弦波状に輝度が変化するパターン光の輝度が、予め設定した閾値輝度以下となった時間帯に特徴点検出フラグを「1」に設定し、この時間帯において特徴点を検出する。また、後述する第2実施形態では、パターン光の投光がオフとされている時間帯において、特徴点を検出する。   The feature point detection unit 23 reads an image acquired by the camera 12 from the memory, and detects a feature point on the road surface 31 from the image read from the memory. Specifically, the feature point detection flag is set to “1” in a time zone in which the luminance of the pattern light whose luminance changes sinusoidally at a predetermined frequency is equal to or lower than a preset threshold luminance, and the feature point in this time zone Is detected. In the second embodiment to be described later, feature points are detected in a time zone in which pattern light projection is off.

更に、特徴点検出部23は、路面31上の特徴点を検出するために、例えば、「D.G. Lowe,“Distinctive Image Features from Scale-Invariant Keypoints,” Int. J. Comput. Vis., vol.60, no.2, pp. 91-110, Nov. 200 」、或いは、「金澤 靖, 金谷健一, “コンピュータビジョンのための画像の特徴点抽出,” 信学誌, vol.87, no.12, pp.1043-1048, Dec. 2004」に記載の手法を用いることができる。   Further, the feature point detection unit 23 detects, for example, “DG Lowe,“ Distinctive Image Features from Scale-Invariant Keypoints, ”Int. J. Comput. Vis., Vol. , no.2, pp. 91-110, Nov. 200, or “Kanazawa Satoshi, Kanaya Kenichi,“ Image Feature Extraction for Computer Vision, ”IEICE Journal, vol.87, no.12, pp.1043-1048, Dec. 2004 "can be used.

具体的には、特徴点検出部23は、例えば、ハリス(Harris)作用素又はSUSANオペレータを用いて、物体の頂点のように周囲に比べて輝度値が大きく変化する点を特徴点として検出する。或いは、特徴点検出部23は、SIFT(Scale-Invariant Feature Transform)特徴量を用いて、その周囲で輝度値がある規則性のもとで変化している点を特徴点として検出しても良い。そして、特徴点検出部23は、1つの画像から検出した特徴点の総数Nを計数し、各特徴点に識別番号(i(1≦i≦N))を付す。各特徴点の画像上の位置(Ui、Vi)は、ECU13内のメモリに記憶される。図6(a)及び図6(b)は、カメラ12により取得された画像から検出された特徴点Teの例を示す。更に、各特徴点Teの変化方向及び変化量をベクトルDteとして示している。   Specifically, the feature point detection unit 23 uses, for example, a Harris operator or a SUSAN operator to detect, as a feature point, a point whose luminance value changes greatly as compared to the surroundings, such as a vertex of an object. Alternatively, the feature point detection unit 23 may detect, as a feature point, a point where the luminance value changes under certain regularity using a SIFT (Scale-Invariant Feature Transform) feature amount. . Then, the feature point detection unit 23 counts the total number N of feature points detected from one image, and assigns an identification number (i (1 ≦ i ≦ N)) to each feature point. The position (Ui, Vi) on the image of each feature point is stored in a memory in the ECU 13. FIGS. 6A and 6B show examples of feature points Te detected from an image acquired by the camera 12. Furthermore, the change direction and change amount of each feature point Te are shown as a vector Dte.

なお、実施形態において、路面31上の特徴点は、主に大きさが1cm以上2cm以下のアスファルト混合物の粒を想定している。この特徴点を検出するために、カメラ12の解像度はVGA(約30万画素)である。また、路面31に対するカメラ12の距離は、おおよそ70cmである。更に、カメラ12の撮像方向は、水平面から約45degだけ路面31に向けて傾斜させる。また、カメラ12により取得される画像をECU13に転送するときの輝度数値は、0〜255(0:最も暗い、255:最も明るい)の範囲内である。   In the embodiment, the feature points on the road surface 31 are mainly assumed to be asphalt mixture grains having a size of 1 cm to 2 cm. In order to detect this feature point, the resolution of the camera 12 is VGA (approximately 300,000 pixels). Moreover, the distance of the camera 12 with respect to the road surface 31 is about 70 cm. Furthermore, the imaging direction of the camera 12 is inclined toward the road surface 31 by about 45 degrees from the horizontal plane. In addition, the luminance value when the image acquired by the camera 12 is transferred to the ECU 13 is in the range of 0 to 255 (0: darkest, 255: brightest).

姿勢変化量算出部24は、一定の情報処理サイクル毎に撮像される各フレームの画像のうち、前回(時刻t)フレームの画像に含まれる複数の特徴点の画像上の位置座標(Ui,Vi)をメモリから読み込み、更に、今回(時刻t+Δt)フレームの画像に含まれる複数の特徴点の画像上の位置座標(Ui,Vi)をメモリから読み込む。そして、複数の特徴点の画像上での位置変化に基づいて、車両10の姿勢変化量を求める。ここで、「車両の姿勢変化量」とは、路面に対する車両10の「距離及び姿勢角の変化量」、及び路面上での「車両の移動量」の双方を含んでいる。以下、「距離及び姿勢角の変化量」及び「車両の移動量」の算出方法について説明する。   The posture change amount calculation unit 24 includes the position coordinates (Ui, Vi) on the image of a plurality of feature points included in the image of the previous (time t) frame among the images of each frame imaged for each fixed information processing cycle. ) From the memory, and the position coordinates (Ui, Vi) on the image of a plurality of feature points included in the image of the current (time t + Δt) frame are read from the memory. And the attitude | position change amount of the vehicle 10 is calculated | required based on the position change on the image of a some feature point. Here, the “vehicle attitude change amount” includes both the “distance and attitude angle change amount” of the vehicle 10 relative to the road surface and the “vehicle movement amount” on the road surface. Hereinafter, a calculation method of “the amount of change in the distance and posture angle” and “the amount of movement of the vehicle” will be described.

距離及び姿勢角の変化量は、例えば、以下のようにして求めることができる。図6(a)は、時刻tに取得された第1フレームの画像38の一例を示す。図5及び図6(a)に示すように、画像38において、例えば3つの特徴点Te1、Te2、Te3の相対位置(xi,yi,zi)がそれぞれ算出されている場合を考える。この場合、特徴点Te1、Te2、Te3によって特定される平面G(図6(a)参照)を路面と見なすことができる。よって、姿勢変化量算出部24は、各特徴点の相対位置(xi,yi,zi)から、路面(平面G)に対するカメラ12の距離及び姿勢角(法線ベクトル)を求めることができる。更に、姿勢変化量算出部24は、既知のカメラモデルによって、各特徴点Te1、Te2、Te3の間の距離(l1,l2,l3)及び夫々の特徴点Te1、Te2、Te3を結ぶ直線が成す角度を求めることができる。図5のカメラ12は、第1フレーム(時刻t)におけるカメラの位置を示す。   The amount of change in the distance and the posture angle can be obtained as follows, for example. FIG. 6A shows an example of the first frame image 38 acquired at time t. As shown in FIGS. 5 and 6A, a case is considered in which, for example, relative positions (xi, yi, zi) of three feature points Te1, Te2, Te3 are calculated in the image 38, respectively. In this case, the plane G (see FIG. 6A) specified by the feature points Te1, Te2, Te3 can be regarded as a road surface. Therefore, the posture change amount calculation unit 24 can obtain the distance and posture angle (normal vector) of the camera 12 with respect to the road surface (plane G) from the relative position (xi, yi, zi) of each feature point. Furthermore, the posture change amount calculation unit 24 forms distances (11, 12, 13) between the feature points Te1, Te2, Te3 and straight lines connecting the feature points Te1, Te2, Te3 by a known camera model. The angle can be determined. The camera 12 in FIG. 5 shows the position of the camera in the first frame (time t).

なお、カメラ12に対する特徴点の相対位置を示す3次元座標(xi,yi,zi)として、カメラ12の撮像方向をZ軸に設定し、撮像方向を法線とし且つカメラ12を含む平面内に、互いに直交するX軸及びY軸を設定する。一方、画像38上の座標として、水平方向及び垂直方向をそれぞれV軸及びU軸に設定する。   It should be noted that as the three-dimensional coordinates (xi, yi, zi) indicating the relative position of the feature point with respect to the camera 12, the imaging direction of the camera 12 is set to the Z axis, the imaging direction is a normal line, and the plane including the camera 12 is included. , X axis and Y axis orthogonal to each other are set. On the other hand, as the coordinates on the image 38, the horizontal direction and the vertical direction are set to the V axis and the U axis, respectively.

図6(b)は、時刻tから時間Δtだけ経過した時刻(t+Δt)に取得された第2フレームの画像38’を示す。図5のカメラ12’は、第2フレームの画像38’を撮像したときのカメラ12の位置を示す。図5及び図6(b)に示すように、画像38’において、カメラ12’が特徴点Te1、Te2、Te3を撮像し、特徴点検出部23が特徴点Te1、Te2、Te3を検出する。この場合、姿勢変化量算出部24は、時刻tにおける各特徴点Te1、Te2、Te3の相対位置(xi,yi,zi)と、各特徴点の画像38’上の位置P1(Ui,Vi)と、カメラ12のカメラモデルとから、時間Δtにおけるカメラ12の移動量ΔL(図5参照)を算出でき、ひいては車両10の移動量を算出できる。更には、距離及び姿勢角の変化量も算出することができる。例えば、以下の(1)〜(4)式からなる連立方程式を解くことにより、姿勢変化量算出部24は、カメラ12(車両)の移動量(ΔL)、及び、距離及び姿勢角の変化量を算出することができる。なお、下記の(1)式はカメラ12が歪みや光軸ずれのない理想的なピンホールカメラとしてモデル化したものであり、λiは定数、fは焦点距離である。カメラモデルのパラメータは、予めキャリブレーションをしておけばよい。   FIG. 6B shows a second frame image 38 ′ acquired at time (t + Δt) when time Δt has elapsed from time t. The camera 12 ′ in FIG. 5 indicates the position of the camera 12 when the second frame image 38 ′ is captured. As shown in FIGS. 5 and 6B, in the image 38 ′, the camera 12 ′ picks up the feature points Te1, Te2, Te3, and the feature point detection unit 23 detects the feature points Te1, Te2, Te3. In this case, the posture change amount calculation unit 24 calculates the relative positions (xi, yi, zi) of the feature points Te1, Te2, Te3 at time t and the position P1 (Ui, Vi) of the feature points on the image 38 ′. From the camera model of the camera 12, the movement amount ΔL (see FIG. 5) of the camera 12 at the time Δt can be calculated, and the movement amount of the vehicle 10 can be calculated. Furthermore, the amount of change in distance and posture angle can also be calculated. For example, by solving simultaneous equations consisting of the following equations (1) to (4), the posture change amount calculation unit 24 can change the movement amount (ΔL) of the camera 12 (vehicle) and the change amounts of the distance and posture angle. Can be calculated. The following equation (1) is modeled as an ideal pinhole camera in which the camera 12 has no distortion or optical axis deviation, λi is a constant, and f is a focal length. The camera model parameters may be calibrated in advance.

なお、姿勢変化量算出部24は、時刻tと時刻t+Δtで検出される各画像中で相対位置が算出された特徴点の全てを用いるのではなく、特徴点同士の位置関係に基づいて最適な特徴点を選定してもよい。選定方法としては、例えば、エピポーラ幾何(エピ極線幾何,R.I. Hartley: “A linear method for reconstruction from lines and points,” Proc. 5th International Conference on Computer Vision, Cambridge, Massachusetts, pp.882-887(1995))を用いることができる。 Note that the posture change amount calculation unit 24 does not use all of the feature points whose relative positions are calculated in the images detected at time t and time t + Δt, but is optimal based on the positional relationship between the feature points. A feature point may be selected. As a selection method, for example, epipolar geometry (Epi polar geometry, RI Hartley: “A linear method for reconstruction from lines and points,” Proc. 5th International Conference on Computer Vision, Cambridge, Massachusetts, pp.882-887 (1995) )) Can be used.

このように、姿勢変化量算出部24が、時刻tのフレーム画像38で相対位置(xi,yi,zi)が算出された特徴点Te1、Te2、Te3を、時刻t+Δtにおけるフレーム画像38’からも検出された場合に、該姿勢変化量算出部24は、路面上の複数の特徴点の相対位置(xi,yi,zi)と特徴点の画像上の位置(Ui,Vi)の時間変化から、「車両の姿勢変化量」を算出することができる。更には、車両10の移動量を算出することができる。   As described above, the posture change amount calculation unit 24 also uses the feature points Te1, Te2, and Te3 whose relative positions (xi, yi, zi) are calculated in the frame image 38 at time t from the frame image 38 ′ at time t + Δt. When detected, the posture change amount calculation unit 24 calculates the relative position (xi, yi, zi) of the plurality of feature points on the road surface and the time change of the position (Ui, Vi) of the feature points on the image. The “vehicle attitude change amount” can be calculated. Furthermore, the amount of movement of the vehicle 10 can be calculated.

即ち、前回フレームと今回フレームの間で対応関係が取れる3点以上の特徴点を検出し続けることができれば、距離及び姿勢角の変化量を加算する処理(即ち、積分演算)を継続することにより、パターン光32aを用いることなく、距離及び姿勢角を更新し続けることができる。但し、最初の情報処理サイクルにおいては、パターン光32aを用いて算出された距離及び姿勢角、或いは所定の初期的な距離及び姿勢角を用いてもよい。つまり、積分演算の起点となる距離及び姿勢角は、パターン光32aを用いて算出しても、或いは、所定の初期値を用いても構わない。所定の初期的な距離及び姿勢角は、少なくとも車両10への乗員及び搭載物を考慮した距離及び姿勢角であることが望ましい。例えば、車両10のイグニションスイッチがオン状態であって、且つシフトポジションがパーキングから他のポジションへ移動した時に、パターン光32aを投光し、パターン光32aから算出された距離及び姿勢角を、所定の初期的な距離及び姿勢角として用いればよい。これにより、車両10の旋回や加減速によるロール運動或いはピッチ運動が発生していない時の距離や姿勢角を求めることができる。   That is, if it is possible to continue to detect three or more feature points that can be correlated between the previous frame and the current frame, by continuing the process of adding the distance and the change amount of the posture angle (that is, the integral calculation). The distance and the posture angle can be continuously updated without using the pattern light 32a. However, in the first information processing cycle, a distance and posture angle calculated using the pattern light 32a or a predetermined initial distance and posture angle may be used. That is, the distance and the attitude angle that are the starting points of the integration calculation may be calculated using the pattern light 32a, or may use predetermined initial values. It is desirable that the predetermined initial distance and posture angle be a distance and posture angle in consideration of at least an occupant and a load on the vehicle 10. For example, when the ignition switch of the vehicle 10 is on and the shift position moves from parking to another position, the pattern light 32a is projected, and the distance and posture angle calculated from the pattern light 32a are set to a predetermined value. The initial distance and posture angle may be used. Thereby, the distance and the posture angle when the roll motion or the pitch motion due to the turning or acceleration / deceleration of the vehicle 10 is not generated can be obtained.

なお、前後フレーム間で特徴点を対応付けるには、例えば、検出した特徴点の周辺の小領域の画像をメモリに記録しておき、輝度や色情報の類似度から判断すればよい。具体的には、ECU13は、検出した特徴点を中心とする5×5(水平×垂直)画素分の画像をメモリに記録する。姿勢変化量算出部24は、例えば、輝度情報が20画素以上で誤差1%以下に収まっていれば、前後フレーム間で対応関係が取れる特徴点であると判断する。そして、上記の処理で取得した姿勢変化量は、後段の自己位置算出部26にて車両10の自己位置を算出する際に用いられる。   In order to associate the feature points between the preceding and following frames, for example, an image of a small area around the detected feature points may be recorded in a memory and determined from the similarity of luminance and color information. Specifically, the ECU 13 records an image for 5 × 5 (horizontal × vertical) pixels centered on the detected feature point in the memory. For example, if the luminance information is 20 pixels or more and the error is within 1% or less, the posture change amount calculation unit 24 determines that the feature point is a feature point that can be correlated between the previous and next frames. Then, the posture change amount acquired by the above processing is used when the self-position calculating unit 26 in the subsequent stage calculates the self-position of the vehicle 10.

図1に示す自己位置算出部26は、姿勢変化量算出部24で算出された「距離及び姿勢角の変化量」から車両10の距離及び姿勢角を算出する。更に、姿勢変化量算出部24で算出された「車両の移動量」から車両10の自己位置を算出する。   The self-position calculator 26 shown in FIG. 1 calculates the distance and posture angle of the vehicle 10 from the “distance and change amount of posture angle” calculated by the posture change amount calculator 24. Further, the self position of the vehicle 10 is calculated from the “movement amount of the vehicle” calculated by the posture change amount calculation unit 24.

具体的な例として、姿勢角算出部22にて算出された距離及び姿勢角(パターン光を用いて算出された距離及び姿勢角)が起点として設定された場合について説明する。この場合には、この起点(距離及び姿勢角)に対して、自己位置算出部26は、姿勢変化量算出部24で算出された各フレーム毎の距離及び姿勢角の変化量を逐次加算して(積分演算して)、距離及び姿勢角を最新な数値に更新する。また、姿勢角算出部22にて距離及び姿勢角が算出された際の車両位置を起点(車両の初期位置)とし、この初期位置からの車両10の移動量を逐次加算して(積分演算して)、車両10の自己位置を算出する。例えば、地図上の位置と照合された起点(車両の初期位置)を設定することで、地図上の車両の現在位置を逐次算出することができる。   As a specific example, a case where the distance and posture angle calculated by the posture angle calculation unit 22 (the distance and posture angle calculated using the pattern light) are set as the starting points will be described. In this case, the self-position calculation unit 26 sequentially adds the distance and the change amount of the posture angle for each frame calculated by the posture change amount calculation unit 24 with respect to the starting point (distance and posture angle). Update the distance and posture angle to the latest values. Further, the vehicle position when the distance and posture angle are calculated by the posture angle calculation unit 22 is set as a starting point (initial position of the vehicle), and the amount of movement of the vehicle 10 from this initial position is sequentially added (integral calculation is performed). The self-position of the vehicle 10 is calculated. For example, the current position of the vehicle on the map can be sequentially calculated by setting the starting point (the initial position of the vehicle) that is collated with the position on the map.

従って、姿勢変化量算出部24は、時間Δtの間でのカメラ12の移動量(ΔL)を求めることにより、車両10の自己位置を算出することができる。更には、距離及び姿勢角の変化量も同時に算出することができるので、姿勢変化量算出部24は、車両10の距離及び姿勢角の変化量を考慮して、6自由度(前後、左右、上下、ヨー、ピッチ、ロール)の移動量(ΔL)を精度よく算出することができる。即ち、車両10の旋回や加減速によるロール運動或いはピッチ運動によって距離や姿勢角が変化しても、移動量(ΔL)の推定誤差を抑制することができる。   Therefore, the posture change amount calculation unit 24 can calculate the self-position of the vehicle 10 by obtaining the movement amount (ΔL) of the camera 12 during the time Δt. Furthermore, since the change amount of the distance and the posture angle can be calculated at the same time, the posture change amount calculation unit 24 considers the change amount of the distance and the posture angle of the vehicle 10 and has six degrees of freedom (front and rear, left and right, The amount of movement (ΔL) of up and down, yaw, pitch, and roll) can be calculated with high accuracy. That is, even if the distance and the posture angle change due to roll motion or pitch motion caused by turning or acceleration / deceleration of the vehicle 10, an estimation error of the movement amount (ΔL) can be suppressed.

なお、実施形態では、距離及び姿勢角の変化量を算出し、距離及び姿勢角を更新することにより、カメラ12の移動量(ΔL)を算出した。しかし、路面31に対するカメラ12の姿勢角だけを変化量算出及び更新の対象としても構わない。この場合、路面31とカメラ12との距離は一定と仮定すればよい。これにより、姿勢角の変化量を考慮して、移動量(ΔL)の推定誤差を抑制しつつ、ECU13の演算負荷を軽減し、且つ演算速度を向上させることもできる。   In the embodiment, the movement amount (ΔL) of the camera 12 is calculated by calculating the change amount of the distance and the posture angle and updating the distance and the posture angle. However, only the attitude angle of the camera 12 with respect to the road surface 31 may be the target of the change amount calculation and update. In this case, the distance between the road surface 31 and the camera 12 may be assumed to be constant. Accordingly, it is possible to reduce the calculation load of the ECU 13 and improve the calculation speed while suppressing the estimation error of the movement amount (ΔL) in consideration of the change amount of the posture angle.

[第1実施形態の作用]
次に、カメラ12により取得された画像38(図5参照)から車両10の移動量を推定する自己位置算出方法の一例として、ECU13により繰り返し実行される情報処理サイクルを、図7に示すフローチャート、図8に示す特性曲線、及び図9に示す説明図を参照して説明する。
[Operation of First Embodiment]
Next, as an example of a self-position calculation method for estimating the amount of movement of the vehicle 10 from an image 38 (see FIG. 5) acquired by the camera 12, an information processing cycle repeatedly executed by the ECU 13 is shown in the flowchart in FIG. This will be described with reference to the characteristic curve shown in FIG. 8 and the explanatory diagram shown in FIG.

図8(a)は、投光器11より投光されるパターン光32aの輝度変化を示す特性図、図8(b)は、特徴点検出フラグの変化を示す特性図である。また、図9は路面に投光されるパターン光を示す説明図であり、図9(a)、(c)はパターン光32aの輝度が高い場合、図9(c)は、パターン光32aの輝度が低い場合の状態を示している。図7に示す情報処理サイクルは、車両10のイグニションスイッチがオン状態となり、自己位置算出装置100が起動すると同時に開始され、該自己位置算出装置100が停止するまで、繰り返し実行される。   FIG. 8A is a characteristic diagram showing a change in luminance of the pattern light 32a projected from the projector 11, and FIG. 8B is a characteristic diagram showing a change in the feature point detection flag. Moreover, FIG. 9 is explanatory drawing which shows the pattern light projected on the road surface, FIG. 9 (a), (c) is the case where the brightness | luminance of the pattern light 32a is high, FIG.9 (c) shows the pattern light 32a. The state when the luminance is low is shown. The information processing cycle shown in FIG. 7 is repeatedly executed until the ignition switch of the vehicle 10 is turned on, the self-position calculating device 100 is started, and the self-position calculating device 100 is stopped.

初めに、図7のステップS11において、パターン光制御部27は、投光器11を制御して、車両周囲の路面31にパターン光を投光する。この際、パターン光制御部27は、図8(a)に示すように、パターン光の輝度B1が所定周期の正弦波状に変化するように投光電力を制御する。例えば、正弦波の周波数を200[Hz]とする。その結果、時間経過に伴い輝度B1が正弦波状に変化するパターン光が路面31に投光される。   First, in step S <b> 11 of FIG. 7, the pattern light control unit 27 controls the projector 11 to project pattern light onto the road surface 31 around the vehicle. At this time, as shown in FIG. 8A, the pattern light control unit 27 controls the light projection power so that the luminance B1 of the pattern light changes in a sine wave shape with a predetermined period. For example, the frequency of the sine wave is 200 [Hz]. As a result, the pattern light whose luminance B1 changes in a sine wave shape with the passage of time is projected onto the road surface 31.

ステップS12において、カメラ12は、パターン光が投光されている領域を含む路面31を撮像して画像を取得する。ステップS13において、特徴点検出部23は、投光器11より投光されるパターン光32aの輝度が予め設定した閾値輝度Bth以下であるか否かを判断する。   In step S12, the camera 12 captures an image of the road surface 31 including the area where the pattern light is projected. In step S13, the feature point detector 23 determines whether or not the luminance of the pattern light 32a projected from the projector 11 is equal to or lower than a preset threshold luminance Bth.

閾値輝度Bthより大きい場合には(ステップS13でNO)、ステップS14において、パターン光抽出部21は、上述した同期検波処理によりパターン光32aを抽出する。例えば、図9(a),(c)に示すように、図8に示す時刻t1或いは時刻t3(輝度B1が閾値輝度Bthよりも大きい時刻)に撮影した画像から、同期検波処理によりパターン光32aを抽出する。そして、パターン光32aの位置を示すデータとして、スポット光Spの画像上の座標(Uj、Vj)を算出し、これをメモリに記憶する。更に、姿勢角算出部22は、パターン光32aの位置を示すデータをメモリから読み込み、パターン光32aの位置から、距離及び姿勢角を算出し、メモリに記憶する。距離及び姿勢角の算出方法は、前述した通りである。なお、以下では、姿勢角算出部22によりパターン光を用いて路面31に対する車両10の距離及び姿勢角を求め、これを積分演算の起点となる距離及び姿勢角として再設定する処理を「距離及び姿勢角をリセットする」と表現する。その後、ステップS16に処理を進める。   If it is larger than the threshold luminance Bth (NO in step S13), in step S14, the pattern light extraction unit 21 extracts the pattern light 32a by the above-described synchronous detection process. For example, as shown in FIGS. 9A and 9C, pattern light 32a is obtained by synchronous detection processing from an image taken at time t1 or time t3 (time when luminance B1 is larger than threshold luminance Bth) shown in FIG. To extract. Then, the coordinates (Uj, Vj) on the image of the spot light Sp are calculated as data indicating the position of the pattern light 32a and stored in the memory. Further, the posture angle calculation unit 22 reads data indicating the position of the pattern light 32a from the memory, calculates the distance and the posture angle from the position of the pattern light 32a, and stores them in the memory. The method for calculating the distance and the posture angle is as described above. In the following description, a process for obtaining the distance and posture angle of the vehicle 10 with respect to the road surface 31 by using the pattern light by the posture angle calculation unit 22 and resetting the distance and the posture angle as a starting point of the integration calculation is referred to as “distance and posture”. "Reset the posture angle". Thereafter, the process proceeds to step S16.

一方、閾値輝度Bth以下である場合には(ステップS13でYES)、ステップS15において、特徴点検出部23は、路面31に存在する特徴点を検出する。具体的には、パターン光32aの輝度B1が、図8(a)に示すように正弦波状に変化する場合には、輝度B1が閾値輝度Bth以下となる時間帯に特徴点を検出する。即ち、図8(b)に示すように、輝度B1が閾値輝度Bth以下となる時間帯に特徴点検出フラグを「1」とし、この時間帯に特徴点を検出する。例えば、図9(b)に示すように、図8に示す時刻t2(輝度B1が閾値輝度Bth以下の時刻)に撮影した画像から特徴点を検出する。更に、姿勢変化量算出部24は、特徴点検出部23で検出された特徴点の画像上の位置に基づき、カメラ12に対する特徴点の変化量を算出する。この際、特徴点を検出する領域は、パターン光32aを投光する領域と全部または一部が重なっている領域としている。   On the other hand, if it is equal to or lower than the threshold luminance Bth (YES in step S13), the feature point detector 23 detects a feature point existing on the road surface 31 in step S15. Specifically, when the luminance B1 of the pattern light 32a changes in a sine wave shape as shown in FIG. 8A, the feature point is detected in a time zone in which the luminance B1 is equal to or lower than the threshold luminance Bth. That is, as shown in FIG. 8B, the feature point detection flag is set to “1” in a time zone where the brightness B1 is equal to or less than the threshold brightness Bth, and the feature point is detected in this time zone. For example, as shown in FIG. 9B, feature points are detected from an image taken at time t2 (time when luminance B1 is equal to or lower than threshold luminance Bth) shown in FIG. Further, the posture change amount calculation unit 24 calculates the change amount of the feature point with respect to the camera 12 based on the position of the feature point detected by the feature point detection unit 23 on the image. At this time, the region for detecting the feature points is a region that is entirely or partially overlapped with the region that projects the pattern light 32a.

また、ステップS15において、特徴点検出部23は、画像38から特徴点(例えば、アスファルト上に存在する凹凸部位)を検出し、前回の情報処理サイクルと今回の情報処理サイクルの間で対応関係が取れる特徴点を抽出し、特徴点の画像上の位置(Ui、Vi)から距離及び姿勢角を更新する。   In step S15, the feature point detection unit 23 detects feature points (for example, uneven portions present on the asphalt) from the image 38, and there is a correspondence between the previous information processing cycle and the current information processing cycle. The feature points that can be taken are extracted, and the distance and posture angle are updated from the positions (Ui, Vi) of the feature points on the image.

具体的には、特徴点検出部23は、特徴点検出フラグが「1」のとき、カメラ12により取得された画像38をメモリから読み込み、画像38から路面31上の特徴点を検出し、各特徴点の画像上の位置(Ui、Vi)をメモリに記憶する。姿勢変化量算出部24は、各特徴点の画像上の位置(Ui、Vi)をメモリから読み込み、距離及び姿勢角と、特徴点の画像上の位置(Ui、Vi)とから、カメラ12に対する特徴点の相対位置(Xi,Yi,Zi)を算出する。姿勢変化量算出部24は、カメラ12に対する特徴点の相対位置(Xi,Yi,Zi)をメモリに記憶する。   Specifically, when the feature point detection flag is “1”, the feature point detection unit 23 reads the image 38 acquired by the camera 12 from the memory, detects the feature point on the road surface 31 from the image 38, and The position (Ui, Vi) of the feature point on the image is stored in the memory. The posture change amount calculation unit 24 reads the position (Ui, Vi) of each feature point on the image from the memory, and determines the position relative to the camera 12 from the distance and posture angle and the position (Ui, Vi) of the feature point on the image. The relative position (Xi, Yi, Zi) of the feature point is calculated. The posture change amount calculation unit 24 stores the relative position (Xi, Yi, Zi) of the feature point with respect to the camera 12 in the memory.

そして、姿勢変化量算出部24は、特徴点の画像上の位置(Ui、Vi)と、前回の情報処理サイクルのステップS15において算出された特徴点の相対位置(Xi,Yi,Zi)をメモリから読み込む。姿勢変化量算出部24は、今回の情報処理サイクルと今回の情報処理サイクルの間で対応関係が取れる特徴点の相対位置(Xi,Yi,Zi)及び画像上の位置(Ui、Vi)を用いて、距離及び姿勢角の変化量を算出する。姿勢変化量算出部24は、前回の情報処理サイクルで求められた距離及び姿勢角に、上記した距離及び姿勢角の変化量を加算することにより、距離及び姿勢角を更新する。そして、更新後の距離及び姿勢角をメモリに記憶する。つまり、前回のサイクルのステップS16(後述)の処理で設定された距離及び姿勢角に対して、今回の情報処理サイクル毎の距離及び姿勢角の変化量を積分演算することにより、距離及び姿勢角を更新する処理を実行する。その後、ステップS16に処理を進める。   The posture change amount calculation unit 24 stores the position of the feature point on the image (Ui, Vi) and the relative position (Xi, Yi, Zi) of the feature point calculated in step S15 of the previous information processing cycle. Read from. The posture change amount calculation unit 24 uses the relative position (Xi, Yi, Zi) of the feature point and the position (Ui, Vi) on the image that can be correlated between the current information processing cycle and the current information processing cycle. Thus, the change amount of the distance and the posture angle is calculated. The posture change amount calculation unit 24 updates the distance and posture angle by adding the above-described change amounts of the distance and posture angle to the distance and posture angle obtained in the previous information processing cycle. Then, the updated distance and posture angle are stored in the memory. That is, the distance and posture angle are calculated by integrating the distance and posture angle change amount for each information processing cycle with respect to the distance and posture angle set in step S16 (described later) of the previous cycle. Execute the process to update. Thereafter, the process proceeds to step S16.

ステップS16において、ECU13は、積分演算の起点を選択する。この処理では、最初の情報処理サイクルにおいては、パターン光32aより算出される距離及び姿勢角を選択して設定する。更に、予め設定した条件が成立した場合、例えば、特徴点検出部23における特徴点の検出状態が低下し、特徴点をフラグが「1」となるタイミングで複数の特徴点を検出できなくなった場合には、移動量算出の起点をパターン光により算出する距離及び姿勢角、即ちステップS14の処理で算出された距離及び姿勢角にリセットする。他方、特徴点検出部23にて特徴点が正常に検出されている場合には、該特徴点の位置に基づいて距離及び姿勢角を更新する。   In step S16, the ECU 13 selects the starting point of the integral calculation. In this process, in the first information processing cycle, the distance and posture angle calculated from the pattern light 32a are selected and set. Further, when a preset condition is satisfied, for example, when the feature point detection state in the feature point detection unit 23 is lowered, and a plurality of feature points cannot be detected at the timing when the feature point flag is “1”. The distance and posture angle calculated from the pattern light, that is, the distance and posture angle calculated in step S14 are reset. On the other hand, when the feature point is normally detected by the feature point detection unit 23, the distance and the posture angle are updated based on the position of the feature point.

つまり、特徴点検出部23により特徴点が正常に検出されない場合には、カメラ12の距離及び姿勢角を高精度に設定することができず、この精度の低い距離及び姿勢角を採用して車両の移動量を算出すると、車両の移動量を高精度に検出できなくなる。従って、このような場合には、移動量算出の起点をパターン光の位置から求められる距離及び姿勢角にリセットする。こうすることで、距離及び姿勢角に大幅な誤差が生じることを防止する。   In other words, if the feature point is not normally detected by the feature point detection unit 23, the distance and posture angle of the camera 12 cannot be set with high accuracy, and the low-accuracy distance and posture angle are adopted to the vehicle. If the amount of movement is calculated, the amount of movement of the vehicle cannot be detected with high accuracy. Accordingly, in such a case, the starting point of the movement amount calculation is reset to the distance and posture angle obtained from the position of the pattern light. By doing so, it is possible to prevent a large error in the distance and the posture angle.

次いで、ステップS17において、自己位置算出部26は、ステップS14或いはS15の処理で求められた距離及び姿勢角と、積分演算の起点、及び、特徴点の画像上の位置(Ui、Vi)の変化量とから、路面31に対するカメラ12の移動量(ΔL)、即ち車両10の移動量を算出する。   Next, in step S17, the self-position calculation unit 26 changes the distance and posture angle obtained in the process of step S14 or S15, the starting point of the integration calculation, and the position (Ui, Vi) of the feature point on the image. The amount of movement of the camera 12 relative to the road surface 31 (ΔL), that is, the amount of movement of the vehicle 10 is calculated from the amount.

こうして、第1実施形態に係る自己位置算出装置では、上記した一連の情報処理サイクルを繰り返し実行して車両10の移動量を積算することにより、車両10の位置を算出することができるのである。   Thus, in the self-position calculation device according to the first embodiment, the position of the vehicle 10 can be calculated by repeatedly executing the above-described series of information processing cycles and integrating the movement amount of the vehicle 10.

このようにして、第1実施形態に係る自己位置算出装置100では、投光器11より所定の変調周波数(例えば、200Hz)で正弦波状に輝度が変化するパターン光32aを路面に投光し、このパターン光32aを含む画像をカメラ12で撮像する。この画像を同期検波処理することにより、パターン光32aを抽出する。従って、路面上に投光したパターン光32aを高精度に検出することが可能となる。その後、パターン光32aの位置に基づいてカメラ12の距離及び姿勢角を算出する。この際、距離及び姿勢角の算出は、上記した所定の変調周期で設定される周期毎に実施しても良いし、複数周期毎(例えば、10周期毎)に実施しても良い。従って、所定の周期毎、或いは複数周期毎にパターン光32aに基づく距離及び姿勢角が算出される。   Thus, in the self-position calculation apparatus 100 according to the first embodiment, the pattern light 32a whose luminance changes sinusoidally at a predetermined modulation frequency (for example, 200 Hz) is projected from the projector 11 onto the road surface. An image including the light 32 a is captured by the camera 12. The pattern light 32a is extracted by subjecting this image to synchronous detection processing. Therefore, the pattern light 32a projected onto the road surface can be detected with high accuracy. Thereafter, the distance and posture angle of the camera 12 are calculated based on the position of the pattern light 32a. At this time, the calculation of the distance and the attitude angle may be performed every cycle set by the predetermined modulation cycle described above, or may be performed every plural cycles (for example, every 10 cycles). Therefore, the distance and the posture angle based on the pattern light 32a are calculated every predetermined period or every plural periods.

また、パターン光32aの輝度が閾値輝度Bth以下となる時間帯に、路面上に存在する特徴点を検出する。この際、パターン光32aの輝度は低いので、特徴点を検出する際にパターン光32aの影響を受けることを防止でき、高精度な特徴点検出が可能となる。そして、検出した特徴点に基づき、上述した方法を採用することにより車両の移動量を算出することができる。その結果、車両の移動量を高精度に算出することが可能となる。   In addition, feature points existing on the road surface are detected in a time zone in which the luminance of the pattern light 32a is equal to or lower than the threshold luminance Bth. At this time, since the brightness of the pattern light 32a is low, it can be prevented from being influenced by the pattern light 32a when detecting the feature points, and the feature points can be detected with high accuracy. Based on the detected feature points, the amount of movement of the vehicle can be calculated by adopting the method described above. As a result, the amount of movement of the vehicle can be calculated with high accuracy.

ここで、パターン光32aの輝度の設定について説明する。本実施形態では、最も日照量が多い夏至(6月)に近い晴天下においてもパターン光32aを検出できるように、該パターン光32aの最大輝度(図8(a)に示す輝度B1の上のピーク)を設定する。また、パターン光の影響が最も大きい夜間において、投光パターンを路面の特徴点と99%以上の確率で誤検出しないように、パターン光の最小輝度(図8(a)に示す輝度B1の下のピーク)を設定する。   Here, the setting of the luminance of the pattern light 32a will be described. In the present embodiment, the maximum brightness of the pattern light 32a (above the brightness B1 shown in FIG. 8A) is detected so that the pattern light 32a can be detected even under the clear sky close to the summer solstice (June) with the largest amount of sunlight. Peak). Further, at night when the influence of the pattern light is greatest, the minimum brightness of the pattern light (below the brightness B1 shown in FIG. Set the peak.

また、パターン光の輝度変調の周波数は、例えば、200[Hz]とし、カメラ12のフレームレート(1秒間の撮影数)を2400[fps]とする。これは、本実施形態で、車両の最高速度72Km/h(≒20m/s)を想定した場合において、1周期での移動量を0.1m以下に抑えるためである。これは本実施形態の原理上、パターン光32aが投光される領域と、特徴点が検出される領域が可能な限り近い、或いは同一であることが望ましいためである。また、同期検波の原理から、1周期の間での移動量が大きくなり、路面状態が変化してしまうと、投光パターン以外の太陽光や人工光が変化し、同期検波の前提が崩れる可能性があり、1周期での移動量を小さく抑えることにより、これを回避する。従って、より高速なカメラを用い、この一定周期を更に短くすると更なる性能向上が期待できる。   Further, the frequency of luminance modulation of the pattern light is, for example, 200 [Hz], and the frame rate of the camera 12 (number of images taken per second) is 2400 [fps]. This is because in this embodiment, when the maximum speed of the vehicle is assumed to be 72 km / h (≈20 m / s), the movement amount in one cycle is suppressed to 0.1 m or less. This is because, based on the principle of this embodiment, it is desirable that the area where the pattern light 32a is projected and the area where the feature points are detected be as close as possible or the same. In addition, from the principle of synchronous detection, if the amount of movement during one cycle increases and the road surface condition changes, sunlight and artificial light other than the light projection pattern change, and the assumption of synchronous detection may be lost. This is avoided by minimizing the amount of movement in one cycle. Therefore, further improvement in performance can be expected by using a faster camera and further shortening this fixed period.

また、本実施形態では、所定の変調周波数で輝度変調したパターン光を照射し、更に、撮像した画像を同期検波処理することにより、パターン光32aを抽出する例について説明したが、同期画像を所定回数積算した画像を生成し、この積算した画像からパターン光32aを抽出するようにしてもよい。つまり、1周期の同期検波処理により得られる同期画像では、パターン光32aが投光された部分が十分強調されずにノイズが多く含まれてしまい、2値化処理を高精度に実施することができなくなる場合がある。そこで、2周期以上で取得した同期画像を積分し、パターン光32aが投光された部分を、より一層強調した同期検波画像を作成することにより、ノイズの影響をより排除して画像上の投光パターンを検出することができる。   In the present embodiment, an example in which pattern light 32a is extracted by irradiating pattern light whose luminance is modulated at a predetermined modulation frequency and performing synchronous detection processing on the captured image has been described. An image obtained by integrating the number of times may be generated, and the pattern light 32a may be extracted from the integrated image. That is, in the synchronous image obtained by the one-cycle synchronous detection processing, the portion where the pattern light 32a is projected is not sufficiently emphasized and contains a lot of noise, and the binarization processing can be performed with high accuracy. It may not be possible. Therefore, by integrating the synchronous images acquired in two or more cycles and creating a synchronous detection image in which the portion where the pattern light 32a is projected is further emphasized, the influence of noise is further eliminated and the projection on the image is performed. A light pattern can be detected.

更に、特徴点を検出する領域は、パターン光32aを投光する領域と重複している。従って、カメラ12による撮像範囲を狭めることができ、画像処理に要する演算負荷を軽減することができる。   Further, the region for detecting the feature points overlaps with the region for projecting the pattern light 32a. Therefore, the imaging range by the camera 12 can be narrowed, and the calculation load required for image processing can be reduced.

[第2実施形態の説明]
次に、本発明に係る自己位置算出装置100の第2実施形態について説明する。装置構成は、前述した図1と同様である。前述した第1実施形態では、投光器11より投光するパターン光の輝度を正弦波状に変化させ、カメラ12で撮像される画像を同期検波処理することにより、パターン光32aを検出する例について示した。これに対して、第2実施形態では、所定の切替周期でパターン光32aの投光をオン、オフ制御し、パターン光32aの投光時(オン時)に撮像した画像と、パターン光32aの非投光時(オフ時)に撮像した画像の差分を演算して、パターン光32aを取得する。
[Description of Second Embodiment]
Next, a second embodiment of the self-position calculation apparatus 100 according to the present invention will be described. The apparatus configuration is the same as that of FIG. In the first embodiment described above, an example in which the pattern light 32a is detected by changing the luminance of the pattern light projected from the projector 11 in a sine wave shape and performing synchronous detection processing on the image captured by the camera 12 has been described. . On the other hand, in the second embodiment, the projection of the pattern light 32a is controlled to be turned on and off at a predetermined switching period, and the image captured when the pattern light 32a is projected (on) and the pattern light 32a The pattern light 32a is obtained by calculating the difference between the images captured when the light is not projected (off).

即ち、パターン光制御部27は、図11(a)に示すように、所定の切替周期でパターン光32aのオン、オフを切り替える。そして、特徴点検出部23は、図11(b)に示すように、パターン光32aがオフのときに特徴点検出フラグを「1」として特徴点を検出する。   That is, as shown in FIG. 11A, the pattern light control unit 27 switches on / off of the pattern light 32a at a predetermined switching cycle. Then, as shown in FIG. 11B, the feature point detection unit 23 detects the feature point by setting the feature point detection flag to “1” when the pattern light 32a is off.

以下、第2実施形態に係る自己位置算出装置100の処理手順を、図10に示すフローチャートを参照して説明する。   Hereinafter, the processing procedure of the self-position calculation apparatus 100 according to the second embodiment will be described with reference to the flowchart shown in FIG.

初めに、図10のステップS31において、パターン光制御部27は、投光器11を制御して、車両周囲の路面31にパターン光を投光する。この際、パターン光制御部27は、図11(a)に示すように、所定の切替周期でパターン光のオン、オフが切り替えられるように投光電力を制御する。   First, in step S31 of FIG. 10, the pattern light control unit 27 controls the projector 11 to project pattern light onto the road surface 31 around the vehicle. At this time, as shown in FIG. 11A, the pattern light control unit 27 controls the projection power so that the pattern light is switched on and off at a predetermined switching cycle.

ステップS32において、カメラ12は、パターン光が投光されている領域を含む路面31を撮像して画像を取得し、この画像をメモリに記憶する。ステップS33において、特徴点検出部23は、投光器11より投光されるパターン光32aがオフであるか否かを判断する。   In step S <b> 32, the camera 12 captures an image by capturing the road surface 31 including the region where the pattern light is projected, and stores the image in the memory. In step S33, the feature point detector 23 determines whether or not the pattern light 32a projected from the projector 11 is off.

パターン光32aがオンである場合には(ステップS33でNO)、ステップS34において、パターン光抽出部21は、メモリに記憶されているパターン光オン時の画像と、以前に撮像されているパターン光オフ時の画像との差分画像を生成し、該差分画像からパターン光を抽出する。即ち、パターン光32aの投光時に撮像した画像と、パターン光32aの非投光時に撮像した画像の差分を演算することにより、パターン光32aを抽出することができる。なお、この際、車両10は移動しており、車両10と路面との相対位置は変化するが、カメラ12のフレームレートが大きいので、車両10の移動距離を無視することができる。   When the pattern light 32a is on (NO in step S33), in step S34, the pattern light extraction unit 21 stores the pattern light on-image stored in the memory and the pattern light previously captured. A difference image from the off-time image is generated, and pattern light is extracted from the difference image. That is, the pattern light 32a can be extracted by calculating the difference between the image captured when the pattern light 32a is projected and the image captured when the pattern light 32a is not projected. At this time, the vehicle 10 is moving, and the relative position between the vehicle 10 and the road surface changes. However, since the frame rate of the camera 12 is large, the moving distance of the vehicle 10 can be ignored.

そして、前述した第1実施形態と同様に、パターン光32aの位置を示すデータとして、スポット光Spの画像上の座標(Uj、Vj)を算出し、これをメモリに記憶する。更に、姿勢角算出部22は、パターン光32aの位置を示すデータをメモリから読み込み、パターン光32aの位置から、距離及び姿勢角を算出し、メモリに記憶する。その後、ステップS36に処理を進める。   As in the first embodiment described above, the coordinates (Uj, Vj) on the image of the spot light Sp are calculated as data indicating the position of the pattern light 32a and stored in the memory. Further, the posture angle calculation unit 22 reads data indicating the position of the pattern light 32a from the memory, calculates the distance and the posture angle from the position of the pattern light 32a, and stores them in the memory. Thereafter, the process proceeds to step S36.

一方、パターン光がオフ時である(パターン光の輝度が閾値輝度以下である)場合には(ステップS33でYES)、ステップS35において、特徴点検出部23は、路面31に存在する特徴点を検出する。即ち、図11(b)に示す特徴点検出フラグが「1」とされている時間帯に、カメラ12で撮像された画像を用いて特徴点を検出する。更に、姿勢変化量算出部24は、特徴点検出部23で検出された特徴点の画像上の位置に基づき、カメラ12に対する特徴点の変化量を算出する。特徴点を検出する領域は、パターン光32aを投光する領域と同一の領域としている。特徴点の位置から、カメラ12の距離及び姿勢角の変化量を算出する手法は、前述した第1実施形態と同様である。その後、ステップS36、S37に処理を進める。ステップS36、S37の処理は、図7に示したステップS16、S17の処理と同様であるので説明を省略する。   On the other hand, when the pattern light is off (the brightness of the pattern light is equal to or lower than the threshold brightness) (YES in step S33), in step S35, the feature point detection unit 23 detects the feature points existing on the road surface 31. To detect. That is, the feature point is detected using the image captured by the camera 12 in the time zone in which the feature point detection flag shown in FIG. Further, the posture change amount calculation unit 24 calculates the change amount of the feature point with respect to the camera 12 based on the position of the feature point detected by the feature point detection unit 23 on the image. The area for detecting the feature points is the same area as the area where the pattern light 32a is projected. The method of calculating the change amount of the distance and posture angle of the camera 12 from the position of the feature point is the same as in the first embodiment described above. Thereafter, the process proceeds to steps S36 and S37. The processing in steps S36 and S37 is the same as the processing in steps S16 and S17 shown in FIG.

こうして、第2実施形態に係る自己位置算出装置100は、上記した一連の情報処理サイクルを繰り返し実行して車両10の移動量を積算することにより、車両10の位置を算出することができるのである。   Thus, the self-position calculation device 100 according to the second embodiment can calculate the position of the vehicle 10 by repeatedly executing the above-described series of information processing cycles and integrating the movement amount of the vehicle 10. .

このようにして、第2実施形態に係る自己位置算出装置100では、投光器11より所定の切替周期でオン、オフが切り替えられるパターン光32aを路面に投光し、このパターン光32aを含む画像をカメラ12で撮像する。そして、パターン光32aをオンとしたときの画像と、パターン光32aをオフとしたときの画像の差分を演算して、パターン光32aを抽出する。従って、路面上に投光したパターン光32aを高精度に検出することが可能となる。そして、パターン光32aの位置に基づいてカメラ12の距離及び姿勢角を算出するので、距離及び姿勢角を高精度に算出することができる。   In this way, in the self-position calculation device 100 according to the second embodiment, the projector 11 projects the pattern light 32a that is switched on and off at a predetermined switching cycle onto the road surface, and the image including the pattern light 32a is projected. An image is taken by the camera 12. Then, the pattern light 32a is extracted by calculating the difference between the image when the pattern light 32a is turned on and the image when the pattern light 32a is turned off. Therefore, the pattern light 32a projected onto the road surface can be detected with high accuracy. Since the distance and posture angle of the camera 12 are calculated based on the position of the pattern light 32a, the distance and posture angle can be calculated with high accuracy.

また、パターン光32aがオフとされている時間帯に、路面上に存在する特徴点を検出する。この際、パターン光32aは投光されていないので、特徴点の検出にパターン光32aの影響を受けること無く、高精度な特徴点検出が可能となる。そして、上述した方法を採用することにより、車両の移動量を算出することができる。その結果、車両の移動量を高精度に算出することが可能となる。   Also, feature points present on the road surface are detected during the time zone when the pattern light 32a is off. At this time, since the pattern light 32a is not projected, it is possible to detect feature points with high accuracy without being affected by the pattern light 32a in detecting feature points. Then, by adopting the method described above, the amount of movement of the vehicle can be calculated. As a result, the amount of movement of the vehicle can be calculated with high accuracy.

なお、第2実施形態に係る自己位置算出装置100についても、前述した第1実施形態と同様に、パターン光のオン、オフを切り替える際の切替周波数を、例えば200[Hz]とし、カメラ12のフレームレートを2400[fps]とすることが望ましい。   In the self-position calculation apparatus 100 according to the second embodiment, as in the first embodiment described above, the switching frequency when switching on and off the pattern light is set to 200 [Hz], for example, and the camera 12 It is desirable to set the frame rate to 2400 [fps].

[第3実施形態の説明]
次に、本発明の第3実施形態について説明する。図12は、第3実施形態に係る自己位置算出装置100aの構成を示すブロック図である。第3実施形態では、図1に示した自己位置算出装置100と対比して、特徴点移動速度算出部37が設けられている点で相違する。
[Description of Third Embodiment]
Next, a third embodiment of the present invention will be described. FIG. 12 is a block diagram illustrating a configuration of a self-position calculation apparatus 100a according to the third embodiment. The third embodiment is different from the self-position calculation device 100 shown in FIG. 1 in that a feature point moving speed calculation unit 37 is provided.

特徴点移動速度算出部37は、特徴点検出部23で検出された特徴点の位置座標の変化に基づいて、特徴点の移動速度を算出する。特徴点を取得する周期が既知であるから、特徴点の移動量を求めることにより特徴点の移動速度を算出することができる。この特徴点の移動速度データを姿勢変化量算出部24に出力する。そして、姿勢変化量算出部24は、特徴点の移動速度データの大きさに基づいて、姿勢変化量の算出周期を変更する。一例として、予め閾値速度を設定しておき、特徴点移動速度算出部37より取得される特徴点の移動速度が閾値速度よりも高い場合には、姿勢変化量の算出周期が短くなるように設定する。   The feature point movement speed calculation unit 37 calculates the movement speed of the feature point based on the change in the position coordinates of the feature point detected by the feature point detection unit 23. Since the period for acquiring the feature points is known, the movement speed of the feature points can be calculated by obtaining the movement amount of the feature points. The moving speed data of the feature point is output to the posture change amount calculation unit 24. Then, the posture change amount calculation unit 24 changes the posture change amount calculation cycle based on the magnitude of the moving speed data of the feature points. As an example, a threshold speed is set in advance, and when the feature point movement speed acquired from the feature point movement speed calculation unit 37 is higher than the threshold speed, the posture change amount calculation cycle is set to be short. To do.

図12における特徴点移動速度算出部37以外の構成は、前述した図1と同様であるので、同一符号を付して構成説明を省略する。   Since the configuration other than the feature point moving speed calculation unit 37 in FIG. 12 is the same as that in FIG. 1 described above, the same reference numerals are given and description of the configuration is omitted.

次に、第3実施形態に係る自己位置算出装置100aの作用を、図13に示すフローチャート、及び図14に示すタイミングチャートを参照して説明する。図13に示すフローチャートは、前述した図7のフローチャートに対して、ステップS131、S132、S133の処理が追加されている点で相違する。それ以外は図7と同様であるので、同一のステップ番号を付している。ステップS11,S12の後、ステップS13の処理において、パターン光32aの輝度が閾値輝度Bth以下であると判断された場合には、ステップS131において、姿勢変化量算出部24は、特徴点移動速度算出部37にて取得されるの特徴点移動速度が予め設定した閾値速度より大きいか否かを判断する。   Next, the operation of the self-position calculating apparatus 100a according to the third embodiment will be described with reference to the flowchart shown in FIG. 13 and the timing chart shown in FIG. The flowchart shown in FIG. 13 is different from the flowchart of FIG. 7 described above in that steps S131, S132, and S133 are added. The other steps are the same as in FIG. 7 and are therefore given the same step numbers. After steps S11 and S12, if it is determined in step S13 that the luminance of the pattern light 32a is equal to or lower than the threshold luminance Bth, the posture change amount calculation unit 24 calculates the feature point moving speed in step S131. It is determined whether the feature point moving speed acquired by the unit 37 is greater than a preset threshold speed.

そして、閾値速度以下である場合には(ステップS131でNO)、ステップS132において、姿勢変化量算出部24は、第1の演算周期で車両10の姿勢変化量を算出する。例えば、図14(b)に示す周期τ2で姿勢変化量を算出する。一方、閾値速度より大きい場合には(ステップS131でYES)、ステップS133において、姿勢変化量算出部24は、第1の演算周期よりも短い第2の演算周期で車両10の姿勢変化量を算出する。例えば、図14(b)に示す周期τ1(τ1<τ2)で姿勢変化量を算出する。その後、ステップS15〜S17の処理を実行する。なお、図14では、一例としてτ1の2倍をτ2とする例を示しているが、本発明はこれに限定されるものではない。また、一例として、閾値速度により特徴点の検出周期を切り替える例を示しているが、特徴点移動速度に応じて特徴点の検出周期を逐次変化させる構成としてもよい。   If the speed is equal to or lower than the threshold speed (NO in step S131), in step S132, the posture change amount calculation unit 24 calculates the posture change amount of the vehicle 10 in the first calculation cycle. For example, the posture change amount is calculated at a period τ2 shown in FIG. On the other hand, if it is greater than the threshold speed (YES in step S131), in step S133, the posture change amount calculation unit 24 calculates the posture change amount of the vehicle 10 in a second calculation cycle that is shorter than the first calculation cycle. To do. For example, the posture change amount is calculated at a period τ1 (τ1 <τ2) shown in FIG. Then, the process of step S15-S17 is performed. FIG. 14 shows an example in which twice τ1 is τ2 as an example, but the present invention is not limited to this. Further, as an example, an example in which the feature point detection cycle is switched according to the threshold speed is shown, but the feature point detection cycle may be sequentially changed according to the feature point moving speed.

路面に存在する特徴点をトラッキングするためには、原理的には、特徴点を検出する前後のフレーム間で、車両の移動量が撮像範囲以内であればよい。また、前後フレームでの特徴点の対応付けに間違いが起こらないようにするためには、移動量はなるべく小さい方がよい。しかし、前後フレーム間の時間が短すぎる場合には、路面上での特徴点が殆ど変化しなくなり、移動量の計算が難しくなる。つまり、特徴点をトラッキングして移動量を算出する場合には、前後フレーム間で、特徴点がある程度移動している必要がある。   In order to track the feature points existing on the road surface, in principle, the amount of movement of the vehicle between the frames before and after the feature points are detected needs to be within the imaging range. Further, the movement amount should be as small as possible in order to prevent an error in the association of the feature points in the front and rear frames. However, if the time between the previous and next frames is too short, the feature points on the road surface hardly change, and it becomes difficult to calculate the movement amount. That is, when the movement amount is calculated by tracking the feature point, the feature point needs to move to some extent between the previous and next frames.

第3実施形態では、例えば、路面に存在する特徴点が、1周期で0.05〜0.1[m]の範囲となるように、特徴点の検出周期を設定する。従って、パターン光32aを投光する際の最大の周波数を200[Hz]とした場合、本実施形態で特徴点の移動速度[20m/s](≒車速72[Km/h])においては、この最大周波数200[Hz]で制御を行うと目標範囲内の0.1mとなる。これに対し、特徴点の移動速度1[m/s](≒車速3.6[Km/h])では、周波数を20[Hz]とすることで、目標範囲内の0.05mとすることができる。なお、この計算方法によると停車中は路面テクスチャの検出を中止してしまうため、周波数は最低で5[Hz]とする。   In the third embodiment, for example, the feature point detection cycle is set so that the feature points existing on the road surface are in the range of 0.05 to 0.1 [m] in one cycle. Therefore, when the maximum frequency when projecting the pattern light 32a is 200 [Hz], the moving speed of the feature point [20 m / s] (≈vehicle speed 72 [Km / h]) in this embodiment is When the control is performed at the maximum frequency of 200 [Hz], the target range is 0.1 m. On the other hand, when the moving speed of the feature point is 1 [m / s] (≈vehicle speed 3.6 [Km / h]), the frequency is set to 0.05 [m] within the target range by setting the frequency to 20 [Hz]. Can do. According to this calculation method, detection of road surface texture is stopped while the vehicle is stopped, so the frequency is set to 5 [Hz] at the minimum.

このように、第3実施形態に係る自己位置算出装置100aでは、前述した第1実施形態と同様の効果を達成できる。更に、特徴点の移動速度に応じて、姿勢変化量を算出する周期を変更するので、特徴点の移動速度に適した姿勢変化量の算出が可能となり、車両10の移動量の検出をより高精度に行うことができる。   As described above, the self-position calculation apparatus 100a according to the third embodiment can achieve the same effects as those of the first embodiment described above. Furthermore, since the period for calculating the posture change amount is changed according to the moving speed of the feature point, the posture changing amount suitable for the moving speed of the feature point can be calculated, and the detection of the moving amount of the vehicle 10 can be further enhanced. Can be done with precision.

[第3実施形態の第1変形例の説明]
次に、第3実施形態の第1変形例について説明する。装置構成は、図12と同一であるので、説明を省略する。以下、第1変形例に係る自己位置算出装置100aの作用を図15に示すフローチャート、及び図16に示すタイミングチャートを参照して説明する。なお、図5に示すフローチャートは、前述した図10に示したフローチャートに対して、ステップS301〜303を追加しており、それ以外の構成は図10と同一であるので、同一のステップ番号を付している。
[Description of First Modification of Third Embodiment]
Next, a first modification of the third embodiment will be described. The apparatus configuration is the same as that shown in FIG. Hereinafter, the operation of the self-position calculating apparatus 100a according to the first modification will be described with reference to the flowchart shown in FIG. 15 and the timing chart shown in FIG. In the flowchart shown in FIG. 5, steps S301 to S303 are added to the flowchart shown in FIG. 10 described above, and other configurations are the same as those in FIG. doing.

初めに、ステップS301において、特徴点移動速度算出部37は、特徴点の移動速度を算出し、この特徴点の移動速度が予め設定した閾値速度よりも大きいか否かを判断する。そして、閾値速度以下の場合には(ステップS301でNO)、ステップS302に処理を進め、閾値速度よりも大きい場合には(ステップS301でYES)、ステップS303に処理を進める。   First, in step S301, the feature point moving speed calculation unit 37 calculates the moving speed of the feature point and determines whether or not the moving speed of the feature point is higher than a preset threshold speed. If it is equal to or less than the threshold speed (NO in step S301), the process proceeds to step S302. If it is greater than the threshold speed (YES in step S301), the process proceeds to step S303.

ステップS302において、姿勢変化量算出部24は、パターン光のオン、オフ周期を第1の切替周期に設定する。具体的には、図16(a)に示すように、時間τ11だけパターン光が投光され、時間τ12の経過後、再度パターン光が投光されるように周期を設定する。従って、図16(b)に示すように、時間τ12の間に特徴点が検出される。   In step S302, the posture change amount calculation unit 24 sets the on / off cycle of the pattern light to the first switching cycle. Specifically, as shown in FIG. 16A, the cycle is set so that the pattern light is projected for the time τ11, and the pattern light is projected again after the time τ12 has elapsed. Therefore, as shown in FIG. 16B, feature points are detected during time τ12.

ステップS303において、姿勢変化量算出部24は、パターン光のオン、オフ周期を第2の切替周期に設定する。具体的には、図16(c)に示すように、時間τ13だけパターン光が投光され、時間τ14の経過後、再度パターン光が投光されるように周期を設定する。従って、図16(d)に示すように、時間τ14の間に特徴点が検出される。この際、(τ11+τ12)が第1の切替周期であり、(τ13+τ14)が第2の切替周期である。そして、(τ11+τ12)>(τ13+τ14)である。つまり、第2の切替周期は第1の切替周期よりも短くなるように設定される。   In step S303, the posture change amount calculation unit 24 sets the on / off cycle of the pattern light to the second switching cycle. Specifically, as shown in FIG. 16C, the cycle is set so that the pattern light is projected for the time τ13 and the pattern light is projected again after the time τ14. Therefore, as shown in FIG. 16D, feature points are detected during time τ14. At this time, (τ11 + τ12) is the first switching period, and (τ13 + τ14) is the second switching period. And (τ11 + τ12)> (τ13 + τ14). That is, the second switching cycle is set to be shorter than the first switching cycle.

次いで、図15のステップS31において、パターン光制御部27は、投光器11を制御して、第1の切替周期、或いは第2の切替周期で車両周囲の路面31にパターン光を投光する。ステップS32以降の処理は、前述した図10と同一であるので説明を省略する。   Next, in step S31 of FIG. 15, the pattern light control unit 27 controls the projector 11 to project pattern light onto the road surface 31 around the vehicle at the first switching period or the second switching period. Since the process after step S32 is the same as FIG. 10 mentioned above, description is abbreviate | omitted.

このように、第3実施形態の第1変形例に係る自己位置算出装置100aでは、前述した第3実施形態と同様に、特徴点の移動速度に応じて、姿勢変化量を算出する周期を変更するので、特徴点の移動速度に適した姿勢変化量の算出が可能となり、車両10の移動量の検出をより高精度に行うことができる。   As described above, in the self-position calculation apparatus 100a according to the first modification of the third embodiment, the period for calculating the posture change amount is changed according to the moving speed of the feature point, as in the third embodiment described above. Thus, it is possible to calculate the amount of change in posture suitable for the moving speed of the feature point, and the movement amount of the vehicle 10 can be detected with higher accuracy.

[第3実施形態の第2変形例の説明]
次に、第3実施形態の第2変形例について説明する。前述した第3実施形態では、特徴点検出部23で検出される特徴点の移動量に基づき、特徴点移動速度算出部37により特徴点の移動速度を算出する例について説明した。第2変形例では、特徴点の移動速度に代わり、車両に搭載される車速センサの検出信号から車速を取得し、車速に応じて姿勢変化量を算出する周期を変更する。即ち、図17に示すように、車速センサより出力される車速データを取得する車速取得部36を設け、該車速取得部36で取得した車速データを姿勢角算出部24に出力して、姿勢変化量を算出する周期を変更するようにしてもよい。このような構成においても、前述した第3実施形態と同様の効果を達成することができる。
[Description of Second Modification of Third Embodiment]
Next, a second modification of the third embodiment will be described. In the third embodiment described above, the example in which the feature point moving speed calculating unit 37 calculates the moving speed of the feature point based on the moving amount of the feature point detected by the feature point detecting unit 23 has been described. In the second modification, instead of the moving speed of the feature point, the vehicle speed is acquired from the detection signal of the vehicle speed sensor mounted on the vehicle, and the period for calculating the attitude change amount is changed according to the vehicle speed. That is, as shown in FIG. 17, a vehicle speed acquisition unit 36 that acquires vehicle speed data output from the vehicle speed sensor is provided, and the vehicle speed data acquired by the vehicle speed acquisition unit 36 is output to the attitude angle calculation unit 24 to change the attitude change. You may make it change the period which calculates quantity. Even in such a configuration, it is possible to achieve the same effect as that of the third embodiment described above.

以上、本発明の自己位置算出装置、及び自己位置算出方法を図示の実施形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置き換えることができる。   The self-position calculation device and self-position calculation method of the present invention have been described based on the illustrated embodiment. However, the present invention is not limited to this, and the configuration of each unit is an arbitrary function having the same function. It can be replaced with that of the configuration.

10 車両
11 投光器
12 カメラ(撮像部)
13 ECU
21 パターン光抽出部
22 姿勢角算出部
23 特徴点検出部
24 姿勢変化量算出部
26 自己位置算出部
27 パターン光制御部
32a,32b パターン光
36 車速取得部
37 特徴点移動速度算出部
100,100a,100b 自己位置算出装置
10 vehicle 11 projector 12 camera (imaging part)
13 ECU
DESCRIPTION OF SYMBOLS 21 Pattern light extraction part 22 Posture angle calculation part 23 Feature point detection part 24 Posture change amount calculation part 26 Self-position calculation part 27 Pattern light control part 32a, 32b Pattern light 36 Vehicle speed acquisition part 37 Feature point movement speed calculation part 100,100a , 100b Self-position calculation device

Claims (8)

車両周囲の路面にパターン光を投光する投光器と、
前記パターン光の輝度が周期的に閾値輝度以下に変化するように制御するパターン光制御部と、
前記車両に搭載され、前記パターン光が投光された領域を含む車両周囲の路面を撮像して画像を取得する撮像部と、
前記撮像部で取得された画像からパターン光を抽出するパターン光抽出部と、
前記パターン光抽出部にて抽出されたパターン光の位置から、前記路面に対する車両の姿勢角を算出する姿勢角算出部と、
前記撮像部により取得された画像から路面上の複数の特徴点を検出し、各特徴点の時間変化に基づいて、前記車両の姿勢変化量を算出する姿勢変化量算出部と、
前記車両の初期位置及び姿勢角に、前記姿勢変化量を加算してゆくことで、前記車両の現在位置及び姿勢角を算出する自己位置算出部と、
を備え、
前記姿勢変化量算出部は、前記パターン光の輝度が閾値輝度以下のときに、前記特徴点を検出すること
を特徴とする自己位置算出装置。
A projector that projects pattern light onto the road surface around the vehicle;
A pattern light control unit that controls the brightness of the pattern light to periodically change to a threshold brightness or less ;
An imaging unit that is mounted on the vehicle and captures an image of a road surface around the vehicle including an area where the pattern light is projected; and
A pattern light extraction unit that extracts pattern light from the image acquired by the imaging unit;
An attitude angle calculation unit that calculates an attitude angle of the vehicle with respect to the road surface from the position of the pattern light extracted by the pattern light extraction unit;
A posture change amount calculating unit that detects a plurality of feature points on the road surface from the image acquired by the imaging unit, and calculates a posture change amount of the vehicle based on a temporal change of each feature point;
A self-position calculator that calculates the current position and posture angle of the vehicle by adding the amount of posture change to the initial position and posture angle of the vehicle;
With
The posture change amount calculation unit detects the feature point when the luminance of the pattern light is equal to or lower than a threshold luminance.
前記パターン光制御部は、前記パターン光を所定の変調周波数で輝度変調し、前記パターン光抽出部は、前記撮像部で撮像された画像を前記所定の変調周波数で同期検波して、前記パターン光を抽出することを特徴とする請求項1に記載の自己位置算出装置。   The pattern light control unit modulates the brightness of the pattern light at a predetermined modulation frequency, and the pattern light extraction unit synchronously detects an image captured by the imaging unit at the predetermined modulation frequency, The self-position calculating apparatus according to claim 1, wherein: 前記姿勢角算出部は、撮像部で撮像される2周期以上の画像を同期検波して得られるパターン光に基づいて、前記路面に対する車両の姿勢角を算出することを特徴とする請求項2に記載の自己位置算出装置。   The attitude angle calculation unit calculates an attitude angle of the vehicle with respect to the road surface based on pattern light obtained by synchronous detection of images of two or more periods captured by the imaging unit. The self-position calculation device described. 前記パターン光制御部は、前記パターン光を所定の切替周波数でオン、オフ制御し、前記パターン光抽出部は、前記パターン光のオン時に撮像された画像と、前記パターン光がオフ時に撮像された画像の差分を演算して前記パターン光を抽出することを特徴とする請求項1に記載の自己位置算出装置。   The pattern light control unit controls on / off of the pattern light at a predetermined switching frequency, and the pattern light extraction unit captures an image captured when the pattern light is on and an image captured when the pattern light is off. The self-position calculating apparatus according to claim 1, wherein the pattern light is extracted by calculating a difference between images. 前記姿勢変化量算出部は、前記複数の特徴点の移動速度を求め、該移動速度が高いほど、姿勢変化量の算出周期を短く設定することを特徴とする請求項2〜4のいずれか1項に記載の自己位置算出装置。   5. The posture change amount calculation unit obtains a moving speed of the plurality of feature points, and sets the posture change amount calculation cycle to be shorter as the moving speed is higher. The self-position calculation device according to item. 車両に搭載される車速センサにて検出される車速データを取得する車速取得部を更に備え、前記姿勢変化量算出部は、車両の速度が高いほど、姿勢変化量の算出周期を短く設定することを特徴とする請求項2〜4のいずれか1項に記載の自己位置算出装置。   The vehicle further includes a vehicle speed acquisition unit that acquires vehicle speed data detected by a vehicle speed sensor mounted on the vehicle, and the posture change amount calculation unit sets the posture change amount calculation cycle to be shorter as the vehicle speed is higher. The self-position calculating device according to any one of claims 2 to 4. 前記路面上の各特徴点を検出する領域は、前記パターン光を投光する領域と全部または一部が重なっていることを特徴とする請求項1〜6のいずれか1項に記載の自己位置算出装置。   The self-position according to any one of claims 1 to 6, wherein a region for detecting each feature point on the road surface overlaps with a region to which the pattern light is projected in whole or in part. Calculation device. 車両周囲の路面にパターン光を投光する投光手順と、
前記パターン光の輝度が周期的に閾値輝度以下に変化するように制御するパターン光制御手順と、
前記車両に搭載され、前記パターン光が投光された領域を含む車両周囲の路面を撮像して画像を取得する撮像手順と、
前記撮像手順で取得された画像からパターン光を抽出するパターン光抽出手順と、
前記パターン光抽出手順にて抽出されたパターン光の位置から、前記路面に対する車両の姿勢角を算出する姿勢角算出手順と、 前記撮像手順により取得された画像から路面上の複数の特徴点を検出し、各特徴点の時間変化に基づいて、前記車両の姿勢変化量を算出する姿勢変化量算出手順と、
前記車両の初期位置及び姿勢角に、前記姿勢変化量を加算してゆくことで、前記車両の現在位置及び姿勢角を算出する自己位置算出手順と、
を備え、
前記パターン光の輝度が閾値輝度以下のときに、前記特徴点を検出すること
を特徴とする自己位置算出方法。
Projection procedure of projecting pattern light onto the road surface around the vehicle,
A pattern light control procedure for controlling the brightness of the pattern light to periodically change below a threshold brightness ;
An imaging procedure for acquiring an image by imaging a road surface around the vehicle including an area mounted on the vehicle and projected with the pattern light;
A pattern light extraction procedure for extracting pattern light from the image acquired in the imaging procedure;
An attitude angle calculation procedure for calculating an attitude angle of the vehicle with respect to the road surface from the position of the pattern light extracted in the pattern light extraction procedure, and detecting a plurality of feature points on the road surface from the image acquired by the imaging procedure And a posture change amount calculating procedure for calculating a posture change amount of the vehicle based on a time change of each feature point;
A self-position calculation procedure for calculating the current position and attitude angle of the vehicle by adding the attitude change amount to the initial position and attitude angle of the vehicle;
With
The self-position calculation method, wherein the feature point is detected when the brightness of the pattern light is equal to or lower than a threshold brightness.
JP2014061306A 2014-03-25 2014-03-25 Self-position calculation device and self-position calculation method Active JP6299319B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014061306A JP6299319B2 (en) 2014-03-25 2014-03-25 Self-position calculation device and self-position calculation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014061306A JP6299319B2 (en) 2014-03-25 2014-03-25 Self-position calculation device and self-position calculation method

Publications (2)

Publication Number Publication Date
JP2015184956A JP2015184956A (en) 2015-10-22
JP6299319B2 true JP6299319B2 (en) 2018-03-28

Family

ID=54351399

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014061306A Active JP6299319B2 (en) 2014-03-25 2014-03-25 Self-position calculation device and self-position calculation method

Country Status (1)

Country Link
JP (1) JP6299319B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6798894B2 (en) * 2017-01-13 2020-12-09 株式会社デンソーテン Position estimation device, position estimation system, and position estimation method
CN116252581B (en) * 2023-03-15 2024-01-16 吉林大学 System and method for estimating vertical and pitching motion information of vehicle body under straight running working condition
CN116442707B (en) * 2023-03-15 2024-05-10 吉林大学 System and method for estimating vertical and pitching motion information of vehicle body based on binocular vision

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004198212A (en) * 2002-12-18 2004-07-15 Aisin Seiki Co Ltd Apparatus for monitoring vicinity of mobile object
JP4780614B2 (en) * 2006-04-10 2011-09-28 アルパイン株式会社 Body behavior measuring device
JP5251419B2 (en) * 2008-10-22 2013-07-31 日産自動車株式会社 Distance measuring device and distance measuring method
CH704673A2 (en) * 2011-03-22 2012-09-28 Montres Breguet Sa Cup-shaped removable acoustic radiation membrane for musical/striking watch, has holding member engaging with inner stop member of bottom of case to limit bending of membrane following over/under pressure based on environmental conditions
JP2013147114A (en) * 2012-01-18 2013-08-01 Toyota Motor Corp Surrounding environment acquisition device and suspension control device
JP2013196353A (en) * 2012-03-19 2013-09-30 Sharp Corp Peripheral information generating apparatus, conveyance, peripheral information generating method, peripheral information generating program and computer-readable storage medium
WO2015125297A1 (en) * 2014-02-24 2015-08-27 日産自動車株式会社 Local location computation device and local location computation method
CN105981086B (en) * 2014-02-24 2017-07-25 日产自动车株式会社 Self-position computing device and self-position computational methods
RU2621826C1 (en) * 2014-02-24 2017-06-07 Ниссан Мотор Ко., Лтд. Device for calculation of own position and method of calculation of own status

Also Published As

Publication number Publication date
JP2015184956A (en) 2015-10-22

Similar Documents

Publication Publication Date Title
JP6269838B2 (en) Self-position calculation device and self-position calculation method
JP6237876B2 (en) Self-position calculation device and self-position calculation method
JP6187671B2 (en) Self-position calculation device and self-position calculation method
JP2020162142A (en) Stereo support with rolling shutter
JP6237874B2 (en) Self-position calculation device and self-position calculation method
JP6176387B2 (en) Self-position calculation device and self-position calculation method
JP6237875B2 (en) Self-position calculation device and self-position calculation method
JP6187672B2 (en) Self-position calculation device and self-position calculation method
JP6299319B2 (en) Self-position calculation device and self-position calculation method
JP6369897B2 (en) Self-position calculation device and self-position calculation method
JP6547362B2 (en) Self-position calculation device and self-position calculation method
JP6398218B2 (en) Self-position calculation device and self-position calculation method
JP6398217B2 (en) Self-position calculation device and self-position calculation method
JP6492974B2 (en) Self-position calculation device and self-position calculation method
JP6459745B2 (en) Self-position calculation device and self-position calculation method
JP6369898B2 (en) Self-position calculation device and self-position calculation method
JP6398219B2 (en) Self-position calculation device and self-position calculation method
JP2016183889A (en) Self-position calculation device and self-position calculation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171121

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180212

R151 Written notification of patent or utility model registration

Ref document number: 6299319

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151