JP6369897B2 - Self-position calculation device and self-position calculation method - Google Patents

Self-position calculation device and self-position calculation method Download PDF

Info

Publication number
JP6369897B2
JP6369897B2 JP2014161646A JP2014161646A JP6369897B2 JP 6369897 B2 JP6369897 B2 JP 6369897B2 JP 2014161646 A JP2014161646 A JP 2014161646A JP 2014161646 A JP2014161646 A JP 2014161646A JP 6369897 B2 JP6369897 B2 JP 6369897B2
Authority
JP
Japan
Prior art keywords
vehicle
pattern light
road surface
posture
posture angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014161646A
Other languages
Japanese (ja)
Other versions
JP2016038287A (en
Inventor
山口 一郎
一郎 山口
西内 秀和
秀和 西内
伊藤 康一
康一 伊藤
酒井 修二
修二 酒井
孝文 青木
孝文 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tohoku University NUC
Nissan Motor Co Ltd
Original Assignee
Tohoku University NUC
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tohoku University NUC, Nissan Motor Co Ltd filed Critical Tohoku University NUC
Priority to JP2014161646A priority Critical patent/JP6369897B2/en
Publication of JP2016038287A publication Critical patent/JP2016038287A/en
Application granted granted Critical
Publication of JP6369897B2 publication Critical patent/JP6369897B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、自己位置算出装置及び自己位置算出方法に係り、特に、移動量を推定する精度を向上させる技術に関する。   The present invention relates to a self-position calculation device and a self-position calculation method, and more particularly to a technique for improving the accuracy of estimating a movement amount.

従来、車両に搭載されたカメラにより撮像された車両近傍の画像を取得し、画像の変化に基づいて車両の移動量を求める技術が知られている(特許文献1参照)。特許文献1では、車両の低速かつ微妙な移動においても精度よく移動量を求めるために、画像の中から特徴点を検出し、画像上の特徴点の位置を求め、特徴点の移動方向及び移動距離(移動量)から車両の移動量を求めている。   2. Description of the Related Art Conventionally, a technique is known in which an image in the vicinity of a vehicle captured by a camera mounted on the vehicle is acquired and the amount of movement of the vehicle is obtained based on a change in the image (see Patent Document 1). In Patent Document 1, in order to obtain the amount of movement with high precision even when the vehicle is moving at low speed and delicately, the feature point is detected from the image, the position of the feature point on the image is obtained, the moving direction and the movement of the feature point The movement amount of the vehicle is obtained from the distance (movement amount).

また、格子パターン(パターン光)を投光するレーザ投光器を用いて三次元計測を行う技術が知られている(特許文献2参照)。特許文献2では、パターン光の投光領域をカメラで撮像し、撮像した画像からパターン光を抽出して、パターン光の位置から路面に対する車両の距離や姿勢角を求めている。   In addition, a technique for performing three-dimensional measurement using a laser projector that projects a lattice pattern (pattern light) is known (see Patent Document 2). In Patent Document 2, a light projection area of pattern light is imaged by a camera, pattern light is extracted from the captured image, and the distance and posture angle of the vehicle with respect to the road surface are obtained from the position of the pattern light.

この2つの技術を用いれば、路面に対する距離と姿勢角をパターン光から算出し、その路面の移動量を計測することで車両の移動量を高精度に算出することができる。   If these two techniques are used, the distance and posture angle with respect to the road surface can be calculated from the pattern light, and the movement amount of the vehicle can be calculated with high accuracy by measuring the movement amount of the road surface.

特開2008−175717号公報JP 2008-175717 A 特開2007−278951号公報JP 2007-278951 A

しかしながら、特許文献2に記載されたパターン光は、路面の照度が高くなる晴天下の日中では、太陽光の影響によって、撮像した画像から安定して抽出することが難しい。そのため、車両の路面に対する距離と姿勢角を求めにくいという問題点があった。   However, it is difficult to stably extract the pattern light described in Patent Document 2 from a captured image due to the influence of sunlight in the daytime under fine weather when the road surface illuminance is high. Therefore, there has been a problem that it is difficult to obtain the distance and the attitude angle with respect to the road surface of the vehicle.

本発明は、上記課題に鑑みて成されたものであり、その目的は、路面の照度が高い場合でも、車両の移動量を安定的、且つ高精度に推定することのできる自己位置算出装置及び自己位置算出方法を提供することにある。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a self-position calculating device capable of stably and highly accurately estimating the amount of movement of a vehicle even when the illuminance on the road surface is high. It is to provide a self-position calculation method.

上記目的を達成するために、本発明の一態様に係る自己位置算出装置及びその方法は、車両周囲の路面にパターン光を投光し、パターン光の輝度が周期的に変化するように制御して、パターン光が投光された領域を含む車両周囲の路面を撮像して画像を取得する。そして、取得した画像から周期的に変化するパターン光を抽出し、抽出したパターン光の位置から路面に対する車両の姿勢角を算出する。また、取得した画像から路面上の複数の特徴点を検出し、各特徴点の時間変化に基づいて車両の姿勢変化量を算出する。その結果、自己位置算出装置及びその方法は、車両の初期位置及び姿勢角に姿勢変化量を加算してゆくことで、車両の現在位置及び姿勢角を算出する。ここで、自己位置算出装置及びその方法は、車両の車速を検出し、車速が所定の閾値以下の場合、その時の車両の現在位置及び姿勢角を、車両の初期位置及び姿勢角に設定して姿勢変化量の加算を開始する。   In order to achieve the above object, a self-position calculation apparatus and method according to one aspect of the present invention project pattern light onto a road surface around a vehicle and control the pattern light to change periodically. Then, the road surface around the vehicle including the area where the pattern light is projected is captured to acquire an image. And the pattern light which changes periodically from the acquired image is extracted, and the attitude angle of the vehicle with respect to the road surface is calculated from the position of the extracted pattern light. Further, a plurality of feature points on the road surface are detected from the acquired image, and the amount of change in the posture of the vehicle is calculated based on the time change of each feature point. As a result, the self-position calculation device and method calculate the current position and posture angle of the vehicle by adding the amount of posture change to the initial position and posture angle of the vehicle. Here, the self-position calculating device and method detect the vehicle speed of the vehicle, and if the vehicle speed is equal to or less than a predetermined threshold, the current position and posture angle of the vehicle at that time are set to the initial position and posture angle of the vehicle. Start adding posture change.

本発明によれば、路面の照度が高い場合でも、車両の移動量を安定的、且つ高精度に算出することができる。   According to the present invention, even when the illuminance on the road surface is high, the amount of movement of the vehicle can be calculated stably and with high accuracy.

本発明の一実施形態に係る自己位置算出装置の構成を示すブロック図である。It is a block diagram which shows the structure of the self-position calculation apparatus which concerns on one Embodiment of this invention. 車両に搭載された投光器によって照射される投光パターン、及びカメラによる撮像範囲を示す説明図である。It is explanatory drawing which shows the light projection pattern irradiated with the light projector mounted in the vehicle, and the imaging range by a camera. (a)は、投光器とカメラの間の基線長Lbと、各スポット光の画像上の座標(Uj,Vj)とから、各スポット光が照射された路面上の位置を算出する様子を示す図であり、(b)は、パターン光が照射された領域とは異なる他の領域から検出された特徴点の時間変化から、カメラの移動方向を求める様子を示す説明図である。(A) is a figure which shows a mode that the position on the road surface irradiated with each spot light is calculated from the base line length Lb between a projector and a camera, and the coordinate (Uj, Vj) on the image of each spot light. (B) is an explanatory view showing a state in which the moving direction of the camera is obtained from the temporal change of the feature points detected from another area different from the area irradiated with the pattern light. (a)は、カメラにより取得した画像に対して二値化処理を施したパターン光の画像を示す図、(b)はその拡大図、(c)はパターン光抽出部により抽出した各スポット光の重心の位置を示す図である。(A) is the figure which shows the image of the pattern light which binarized the image acquired with the camera, (b) is the enlarged view, (c) is each spot light extracted by the pattern light extraction part It is a figure which shows the position of the gravity center. 距離及び姿勢角の変化量を算出する方法を説明するための模式図である。It is a schematic diagram for demonstrating the method of calculating the variation | change_quantity of a distance and a posture angle. (a)は、時刻tに取得した画像の一例を示し、(b)は、時刻tから時間Δtだけ経過した時刻(t+Δt)に取得した画像の一例を示す。(A) shows an example of an image acquired at time t, and (b) shows an example of an image acquired at time (t + Δt) when time Δt has elapsed from time t. 本発明の一実施形態に係る自己位置算出装置による自己位置算出処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the self-position calculation process by the self-position calculation apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る自己位置算出装置による輝度変化を示すタイミングチャートである。It is a timing chart which shows the luminance change by the self position calculation device concerning one embodiment of the present invention.

以下、本発明の一実施形態について図面を参照して説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

[自己位置算出装置の構成]
図1は、本発明の一実施形態に係る自己位置算出装置100の構成を示すブロック図である。図1に示すように、自己位置算出装置100は、投光器11と、カメラ12(撮像部)と、エンジンコントロールユニット(ECU)13と、車速センサ14とを備える。投光器11は、車両に搭載され、車両周囲の路面に周期的に輝度が変化するパターン光を投光する。パターン光の詳細については後述する。カメラ12は、車両に搭載され、パターン光が投光された領域を含む車両周囲の路面を撮像して画像を取得する。ECU13は、投光器11の作動を制御し、且つカメラ12により取得された画像から車両の移動量を推定する一連の情報処理サイクルを実行する制御部の一例である。
[Configuration of self-position calculation device]
FIG. 1 is a block diagram showing a configuration of a self-position calculation apparatus 100 according to an embodiment of the present invention. As shown in FIG. 1, the self-position calculating device 100 includes a projector 11, a camera 12 (imaging unit), an engine control unit (ECU) 13, and a vehicle speed sensor 14. The projector 11 is mounted on a vehicle and projects pattern light whose luminance periodically changes on a road surface around the vehicle. Details of the pattern light will be described later. The camera 12 is mounted on a vehicle and captures an image of a road surface around the vehicle including an area where pattern light is projected. The ECU 13 is an example of a control unit that controls the operation of the projector 11 and executes a series of information processing cycles for estimating the amount of movement of the vehicle from the image acquired by the camera 12.

投光器11は、図2に示すように、カメラ12の撮像範囲内の路面31に向けて、正方形や長方形の格子像を含む所定の形状を有するパターン光32bを投光する。この際、パターン光制御部27により、パターン光32bの輝度が、周期的に変化するように制御される。   As shown in FIG. 2, the projector 11 projects pattern light 32 b having a predetermined shape including a square or rectangular lattice image toward the road surface 31 within the imaging range of the camera 12. At this time, the luminance of the pattern light 32b is controlled by the pattern light control unit 27 so as to periodically change.

カメラ12は、固体撮像素子、例えばCCD及びCMOSを用いたデジタルカメラであって、画像処理が可能なデジタル画像を取得する。カメラ12の撮像対象は車両周囲の路面であって、車両周囲の路面には、車両の前部、後部、側部、車両底部の路面が含まれる。例えば、図2に示すように、カメラ12は、車両10の前部、具体的にはフロントバンパ上に搭載することができる。   The camera 12 is a digital camera using a solid-state imaging device, for example, a CCD and a CMOS, and acquires a digital image that can be processed. The imaging target of the camera 12 is a road surface around the vehicle, and the road surface around the vehicle includes the road surface of the front, rear, side, and bottom of the vehicle. For example, as shown in FIG. 2, the camera 12 can be mounted on the front portion of the vehicle 10, specifically on the front bumper.

車両10の前方の路面31上の特徴点(「テクスチャ」ともいう)及び投光器11により投光されたパターン光32bを撮像できるように、カメラ12が設置される高さ及び向きが調整され、且つ、カメラ12が備えるレンズの焦点及び絞りが自動調整される。ここで、「特徴点」とは、アスファルト上に存在する凹凸部分である。   The height and direction at which the camera 12 is installed are adjusted so that the feature point (also referred to as “texture”) on the road surface 31 in front of the vehicle 10 and the pattern light 32b projected by the projector 11 can be imaged. The focus and aperture of the lens provided in the camera 12 are automatically adjusted. Here, the “feature point” is an uneven portion present on the asphalt.

カメラ12は、所定の時間間隔をおいて繰り返し撮像を行い、一連の画像(フレーム)群を取得する。例えば、パターン光32bの輝度を変化させる周期を50[Hz]とした場合、1秒間に600回の撮像を行う。これにより、パターン光32bの輝度が最も高い時点、及び最も低い時点の画像を周期的に撮像することができる。カメラ12により取得された画像データは、撮像周期毎にECU13へ転送され、ECU13が備えるメモリ(図示省略)に記憶される。   The camera 12 repeatedly captures images at a predetermined time interval and acquires a series of images (frames). For example, when the cycle for changing the luminance of the pattern light 32b is 50 [Hz], imaging is performed 600 times per second. As a result, it is possible to periodically capture images at the time when the luminance of the pattern light 32b is the highest and the time at which the pattern light 32b is the lowest. The image data acquired by the camera 12 is transferred to the ECU 13 for each imaging cycle and stored in a memory (not shown) provided in the ECU 13.

カメラ12は、路面31に照射されたパターン光を撮像する。投光器11は、例えば、レーザポインター及び回折格子を備える。レーザポインターから射出されたレーザ光を回折格子で回折することにより、投光器11は、図2〜図4に示すように、格子像、或いは行列状に配列された複数のスポット光からなるパターン光(32b、32a)を生成する。図3及び図4に示す例では、5×7のスポット光からなるパターン光32aを生成している。   The camera 12 images the pattern light irradiated on the road surface 31. The projector 11 includes, for example, a laser pointer and a diffraction grating. As shown in FIGS. 2 to 4, the projector 11 diffracts the laser light emitted from the laser pointer with a diffraction grating, and as shown in FIG. 2 to FIG. 4, pattern light (pattern light consisting of a plurality of spot lights arranged in a matrix form) 32b, 32a). In the example shown in FIGS. 3 and 4, the pattern light 32a composed of 5 × 7 spot light is generated.

図1に戻り、ECU13は、CPU、メモリ、及び入出力部を備えるマイクロコントローラからなり、予めインストールされたコンピュータプログラムを実行することにより、自己位置算出装置100が備える複数の情報処理部を構成する。ECU13は、カメラ12により取得された画像から車両の移動量を推定する一連の情報処理サイクルを、画像(フレーム)毎に繰り返し実行する。ECU13は、車両10に関連する他の制御に用いるECUと兼用しても良い。   Returning to FIG. 1, the ECU 13 includes a microcontroller including a CPU, a memory, and an input / output unit, and configures a plurality of information processing units included in the self-position calculating device 100 by executing a computer program installed in advance. . The ECU 13 repeatedly executes a series of information processing cycles for estimating the amount of movement of the vehicle from the image acquired by the camera 12 for each image (frame). The ECU 13 may also be used as an ECU used for other controls related to the vehicle 10.

車速センサ14は、車輪、或いはディファレンシャルギア等に装着されたロータリーエンコーダ等の出力から車両10の現在の車速を算出する。   The vehicle speed sensor 14 calculates the current vehicle speed of the vehicle 10 from the output of a rotary encoder or the like attached to a wheel or a differential gear.

複数の情報処理部には、パターン光抽出部21と、姿勢角算出部22と、特徴点検出部23と、姿勢変化量算出部24と、自己位置算出部26と、パターン光制御部27と、車速検出部28とが含まれる。姿勢変化量算出部24には、特徴点検出部23が含まれる。   The plurality of information processing units include a pattern light extraction unit 21, an attitude angle calculation unit 22, a feature point detection unit 23, an attitude change amount calculation unit 24, a self position calculation unit 26, and a pattern light control unit 27. The vehicle speed detection unit 28 is included. The posture change amount calculation unit 24 includes a feature point detection unit 23.

パターン光制御部27は、投光器11によるパターン光32aの投光を制御する。例えば、車両10のイグニションスイッチがオン状態となり、自己位置算出装置100が起動すると同時に、パターン光制御部27は、周期的に輝度が変化するパターン光32aの投光を開始する。その後、パターン光制御部27は、自己位置算出装置が停止するまで、パターン光32aを連続して投光する。或いは、必要に応じてパターン光32aを投光してもよい。本実施形態では、輝度変化の一例として、投光パターンの輝度が所定周波数の正弦波状に変化するように、投光器11に供給する電力を制御する。例えば、後述の図8に示すように正弦波状に輝度が変化するように制御する。   The pattern light control unit 27 controls the projection of the pattern light 32 a by the projector 11. For example, when the ignition switch of the vehicle 10 is turned on and the self-position calculating device 100 is activated, the pattern light control unit 27 starts projecting the pattern light 32a whose luminance changes periodically. Thereafter, the pattern light control unit 27 continuously projects the pattern light 32a until the self-position calculating device stops. Alternatively, the pattern light 32a may be projected as necessary. In the present embodiment, as an example of the luminance change, the power supplied to the projector 11 is controlled so that the luminance of the light projection pattern changes in a sine wave shape with a predetermined frequency. For example, as shown in FIG. 8 to be described later, the luminance is controlled to change in a sine wave shape.

パターン光抽出部21は、カメラ12により取得された画像をメモリから読み込み、更に、前述した所定周波数にて同期検波処理を実施することにより、画像に含まれるパターン光32aを抽出する。同期検波処理については後述する。そして、取得したパターン光32aから、該パターン光32aの位置を抽出する。図3(a)に示すように、例えば、投光器11が、行列状に配列された複数のスポット光からなるパターン光32aを路面31に向けて投光し、路面31で反射したパターン光32aを同期検波処理、或いは差分演算処理により検出する。   The pattern light extraction unit 21 reads the image acquired by the camera 12 from the memory, and further performs the synchronous detection process at the above-described predetermined frequency, thereby extracting the pattern light 32a included in the image. The synchronous detection process will be described later. Then, the position of the pattern light 32a is extracted from the acquired pattern light 32a. As shown in FIG. 3A, for example, the projector 11 projects pattern light 32a composed of a plurality of spot lights arranged in a matrix toward the road surface 31, and the pattern light 32a reflected by the road surface 31 is emitted. Detection is performed by synchronous detection processing or difference calculation processing.

更に、抽出したパターン光の画像に対して二値化処理を施すことにより、図4(a)及びその拡大図である図4(b)に示すように、スポット光Spの画像のみを抽出する。パターン光抽出部21は、図4(c)に示すように、各スポット光Spの重心の位置He、即ち、スポット光Spの画像上の座標(Uj、Vj)を算出することにより、パターン光32aの位置を抽出する。座標は、カメラ12の撮像素子の画素を単位とし、5×7のスポット光Spの場合、“j”は1以上35以下の整数である。スポット光Spの画像上の座標(Uj、Vj)は、パターン光32aの位置を示すデータとしてメモリに記憶される。   Further, by performing binarization processing on the extracted pattern light image, only the image of the spot light Sp is extracted as shown in FIG. 4A and an enlarged view of FIG. 4B. . As shown in FIG. 4C, the pattern light extraction unit 21 calculates the position He of the center of gravity of each spot light Sp, that is, the coordinates (Uj, Vj) on the image of the spot light Sp. The position 32a is extracted. The coordinates are in units of pixels of the image sensor of the camera 12, and in the case of 5 × 7 spot light Sp, “j” is an integer from 1 to 35. The coordinates (Uj, Vj) on the image of the spot light Sp are stored in the memory as data indicating the position of the pattern light 32a.

次に、同期検波処理について説明する。カメラ12で撮像した画像に含まれる測定信号をsin(ω0+α)とすると、この測定信号には投光パターン以外に様々な周波数成分の太陽光や人工光が含まれている。そこで、周波数が変調周波数ωrとなる参照信号sin(ωr+β)を測定信号sin(ω0+α)に乗じると、その結果は、cos(ω0−ωr+α−β)/2−cos(ω0+ωr+α+β)/2となる。   Next, the synchronous detection process will be described. If the measurement signal included in the image captured by the camera 12 is sin (ω0 + α), the measurement signal includes sunlight and artificial light having various frequency components in addition to the projection pattern. Therefore, when the reference signal sin (ωr + β) whose frequency is the modulation frequency ωr is multiplied by the measurement signal sin (ω0 + α), the result is cos (ω0−ωr + α−β) / 2-cos (ω0 + ωr + α + β) / 2.

この測定信号をローパスフィルタに通すと、ω0≠ωrの信号、即ち、周波数がωrではない投光パターン以外の太陽光や人工光は除去される。その一方で、ω0=ωrの信号、即ち、周波数がωrの投光パターンは、cos(α−β)/2となって抽出することができる。このように、同期検波処理を用いることにより、様々な周波数成分を含む測定信号の中から、投光パターンのみを抽出した画像を得ることができる。   When this measurement signal is passed through a low-pass filter, a signal of ω0 ≠ ωr, that is, sunlight and artificial light other than the projection pattern whose frequency is not ωr is removed. On the other hand, a signal of ω0 = ωr, that is, a light projection pattern having a frequency of ωr can be extracted as cos (α−β) / 2. As described above, by using the synchronous detection processing, it is possible to obtain an image in which only the projection pattern is extracted from the measurement signal including various frequency components.

即ち、本実施形態では、パターン光制御部27は、予め設定した所定の変調周波数ωrにてパターン光32aを輝度変調する。従って、路面には周波数ωrで輝度変調された投光パターンが投光される。そして、パターン光抽出部21は、カメラ12で撮像される画像(測定信号)に変調周波数ωrを乗じることにより、投光パターンのみを抽出することができる。   That is, in the present embodiment, the pattern light control unit 27 modulates the luminance of the pattern light 32a with a predetermined modulation frequency ωr set in advance. Accordingly, a light projection pattern whose luminance is modulated at the frequency ωr is projected onto the road surface. And the pattern light extraction part 21 can extract only a light projection pattern by multiplying the image (measurement signal) imaged with the camera 12 by the modulation frequency (omega) r.

図1に示す姿勢角算出部22は、パターン光32aの位置を示すデータをメモリから読み込み、カメラ12により取得された画像におけるパターン光32aの位置から、路面31に対する車両10の距離及び姿勢角を算出する。例えば、図3(a)に示すように、投光器11とカメラ12の間の基線長Lbと、各スポット光の画像上の座標(Uj、Vj)とから、三角測量の原理を用いて、各スポット光が照射された路面31上の位置を、カメラ12に対する相対位置として算出する。そして、姿勢角算出部22は、カメラ12に対する各スポット光の相対位置から、パターン光32aが投光された路面31の平面式、即ち、路面31に対するカメラ12の距離及び姿勢角(法線ベクトル)を算出する。なお、車両10に対するカメラ12の搭載位置及び撮像方向は既知であるので、実施形態においては、路面31に対する車両10の距離及び姿勢角の一例として、路面31に対するカメラ12の距離及び姿勢角を算出する。以後、路面31に対するカメラ12の距離及び姿勢角を、「距離及び姿勢角」と略す。姿勢角算出部22により算出された距離及び姿勢角は、メモリに記憶される。   The posture angle calculation unit 22 shown in FIG. 1 reads data indicating the position of the pattern light 32a from the memory, and calculates the distance and posture angle of the vehicle 10 with respect to the road surface 31 from the position of the pattern light 32a in the image acquired by the camera 12. calculate. For example, as shown in FIG. 3A, from the baseline length Lb between the projector 11 and the camera 12 and the coordinates (Uj, Vj) on the image of each spot light, The position on the road surface 31 irradiated with the spot light is calculated as a relative position with respect to the camera 12. Then, the attitude angle calculation unit 22 calculates the plane type of the road surface 31 on which the pattern light 32a is projected, that is, the distance and the attitude angle of the camera 12 with respect to the road surface 31 (normal vector) from the relative position of each spot light with respect to the camera 12. ) Is calculated. In addition, since the mounting position and imaging direction of the camera 12 with respect to the vehicle 10 are known, in the embodiment, the distance and posture angle of the camera 12 with respect to the road surface 31 are calculated as an example of the distance and posture angle of the vehicle 10 with respect to the road surface 31. To do. Hereinafter, the distance and posture angle of the camera 12 with respect to the road surface 31 are abbreviated as “distance and posture angle”. The distance and the posture angle calculated by the posture angle calculation unit 22 are stored in the memory.

具体的には、カメラ12及び投光器11は車両10にそれぞれ固定されているので、パターン光32aの照射方向と、カメラ12と投光器11との距離(図3の基線長Lb)は既知である。そこで、姿勢角算出部22は、三角測量の原理を用いて、各スポット光の画像上の座標(Uj、Vj)から各スポット光が照射された路面31上の位置を、カメラ12に対する相対位置(Xj,Yj,Zj)として求めることができる。   Specifically, since the camera 12 and the projector 11 are respectively fixed to the vehicle 10, the irradiation direction of the pattern light 32a and the distance between the camera 12 and the projector 11 (baseline length Lb in FIG. 3) are known. Therefore, the attitude angle calculation unit 22 uses the principle of triangulation to determine the position on the road surface 31 irradiated with each spot light from the coordinates (Uj, Vj) of each spot light on the image relative to the camera 12. (Xj, Yj, Zj).

なお、カメラ12に対する各スポット光の相対位置(Xj,Yj,Zj)は同一平面上に存在しない場合が多い。なぜなら、路面31に表出するアスファルトの凹凸に応じて各スポット光の相対位置が変化するからである。そこで、最小二乗法を用いて、各スポット光との距離誤差の二乗和が最小となるような平面式を求めても良い。   The relative position (Xj, Yj, Zj) of each spot light with respect to the camera 12 often does not exist on the same plane. This is because the relative position of each spot light changes according to the asphalt unevenness exposed on the road surface 31. Therefore, a plane formula that minimizes the sum of squares of distance errors with respect to each spot light may be obtained using the least square method.

特徴点検出部23は、カメラ12により取得された画像をメモリから読み込み、メモリから読み込んだ画像から、路面31上の特徴点を検出する。詳細には、所定周波数で正弦波状に輝度が変化するパターン光の輝度が、予め設定した閾値輝度以下となった時間帯に特徴点検出フラグを「1」に設定し、この時間帯において特徴点を検出する。   The feature point detection unit 23 reads an image acquired by the camera 12 from the memory, and detects a feature point on the road surface 31 from the image read from the memory. Specifically, the feature point detection flag is set to “1” in a time zone in which the luminance of the pattern light whose luminance changes sinusoidally at a predetermined frequency is equal to or lower than a preset threshold luminance, and the feature point in this time zone Is detected.

更に、特徴点検出部23は、路面31上の特徴点を検出するために、例えば、「D.G. Lowe,“Distinctive Image Features from Scale-Invariant Keypoints,” Int. J. Comput. Vis., vol.60, no.2, pp. 91-110, Nov. 200 」、或いは、「金澤 靖, 金谷健一, “コンピュータビジョンのための画像の特徴点抽出,” 信学誌, vol.87, no.12, pp.1043-1048, Dec. 2004」に記載の手法を用いることができる。   Further, the feature point detection unit 23 detects, for example, “DG Lowe,“ Distinctive Image Features from Scale-Invariant Keypoints, ”Int. J. Comput. Vis., Vol. , no.2, pp. 91-110, Nov. 200, or “Kanazawa Satoshi, Kanaya Kenichi,“ Image Feature Extraction for Computer Vision, ”IEICE Journal, vol.87, no.12, pp.1043-1048, Dec. 2004 "can be used.

具体的には、特徴点検出部23は、例えば、ハリス(Harris)作用素又はSUSANオペレータを用いて、物体の頂点のように周囲に比べて輝度値が大きく変化する点を特徴点として検出する。或いは、特徴点検出部23は、SIFT(Scale-Invariant Feature Transform)特徴量を用いて、その周囲で輝度値がある規則性のもとで変化している点を特徴点として検出しても良い。そして、特徴点検出部23は、1つの画像から検出した特徴点の総数Nを計数し、各特徴点に識別番号(i(1≦i≦N))を付す。各特徴点の画像上の位置(Ui、Vi)は、ECU13内のメモリに記憶される。図6(a)及び図6(b)は、カメラ12により取得された画像から検出された特徴点Teの例を示す。更に、各特徴点Teの変化方向及び変化量をベクトルDteとして示している。   Specifically, the feature point detection unit 23 uses, for example, a Harris operator or a SUSAN operator to detect, as a feature point, a point whose luminance value changes greatly as compared to the surroundings, such as a vertex of an object. Alternatively, the feature point detection unit 23 may detect, as a feature point, a point where the luminance value changes under certain regularity using a SIFT (Scale-Invariant Feature Transform) feature amount. . Then, the feature point detection unit 23 counts the total number N of feature points detected from one image, and assigns an identification number (i (1 ≦ i ≦ N)) to each feature point. The position (Ui, Vi) on the image of each feature point is stored in a memory in the ECU 13. FIGS. 6A and 6B show examples of feature points Te detected from an image acquired by the camera 12. Furthermore, the change direction and change amount of each feature point Te are shown as a vector Dte.

なお、実施形態において、路面31上の特徴点は、主に大きさが1cm以上2cm以下のアスファルト混合物の粒を想定している。この特徴点を検出するために、カメラ12の解像度はVGA(約30万画素)である。また、路面31に対するカメラ12の距離は、おおよそ70cmである。更に、カメラ12の撮像方向は、水平面から約45degだけ路面31に向けて傾斜させる。また、カメラ12により取得される画像をECU13に転送するときの輝度数値は、0〜255(0:最も暗い、255:最も明るい)の範囲内である。   In the embodiment, the feature points on the road surface 31 are mainly assumed to be asphalt mixture grains having a size of 1 cm to 2 cm. In order to detect this feature point, the resolution of the camera 12 is VGA (approximately 300,000 pixels). Moreover, the distance of the camera 12 with respect to the road surface 31 is about 70 cm. Furthermore, the imaging direction of the camera 12 is inclined toward the road surface 31 by about 45 degrees from the horizontal plane. In addition, the luminance value when the image acquired by the camera 12 is transferred to the ECU 13 is in the range of 0 to 255 (0: darkest, 255: brightest).

姿勢変化量算出部24は、一定の情報処理サイクル毎に撮像される各フレームの画像のうち、前回(時刻t)フレームの画像に含まれる複数の特徴点の画像上の位置座標(Ui,Vi)をメモリから読み込む。更に、今回(時刻t+Δt)フレームの画像に含まれる複数の特徴点の画像上の位置座標(Ui,Vi)をメモリから読み込む。そして、複数の特徴点の画像上での位置変化に基づいて、車両10の姿勢変化量を求める。ここで、「車両の姿勢変化量」とは、路面に対する車両10の「距離及び姿勢角の変化量」、及び路面上での「車両の移動量」の双方を含んでいる。以下、「距離及び姿勢角の変化量」及び「車両の移動量」の算出方法について説明する。   The posture change amount calculation unit 24 includes the position coordinates (Ui, Vi) on the image of a plurality of feature points included in the image of the previous (time t) frame among the images of each frame imaged for each fixed information processing cycle. ) From memory. Furthermore, the position coordinates (Ui, Vi) on the image of a plurality of feature points included in the image of the current (time t + Δt) frame are read from the memory. And the attitude | position change amount of the vehicle 10 is calculated | required based on the position change on the image of a some feature point. Here, the “vehicle attitude change amount” includes both the “distance and attitude angle change amount” of the vehicle 10 relative to the road surface and the “vehicle movement amount” on the road surface. Hereinafter, a calculation method of “the amount of change in the distance and posture angle” and “the amount of movement of the vehicle” will be described.

距離及び姿勢角の変化量は、例えば、以下のようにして求めることができる。図6(a)は、時刻tに取得された第1フレームの画像38の一例を示す。図5及び図6(a)に示すように、画像38において、例えば3つの特徴点Te1、Te2、Te3の相対位置(xi,yi,zi)がそれぞれ算出されている場合を考える。この場合、特徴点Te1、Te2、Te3によって特定される平面G(図6(a)参照)を路面と見なすことができる。よって、姿勢変化量算出部24は、各特徴点の相対位置(xi,yi,zi)から、路面(平面G)に対するカメラ12の距離及び姿勢角(法線ベクトル)を求めることができる。更に、姿勢変化量算出部24は、既知のカメラモデルによって、各特徴点Te1、Te2、Te3の間の距離(l1,l2,l3)及び夫々の特徴点Te1、Te2、Te3を結ぶ直線が成す角度を求めることができる。図5のカメラ12は、第1フレーム(時刻t)におけるカメラの位置を示す。   The amount of change in the distance and the posture angle can be obtained as follows, for example. FIG. 6A shows an example of the first frame image 38 acquired at time t. As shown in FIGS. 5 and 6A, a case is considered in which, for example, relative positions (xi, yi, zi) of three feature points Te1, Te2, Te3 are calculated in the image 38, respectively. In this case, the plane G (see FIG. 6A) specified by the feature points Te1, Te2, Te3 can be regarded as a road surface. Therefore, the posture change amount calculation unit 24 can obtain the distance and posture angle (normal vector) of the camera 12 with respect to the road surface (plane G) from the relative position (xi, yi, zi) of each feature point. Furthermore, the posture change amount calculation unit 24 forms distances (11, 12, 13) between the feature points Te1, Te2, Te3 and straight lines connecting the feature points Te1, Te2, Te3 by a known camera model. The angle can be determined. The camera 12 in FIG. 5 shows the position of the camera in the first frame (time t).

なお、カメラ12に対する特徴点の相対位置を示す3次元座標(xi,yi,zi)として、カメラ12の撮像方向をZ軸に設定し、撮像方向を法線とし且つカメラ12を含む平面内に、互いに直交するX軸及びY軸を設定する。一方、画像38上の座標として、水平方向及び垂直方向をそれぞれV軸及びU軸に設定する。   It should be noted that as the three-dimensional coordinates (xi, yi, zi) indicating the relative position of the feature point with respect to the camera 12, the imaging direction of the camera 12 is set to the Z axis, the imaging direction is a normal line, and the plane including the camera 12 is included. , X axis and Y axis orthogonal to each other are set. On the other hand, as the coordinates on the image 38, the horizontal direction and the vertical direction are set to the V axis and the U axis, respectively.

図6(b)は、時刻tから時間Δtだけ経過した時刻(t+Δt)に取得された第2フレームの画像38’を示す。図5のカメラ12’は、第2フレームの画像38’を撮像したときのカメラ12の位置を示す。図5及び図6(b)に示すように、画像38’において、カメラ12’が特徴点Te1、Te2、Te3を撮像し、特徴点検出部23が特徴点Te1、Te2、Te3を検出する。この場合、姿勢変化量算出部24は、時刻tにおける各特徴点Te1、Te2、Te3の相対位置(xi,yi,zi)と、各特徴点の画像38’上の位置P1(Ui,Vi)と、カメラ12のカメラモデルとから、時間Δtにおけるカメラ12の移動量ΔL(図5参照)を算出できる。ひいては車両10の移動量を算出できる。更には、距離及び姿勢角の変化量も算出することができる。例えば、以下の式(1)からなる連立方程式をR、Tについて解くことにより、姿勢変化量算出部24は、カメラ12(車両)の移動量(ΔL)、及び、距離及び姿勢角の変化量を算出することができる。ここで、Rはカメラの姿勢角変化量を表す3次元回転行列であり、Tはカメラの移動方向を表す3次元並進ベクトルである。なお、下記の(1)式はカメラ12が歪みや光軸ずれのない理想的なピンホールカメラとしてモデル化したものであり、λiは定数、fは焦点距離である。カメラモデルのパラメータは、予めキャリブレーションをしておけばよい。   FIG. 6B shows a second frame image 38 ′ acquired at time (t + Δt) when time Δt has elapsed from time t. The camera 12 ′ in FIG. 5 indicates the position of the camera 12 when the second frame image 38 ′ is captured. As shown in FIGS. 5 and 6B, in the image 38 ′, the camera 12 ′ picks up the feature points Te1, Te2, Te3, and the feature point detection unit 23 detects the feature points Te1, Te2, Te3. In this case, the posture change amount calculation unit 24 calculates the relative positions (xi, yi, zi) of the feature points Te1, Te2, Te3 at time t and the position P1 (Ui, Vi) of the feature points on the image 38 ′. From the camera model of the camera 12, the movement amount ΔL (see FIG. 5) of the camera 12 at the time Δt can be calculated. As a result, the movement amount of the vehicle 10 can be calculated. Furthermore, the amount of change in distance and posture angle can also be calculated. For example, by solving the simultaneous equations consisting of the following formula (1) with respect to R and T, the posture change amount calculation unit 24 can change the movement amount (ΔL) of the camera 12 (vehicle) and the change amounts of the distance and posture angle. Can be calculated. Here, R is a three-dimensional rotation matrix that represents the amount of change in the posture angle of the camera, and T is a three-dimensional translation vector that represents the moving direction of the camera. The following equation (1) is modeled as an ideal pinhole camera in which the camera 12 has no distortion or optical axis deviation, λi is a constant, and f is a focal length. The camera model parameters may be calibrated in advance.

なお、姿勢変化量算出部24は、時刻tと時刻t+Δtで検出された特徴点の全てを用いるのではなく、特徴点同士の位置関係に基づいて最適な特徴点を選定してもよい。選定方法としては、例えば、エピポーラ幾何(エピ極線幾何,R.I. Hartley: “A linear method for reconstruction from lines and points,” Proc. 5th International Conference on Computer Vision, Cambridge, Massachusetts, pp.882-887(1995))を用いることができる。   Note that the posture change amount calculation unit 24 may select optimal feature points based on the positional relationship between feature points, instead of using all the feature points detected at time t and time t + Δt. As a selection method, for example, epipolar geometry (Epi polar geometry, RI Hartley: “A linear method for reconstruction from lines and points,” Proc. 5th International Conference on Computer Vision, Cambridge, Massachusetts, pp.882-887 (1995) )) Can be used.

このように、姿勢変化量算出部24が、時刻tのフレーム画像38で相対位置(xi,yi,zi)が算出された特徴点Te1、Te2、Te3を、時刻t+Δtにおけるフレーム画像38’からも検出した場合には、車両の姿勢変化量及び移動量を算出できる。すなわち、姿勢変化量算出部24は、路面上の複数の特徴点の相対位置(xi,yi,zi)と特徴点の画像上の位置(Ui,Vi)の時間変化から、「車両の姿勢変化量」を算出することができる。更には、車両10の移動量を算出することができる。   As described above, the posture change amount calculation unit 24 also uses the feature points Te1, Te2, and Te3 whose relative positions (xi, yi, zi) are calculated in the frame image 38 at time t from the frame image 38 ′ at time t + Δt. If detected, the attitude change amount and the movement amount of the vehicle can be calculated. That is, the posture change amount calculation unit 24 calculates “the change in vehicle posture” from the time change of the relative position (xi, yi, zi) of the plurality of feature points on the road surface and the position (Ui, Vi) of the feature points on the image. Amount "can be calculated. Furthermore, the amount of movement of the vehicle 10 can be calculated.

したがって、前回フレームと今回フレームの間で対応関係が取れる3点以上の特徴点を検出し続けることができれば、距離及び姿勢角の変化量を加算する処理(即ち、積分演算)を継続することにより、パターン光32aを用いることなく、距離及び姿勢角を更新し続けることができる。但し、最初の情報処理サイクルにおいては、パターン光32aを用いて算出された距離及び姿勢角、或いは所定の初期的な距離及び姿勢角を用いてもよい。つまり、積分演算の起点となる距離及び姿勢角は、パターン光32aを用いて算出しても、或いは、所定の初期値を用いても構わない。所定の初期的な距離及び姿勢角は、少なくとも車両10への乗員及び搭載物を考慮した距離及び姿勢角であることが望ましい。例えば、車両10のイグニションスイッチがオン状態で、且つシフトポジションがパーキングから他のポジションへ移動した時に、パターン光32aを投光し、パターン光32aから算出された距離及び姿勢角を、所定の初期的な距離及び姿勢角として用いればよい。これにより、車両10の旋回や加減速によるロール運動或いはピッチ運動が発生していない時の距離や姿勢角を求めることができる。   Therefore, if it is possible to continue detecting three or more feature points that can be correlated between the previous frame and the current frame, by continuing the process of adding the distance and the change amount of the posture angle (that is, the integral calculation). The distance and the posture angle can be continuously updated without using the pattern light 32a. However, in the first information processing cycle, a distance and posture angle calculated using the pattern light 32a or a predetermined initial distance and posture angle may be used. That is, the distance and the attitude angle that are the starting points of the integration calculation may be calculated using the pattern light 32a, or may use predetermined initial values. It is desirable that the predetermined initial distance and posture angle be a distance and posture angle in consideration of at least an occupant and a load on the vehicle 10. For example, when the ignition switch of the vehicle 10 is turned on and the shift position moves from parking to another position, the pattern light 32a is projected, and the distance and posture angle calculated from the pattern light 32a are set to a predetermined initial value. What is necessary is just to use as a general distance and a posture angle. Thereby, the distance and the posture angle when the roll motion or the pitch motion due to the turning or acceleration / deceleration of the vehicle 10 is not generated can be obtained.

なお、前後フレーム間で特徴点を対応付けるには、例えば、検出した特徴点の周辺の小領域の画像をメモリに記録しておき、輝度や色情報の類似度から判断すればよい。具体的には、ECU13は、検出した特徴点を中心とする5×5(水平×垂直)画素分の画像をメモリに記録する。姿勢変化量算出部24は、例えば、輝度情報が20画素以上で誤差1%以下に収まっていれば、前後フレーム間で対応関係が取れる特徴点であると判断する。そして、上記の処理で取得した姿勢変化量は、後段の自己位置算出部26にて車両10の自己位置を算出する際に用いられる。   In order to associate the feature points between the preceding and following frames, for example, an image of a small area around the detected feature points may be recorded in a memory and determined from the similarity of luminance and color information. Specifically, the ECU 13 records an image for 5 × 5 (horizontal × vertical) pixels centered on the detected feature point in the memory. For example, if the luminance information is 20 pixels or more and the error is within 1% or less, the posture change amount calculation unit 24 determines that the feature point is a feature point that can be correlated between the previous and next frames. Then, the posture change amount acquired by the above processing is used when the self-position calculating unit 26 in the subsequent stage calculates the self-position of the vehicle 10.

図1に示す自己位置算出部26は、姿勢変化量算出部24で算出された「距離及び姿勢角の変化量」から車両10の距離及び姿勢角を算出する。更に、姿勢変化量算出部24で算出された「車両の移動量」から車両10の自己位置を算出する。   The self-position calculator 26 shown in FIG. 1 calculates the distance and posture angle of the vehicle 10 from the “distance and change amount of posture angle” calculated by the posture change amount calculator 24. Further, the self position of the vehicle 10 is calculated from the “movement amount of the vehicle” calculated by the posture change amount calculation unit 24.

具体的な例として、姿勢角算出部22にて算出された距離及び姿勢角(パターン光を用いて算出された距離及び姿勢角)が起点として設定された場合について説明する。この場合には、この起点(距離及び姿勢角)に対して、自己位置算出部26は、姿勢変化量算出部24で算出された各フレーム毎の距離及び姿勢角の変化量を逐次加算して(積分演算して)、距離及び姿勢角を最新な数値に更新する。また、姿勢角算出部22にて距離及び姿勢角が算出された際の車両位置を起点(車両の初期位置)とし、この初期位置からの車両10の移動量を逐次加算して(積分演算して)、車両10の自己位置を算出する。例えば、地図上の位置と照合された起点(車両の初期位置)を設定することで、地図上の車両の現在位置を逐次算出することができる。   As a specific example, a case where the distance and posture angle calculated by the posture angle calculation unit 22 (the distance and posture angle calculated using the pattern light) are set as the starting points will be described. In this case, the self-position calculation unit 26 sequentially adds the distance and the change amount of the posture angle for each frame calculated by the posture change amount calculation unit 24 with respect to the starting point (distance and posture angle). Update the distance and posture angle to the latest values. Further, the vehicle position when the distance and posture angle are calculated by the posture angle calculation unit 22 is set as a starting point (initial position of the vehicle), and the amount of movement of the vehicle 10 from this initial position is sequentially added (integral calculation is performed). The self-position of the vehicle 10 is calculated. For example, the current position of the vehicle on the map can be sequentially calculated by setting the starting point (the initial position of the vehicle) that is collated with the position on the map.

従って、姿勢変化量算出部24は、時間Δtの間でのカメラ12の移動量(ΔL)を求めることにより、車両10の自己位置を算出することができる。更には、距離及び姿勢角の変化量も同時に算出することができるので、姿勢変化量算出部24は、車両10の距離及び姿勢角の変化量を考慮して、6自由度(前後、左右、上下、ヨー、ピッチ、ロール)の移動量(ΔL)を精度よく算出することができる。即ち、車両10の旋回や加減速によるロール運動或いはピッチ運動によって距離や姿勢角が変化しても、移動量(ΔL)の推定誤差を抑制することができる。   Therefore, the posture change amount calculation unit 24 can calculate the self-position of the vehicle 10 by obtaining the movement amount (ΔL) of the camera 12 during the time Δt. Furthermore, since the change amount of the distance and the posture angle can be calculated at the same time, the posture change amount calculation unit 24 considers the change amount of the distance and the posture angle of the vehicle 10 and has six degrees of freedom (front and rear, left and right, The amount of movement (ΔL) of up and down, yaw, pitch, and roll) can be calculated with high accuracy. That is, even if the distance and the posture angle change due to roll motion or pitch motion caused by turning or acceleration / deceleration of the vehicle 10, an estimation error of the movement amount (ΔL) can be suppressed.

なお、実施形態では、距離及び姿勢角の変化量を算出し、距離及び姿勢角を更新することにより、カメラ12の移動量(ΔL)を算出した。しかし、路面31に対するカメラ12の姿勢角だけを変化量算出及び更新の対象としても構わない。この場合、路面31とカメラ12との距離は一定と仮定すればよい。これにより、姿勢角の変化量を考慮して、移動量(ΔL)の推定誤差を抑制しつつ、ECU13の演算負荷を軽減し、且つ演算速度を向上させることもできる。   In the embodiment, the movement amount (ΔL) of the camera 12 is calculated by calculating the change amount of the distance and the posture angle and updating the distance and the posture angle. However, only the attitude angle of the camera 12 with respect to the road surface 31 may be the target of the change amount calculation and update. In this case, the distance between the road surface 31 and the camera 12 may be assumed to be constant. Accordingly, it is possible to reduce the calculation load of the ECU 13 and improve the calculation speed while suppressing the estimation error of the movement amount (ΔL) in consideration of the change amount of the posture angle.

車速検出部28は、車速センサ14で算出された車両10の車速を検出し、車速が所定の閾値Vth[m/s]以下であるか否かを判定する。この判定結果は、パターン光制御部27と自己位置算出部26に出力される。   The vehicle speed detection unit 28 detects the vehicle speed of the vehicle 10 calculated by the vehicle speed sensor 14 and determines whether or not the vehicle speed is equal to or less than a predetermined threshold value Vth [m / s]. The determination result is output to the pattern light control unit 27 and the self-position calculation unit 26.

[自己位置算出処理の手順]
次に、カメラ12により取得された画像38(図5参照)から車両10の移動量を推定する自己位置算出方法の一例として、ECU13により繰り返し実行される情報処理サイクルを、図7に示すフローチャート、図8に示す特性曲線を参照して説明する。
[Self-position calculation processing procedure]
Next, as an example of a self-position calculation method for estimating the amount of movement of the vehicle 10 from an image 38 (see FIG. 5) acquired by the camera 12, an information processing cycle repeatedly executed by the ECU 13 is shown in the flowchart in FIG. This will be described with reference to the characteristic curve shown in FIG.

図8は、投光器11より投光されるパターン光32aの輝度変化を示す特性図である。図7に示す情報処理サイクルは、車両10のイグニションスイッチがオン状態となり、自己位置算出装置100が起動すると同時に開始され、該自己位置算出装置100が停止するまで、繰り返し実行される。   FIG. 8 is a characteristic diagram showing a change in luminance of the pattern light 32 a projected from the projector 11. The information processing cycle shown in FIG. 7 is repeatedly executed until the ignition switch of the vehicle 10 is turned on, the self-position calculating device 100 is started, and the self-position calculating device 100 is stopped.

初めに、図7のステップS11において、車速検出部28は、車速センサ14で算出された車両10の現在の車速を検出し、車速が所定の閾値Vth[m/s]以下であるか否かを判断する。同期検波の原理から、車速が速くて1周期の間での移動量が大きくなり、路面状態が変化してしまうと、投光パターン以外の太陽光や人工光が変化し、同期検波の前提が崩れる可能性がある。このような場合には、パターン光32aの安定した抽出が難しくなり、姿勢角算出部22で算出される路面に対する距離や姿勢角の誤差が大きくなる、或いは算出できなくなって車両の移動量を高精度に検出できなくなる。そこで、車速が所定の閾値Vth以下の場合に限って、以下のステップで説明するように、パターン光を投光し、同期検波でパターン光を抽出して路面に対する距離及び姿勢角を算出するようにしている。   First, in step S11 of FIG. 7, the vehicle speed detection unit 28 detects the current vehicle speed of the vehicle 10 calculated by the vehicle speed sensor 14, and whether or not the vehicle speed is equal to or lower than a predetermined threshold value Vth [m / s]. Judging. From the principle of synchronous detection, if the vehicle speed is high and the amount of movement during one cycle increases and the road surface condition changes, sunlight and artificial light other than the projection pattern change, and the assumption of synchronous detection is There is a possibility of collapse. In such a case, it is difficult to stably extract the pattern light 32a, and errors in the distance to the road surface and the posture angle calculated by the posture angle calculation unit 22 become large or cannot be calculated, thereby increasing the movement amount of the vehicle. It cannot be detected accurately. Therefore, only when the vehicle speed is equal to or less than the predetermined threshold Vth, pattern light is projected and pattern light is extracted by synchronous detection to calculate the distance and attitude angle with respect to the road surface, as described in the following steps. I have to.

尚、閾値Vthとしては、例えば5.0[m/s]に設定すればよい。これは、上述したように同期検波の前提が崩れないようにするためであり、具体的には1周期での移動量を0.1m以下に抑えるためである。ただし、より高速なフレームレートを有するカメラを用いる場合には閾値Vthをより大きくできる。また、閾値Vthをより低い車速に設定すれば、より低速なフレームレートを有する安価なカメラを使用することができ、システムのコストダウンを図ることが可能となる。   For example, the threshold value Vth may be set to 5.0 [m / s]. This is to keep the premise of synchronous detection as described above, and specifically, to suppress the movement amount in one cycle to 0.1 m or less. However, when a camera having a higher frame rate is used, the threshold value Vth can be increased. If the threshold value Vth is set to a lower vehicle speed, an inexpensive camera having a lower frame rate can be used, and the cost of the system can be reduced.

そして、車速が閾値Vth以下の場合には(ステップS11でYES)、ステップS12において、パターン光制御部27は、投光器11を制御して、車両周囲の路面31にパターン光を投光する。この際、パターン光制御部27は、図8に示すように、パターン光の輝度が所定周期の正弦波状に変化するように投光電力を制御する。例えば、正弦波の周波数を50[Hz]とする。その結果、時間経過に伴い輝度が正弦波状に変化するパターン光が路面31に投光される。ここで、本実施形態では、最も日照量が多い夏至(6月)に近い晴天下でもパターン光32aが検出できるように、パターン光32aの最大輝度(図8の輝度波形が最大となるピーク)が設定されている。   If the vehicle speed is equal to or lower than the threshold value Vth (YES in step S11), in step S12, the pattern light control unit 27 controls the projector 11 to project pattern light onto the road surface 31 around the vehicle. At this time, the pattern light control unit 27 controls the light projection power so that the brightness of the pattern light changes into a sine wave having a predetermined period, as shown in FIG. For example, the frequency of the sine wave is 50 [Hz]. As a result, pattern light whose luminance changes in a sine wave shape with the passage of time is projected onto the road surface 31. Here, in the present embodiment, the maximum luminance of the pattern light 32a (the peak at which the luminance waveform in FIG. 8 becomes maximum) so that the pattern light 32a can be detected even under the clear sky close to the summer solstice (June) with the largest amount of sunlight. Is set.

ステップS13において、カメラ12は、パターン光が投光されている領域を含む路面31を撮像して画像を取得する。例えば、600[fps]、即ち、1秒間当たり600画像の撮像速度で画像を撮像する。   In step S <b> 13, the camera 12 captures the road surface 31 including the area where the pattern light is projected and acquires an image. For example, an image is captured at 600 [fps], that is, at an imaging speed of 600 images per second.

ステップS14において、パターン光抽出部21は、上述した同期検波処理によりパターン光32aを抽出する。そして、パターン光32aの位置を示すデータとして、スポット光Spの画像上の座標(Uj、Vj)を算出し、これをメモリに記憶する。更に、姿勢角算出部22は、パターン光32aの位置を示すデータをメモリから読み込み、パターン光32aの位置から、距離及び姿勢角を算出し、メモリに記憶する。距離及び姿勢角の算出方法は、前述した通りである。なお、以下では、パターン光を用いて距離及び姿勢角を求め、これをカメラ12の距離及び姿勢角として採用する処理を「距離及び姿勢角をリセットする」と表現する。その後、ステップS16に処理を進める。   In step S14, the pattern light extraction unit 21 extracts the pattern light 32a by the above-described synchronous detection process. Then, the coordinates (Uj, Vj) on the image of the spot light Sp are calculated as data indicating the position of the pattern light 32a and stored in the memory. Further, the posture angle calculation unit 22 reads data indicating the position of the pattern light 32a from the memory, calculates the distance and the posture angle from the position of the pattern light 32a, and stores them in the memory. The method for calculating the distance and the posture angle is as described above. Hereinafter, the process of obtaining the distance and the posture angle using the pattern light and adopting the distance and the posture angle as the distance and the posture angle of the camera 12 is expressed as “resetting the distance and the posture angle”. Thereafter, the process proceeds to step S16.

一方、車速が閾値Vthより大きい場合には(ステップS11でNO)、ステップS20において、カメラ12は、パターン光が投光されていない路面31を撮像して画像を取得する。例えば、600[fps]、即ち、1秒間当たり600画像の撮像速度で路面31を撮像する。   On the other hand, when the vehicle speed is greater than the threshold value Vth (NO in step S11), in step S20, the camera 12 captures an image by capturing the road surface 31 on which pattern light is not projected. For example, the road surface 31 is imaged at 600 [fps], that is, at an imaging speed of 600 images per second.

ステップS21において、特徴点検出部23は、路面31に存在する特徴点を検出する。更に、姿勢変化量算出部24は、特徴点検出部23で検出された特徴点の画像上の位置に基づき、カメラ12に対する特徴点の変化量を算出する。   In step S <b> 21, the feature point detection unit 23 detects a feature point existing on the road surface 31. Further, the posture change amount calculation unit 24 calculates the change amount of the feature point with respect to the camera 12 based on the position of the feature point detected by the feature point detection unit 23 on the image.

ここで、特徴点検出部23は、画像38から特徴点(例えば、アスファルト上に存在する凹凸部位)を検出し、前回の情報処理サイクルと今回の情報処理サイクルの間で対応関係が取れる特徴点を抽出する。そして、姿勢変化量算出部24は、特徴点の画像上の位置(Ui、Vi)から距離及び姿勢角を更新する。具体的には、特徴点検出部23は、カメラ12により取得された画像38をメモリから読み込み、画像38から路面31上の特徴点を検出し、各特徴点の画像上の位置(Ui、Vi)をメモリに記憶する。姿勢変化量算出部24は、各特徴点の画像上の位置(Ui、Vi)をメモリから読み込み、距離及び姿勢角と、特徴点の画像上の位置(Ui、Vi)とから、カメラ12に対する特徴点の相対位置(Xi,Yi,Zi)を算出する。姿勢変化量算出部24は、カメラ12に対する特徴点の相対位置(Xi,Yi,Zi)をメモリに記憶する。   Here, the feature point detection unit 23 detects a feature point (for example, an uneven portion present on the asphalt) from the image 38, and a feature point that can take a correspondence between the previous information processing cycle and the current information processing cycle. To extract. Then, the posture change amount calculation unit 24 updates the distance and posture angle from the position (Ui, Vi) of the feature point on the image. Specifically, the feature point detection unit 23 reads an image 38 acquired by the camera 12 from the memory, detects a feature point on the road surface 31 from the image 38, and determines the position (Ui, Vi) of each feature point on the image. ) In the memory. The posture change amount calculation unit 24 reads the position (Ui, Vi) of each feature point on the image from the memory, and determines the position relative to the camera 12 from the distance and posture angle and the position (Ui, Vi) of the feature point on the image. The relative position (Xi, Yi, Zi) of the feature point is calculated. The posture change amount calculation unit 24 stores the relative position (Xi, Yi, Zi) of the feature point with respect to the camera 12 in the memory.

そして、姿勢変化量算出部24は、特徴点の画像上の位置(Ui、Vi)と、前回の情報処理サイクルのステップS21において算出された特徴点の相対位置(Xi,Yi,Zi)をメモリから読み込む。姿勢変化量算出部24は、前回の情報処理サイクルと今回の情報処理サイクルの間で対応関係が取れる特徴点の相対位置(Xi,Yi,Zi)及び画像上の位置(Ui、Vi)を用いて、距離及び姿勢角の変化量を算出する。姿勢変化量算出部24は、前回の情報処理サイクルで求められた距離及び姿勢角に、上記した距離及び姿勢角の変化量を加算することにより、距離及び姿勢角を更新する。そして、更新後の距離及び姿勢角をメモリに記憶する。つまり、前回のサイクルのステップS16(後述)の処理で設定された距離及び姿勢角に対して、今回の情報処理サイクルの距離及び姿勢角の変化量を積分演算することにより、距離及び姿勢角を更新する処理を実行する。その後、ステップS16に処理を進める。   The posture change amount calculation unit 24 stores the position (Ui, Vi) of the feature point on the image and the relative position (Xi, Yi, Zi) of the feature point calculated in step S21 of the previous information processing cycle. Read from. The posture change amount calculation unit 24 uses the relative position (Xi, Yi, Zi) of the feature point and the position (Ui, Vi) on the image that can be correlated between the previous information processing cycle and the current information processing cycle. Thus, the change amount of the distance and the posture angle is calculated. The posture change amount calculation unit 24 updates the distance and posture angle by adding the above-described change amounts of the distance and posture angle to the distance and posture angle obtained in the previous information processing cycle. Then, the updated distance and posture angle are stored in the memory. That is, the distance and posture angle are integrated by calculating the distance and posture angle change amount of the current information processing cycle with respect to the distance and posture angle set in the process of step S16 (described later) of the previous cycle. Execute the update process. Thereafter, the process proceeds to step S16.

ステップS16において、ECU13は、積分演算の起点を設定する。この処理では、初期的には、パターン光32aより算出される距離及び姿勢角を選択して設定する。更に、ステップS11において、車両10の現在の車速が閾値Vth[m/s]以下の場合には(ステップS11でYES)、移動量算出の起点をパターン光により算出する距離及び姿勢角、即ちステップS14の処理で算出された距離及び姿勢角にリセットする。他方、ステップS11において、車両10の現在の車速が閾値Vth[m/s]より大きい場合には(ステップS11でNO)、該特徴点の位置に基づいて距離及び姿勢角を更新する。   In step S16, the ECU 13 sets the starting point of the integral calculation. In this process, initially, the distance and the posture angle calculated from the pattern light 32a are selected and set. Further, in step S11, when the current vehicle speed of the vehicle 10 is equal to or less than the threshold value Vth [m / s] (YES in step S11), the distance and posture angle for calculating the movement amount starting point by the pattern light, that is, step The distance and posture angle calculated in S14 are reset. On the other hand, when the current vehicle speed of the vehicle 10 is larger than the threshold value Vth [m / s] in step S11 (NO in step S11), the distance and the posture angle are updated based on the position of the feature point.

次いで、ステップS17において、自己位置算出部26は、車両10の距離及び姿勢角と、車両10の自己位置を算出する。即ち、ステップS14或いはS21の処理で求められた距離及び姿勢角と、積分演算の起点、及び、特徴点の画像上の位置(Ui、Vi)の変化量とから、路面31に対するカメラ12の移動量(ΔL)、即ち車両10の移動量を算出する。   Next, in step S <b> 17, the self-position calculation unit 26 calculates the distance and posture angle of the vehicle 10 and the self-position of the vehicle 10. That is, the movement of the camera 12 with respect to the road surface 31 based on the distance and posture angle obtained in the process of step S14 or S21, the starting point of the integration calculation, and the amount of change in the position (Ui, Vi) of the feature point on the image. The amount (ΔL), that is, the amount of movement of the vehicle 10 is calculated.

こうして、本実施形態に係る自己位置算出装置では、上記した一連の情報処理サイクルを繰り返し実行して車両10の移動量を積算することにより、車両10の位置を算出することができるのである。   Thus, in the self-position calculation device according to the present embodiment, the position of the vehicle 10 can be calculated by repeatedly executing the above-described series of information processing cycles and integrating the movement amount of the vehicle 10.

このようにして、本実施形態に係る自己位置算出装置100では、投光器11より所定の変調周波数で正弦波状に輝度が変化するパターン光32aを路面に投光し、このパターン光32aを含む画像をカメラ12で撮像する。この画像を同期検波処理することにより、パターン光32aを抽出する。従って、路面上に投光したパターン光32aを高精度に検出することが可能となる。その後、パターン光32aの位置に基づいてカメラ12の距離及び姿勢角を算出する。   In this way, in the self-position calculation apparatus 100 according to the present embodiment, the projector 11 projects the pattern light 32a whose luminance changes sinusoidally at a predetermined modulation frequency onto the road surface, and displays an image including the pattern light 32a. An image is taken by the camera 12. The pattern light 32a is extracted by subjecting this image to synchronous detection processing. Therefore, the pattern light 32a projected onto the road surface can be detected with high accuracy. Thereafter, the distance and posture angle of the camera 12 are calculated based on the position of the pattern light 32a.

ところが、路面の照度が高い、特に晴天下の日向等のシーンでは、撮像した画像からパターン光を抽出することが難しく、パターン光から路面に対する距離や姿勢角を算出することが難しい。このような場合でも路面上の複数の特徴点から姿勢変化量を算出し、基点となる車両の初期位置及び姿勢角に姿勢変化量を加算することで、車両の現在位置を求めることはできるが、積分を継続すれば積分誤差が蓄積して誤差が大きくなってしまう。   However, in scenes with high illuminance on the road surface, especially in sunny weather under clear weather, it is difficult to extract pattern light from the captured image, and it is difficult to calculate the distance and posture angle with respect to the road surface from the pattern light. Even in such a case, the current position of the vehicle can be obtained by calculating the amount of attitude change from a plurality of feature points on the road surface, and adding the amount of attitude change to the initial position and attitude angle of the vehicle serving as the base point. If integration is continued, integration errors accumulate and errors become large.

そこで、本実施形態に係る自己位置算出装置100では、最も日照量が多い夏至(6月)に近い晴天下においてもパターン光32aを検出できるように、パターン光32aの最大輝度(図8に示す輝度波形が最大となるピーク)を設定している。また、パターン光の輝度変調の周波数を50[Hz]とし、カメラ12のフレームレート(1秒間の撮影数)を600[fps]としている。   Therefore, in the self-position calculation apparatus 100 according to the present embodiment, the maximum luminance (shown in FIG. 8) of the pattern light 32a is detected so that the pattern light 32a can be detected even under the clear sky near the summer solstice (June) with the largest amount of sunlight. The peak at which the luminance waveform is maximized is set. Further, the frequency modulation frequency of the pattern light is set to 50 [Hz], and the frame rate of the camera 12 (number of images taken per second) is set to 600 [fps].

さらに、本実施形態に係る自己位置算出装置100では、車速が所定の閾値以下の時にパターン光の輝度を周期的に変化させ、同期検波技術を用いてパターン光を抽出し、基点となる車両の初期位置及び姿勢角を設定する。そして、この基点に対して車速が閾値より大きい場合には、各特徴点の時間変化に基づいて算出した車両の姿勢変化量を加算する。これにより、路面の照度が高くなる晴天下の日中のような場合でも、積分誤差の影響を低減して車両の移動量を安定的、且つ高精度に算出することができる。   Furthermore, in the self-position calculation device 100 according to the present embodiment, the brightness of the pattern light is periodically changed when the vehicle speed is equal to or lower than a predetermined threshold, the pattern light is extracted using the synchronous detection technique, and the vehicle as a base point is extracted. Set the initial position and attitude angle. When the vehicle speed is larger than the threshold value with respect to this base point, the amount of change in the attitude of the vehicle calculated based on the time change of each feature point is added. Thereby, even in the case of daytime under fine weather when the illuminance on the road surface becomes high, the influence of the integration error can be reduced and the amount of movement of the vehicle can be calculated stably and with high accuracy.

また、本実施形態では、所定の変調周波数で輝度変調したパターン光を照射し、更に、撮像した画像を同期検波処理することにより、パターン光32aを抽出する例について説明した。しかし、同期画像を所定回数積算した画像を生成し、この積算した画像からパターン光32aを抽出するようにしてもよい。つまり、1周期の同期検波処理により得られる同期画像では、パターン光32aが投光された部分が十分強調されずにノイズが多く含まれてしまい、2値化処理を高精度に実施することができなくなる場合がある。そこで、2周期以上で取得した同期画像を積分し、パターン光32aが投光された部分を、より一層強調した同期検波画像を作成することにより、ノイズの影響をより排除して画像上の投光パターンを検出することができる。   Further, in the present embodiment, an example in which pattern light 32a is extracted by irradiating pattern light whose luminance is modulated at a predetermined modulation frequency and further performing synchronous detection processing on the captured image has been described. However, an image obtained by integrating the synchronized images a predetermined number of times may be generated, and the pattern light 32a may be extracted from the accumulated image. That is, in the synchronous image obtained by the one-cycle synchronous detection processing, the portion where the pattern light 32a is projected is not sufficiently emphasized and contains a lot of noise, and the binarization processing can be performed with high accuracy. It may not be possible. Therefore, by integrating the synchronous images acquired in two or more cycles and creating a synchronous detection image in which the portion where the pattern light 32a is projected is further emphasized, the influence of noise is further eliminated and the projection on the image is performed. A light pattern can be detected.

ただし、その場合、車速の閾値Vthはより小さい値に設定する必要がある。具体的に2周期とする場合には、5.0÷2=2.5[m/s]のように、同期検波でパターン光を抽出する間の移動量が、0.1[m]を超えないように設定する必要がある。   In this case, however, the vehicle speed threshold value Vth needs to be set to a smaller value. Specifically, in the case of two cycles, the amount of movement during extraction of pattern light by synchronous detection is 0.1 [m], such as 5.0 ÷ 2 = 2.5 [m / s]. Must be set not to exceed.

以上、本発明の自己位置算出装置、及び自己位置算出方法を図示の実施形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置き換えることができる。   The self-position calculation device and self-position calculation method of the present invention have been described based on the illustrated embodiment. However, the present invention is not limited to this, and the configuration of each unit is an arbitrary function having the same function. It can be replaced with that of the configuration.

10 車両
11 投光器
12 カメラ(撮像部)
13 ECU
14 車速センサ
21 パターン光抽出部
22 姿勢角算出部
23 特徴点検出部
24 姿勢変化量算出部
26 自己位置算出部
27 パターン光制御部
28 車速検出部
32a,32b パターン光
100 自己位置算出装置
10 vehicle 11 projector 12 camera (imaging part)
13 ECU
DESCRIPTION OF SYMBOLS 14 Vehicle speed sensor 21 Pattern light extraction part 22 Posture angle calculation part 23 Feature point detection part 24 Posture change amount calculation part 26 Self position calculation part 27 Pattern light control part 28 Vehicle speed detection part 32a, 32b Pattern light 100 Self position calculation apparatus

Claims (2)

車両周囲の路面にパターン光を投光する投光器と、
前記パターン光の輝度が周期的に変化するように制御するパターン光制御部と、
前記車両に搭載され、前記パターン光が投光された領域を含む車両周囲の路面を撮像して画像を取得する撮像部と、
前記撮像部で取得された画像から周期的に変化するパターン光を抽出するパターン光抽出部と、
前記パターン光抽出部にて抽出されたパターン光の位置から、前記路面に対する車両の姿勢角を算出する姿勢角算出部と、
前記撮像部により取得された画像から路面上の複数の特徴点を検出し、各特徴点の時間変化に基づいて、前記車両の姿勢変化量を算出する姿勢変化量算出部と、
前記車両の初期位置及び姿勢角に、前記姿勢変化量を加算してゆくことで、前記車両の現在位置及び姿勢角を算出する自己位置算出部と、
前記車両の車速を検出する車速検出部と、を備え、
前記自己位置算出部は、前記車速が所定の閾値以下の場合、その時の前記車両の現在位置及び前記姿勢角算出部による車両の姿勢角を、前記車両の初期位置及び姿勢角に設定し、前記姿勢変化量の加算を開始することを特徴とする自己位置算出装置。
A projector that projects pattern light onto the road surface around the vehicle;
A pattern light control unit for controlling the brightness of the pattern light to change periodically;
An imaging unit that is mounted on the vehicle and captures an image of a road surface around the vehicle including an area where the pattern light is projected; and
A pattern light extraction unit that extracts pattern light that periodically changes from an image acquired by the imaging unit;
An attitude angle calculation unit that calculates an attitude angle of the vehicle with respect to the road surface from the position of the pattern light extracted by the pattern light extraction unit;
A posture change amount calculating unit that detects a plurality of feature points on the road surface from the image acquired by the imaging unit, and calculates a posture change amount of the vehicle based on a temporal change of each feature point;
A self-position calculator that calculates the current position and posture angle of the vehicle by adding the amount of posture change to the initial position and posture angle of the vehicle;
A vehicle speed detector for detecting the vehicle speed of the vehicle,
When the vehicle speed is equal to or lower than a predetermined threshold, the self-position calculation unit sets the vehicle current position and the posture angle of the vehicle by the posture angle calculation unit at that time to the initial position and posture angle of the vehicle, A self-position calculation apparatus, which starts addition of a posture change amount.
車両に搭載された投光器から車両周囲の路面にパターン光を投光する投光手順と、
前記車両の制御部が、前記パターン光の輝度が周期的に変化するように制御するパターン光制御手順と、
前記車両に搭載された撮像部によって、前記パターン光が投光された領域を含む車両周囲の路面を撮像して画像を取得する撮像手順と、
前記制御部が、前記撮像手順で取得された画像から周期的に変化するパターン光を抽出するパターン光抽出手順と、
前記制御部が、前記パターン光抽出手順にて抽出されたパターン光の位置から、前記路面に対する車両の姿勢角を算出する姿勢角算出手順と、
前記制御部が、前記撮像手順により取得された画像から路面上の複数の特徴点を検出し、各特徴点の時間変化に基づいて、前記車両の姿勢変化量を算出する姿勢変化量算出手順と、
前記制御部が、前記車両の初期位置及び姿勢角に、前記姿勢変化量を加算してゆくことで、前記車両の現在位置及び姿勢角を算出する自己位置算出手順と、
前記制御部が、前記車両の車速を検出する車速検出手順とを含み、
前記自己位置算出手順では、前記車速が所定の閾値以下の場合、その時の前記車両の現在位置及び前記姿勢角算出手順による車両の姿勢角を、前記車両の初期位置及び姿勢角に設定し、前記姿勢変化量の加算を開始することを特徴とする自己位置算出方法。
A light projecting procedure for projecting pattern light from a projector mounted on the vehicle onto a road surface around the vehicle;
A pattern light control procedure in which the control unit of the vehicle controls the brightness of the pattern light to change periodically;
An imaging procedure for acquiring an image by imaging a road surface around the vehicle including an area where the pattern light is projected by an imaging unit mounted on the vehicle;
A pattern light extraction procedure in which the control unit extracts pattern light that periodically changes from an image acquired in the imaging procedure;
An attitude angle calculation procedure for calculating an attitude angle of the vehicle with respect to the road surface from the position of the pattern light extracted by the pattern light extraction procedure;
A posture change amount calculating procedure in which the control unit detects a plurality of feature points on the road surface from the image acquired by the imaging procedure, and calculates a posture change amount of the vehicle based on a time change of each feature point; ,
A self-position calculation procedure in which the control unit calculates the current position and posture angle of the vehicle by adding the amount of posture change to the initial position and posture angle of the vehicle;
The control unit includes a vehicle speed detection procedure for detecting a vehicle speed of the vehicle,
In the self-position calculation procedure, when the vehicle speed is equal to or less than a predetermined threshold, the current position of the vehicle at that time and the posture angle of the vehicle according to the posture angle calculation procedure are set to the initial position and the posture angle of the vehicle, A self-position calculation method characterized by starting to add posture change amounts.
JP2014161646A 2014-08-07 2014-08-07 Self-position calculation device and self-position calculation method Active JP6369897B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014161646A JP6369897B2 (en) 2014-08-07 2014-08-07 Self-position calculation device and self-position calculation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014161646A JP6369897B2 (en) 2014-08-07 2014-08-07 Self-position calculation device and self-position calculation method

Publications (2)

Publication Number Publication Date
JP2016038287A JP2016038287A (en) 2016-03-22
JP6369897B2 true JP6369897B2 (en) 2018-08-08

Family

ID=55529471

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014161646A Active JP6369897B2 (en) 2014-08-07 2014-08-07 Self-position calculation device and self-position calculation method

Country Status (1)

Country Link
JP (1) JP6369897B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7017951B2 (en) 2018-03-02 2022-02-09 花王株式会社 Mold-killing detergent composition for hard surfaces
JP7017950B2 (en) 2018-03-02 2022-02-09 花王株式会社 Mold-killing detergent composition for hard surfaces

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6593390B2 (en) * 2017-06-01 2019-10-23 株式会社豊田中央研究所 Moving distance measuring device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19962491A1 (en) * 1999-12-23 2001-07-05 Daimler Chrysler Ag Method for the optical monitoring of the surroundings of a moving vehicle
JP4672175B2 (en) * 2000-05-26 2011-04-20 本田技研工業株式会社 Position detection apparatus, position detection method, and position detection program
JP2004198212A (en) * 2002-12-18 2004-07-15 Aisin Seiki Co Ltd Apparatus for monitoring vicinity of mobile object
JP2007114020A (en) * 2005-10-19 2007-05-10 Aisin Aw Co Ltd Vehicle moving distance detecting method and device, and current vehicle position detecting method and device
JP2012122734A (en) * 2010-12-06 2012-06-28 Nissan Motor Co Ltd Moving body position estimation device and moving body position estimation method
US20130258108A1 (en) * 2010-12-24 2013-10-03 Hitachi, Ltd. Road Surface Shape Recognition System and Autonomous Mobile Apparatus Using Same

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7017951B2 (en) 2018-03-02 2022-02-09 花王株式会社 Mold-killing detergent composition for hard surfaces
JP7017950B2 (en) 2018-03-02 2022-02-09 花王株式会社 Mold-killing detergent composition for hard surfaces

Also Published As

Publication number Publication date
JP2016038287A (en) 2016-03-22

Similar Documents

Publication Publication Date Title
JP6269838B2 (en) Self-position calculation device and self-position calculation method
JP6237876B2 (en) Self-position calculation device and self-position calculation method
JP6187671B2 (en) Self-position calculation device and self-position calculation method
JP6237874B2 (en) Self-position calculation device and self-position calculation method
JP6176387B2 (en) Self-position calculation device and self-position calculation method
JP6237875B2 (en) Self-position calculation device and self-position calculation method
JP6187672B2 (en) Self-position calculation device and self-position calculation method
CN107517346B (en) Photographing method and device based on structured light and mobile device
JP6369897B2 (en) Self-position calculation device and self-position calculation method
JP6299319B2 (en) Self-position calculation device and self-position calculation method
JP6398218B2 (en) Self-position calculation device and self-position calculation method
JP6547362B2 (en) Self-position calculation device and self-position calculation method
JP6398217B2 (en) Self-position calculation device and self-position calculation method
JP6492974B2 (en) Self-position calculation device and self-position calculation method
JP6459745B2 (en) Self-position calculation device and self-position calculation method
JP6369898B2 (en) Self-position calculation device and self-position calculation method
JP6398219B2 (en) Self-position calculation device and self-position calculation method
JP6459701B2 (en) Self-position calculation device and self-position calculation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170801

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180626

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180705

R150 Certificate of patent or registration of utility model

Ref document number: 6369897

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250