JP6459701B2 - Self-position calculation device and self-position calculation method - Google Patents

Self-position calculation device and self-position calculation method Download PDF

Info

Publication number
JP6459701B2
JP6459701B2 JP2015063861A JP2015063861A JP6459701B2 JP 6459701 B2 JP6459701 B2 JP 6459701B2 JP 2015063861 A JP2015063861 A JP 2015063861A JP 2015063861 A JP2015063861 A JP 2015063861A JP 6459701 B2 JP6459701 B2 JP 6459701B2
Authority
JP
Japan
Prior art keywords
image
vehicle
pattern light
road surface
filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015063861A
Other languages
Japanese (ja)
Other versions
JP2016183889A (en
Inventor
山口 一郎
一郎 山口
西内 秀和
秀和 西内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2015063861A priority Critical patent/JP6459701B2/en
Publication of JP2016183889A publication Critical patent/JP2016183889A/en
Application granted granted Critical
Publication of JP6459701B2 publication Critical patent/JP6459701B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、車両の現在位置及び姿勢角を算出する自己位置算出装置及び自己位置算出方法に関するものである。   The present invention relates to a self-position calculation device and a self-position calculation method for calculating a current position and a posture angle of a vehicle.

車両に搭載されたカメラにより撮像された車両の近傍の画像を取得し、画像の変化に基づいて車両の移動量を求める技術が知られている(特許文献1参照)。特許文献1では、車両の低速かつ微妙な移動においても精度よく移動量を求めるために、画像の中から特徴点を検出し、画像上の特徴点の位置を求め、特徴点の移動方向及び移動距離(移動量)から車両の移動量を求めている。   A technique is known in which an image in the vicinity of a vehicle captured by a camera mounted on the vehicle is acquired, and the amount of movement of the vehicle is obtained based on a change in the image (see Patent Document 1). In Patent Document 1, in order to obtain the amount of movement with high precision even when the vehicle is moving at low speed and delicately, the feature point is detected from the image, the position of the feature point on the image is obtained, the moving direction and the movement of the feature point The movement amount of the vehicle is obtained from the distance (movement amount).

また、車両姿勢の変化量を算出する技術として、車両から路面に投光したパターン光をカメラで撮像し、その画像上の形状から三角測量の原理を用いてカメラに対する路面の平面式を算出して路面に対する車両の距離や姿勢を算出する技術がある(特許文献2参照)。   In addition, as a technique for calculating the amount of change in vehicle attitude, the pattern light projected from the vehicle onto the road surface is imaged by the camera, and the road plane formula for the camera is calculated from the shape on the image using the principle of triangulation. There is a technique for calculating the distance and posture of the vehicle with respect to the road surface (see Patent Document 2).

特開2008−175717号公報JP 2008-175717 A 特開2007−278951号公報JP 2007-278951 A

しかしながら、特徴点を検出する領域とパターン光を投光する領域から算出した車両の距離や姿勢の間の誤差を小さくするためには、特徴点を検出する領域とパターン光を投光する領域は重なっていることが望ましい。ところが、特徴点を検出する領域にパターン光を投光すると、パターン光を特徴点であると誤検出してしまう場合がある、という問題点があった。   However, in order to reduce the error between the distance and posture of the vehicle calculated from the area for detecting feature points and the area for projecting pattern light, the area for detecting feature points and the area for projecting pattern light are: It is desirable that they overlap. However, when pattern light is projected onto a region where a feature point is detected, there is a problem that the pattern light may be erroneously detected as a feature point.

そこで、本発明は上記課題に鑑みて成されたものであり、特徴点を検出する領域とパターン光を投光する領域を重ねたとしても、パターン光を特徴点であると誤検出することを防止できる自己位置算出装置及びその方法を提供することを目的とする。   Therefore, the present invention has been made in view of the above problems, and even if a region for detecting feature points and a region for projecting pattern light are overlapped, pattern light is erroneously detected as a feature point. It is an object of the present invention to provide a self-position calculation apparatus and method that can prevent this.

上述した課題を解決するために、本発明の一態様に係る自己位置算出装置及びその方法は、車両に搭載された投光器から車両周囲の路面にパターン光を投光し、撮像部によってパターン光が投光された領域を含む車両周囲の路面を撮像して画像を取得する。そして、取得した画像からパターン光の波長域の画像を第1フィルタで抽出し、抽出された画像におけるパターン光の位置から路面に対する車両の姿勢角を算出する。また、取得した画像からパターン光の波長域を含まない画像を第2フィルタで抽出し、抽出された画像から検出された路面上の複数の特徴点の時間変化に基づいて車両の姿勢変化量を算出する。これらの結果を用いて、本発明の一態様に係る自己位置算出装置及びその方法は、車両の初期位置および姿勢角に、姿勢変化量を加算してゆくことで、車両の現在位置および姿勢角を算出する。   In order to solve the above-described problem, a self-position calculation apparatus and method according to an aspect of the present invention project pattern light from a projector mounted on a vehicle onto a road surface around the vehicle, and the pattern light is emitted by an imaging unit. An image is obtained by capturing an image of the road surface around the vehicle including the projected area. Then, an image in the wavelength range of the pattern light is extracted from the acquired image by the first filter, and the attitude angle of the vehicle with respect to the road surface is calculated from the position of the pattern light in the extracted image. In addition, an image that does not include the wavelength range of the pattern light is extracted from the acquired image by the second filter, and the amount of change in the posture of the vehicle is calculated based on temporal changes of a plurality of feature points on the road surface detected from the extracted image calculate. Using these results, the self-position calculation device and method according to one aspect of the present invention add the amount of change in posture to the initial position and posture angle of the vehicle, thereby obtaining the current position and posture angle of the vehicle. Is calculated.

本発明によれば、第1及び第2フィルタによってパターン光の波長域の画像とパターン光の波長域を含まない画像を抽出するので、特徴点を検出する領域とパターン光を投光する領域を重ねたとしても、パターン光を特徴点であると誤検出することを防止できる。これにより、車両の現在位置を精度良く且つ安定して推定することができる。   According to the present invention, the first and second filters extract the image of the pattern light wavelength region and the image not including the pattern light wavelength region, so that the feature point detection region and the pattern light projection region are Even if they are overlapped, it is possible to prevent erroneous detection of pattern light as a feature point. As a result, the current position of the vehicle can be estimated accurately and stably.

図1は、本発明の一実施形態に係る自己位置算出装置の全体構成を示すブロック図である。FIG. 1 is a block diagram showing an overall configuration of a self-position calculation apparatus according to an embodiment of the present invention. 図2は、投光器及びカメラの車両への搭載例を示す外観図である。FIG. 2 is an external view showing an example of mounting a projector and a camera on a vehicle. 図3は、パターン光を照射する領域と特徴点を検出する領域を説明するための図である。FIG. 3 is a diagram for explaining a region where pattern light is irradiated and a region where feature points are detected. 図4は、カメラにより取得された画像に対して二値化処理を施したパターン光の画像を示す図である。FIG. 4 is a diagram illustrating an image of pattern light obtained by performing binarization processing on an image acquired by a camera. 図5は、投光器に用いるレーザポインターの構造を示すブロック図である。FIG. 5 is a block diagram showing the structure of a laser pointer used in the projector. 図6は、距離及び姿勢角の変化量を算出する方法を説明するための模式図である。FIG. 6 is a schematic diagram for explaining a method of calculating the change amount of the distance and the posture angle. 図7は、時刻tと時刻t+Δtに取得されたフレーム(画像)の一例を示す図である。FIG. 7 is a diagram illustrating an example of frames (images) acquired at time t and time t + Δt. 図8は、積分演算の起点を設定するタイミングを説明するためのタイミングチャートである。FIG. 8 is a timing chart for explaining the timing for setting the starting point of the integral calculation. 図9は、本発明の一実施形態に係る自己位置算出装置による自己位置算出方法の手順を示すフローチャートである。FIG. 9 is a flowchart showing a procedure of a self-position calculation method by the self-position calculation apparatus according to an embodiment of the present invention. 図10は、図9のステップS11の詳細な手順を示すフローチャートである。FIG. 10 is a flowchart showing a detailed procedure of step S11 of FIG. 図11は、本発明の一実施形態に係る自己位置算出装置による効果を説明するための図である。FIG. 11 is a diagram for explaining the effect of the self-position calculation apparatus according to an embodiment of the present invention.

図面を参照して、実施形態を説明する。図面の記載において同一部分には同一符号を付して説明を省略する。   Embodiments will be described with reference to the drawings. In the description of the drawings, the same portions are denoted by the same reference numerals, and description thereof is omitted.

(第1実施形態)
(ハードウェア構成)
先ず、図1を参照して、第1実施形態に係る自己位置算出装置のハードウェア構成を説明する。自己位置算出装置は、投光器11と、カメラ12と、エンジンコントロールユニット(ECU)13とを備える。投光器11は、車両に搭載され、車両周囲の路面にパターン光を投光する。カメラ12は、車両に搭載され、パターン光が投光された領域を含む車両周囲の路面を撮像して画像を取得する撮像部の一例である。ECU13は、投光器11を制御し、且つカメラ12により取得された画像から車両の移動量を推定する一連の情報処理サイクルを実行する制御部の一例である。
(First embodiment)
(Hardware configuration)
First, the hardware configuration of the self-position calculation apparatus according to the first embodiment will be described with reference to FIG. The self-position calculating device includes a projector 11, a camera 12, and an engine control unit (ECU) 13. The projector 11 is mounted on the vehicle and projects pattern light onto a road surface around the vehicle. The camera 12 is an example of an imaging unit that is mounted on a vehicle and captures an image of a road surface around the vehicle including an area where pattern light is projected. The ECU 13 is an example of a control unit that controls the projector 11 and executes a series of information processing cycles for estimating the amount of movement of the vehicle from the image acquired by the camera 12.

カメラ12は、固体撮像素子、例えばCCD及びCMOSを用いたデジタルカメラであって、画像処理が可能なデジタル画像を取得する。カメラ12の撮像対象は車両周囲の路面であって、車両周囲の路面には、車両の前部、後部、側部、車両底部の路面が含まれる。例えば、図2に示すように、カメラ12は、車両10の前部、具体的にはフロントバンパ上に搭載することができる。また、カメラ12はRGBカメラを使用してもよい。   The camera 12 is a digital camera using a solid-state imaging device, for example, a CCD and a CMOS, and acquires a digital image that can be processed. The imaging target of the camera 12 is a road surface around the vehicle, and the road surface around the vehicle includes the road surface of the front, rear, side, and bottom of the vehicle. For example, as shown in FIG. 2, the camera 12 can be mounted on the front portion of the vehicle 10, specifically on the front bumper. The camera 12 may use an RGB camera.

カメラ12が設置される高さ及び向きは、車両10の前方の路面31上の特徴点(テクスチャ)及び投光器11により投光されたパターン光32bを撮像できるように調整され、尚且つ、カメラ12が備えるレンズのピント及び絞りは自動調整される。カメラ12は、所定の時間間隔をおいて繰り返し撮像を行い、一連の画像(フレーム)群を取得する。カメラ12により取得された画像データは、R信号(Red:赤)とG信号(Green:緑)とB信号(Blue:青)とを含んでおり、ECU13へ転送され、ECU13が備えるメモリに記憶される。   The height and direction in which the camera 12 is installed are adjusted so that the feature point (texture) on the road surface 31 in front of the vehicle 10 and the pattern light 32b projected by the projector 11 can be imaged. The lens focus and aperture of the lens are automatically adjusted. The camera 12 repeatedly captures images at a predetermined time interval and acquires a series of images (frames). The image data acquired by the camera 12 includes an R signal (Red: red), a G signal (Green: green), and a B signal (Blue: blue). The image data is transferred to the ECU 13 and stored in a memory included in the ECU 13. Is done.

投光器11は、図2に示すように、カメラ12の撮像範囲内の路面31に向けて、正方形や長方形の格子像を含む所定の形状を有するパターン光32bを投光する。カメラ12は、路面31により照射されたパターン光を撮像する。投光器11は、例えば、レーザポインター及び回折格子を備える。レーザポインターから射出されたレーザ光を回折格子で回折することにより、投光器11は、図2〜図4に示すように、格子像、或いは行列状に配列された複数のスポット光Sからなるパターン光(32b、32a)を生成する。図3及び図4に示す例では、5×7のスポット光Sからなるパターン光32aを生成している。 As shown in FIG. 2, the projector 11 projects pattern light 32 b having a predetermined shape including a square or rectangular lattice image toward the road surface 31 within the imaging range of the camera 12. The camera 12 images the pattern light irradiated by the road surface 31. The projector 11 includes, for example, a laser pointer and a diffraction grating. Pattern by diffracting the laser beam emitted from the laser pointer in the diffraction grating, the light projector 11, as shown in FIGS. 2 to 4, comprising a lattice image, or a matrix a plurality of which are arranged in the spot light S p Light (32b, 32a) is generated. In the example shown in FIGS. 3 and 4, and generates a pattern light 32a consisting spotlight S p of 5 × 7.

図3(a)は、カメラ12の撮像範囲の路面31のうち、パターン光32aが照射された領域とは異なる他の領域33から特徴点を検出し、検出された特徴点の時間変化からカメラ12の移動方向34を求める様子を模式的に示している。また、図3(b)は、特徴点を検出する領域33内にパターン光32aを照射する様子を模式的に示している。このように、投光器11は、カメラ12の撮像範囲内の路面31の中で、特徴点を検出する領域33とパターン光32aを投光する領域を一致させても、相違させてもよい。ただし、特徴点を検出する領域33とパターン光32aを投光する領域を一致させたほうが、路面変化による誤差を低減させることができる。   FIG. 3A shows a feature point detected from another region 33 different from the region irradiated with the pattern light 32a in the road surface 31 of the imaging range of the camera 12, and the camera is detected from the time variation of the detected feature point. 12 schematically shows how 12 movement directions 34 are obtained. FIG. 3B schematically shows a state in which the pattern light 32a is irradiated into the region 33 where the feature points are detected. As described above, the projector 11 may match or make the region 33 for detecting the feature point coincide with the region for projecting the pattern light 32 a in the road surface 31 within the imaging range of the camera 12. However, it is possible to reduce the error due to the road surface change by matching the region 33 for detecting the feature points with the region for projecting the pattern light 32a.

ここで、図5を参照して、投光器11を構成するレーザポインターの構造を説明する。図5(a)に示すように、赤色レーザポインター51は、制御基板53と半導体レーザ55を備えている。制御基板53は1mW以下で出力を安定させる電気的な保護回路であり、半導体レーザ55は650nmの赤色のレーザを出力し、出力されたビームを光学的に平行光に矯正するレンズを備えている。   Here, with reference to FIG. 5, the structure of the laser pointer which comprises the light projector 11 is demonstrated. As shown in FIG. 5A, the red laser pointer 51 includes a control board 53 and a semiconductor laser 55. The control board 53 is an electrical protection circuit that stabilizes the output at 1 mW or less, and the semiconductor laser 55 includes a lens that outputs a red laser of 650 nm and optically corrects the output beam to parallel light. .

また、投光器11は、緑色レーザポインター57で構成してもよい。緑色レーザポインター57は、赤色レーザポインター51と同一の制御基板53と半導体レーザ55を備え、さらに非線形結晶(YAG)59と、結晶(KTP)61と、レーザ出力感知部63とを備えている。非線形結晶(YAG)59は、赤色レーザを倍波や第2高調波等の長い波長(1064nm)に変換する。結晶(KTP)61は、非線形結晶(YAG)59からの出力波を半分の波長へ二段階で変換して緑色の波長のレーザを出力する。そして、レーザ出力感知部63は、出力された緑色レーザを感知して制御基板53にフィードバックし、緑色レーザの出力を制御する。緑色レーザは赤外域の波長なので熱を発生するが、この熱によって二つの非線形結晶での波長変換が不安定になり、緑色レーザの出力が安定しなくなる。そこで、レーザ出力感知部63がレーザ出力をフィードバックすることによって、出力の不安定を抑制する制御を行っている。   Further, the projector 11 may be composed of a green laser pointer 57. The green laser pointer 57 includes the same control substrate 53 and semiconductor laser 55 as the red laser pointer 51, and further includes a nonlinear crystal (YAG) 59, a crystal (KTP) 61, and a laser output sensing unit 63. The nonlinear crystal (YAG) 59 converts the red laser into a long wavelength (1064 nm) such as a double wave or a second harmonic. The crystal (KTP) 61 converts the output wave from the nonlinear crystal (YAG) 59 into a half wavelength in two stages and outputs a laser having a green wavelength. The laser output sensing unit 63 senses the output green laser and feeds it back to the control board 53 to control the output of the green laser. Since the green laser has a wavelength in the infrared region, it generates heat, but this heat makes wavelength conversion in the two nonlinear crystals unstable, and the output of the green laser becomes unstable. Therefore, the laser output sensing unit 63 performs control to suppress output instability by feeding back the laser output.

上述したように投光器11を構成するレーザポインターとしては、赤色レーザポインターと緑色レーザポインターのいずれも採用可能であるが、本実施形態では構造が簡便な赤色レーザポインターを採用した場合について説明する。緑色レーザポインターは構造が複雑なだけではなく寿命も短いので、赤色レーザポインターを採用すればシステムの信頼性を向上させることができる。   As described above, either a red laser pointer or a green laser pointer can be adopted as the laser pointer constituting the projector 11. In this embodiment, a case where a red laser pointer having a simple structure is adopted will be described. The green laser pointer not only has a complicated structure, but also has a short lifetime, so if the red laser pointer is used, the reliability of the system can be improved.

図1に戻り、ECU13は、CPU、メモリ、及び入出力部を備えるマイクロコントローラからなり、予めインストールされたコンピュータプログラムを実行することにより、自己位置算出装置が備える複数の情報処理部を構成する。ECU13は、カメラ12により取得された画像から車両の現在位置を算出する一連の情報処理サイクルを、画像(フレーム)毎に繰り返し実行する。ECU13は、車両10にかかわる他の制御に用いるECUと兼用してもよい。   Returning to FIG. 1, the ECU 13 includes a microcontroller including a CPU, a memory, and an input / output unit, and configures a plurality of information processing units included in the self-position calculating device by executing a computer program installed in advance. The ECU 13 repeatedly executes a series of information processing cycles for calculating the current position of the vehicle from the image acquired by the camera 12 for each image (frame). The ECU 13 may also be used as an ECU used for other controls related to the vehicle 10.

複数の情報処理部には、第1フィルタ15と、第2フィルタ17と、パターン光抽出部21と、姿勢角算出部22と、姿勢変化量算出部24と、自己位置算出部26と、パターン光制御部27とが含まれる。姿勢変化量算出部24には、特徴点検出部23が含まれる。   The plurality of information processing units include a first filter 15, a second filter 17, a pattern light extraction unit 21, an attitude angle calculation unit 22, an attitude change amount calculation unit 24, a self-position calculation unit 26, a pattern And a light control unit 27. The posture change amount calculation unit 24 includes a feature point detection unit 23.

第1フィルタ15は、カメラ12により取得された画像からパターン光の波長域の画像を抽出してメモリに記憶する。本実施形態では、赤色レーザポインターでパターン光を照射するので、第1フィルタ15は赤色の波長域の画像を抽出する。例えば、600〜650nmの赤色の波長域で80%以上の透過率を有するフィルタを使用する。また、RGBカメラを使用する場合には、R信号が600〜650nmの波長域で80%以上の透過率を有するカメラを使用し、R信号の画像のみをパターン光の抽出に利用する。   The first filter 15 extracts an image in the wavelength range of the pattern light from the image acquired by the camera 12 and stores it in the memory. In the present embodiment, since the pattern light is emitted by the red laser pointer, the first filter 15 extracts an image in the red wavelength region. For example, a filter having a transmittance of 80% or more in a red wavelength region of 600 to 650 nm is used. When an RGB camera is used, a camera having a transmittance of 80% or more in a wavelength region of 600 to 650 nm is used, and only an image of the R signal is used for pattern light extraction.

第2フィルタ17は、カメラ12により取得された画像からパターン光の波長域を含まない画像を抽出してメモリに記憶する。本実施形態では、赤色レーザポインターでパターン光を照射するので、第2フィルタ17は青色または緑色の少なくとも1つの波長域の画像を抽出する。例えば、450〜570nmの青色の波長域で70%以上の透過率を有するフィルタと520〜560nmの緑色の波長域で70%以上の透過率を有するフィルタのいずれか、または両方を使用する。また、RGBカメラを使用する場合には、B信号が450〜570nmの波長域で70%以上の透過率を有し、G信号が520〜560nmの波長域で70%以上の透過率を有するカメラを使用する。そして、B信号かG信号のいずれかの画像、またはB信号とG信号の両方の画像を特徴点の検出に利用する。   The second filter 17 extracts an image not including the wavelength range of the pattern light from the image acquired by the camera 12 and stores it in the memory. In the present embodiment, since the pattern light is irradiated with the red laser pointer, the second filter 17 extracts an image of at least one wavelength region of blue or green. For example, a filter having a transmittance of 70% or more in a blue wavelength region of 450 to 570 nm, a filter having a transmittance of 70% or more in a green wavelength region of 520 to 560 nm, or both are used. When using an RGB camera, the B signal has a transmittance of 70% or more in the wavelength region of 450 to 570 nm, and the G signal has a transmittance of 70% or more in the wavelength region of 520 to 560 nm. Is used. Then, either the B signal or the G signal, or both the B signal and the G signal are used for feature point detection.

パターン光抽出部21は、カメラ12により取得された画像のうち第1フィルタ15によって抽出された画像をメモリから読み込み、この画像からパターン光の位置を抽出する。図3に示すように、例えば、投光器11が行列状に配列された複数のスポット光からなるパターン光32aを路面31に向けて投光し、路面31で反射されたパターン光32aをカメラ12で検出する。パターン光抽出部21は、第1フィルタ15によって抽出された画像に対して二値化処理を施すことにより、図4(a)及び図4(b)に示すように、スポット光Sの画像のみを抽出する。パターン光抽出部21は、図4(c)に示すように、各スポット光Sの重心の位置H、即ちスポット光Sの画像上の座標(U、V)を算出することにより、パターン光32aの位置を抽出する。座標は、カメラ12の撮像素子の画素を単位とし、5×7のスポット光Sの場合、“j”は1以上35以下の自然数である。スポット光Sの画像上の座標(U、V)は、パターン光32aの位置を示すデータとしてメモリに記憶される。 The pattern light extraction unit 21 reads an image extracted by the first filter 15 among the images acquired by the camera 12 from the memory, and extracts the position of the pattern light from this image. As shown in FIG. 3, for example, the projector 11 projects pattern light 32 a made up of a plurality of spot lights arranged in a matrix toward the road surface 31, and the pattern light 32 a reflected by the road surface 31 is captured by the camera 12. To detect. Pattern light extractor 21, by performing binarization processing on the image extracted by the first filter 15, as shown in FIGS. 4 (a) and 4 (b), the spot light S p image Extract only. Pattern light extractor 21, as shown in FIG. 4 (c), the position H e of the center of gravity of the spot light S p, i.e. be calculated on the image of the spot light S p coordinates (U j, V j) Thus, the position of the pattern light 32a is extracted. Coordinates, the pixels of the image sensor of the camera 12 as a unit, in the case of 5 × 7 of the spot light S p, "j" is a natural number of 35 or less 1 or more. Coordinates on the image of the spot light S p (U j, V j ) is stored in a memory as data indicating the position of the pattern light 32a.

姿勢角算出部22は、パターン光32aの位置を示すデータをメモリから読み込み、第1フィルタ15によって抽出された画像におけるパターン光32aの位置から、路面31に対する車両10の距離及び姿勢角を算出する。例えば、図3に示すように、投光器11とカメラ12の間の基線長Lbと、各スポット光の画像上の座標(U、V)とから、三角測量の原理を用いて、各スポット光が照射された路面31上の位置を、カメラ12に対する相対位置として算出する。そして、姿勢角算出部22は、カメラ12に対する各スポット光の相対位置から、パターン光32aが投光された路面31の平面式、即ち、路面31に対するカメラ12の距離及び姿勢角(法線ベクトル)を算出する。なお、車両10に対するカメラ12の搭載位置及び撮像方向は既知であるため、実施形態においては、路面31に対する車両10の距離及び姿勢角の一例として、路面31に対するカメラ12の距離及び姿勢角を算出する。以後、路面31に対するカメラ12の距離及び姿勢角を、「距離及び姿勢角」と略す。姿勢角算出部22により算出された距離及び姿勢角は、メモリに記憶される。 The posture angle calculation unit 22 reads data indicating the position of the pattern light 32a from the memory, and calculates the distance and posture angle of the vehicle 10 with respect to the road surface 31 from the position of the pattern light 32a in the image extracted by the first filter 15. . For example, as shown in FIG. 3, from the base line length Lb between the projector 11 and the camera 12 and the coordinates (U j , V j ) of each spot light on the image, each spot is calculated using the principle of triangulation. The position on the road surface 31 irradiated with light is calculated as a relative position with respect to the camera 12. Then, the attitude angle calculation unit 22 calculates the plane type of the road surface 31 on which the pattern light 32a is projected, that is, the distance and the attitude angle of the camera 12 with respect to the road surface 31 (normal vector) from the relative position of each spot light with respect to the camera 12. ) Is calculated. In addition, since the mounting position and imaging direction of the camera 12 with respect to the vehicle 10 are known, in the embodiment, the distance and posture angle of the camera 12 with respect to the road surface 31 are calculated as an example of the distance and posture angle of the vehicle 10 with respect to the road surface 31. To do. Hereinafter, the distance and posture angle of the camera 12 with respect to the road surface 31 are abbreviated as “distance and posture angle”. The distance and the posture angle calculated by the posture angle calculation unit 22 are stored in the memory.

具体的には、カメラ12及び投光器11は車両10にそれぞれ固定されているため、パターン光32aの照射方向と、カメラ12と投光器11との距離(基線長Lb)は既知である。そこで、姿勢角算出部22は、三角測量の原理を用いて、各スポット光の画像上の座標(U、V)から各スポット光が照射された路面31上の位置を、カメラ12に対する相対位置(X,Y,Z)として求めることができる。 Specifically, since the camera 12 and the projector 11 are respectively fixed to the vehicle 10, the irradiation direction of the pattern light 32a and the distance (baseline length Lb) between the camera 12 and the projector 11 are known. Therefore, the attitude angle calculation unit 22 uses the principle of triangulation to determine the position on the road surface 31 irradiated with each spot light from the coordinates (U j , V j ) of each spot light on the camera 12. It can be obtained as a relative position (X j , Y j , Z j ).

なお、カメラ12に対する各スポット光の相対位置(X,Y,Z)は同一平面上に存在しない場合が多い。なぜなら、路面31に表出するアスファルトの凹凸に応じて各スポット光の相対位置が変化するからである。そこで、最小二乗法を用いて、各スポット光との距離誤差の二乗和が最小となるような平面式を求めてもよい。 Note that the relative positions (X j , Y j , Z j ) of each spot light with respect to the camera 12 often do not exist on the same plane. This is because the relative position of each spot light changes according to the asphalt unevenness exposed on the road surface 31. Therefore, a plane formula that minimizes the sum of squares of distance errors with respect to each spot light may be obtained by using the least square method.

特徴点検出部23は、カメラ12により取得された画像のうち第2フィルタ17によって抽出された画像をメモリから読み込み、メモリから読み込んだ画像から、路面31上の特徴点を検出する。このとき、図3(b)に示すように特徴点を検出する領域33とパターン光32aを投光する領域が同一である場合には、特徴点検出部23は、第2フィルタ17によって抽出された画像上のパターン光が投光されている領域から特徴点を検出する。そして、特徴点検出部23は、路面31上の特徴点を検出するために、例えば、「D.G. Lowe,“Distinctive Image Features from Scale-Invariant Keypoints,” Int. J. Comput. Vis., vol.60, no.2, pp. 91-110, Nov. 200 」、或いは、「金澤 靖, 金谷健一, “コンピュータビジョンのための画像の特徴点抽出,” 信学誌, vol.87, no.12, pp.1043-1048, Dec. 2004」に記載の手法を用いることができる。   The feature point detection unit 23 reads an image extracted by the second filter 17 out of images acquired by the camera 12 from the memory, and detects a feature point on the road surface 31 from the image read from the memory. At this time, as shown in FIG. 3B, when the area 33 for detecting feature points is the same as the area for projecting pattern light 32a, the feature point detector 23 is extracted by the second filter 17. The feature point is detected from the area where the pattern light on the image is projected. The feature point detector 23 detects, for example, “DG Lowe,“ Distinctive Image Features from Scale-Invariant Keypoints, ”Int. J. Comput. Vis., Vol. , no.2, pp. 91-110, Nov. 200, or “Kanazawa Satoshi, Kanaya Kenichi,“ Image Feature Extraction for Computer Vision, ”IEICE Journal, vol.87, no.12, pp.1043-1048, Dec. 2004 "can be used.

具体的には、特徴点検出部23は、例えば、ハリス(Harris)作用素又はSUSANオペレータを用いて、物体の頂点のように周囲に比べて輝度値が大きく変化する点を特徴点として検出する。或いは、特徴点検出部23は、SIFT(Scale-Invariant Feature Transform)特徴量を用いて、その周囲で輝度値がある規則性のもとで変化している点を特徴点として検出してもよい。そして、特徴点検出部23は、1つの画像から検出した特徴点の総数Nを計数し、各特徴点に識別番号(i(1≦i≦N))を付す。各特徴点の画像上の位置(U、V)は、ECU13内のメモリに記憶される。図7(a)及び図7(b)は、カメラ12により取得された画像から検出された特徴点Tの例を示す。各特徴点の画像上の位置(U、V)は、メモリに記憶される。 Specifically, the feature point detection unit 23 uses, for example, a Harris operator or a SUSAN operator to detect, as a feature point, a point whose luminance value changes greatly as compared to the surroundings, such as a vertex of an object. Alternatively, the feature point detection unit 23 may detect, as a feature point, a point where the luminance value changes under certain regularity using a SIFT (Scale-Invariant Feature Transform) feature amount. . Then, the feature point detection unit 23 counts the total number N of feature points detected from one image, and assigns an identification number (i (1 ≦ i ≦ N)) to each feature point. The position (U i , V i ) on the image of each feature point is stored in a memory in the ECU 13. FIGS. 7 (a) and 7 (b) shows an example of a detected feature point T e from the image acquired by the camera 12. The position (U i , V i ) of each feature point on the image is stored in the memory.

なお、実施形態において、路面31上の特徴点は、主に大きさが1cm以上2cm以下のアスファルト混合物の粒を想定している。この特徴点を検出するために、カメラ12の解像度はVGA(約30万画素)である。また、路面31に対するカメラ12の距離は、おおよそ70cmである。更に、カメラ12の撮像方向は、水平面から約45degだけ路面31に向けて傾斜させる。また、カメラ12により取得される画像をECU13に転送するときの輝度数値は、0〜255(0:最も暗い,255:最も明るい)の範囲内である。   In the embodiment, the feature points on the road surface 31 are mainly assumed to be asphalt mixture grains having a size of 1 cm to 2 cm. In order to detect this feature point, the resolution of the camera 12 is VGA (approximately 300,000 pixels). Moreover, the distance of the camera 12 with respect to the road surface 31 is about 70 cm. Furthermore, the imaging direction of the camera 12 is inclined toward the road surface 31 by about 45 degrees from the horizontal plane. Further, the luminance value when the image acquired by the camera 12 is transferred to the ECU 13 is in the range of 0 to 255 (0: darkest, 255: brightest).

姿勢変化量算出部24は、一定の情報処理サイクル毎に撮像されるフレームのうち、前回フレームに含まれる複数の特徴点の画像上の位置(U、V)をメモリから読み込む。更に、今回フレームに含まれる複数の特徴点の画像上の位置(U、V)をメモリから読み込む。そして、複数の特徴点の画像上での位置変化に基づいて、車両の姿勢変化量を求める。ここで、各フレームの特徴点は、第2フィルタ17によって抽出された画像から検出されている。また、図3(b)に示すように特徴点を検出する領域33とパターン光32aを投光する領域が同一である場合には、各フレームの特徴点は、第2フィルタ17によって抽出された画像上のパターン光が投光されている領域から検出されている。そして、「車両の姿勢変化量」とは、路面31に対する「距離及び姿勢角」の変化量、及び路面上での「車両(カメラ12)の移動量」の双方を含んでいる。以下、距離及び姿勢角の変化量及び車両の移動量の算出方法について説明する。 The posture change amount calculation unit 24 reads, from the memory, the positions (U i , V i ) on the image of a plurality of feature points included in the previous frame among frames that are captured every certain information processing cycle. Further, the positions (U i , V i ) on the image of a plurality of feature points included in the current frame are read from the memory. Then, the amount of change in the attitude of the vehicle is obtained based on the change in position of the plurality of feature points on the image. Here, the feature points of each frame are detected from the image extracted by the second filter 17. In addition, as shown in FIG. 3B, when the area 33 for detecting feature points is the same as the area for projecting the pattern light 32a, the feature points of each frame are extracted by the second filter 17. The pattern light on the image is detected from the projected area. The “vehicle attitude change amount” includes both the “distance and attitude angle” change amount relative to the road surface 31 and the “vehicle (camera 12) movement amount” on the road surface. Hereinafter, a method of calculating the change amount of the distance and the posture angle and the movement amount of the vehicle will be described.

図7(a)は、時刻tに取得された第1フレーム(画像)38の一例を示す。図6或いは図7(a)に示すように、第1フレーム38において、例えば3つの特徴点Te1、Te2、Te3の相対位置(X,Y,Z)がそれぞれ算出されている場合を考える。この場合、特徴点Te1、Te2、Te3によって特定される平面Gを路面と見なすことができる。よって、姿勢変化量算出部24は、相対位置(X,Y,Z)から、路面(平面G)に対するカメラ12の距離及び姿勢角(法線ベクトル)を求めることができる。更に、姿勢変化量算出部24は、既知のカメラモデルによって、各特徴点Te1、Te2、Te3の間の距離(l、l、l)及び夫々の特徴点Te1、Te2、Te3を結ぶ直線が成す角度を求めることができる。図6のカメラ12は、第1フレームにおけるカメラの位置を示す。 FIG. 7A shows an example of the first frame (image) 38 acquired at time t. As shown in FIG. 6 or FIG. 7A, in the first frame 38, for example, the relative positions (X i , Y i , Z i ) of three feature points T e1 , T e2 , T e3 are respectively calculated. Think if you are. In this case, the plane G specified by the feature points T e1 , T e2 , and T e3 can be regarded as a road surface. Therefore, the posture change amount calculation unit 24 can obtain the distance and posture angle (normal vector) of the camera 12 with respect to the road surface (plane G) from the relative position (X i , Y i , Z i ). Further, the posture change amount calculation unit 24, by known camera model, the distance between each feature point T e1, T e2, T e3 (l 1, l 2, l 3) and feature point of each T e1, T The angle formed by the straight line connecting e2 and Te3 can be obtained. The camera 12 in FIG. 6 shows the position of the camera in the first frame.

なお、カメラ12に対する相対位置を示す3次元座標(X,Y,Z)として、カメラ12の撮像方向をZ軸に設定し、撮像方向を法線とし且つカメラ12を含む平面内に、互いに直交するX軸及びY軸を設定する。一方、画像38上の座標として、水平方向及び垂直方向をそれぞれV軸及びU軸に設定する。 It should be noted that as the three-dimensional coordinates (X i , Y i , Z i ) indicating the relative position with respect to the camera 12, the imaging direction of the camera 12 is set to the Z axis, the imaging direction is normal, and the plane including the camera 12 is included. , X axis and Y axis orthogonal to each other are set. On the other hand, as the coordinates on the image 38, the horizontal direction and the vertical direction are set to the V axis and the U axis, respectively.

図7(b)は、時刻tから時間Δtだけ経過した時刻(t+Δt)に取得された第2フレームを示す。図6のカメラ12’は、第2フレーム38’を撮像したときのカメラの位置を示す。図6或いは図7(b)に示すように、第2フレーム38’において、カメラ12’が特徴点Te1、Te2、Te3を撮像し、特徴点検出部23が特徴点Te1、Te2、Te3を検出する。この場合、姿勢変化量算出部24は、時刻tにおける各特徴点Te1、Te2、Te3の相対位置(X,Y,Z)と、各特徴点の第2フレーム38’上の位置P(U、V)と、カメラ12のカメラモデルとから、時間Δtにおけるカメラ12の移動量(ΔL)だけでなく、距離及び姿勢角の変化量も算出することができる。例えば、以下の(1)〜(4)式からなる連立方程式を解くことにより、姿勢変化量算出部24は、カメラ12(車両)の移動量(ΔL)、及び距離及び姿勢角の変化量を算出することができる。なお、(1)式はカメラ12が歪みや光軸ずれのない理想的なピンホールカメラとしてモデル化したものであり、λiは定数、fは焦点距離である。カメラモデルのパラメータは、予めキャリブレーションをしておけばよい。 FIG. 7B shows a second frame acquired at time (t + Δt) when time Δt has elapsed from time t. The camera 12 ′ in FIG. 6 indicates the position of the camera when the second frame 38 ′ is imaged. As shown in FIG. 6 or 7B, in the second frame 38 ′, the camera 12 ′ captures the feature points T e1 , T e2 , and T e3 , and the feature point detection unit 23 performs the feature points T e1 , T e2 and Te3 are detected. In this case, the posture change amount calculation unit 24 calculates the relative position (X i , Y i , Z i ) of each feature point T e1 , T e2 , T e3 at time t and the second frame 38 ′ of each feature point. From the position P 1 (U i , V i ) and the camera model of the camera 12, not only the movement amount (ΔL) of the camera 12 at the time Δt but also the amount of change in the distance and posture angle can be calculated. For example, the posture change amount calculation unit 24 calculates the movement amount (ΔL) of the camera 12 (vehicle) and the change amounts of the distance and posture angle by solving simultaneous equations including the following equations (1) to (4). Can be calculated. Equation (1) is modeled as an ideal pinhole camera in which the camera 12 has no distortion or optical axis deviation, λi is a constant, and f is a focal length. The camera model parameters may be calibrated in advance.

図3(a)は、カメラ12の撮像範囲の路面31のうち、パターン光32aが照射された領域とは異なる他の領域33から特徴点を検出し、検出された特徴点の時間変化からカメラ12の移動方向34を求める様子を模式的に示す。また、図7(a)及び図7(b)には、各特徴点Tの位置の変化方向及び変化量を示すベクトルDteを画像に重畳して示す。姿勢変化量算出部24は、時間Δtにおけるカメラ12の移動量(ΔL)だけでなく、距離及び姿勢角の変化量も同時に算出することができる。よって、姿勢変化量算出部24は、距離及び姿勢角の変化量を考慮して、6自由度の移動量(ΔL)を精度よく算出することができる。すなわち、車両10の旋回や加減速によるロール運動或いはピッチ運動によって距離や姿勢角が変化しても、移動量(ΔL)の推定誤差を抑制することができる。 FIG. 3A shows a feature point detected from another region 33 different from the region irradiated with the pattern light 32a in the road surface 31 of the imaging range of the camera 12, and the camera is detected from the time variation of the detected feature point. The manner in which twelve moving directions 34 are obtained is schematically shown. Further, in FIGS. 7 (a) and 7 (b) shows superimposes the vector D te showing change direction and the change amount of the position of each feature point T e in the image. The posture change amount calculation unit 24 can simultaneously calculate not only the movement amount (ΔL) of the camera 12 at time Δt but also the change amounts of the distance and the posture angle. Therefore, the posture change amount calculation unit 24 can accurately calculate the movement amount (ΔL) with six degrees of freedom in consideration of the change amount of the distance and the posture angle. That is, even if the distance and the posture angle change due to the roll motion or the pitch motion caused by turning or acceleration / deceleration of the vehicle 10, the estimation error of the movement amount (ΔL) can be suppressed.

なお、姿勢変化量算出部24は、相対位置が算出された特徴点すべてを用いるのではなく、特徴点同士の位置関係に基づいて最適な特徴点を選定してもよい。選定方法としては、例えば、エピポーラ幾何(エピ極線幾何,R.I. Hartley: “A linear method for reconstruction from lines and points,” Proc. 5th International Conference on Computer Vision, Cambridge, Massachusetts, pp.882-887(1995))を用いることができる。 Note that the posture change amount calculation unit 24 may select optimal feature points based on the positional relationship between the feature points, instead of using all the feature points whose relative positions are calculated. As selection procedures, for example, the epipolar geometry (epipolar geometry, RI Hartley:. "A linear method for reconstruction from lines and points," Proc 5 th International Conference on Computer Vision, Cambridge, Massachusetts, pp.882-887 ( 1995)) can be used.

前後フレーム間で特徴点を対応付けるには、例えば、検出した特徴点の周辺の小領域の画像をメモリに記録しておき、輝度や色情報の類似度から判断すればよい。具体的には、ECU13は、検出した特徴点を中心とする5×5(水平×垂直)画素分の画像をメモリに記録する。姿勢変化量算出部24は、例えば、輝度情報が20画素以上で誤差1%以下に収まっていれば、前後フレーム間で対応関係が取れる特徴点であると判断する。   In order to associate feature points between the preceding and following frames, for example, an image of a small area around the detected feature points may be recorded in a memory and determined from the similarity of luminance and color information. Specifically, the ECU 13 records an image for 5 × 5 (horizontal × vertical) pixels centered on the detected feature point in the memory. For example, if the luminance information is 20 pixels or more and the error is within 1% or less, the posture change amount calculation unit 24 determines that the feature point is a feature point that can be correlated between the previous and next frames.

このように、相対位置(X,Y,Z)が算出された特徴点Te1、Te2、Te3が、後のタイミングで取得された画像38’からも検出された場合に、姿勢変化量算出部24は、路面上の複数の特徴点の時間変化に基づいて、「車両の姿勢変化量」を算出することができる。 As described above, when the feature points T e1 , T e2 , and T e3 whose relative positions (X i , Y i , Z i ) are calculated are also detected from the image 38 ′ acquired at a later timing, The posture change amount calculation unit 24 can calculate a “vehicle posture change amount” based on temporal changes of a plurality of feature points on the road surface.

自己位置算出部26は、姿勢変化量算出部24で算出された「距離及び姿勢角の変化量」から距離及び姿勢角を算出する。更に、姿勢変化量算出部24で算出された「車両の移動量」から車両の現在位置を算出する。   The self position calculation unit 26 calculates the distance and posture angle from the “distance and change amount of posture angle” calculated by the posture change amount calculation unit 24. Further, the current position of the vehicle is calculated from the “movement amount of the vehicle” calculated by the posture change amount calculation unit 24.

具体的には、姿勢角算出部22(図1参照)で算出された距離及び姿勢角が起点として設定された場合、この起点(距離及び姿勢角)に対して、姿勢変化量算出部24で算出された各フレーム毎の距離及び姿勢角の変化量を逐次加算する(積分演算する)ことにより、距離及び姿勢角を最新な数値に更新する。また、姿勢角算出部22で距離及び姿勢角が算出された際の車両位置が起点(車両の初期位置)として設定され、この初期位置から車両の移動量を逐次加算する(積分演算する)ことにより、車両の現在位置を算出する。例えば、地図上の位置と照合された起点(車両の初期位置)を設定することで、地図上の車両の現在位置を逐次算出することができる。   Specifically, when the distance and posture angle calculated by the posture angle calculation unit 22 (see FIG. 1) are set as starting points, the posture change amount calculation unit 24 performs the setting with respect to the starting point (distance and posture angle). The calculated distance and posture angle change amount for each frame is sequentially added (integral calculation), thereby updating the distance and posture angle to the latest numerical values. In addition, the vehicle position when the distance and posture angle are calculated by the posture angle calculation unit 22 is set as a starting point (initial position of the vehicle), and the moving amount of the vehicle is sequentially added from this initial position (integral calculation). Thus, the current position of the vehicle is calculated. For example, the current position of the vehicle on the map can be sequentially calculated by setting the starting point (the initial position of the vehicle) that is collated with the position on the map.

このように、前後フレーム間で対応関係が取れる3点以上の特徴点を検出し続けることができれば、距離及び姿勢角の変化量を加算する処理(積分演算)を継続することにより、パターン光32aを用いることなく、距離や姿勢角を最新な数値に更新し続けることができる。ただし、最初の情報処理サイクルにおいては、パターン光32aを用いて算出された距離及び姿勢角、或いは所定の初期距離及び初期姿勢角を用いてもよい。つまり、積分演算の起点となる距離及び姿勢角は、パターン光32aを用いて算出しても、或いは、所定の初期値を用いても構わない。所定の初期距離及び初期姿勢角は、少なくとも車両10への乗員及び搭載物を考慮した距離及び姿勢角であることが望ましい。例えば、車両10のイグニションスイッチがオン状態であって、且つシフトポジションがパーキングから他のポジションへ移動した時に、パターン光32aを投光し、パターン光32aから算出された距離及び姿勢角を、所定の初期距離及び初期姿勢角として用いればよい。これにより、車両10の旋回や加減速によるロール運動或いはピッチ運動が発生していない時の距離や姿勢角を求めることができる。   In this way, if it is possible to continue to detect three or more feature points that can be correlated between the preceding and following frames, the pattern light 32a can be obtained by continuing the process of adding the distance and the change amount of the posture angle (integral calculation). The distance and posture angle can be continuously updated to the latest values without using. However, in the first information processing cycle, a distance and posture angle calculated using the pattern light 32a, or a predetermined initial distance and initial posture angle may be used. That is, the distance and the attitude angle that are the starting points of the integration calculation may be calculated using the pattern light 32a, or may use predetermined initial values. It is desirable that the predetermined initial distance and initial posture angle are a distance and posture angle that take into account at least an occupant and a load on the vehicle 10. For example, when the ignition switch of the vehicle 10 is on and the shift position moves from parking to another position, the pattern light 32a is projected, and the distance and posture angle calculated from the pattern light 32a are set to a predetermined value. The initial distance and the initial posture angle may be used. Thereby, the distance and the posture angle when the roll motion or the pitch motion due to the turning or acceleration / deceleration of the vehicle 10 is not generated can be obtained.

本実施形態では、自己位置算出部26は、所定のフレーム毎に、姿勢角算出部22が算出した距離及び姿勢角及びその時の車両位置を新たな積分演算の起点(車両の姿勢角及び初期位置)に設定し、当該起点から車両の姿勢変化量の加算を開始する。例えば、本実施形態では、10フレーム毎に新たな基点を設定し、新たな基点が設定されると、次の10フレーム目まで積分演算の起点を維持する。以下、図8を参照して、10フレーム毎に基点を設定する場合の制御を説明する。図8では、赤色レーザポインターでパターン光を投光する場合について説明する。   In the present embodiment, the self-position calculation unit 26 calculates the distance and posture angle calculated by the posture angle calculation unit 22 and the vehicle position at that time as a starting point of a new integration operation (vehicle posture angle and initial position for each predetermined frame. ) And the addition of the vehicle attitude change amount is started from the starting point. For example, in this embodiment, a new base point is set every 10 frames, and when a new base point is set, the starting point of the integration calculation is maintained until the next 10th frame. Hereinafter, with reference to FIG. 8, the control in the case of setting the base point every 10 frames will be described. In FIG. 8, the case where pattern light is projected with a red laser pointer will be described.

図8に示すように、まず時刻t1において、パターン光を投光するフラグがONに立ち上がると、R信号の画像を用いるフラグが同時にONに立ち上がる。これにより、パターン光抽出部21が第1フィルタ15によって抽出された画像からパターン光の位置を抽出し、姿勢角算出部22は抽出されたパターン光の位置から路面に対する車両の距離及び姿勢角及びその時の車両位置を算出する。そして、自己位置算出部26は、これらを新たな積分演算の起点に設定する。   As shown in FIG. 8, first, when the flag for projecting pattern light rises to ON at time t1, the flag using the R signal image rises to ON at the same time. Thereby, the pattern light extraction unit 21 extracts the position of the pattern light from the image extracted by the first filter 15, and the posture angle calculation unit 22 determines the distance and posture angle of the vehicle with respect to the road surface from the position of the extracted pattern light, and The vehicle position at that time is calculated. Then, the self-position calculation unit 26 sets these as starting points for new integration calculations.

この後、時刻t2になると、パターン光を投光するフラグとR信号の画像を用いるフラグがONからOFFに立ち下がり、B信号またはG信号の画像を用いるフラグがOFFからONに立ち上がる。これにより、特徴点検出部23が第2フィルタ17によって抽出された画像から特徴点を検出し、姿勢変化量算出部24は検出された特徴点から距離及び姿勢角の変化量を算出する。そして、自己位置算出部26は、設定された積分演算の起点に距離及び姿勢角の変化量を加算して最新の距離や姿勢角に更新する。この後、次の10フレーム目までフレーム毎に距離及び姿勢角の変化量を逐次加算してゆくことで距離及び姿勢角を更新し続け、時刻t11になると、新たな積分演算の起点が設定される。こうして本実施形態に係る自己位置算出装置は、車両の自己位置を継続して算出してゆくことができる。   Thereafter, at time t2, the flag for projecting pattern light and the flag using the R signal image fall from ON to OFF, and the flag using the B signal or G signal image rises from OFF to ON. Thereby, the feature point detection unit 23 detects the feature point from the image extracted by the second filter 17, and the posture change amount calculation unit 24 calculates the change amount of the distance and the posture angle from the detected feature point. Then, the self-position calculation unit 26 adds the change amount of the distance and the posture angle to the set starting point of the integral calculation, and updates it to the latest distance and posture angle. Thereafter, the distance and the posture angle are continuously updated by sequentially adding the distance and the posture angle change amount for each frame up to the next tenth frame. At time t11, a new starting point for the integration operation is set. The In this way, the self-position calculating device according to the present embodiment can continuously calculate the self-position of the vehicle.

なお、実施形態では、距離及び姿勢角の変化量を算出し、距離及び姿勢角の変化量を逐次加算することにより、距離及び姿勢角を最新な数値に更新した。しかし、路面31に対するカメラ12の姿勢角だけをその変化量の算出及び更新の対象としても構わない。この場合、路面31に対するカメラ12の距離は一定と仮定すればよい。これにより、姿勢角の変化量を考慮して、移動量(ΔL)の推定誤差を抑制しつつ、ECU13の演算負荷を軽減し、且つ演算速度を向上させることもできる。   In the embodiment, the distance and posture angle change amount is calculated, and the distance and posture angle change amount are sequentially added to update the distance and posture angle to the latest numerical values. However, only the attitude angle of the camera 12 with respect to the road surface 31 may be a target for calculating and updating the change amount. In this case, the distance of the camera 12 relative to the road surface 31 may be assumed to be constant. Accordingly, it is possible to reduce the calculation load of the ECU 13 and improve the calculation speed while suppressing the estimation error of the movement amount (ΔL) in consideration of the change amount of the posture angle.

パターン光制御部27は、投光器11によるパターン光32aの投光を制御する。例えば、車両10のイグニションスイッチがオン状態となり、自己位置算出装置が起動すると同時に、パターン光制御部27は、パターン光32aの投光を開始する。その後、パターン光制御部27は、自己位置算出装置が停止するまで、パターン光32aを連続して投光する。或いは、所定の時間間隔をおいて、投光のオン/オフを繰り返してもよい。   The pattern light control unit 27 controls the projection of the pattern light 32 a by the projector 11. For example, when the ignition switch of the vehicle 10 is turned on and the self-position calculating device is activated, the pattern light control unit 27 starts projecting the pattern light 32a. Thereafter, the pattern light control unit 27 continuously projects the pattern light 32a until the self-position calculating device stops. Alternatively, the on / off of the light projection may be repeated at a predetermined time interval.

(情報処理サイクル)
次に、カメラ12により取得された画像38から車両10の移動量を推定する自己位置算出方法の一例として、ECU13により繰り返し実行される情報処理サイクルを、図9及び図10を参照しながら説明する。図9のフローチャートに示す情報処理サイクルは、車両10のイグニションスイッチがオン状態となり、自己位置算出装置が起動すると同時に開始され、自己位置算出装置が停止するまで、繰り返し実行される。
(Information processing cycle)
Next, as an example of a self-position calculation method for estimating the movement amount of the vehicle 10 from the image 38 acquired by the camera 12, an information processing cycle repeatedly executed by the ECU 13 will be described with reference to FIGS. . The information processing cycle shown in the flowchart of FIG. 9 is repeatedly executed until the ignition switch of the vehicle 10 is turned on, the self-position calculation device is started, and the self-position calculation device is stopped.

図9のステップS01において、パターン光制御部27は、投光器11を制御して、車両周囲の路面31にパターン光32aを投光する。本実施形態では、パターン光として赤色レーザを用いる。   In FIG.9 S01, the pattern light control part 27 controls the light projector 11, and projects the pattern light 32a on the road surface 31 around a vehicle. In this embodiment, a red laser is used as the pattern light.

ステップS03に進み、ECU13は、カメラ12を制御して、パターン光32aが投光された領域を含む車両周囲の路面31を撮像して画像38を取得する。ECU13は、カメラ12により取得された画像データを、メモリに記憶する。   In step S03, the ECU 13 controls the camera 12 to capture the road surface 31 around the vehicle including the area where the pattern light 32a is projected, and obtain an image 38. The ECU 13 stores the image data acquired by the camera 12 in a memory.

なお、ECU13はカメラ12の絞りを自動制御できる。前の情報処理サイクルで取得した画像38の平均輝度から、輝度値の最大値と最小値の中間値になるようにカメラ12の絞りをフィードバック制御してもよい。また、パターン光32aが投光されている領域は輝度値が高いため、パターン光32aを抽出した部分を除いた領域から、平均輝度値を求めてもよい。   The ECU 13 can automatically control the aperture of the camera 12. The diaphragm of the camera 12 may be feedback controlled so that the average luminance of the image 38 acquired in the previous information processing cycle becomes an intermediate value between the maximum value and the minimum value of the luminance value. Moreover, since the brightness | luminance value is high in the area | region where the pattern light 32a is projected, you may obtain | require an average luminance value from the area | region except the part which extracted the pattern light 32a.

ステップS05において、第1フィルタ15及び第2フィルタ17によって画像の抽出を行う。具体的に、第1フィルタ15は、カメラ12によって取得された画像からパターン光32aの波長域の画像を抽出する。本実施形態では、パターン光32aは赤色レーザなので、赤色(600〜650nm)の波長域の画像を抽出する。また、第2フィルタ17は、カメラ12によって取得された画像からパターン光32aの波長域を含まない画像を抽出する。本実施形態では、パターン光32aは赤色レーザなので、赤色の波長域を含まない青色(450〜570nm)または緑色(520〜560nm)のいずれかの波長域の画像、あるいは青色と緑色の両方の波長域の画像を抽出する。第1フィルタ15及び第2フィルタ17で抽出された画像は、メモリに記憶される。   In step S05, the first filter 15 and the second filter 17 extract an image. Specifically, the first filter 15 extracts an image in the wavelength region of the pattern light 32 a from the image acquired by the camera 12. In the present embodiment, since the pattern light 32a is a red laser, an image in the red (600 to 650 nm) wavelength region is extracted. The second filter 17 extracts an image that does not include the wavelength range of the pattern light 32 a from the image acquired by the camera 12. In the present embodiment, since the pattern light 32a is a red laser, an image in one of the blue (450 to 570 nm) and green (520 to 560 nm) wavelength ranges not including the red wavelength range, or both blue and green wavelengths. Extract a region image. The images extracted by the first filter 15 and the second filter 17 are stored in the memory.

ステップS07に進み、先ず、パターン光抽出部21は、カメラ12により取得された画像38のうち第1フィルタ15によって抽出された画像をメモリから読み込み、図4(c)に示すようにパターン光32aの位置を抽出する。パターン光抽出部21は、パターン光32aの位置を示すデータとして算出されたスポット光Sの画像上の座標(U、V)をメモリに記憶する。 In step S07, the pattern light extraction unit 21 first reads an image extracted by the first filter 15 out of the image 38 acquired by the camera 12, from the memory, and as shown in FIG. 4C, the pattern light 32a. Extract the position of. Pattern light extraction unit 21 stores the coordinates (U j, V j) on the image of the spot light S p calculated as data indicating the position of the pattern light 32a in the memory.

ステップS07において、姿勢角算出部22は、第1フィルタ15で抽出された画像におけるパターン光32aの位置を示すデータをメモリから読み込み、パターン光32aの位置から、距離及び姿勢角を算出し、メモリに記憶する。   In step S07, the posture angle calculation unit 22 reads data indicating the position of the pattern light 32a in the image extracted by the first filter 15 from the memory, calculates the distance and the posture angle from the position of the pattern light 32a, and stores the memory. To remember.

ステップS09に進み、ECU13は、画像38のうち第2フィルタ17によって抽出された画像から特徴点を検出し、前後の情報処理サイクルの間で対応関係が取れる特徴点を抽出する。そして、ECU13は、特徴点の画像上の位置(U、V)から、距離及び姿勢角の変化量及び車両の移動量を算出する。 Proceeding to step S09, the ECU 13 detects a feature point from the image extracted by the second filter 17 in the image 38, and extracts a feature point that can be correlated between the preceding and following information processing cycles. Then, the ECU 13 calculates the distance and the change amount of the attitude angle and the movement amount of the vehicle from the position (U i , V i ) on the image of the feature point.

具体的に、先ず、特徴点検出部23は、カメラ12により取得された画像38のうち第2フィルタ17によって抽出された画像をメモリから読み込む。そして、読み込んだ画像から路面31上の特徴点を検出し、各特徴点の画像上の位置(U、V)をメモリに記憶する。姿勢変化量算出部24は、各特徴点の画像上の位置(U、V)をメモリから読み込み、距離及び姿勢角と、特徴点の画像上の位置(U、V)とから、カメラ12に対する特徴点の相対位置(X,Y,Z)を算出する。なお、姿勢変化量算出部24は、前の情報処理サイクルのステップS11において設定された距離及び姿勢角を用いる。姿勢変化量算出部24は、カメラ12に対する特徴点の相対位置(X,Y,Z)を、メモリに記憶する。 Specifically, first, the feature point detection unit 23 reads an image extracted by the second filter 17 from the image 38 obtained by the camera 12 from the memory. Then, feature points on the road surface 31 are detected from the read image, and the positions (U i , V i ) of the feature points on the image are stored in the memory. The posture change amount calculation unit 24 reads the position (U i , V i ) of each feature point on the image from the memory, and based on the distance and posture angle and the position (U i , V i ) of the feature point on the image. Then, the relative position (X i , Y i , Z i ) of the feature point with respect to the camera 12 is calculated. The posture change amount calculation unit 24 uses the distance and posture angle set in step S11 of the previous information processing cycle. The posture change amount calculation unit 24 stores the relative positions (X i , Y i , Z i ) of the feature points with respect to the camera 12 in the memory.

そして、姿勢変化量算出部24は、特徴点の画像上の位置(U、V)と、前の情報処理サイクルのステップS09において算出された特徴点の相対位置(X,Y,Z)をメモリから読み込む。姿勢変化量算出部24は、前後の情報処理サイクルの間で対応関係が取れる特徴点の相対位置(X,Y,Z)及び画像上の位置(U、V)を用いて、距離及び姿勢角の変化量を算出する。更に、前回の情報処理サイクルにおける特徴点の相対位置(X,Y,Z)と今回の情報処理サイクルにおける特徴点の相対位置(X,Y,Z)とから、車両の移動量を算出する。ステップS09で算出された「距離及び姿勢角の変化量」及び「車両の移動量」は、ステップS13の処理で用いられる。 The posture change amount calculation unit 24 then compares the position of the feature point on the image (U i , V i ) and the relative position of the feature point calculated in step S09 of the previous information processing cycle (X i , Y i , Z i ) is read from memory. The posture change amount calculation unit 24 uses the relative position (X i , Y i , Z i ) of the feature point and the position (U i , V i ) on the image that can be correlated between the previous and subsequent information processing cycles. The amount of change in distance and posture angle is calculated. Furthermore, the relative positions of feature points in the previous processing cycle (X i, Y i, Z i) and the relative positions of feature points in the current processing cycle (X i, Y i, Z i) from the, vehicle The amount of movement is calculated. The “amount of change in distance and attitude angle” and “amount of movement of the vehicle” calculated in step S09 are used in the process of step S13.

ステップS11に進み、ECU13は、所定のフレーム毎に積分演算の起点を設定する。詳細は、図10を参照して後述する。   Proceeding to step S11, the ECU 13 sets the starting point of the integral calculation for each predetermined frame. Details will be described later with reference to FIG.

ステップS13に進み、自己位置算出部26は、ステップS11の処理で設定された積分演算の起点、及びステップS09の処理で算出された車両の移動量から、車両の現在位置を算出する。   Proceeding to step S13, the self-position calculating unit 26 calculates the current position of the vehicle from the starting point of the integral calculation set in the process of step S11 and the movement amount of the vehicle calculated in the process of step S09.

こうして、本実施形態に係る自己位置算出装置は、上記した一連の情報処理サイクルを繰り返し実行して車両10の移動量を積算することにより、車両10の現在位置を算出することができる。   In this way, the self-position calculation device according to the present embodiment can calculate the current position of the vehicle 10 by repeatedly executing the series of information processing cycles described above and integrating the movement amount of the vehicle 10.

次に、図10のフローチャートを参照して、図9のステップS11の詳細な手順を説明する。ステップS901において、ECU13は、今回の情報処理サイクルが初回であるか否かを判断する。そして、初回である場合、即ち、前回の情報処理サイクルのデータが無い場合にはステップS905に処理を進め、初回でない場合にはステップS903に処理を進める。   Next, the detailed procedure of step S11 in FIG. 9 will be described with reference to the flowchart in FIG. In step S901, the ECU 13 determines whether or not the current information processing cycle is the first time. If it is the first time, that is, if there is no data in the previous information processing cycle, the process proceeds to step S905. If not, the process proceeds to step S903.

ステップS903において、自己位置算出部26は、今回のフレームが新たに積分演算の起点を設定するフレームであるか否かを判定する。図8で説明したように、本実施形態では、例えば10フレーム毎に積分演算の起点を新たに設定しているので、今回のフレームが10フレーム目に該当しているか否かを判定する。今回のフレームが積分演算の起点を新たに設定するフレームである場合(ステップS903でYES)にはステップS905へ進み、積分演算の起点を設定しないフレームである場合(ステップS903でNO)にはステップS907へ進む。   In step S903, the self-position calculation unit 26 determines whether or not the current frame is a frame for newly setting the starting point of the integration calculation. As described with reference to FIG. 8, in this embodiment, for example, since the starting point of the integration calculation is newly set every 10 frames, it is determined whether or not the current frame corresponds to the 10th frame. If the current frame is a frame for newly setting the starting point of integration calculation (YES in step S903), the process proceeds to step S905. If the current frame is a frame for which the starting point of integration calculation is not set (NO in step S903), step is performed. The process proceeds to S907.

ステップS907において、ECU13は、現在設定されている積分演算の起点を維持する。   In step S907, the ECU 13 maintains the currently set starting point of the integral calculation.

ステップS905において、ECU13は、車両の現在位置を起点として設定し、更に、同じ情報処理サイクルのステップS07で算出された距離及び姿勢角を積分演算の起点として設定する。この距離及び姿勢角を起点として新たな積分演算が開始される。また、車両の現在位置を起点として新たに車両の移動量の積分演算を開始する。この後、図9のステップS13に処理を進める。   In step S905, the ECU 13 sets the current position of the vehicle as the starting point, and further sets the distance and posture angle calculated in step S07 of the same information processing cycle as the starting point of the integration calculation. A new integration operation is started from this distance and posture angle as the starting point. Also, the integration calculation of the movement amount of the vehicle is newly started from the current position of the vehicle. Thereafter, the process proceeds to step S13 in FIG.

(実施形態の効果)
以下、本実施形態に係る自己位置算出装置による効果を説明する。道路の路面上には排水することを目的としたカントやアスファルトの経年劣化による凹凸、段差といった路面変化がある。このとき、特徴点を検出する領域とパターン光を投光する領域が異なれば、これらの路面変化によって路面に対する車両の距離及び姿勢角の算出結果には誤差が生じてしまう。そこで、パターン光を投光する領域と特徴点を検出する領域は重なっている領域であることが望ましい。
(Effect of embodiment)
Hereinafter, effects of the self-position calculation apparatus according to the present embodiment will be described. On the road surface, there are road surface changes such as unevenness and steps due to aging of cantes and asphalt for drainage. At this time, if the area where the feature points are detected differs from the area where the pattern light is projected, an error occurs in the calculation result of the distance and posture angle of the vehicle with respect to the road surface due to the change in the road surface. Therefore, it is desirable that the area where pattern light is projected and the area where feature points are detected overlap.

しかしながら、パターン光を投光する領域と特徴点を検出する領域を重なった領域にすると、パターン光と特徴点(テクスチャ)の判別が難しいので、パターン光を特徴点であると誤検出してしまう場合がある。例えば、特徴点を検出する領域にパターン光を投光すると、図11(a)に示す撮像画像から図11(b)に示すパターン光が抽出され、図11(c)に示す特徴点が検出される。図11(c)に示すように、パターン光を特徴点として誤検出していることが分かる。路面の特徴点であると誤検出されたパターン光は、撮像画像上で動かないので、特に走行中の路面に対する車両の移動距離の検出結果に誤差を生じさせる要因となっていた。   However, if the area where pattern light is projected and the area where feature points are detected overlap, it is difficult to discriminate between pattern light and feature points (textures), so pattern light is erroneously detected as a feature point. There is a case. For example, when pattern light is projected onto a region for detecting feature points, the pattern light shown in FIG. 11B is extracted from the captured image shown in FIG. 11A, and the feature points shown in FIG. 11C are detected. Is done. As shown in FIG. 11C, it can be seen that pattern light is erroneously detected as a feature point. Pattern light that is erroneously detected as a road surface feature point does not move on the captured image, and this is a factor that causes an error in the detection result of the moving distance of the vehicle with respect to the road surface that is running.

これに対して、本実施形態に係る自己位置算出装置では、第1フィルタ15によってパターン光の波長域の画像を抽出し、第2フィルタ17によってパターン光の波長域を含まない画像を抽出する。そして、第1フィルタ15によって抽出された画像におけるパターン光の位置から路面に対する車両の姿勢角を算出し、第2フィルタ17によって抽出された画像から検出された特徴点の時間変化に基づいて車両の姿勢変化量を算出する。これにより、特徴点を検出する領域とパターン光を投光する領域が重なっていても、パターン光を特徴点であると誤検出することを防止でき、車両の現在位置を精度良く且つ安定して推定することができる。   In contrast, in the self-position calculation apparatus according to the present embodiment, the first filter 15 extracts an image in the wavelength range of the pattern light, and the second filter 17 extracts an image not including the wavelength range of the pattern light. Then, the attitude angle of the vehicle with respect to the road surface is calculated from the position of the pattern light in the image extracted by the first filter 15, and based on the time change of the feature point detected from the image extracted by the second filter 17. Calculate the amount of posture change. As a result, even if the region where the feature point is detected overlaps the region where the pattern light is projected, it is possible to prevent the pattern light from being erroneously detected as a feature point, and the current position of the vehicle can be accurately and stably maintained. Can be estimated.

また、本実施形態に係る自己位置算出装置では、第2フィルタ17によって抽出された画像上のパターン光が投光されている領域から特徴点を検出し、検出された特徴点の時間変化に基づいて車両の姿勢変化量を算出する。これにより、特徴点を検出する領域とパターン光を投光する領域を重ねることができるので、路面上の凹凸や段差等の路面変化によって生じる誤差を低減することができる。   Further, in the self-position calculation device according to the present embodiment, a feature point is detected from the region where the pattern light on the image extracted by the second filter 17 is projected, and based on the time change of the detected feature point. To calculate the attitude change amount of the vehicle. Thereby, since the area | region which detects a feature point and the area | region which projects pattern light can be overlapped, the error which arises by road surface changes, such as an unevenness | corrugation on a road surface and a level | step difference, can be reduced.

また、本実施形態に係る自己位置算出装置では、投光器11が赤色の波長域のパターン光を投光し、第1フィルタ15が赤色の波長域の画像を抽出する。これにより、パターン光の光源として赤色レーザを用いることができるので、投光器11の構造を簡便な構造にすることができ、システムの信頼性を向上させることができる。   In the self-position calculation device according to the present embodiment, the projector 11 projects pattern light in the red wavelength region, and the first filter 15 extracts an image in the red wavelength region. Thereby, since a red laser can be used as a light source for pattern light, the structure of the projector 11 can be simplified, and the reliability of the system can be improved.

また、本実施形態に係る自己位置算出装置では、投光器11が赤色の波長域のパターン光を投光し、第2フィルタ17が青色または緑色の少なくとも1つの波長域の画像を抽出する。これにより、パターン光の光源として赤色レーザを用いることができるので、投光器11の構造を簡便な構造にすることができ、システムの信頼性を向上させることができる。   In the self-position calculation apparatus according to the present embodiment, the projector 11 projects pattern light in the red wavelength range, and the second filter 17 extracts an image in at least one wavelength range of blue or green. Thereby, since a red laser can be used as a light source for pattern light, the structure of the projector 11 can be simplified, and the reliability of the system can be improved.

上記のように、本発明の実施形態を記載したが、この開示の一部をなす論述及び図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。   Although the embodiments of the present invention have been described as described above, it should not be understood that the descriptions and drawings constituting a part of this disclosure limit the present invention. From this disclosure, various alternative embodiments, examples and operational techniques will be apparent to those skilled in the art.

なお、図2は、カメラ12と投光器11を車両10の前面に取り付けた例を示したが、車両10の側方,後方,真下に向けて設置してもよい。また、本実施形態では車両10の一例として、四輪の乗用自動車を図2に示したが、オートバイ、貨物自動車、或いは例えば建設機械を運搬する特殊車両など、道路の路面或いは壁面上の特徴点を撮像することが可能な移動体(車両)すべてに適用可能である。   Although FIG. 2 shows an example in which the camera 12 and the projector 11 are attached to the front surface of the vehicle 10, the camera 12 and the projector 11 may be installed sideways, rearward, or directly below the vehicle 10. Further, in the present embodiment, a four-wheeled passenger car is shown as an example of the vehicle 10 in FIG. 2, but a feature point on a road surface or wall surface of a road such as a motorcycle, a freight car, or a special vehicle carrying a construction machine, for example. The present invention can be applied to all moving bodies (vehicles) capable of imaging

10 車両
11 投光器
12 カメラ(撮像部)
15 第1フィルタ
17 第2フィルタ
21 パターン光抽出部
22 姿勢角算出部
23 特徴点検出部
24 姿勢変化量算出部
26 自己位置算出部
31 路面
32a、32b パターン光
51 赤色レーザポインター
53 制御基板
55 半導体レーザ
57 緑色レーザポインター
59 非線形結晶(YAG)
61 結晶(KTP)
63 レーザ出力感知部
Te 特徴点
10 vehicle 11 projector 12 camera (imaging part)
DESCRIPTION OF SYMBOLS 15 1st filter 17 2nd filter 21 Pattern light extraction part 22 Posture angle calculation part 23 Feature point detection part 24 Posture change amount calculation part 26 Self-position calculation part 31 Road surface 32a, 32b Pattern light 51 Red laser pointer 53 Control board 55 Semiconductor Laser 57 Green laser pointer 59 Nonlinear crystal (YAG)
61 Crystal (KTP)
63 Laser output sensor Te Features

Claims (5)

車両周囲の路面にパターン光を投光する投光器と、
前記車両に搭載され、前記パターン光が投光された領域を含む車両周囲の路面を撮像して画像を取得する撮像部と、
前記撮像部により取得された画像から前記パターン光の波長域の画像を抽出する第1フィルタと、
前記撮像部により取得された画像から前記パターン光の波長域を含まない画像を抽出する第2フィルタと、
前記第1フィルタによって抽出された画像における前記パターン光の位置から、前記路面に対する車両の姿勢角を算出する姿勢角算出部と、
前記第2フィルタによって抽出された画像から検出された前記路面上の複数の特徴点の時間変化に基づいて、前記車両の姿勢変化量を算出する姿勢変化量算出部と、
前記車両の初期位置および姿勢角に、前記姿勢変化量を加算してゆくことで、前記車両の現在位置および姿勢角を算出する自己位置算出部と、
を備えたことを特徴とする自己位置算出装置。
A projector that projects pattern light onto the road surface around the vehicle;
An imaging unit that is mounted on the vehicle and captures an image of a road surface around the vehicle including an area where the pattern light is projected; and
A first filter that extracts an image in the wavelength range of the pattern light from the image acquired by the imaging unit;
A second filter for extracting an image that does not include the wavelength range of the pattern light from the image acquired by the imaging unit;
An attitude angle calculation unit that calculates an attitude angle of the vehicle with respect to the road surface from the position of the pattern light in the image extracted by the first filter;
An attitude change amount calculating unit that calculates an attitude change amount of the vehicle based on temporal changes of a plurality of feature points on the road surface detected from the image extracted by the second filter;
A self-position calculator that calculates the current position and posture angle of the vehicle by adding the amount of posture change to the initial position and posture angle of the vehicle;
A self-position calculating device comprising:
請求項1に記載の自己位置算出装置であって、
前記姿勢変化量算出部は、前記第2フィルタによって抽出された画像上の前記パターン光が投光されている領域から検出された前記路面上の複数の特徴点の時間変化に基づいて、前記車両の姿勢変化量を算出することを特徴とする自己位置算出装置。
The self-position calculating device according to claim 1,
The posture change amount calculation unit is configured to change the vehicle based on time changes of a plurality of feature points on the road surface detected from an area where the pattern light on the image extracted by the second filter is projected. A self-position calculation device that calculates the amount of change in posture.
請求項1または2に記載の自己位置算出装置であって、
前記投光器は赤色の波長域のパターン光を投光し、前記第1フィルタは赤色の波長域の画像を抽出することを特徴とする自己位置算出装置。
The self-position calculating device according to claim 1 or 2,
The self-position calculating device, wherein the projector projects pattern light in a red wavelength range, and the first filter extracts an image in a red wavelength range.
請求項1または2に記載の自己位置算出装置であって、
前記投光器は赤色の波長域のパターン光を投光し、前記第2フィルタは青色または緑色の少なくとも1つの波長域の画像を抽出することを特徴とする自己位置算出装置。
The self-position calculating device according to claim 1 or 2,
The self-position calculation device according to claim 1, wherein the projector projects pattern light in a red wavelength range, and the second filter extracts an image in at least one wavelength range of blue or green.
車両に搭載された投光器から車両周囲の路面にパターン光を投光する手順と、
前記車両に搭載された撮像部によって、前記パターン光が投光された領域を含む車両周囲の路面を撮像して画像を取得する手順と、
前記車両の制御部が、前記取得した画像から前記パターン光の波長域の画像を第1フィルタで抽出する手順と、
前記制御部が、前記取得した画像から前記パターン光の波長域を含まない画像を第2フィルタで抽出する手順と、
前記制御部が、前記第1フィルタで抽出された画像における前記パターン光の位置から、前記路面に対する車両の姿勢角を算出する手順と、
前記制御部が、前記第2フィルタで抽出された画像から検出された前記路面上の複数の特徴点の時間変化に基づいて、前記車両の姿勢変化量を算出する手順と、
前記制御部が、前記車両の初期位置および姿勢角に、前記姿勢変化量を加算してゆくことで、前記車両の現在位置および姿勢角を算出する手順と、
を含むことを特徴とする自己位置算出方法。
A procedure for projecting pattern light from a projector mounted on a vehicle onto a road surface around the vehicle,
A procedure for obtaining an image by imaging a road surface around the vehicle including an area where the pattern light is projected by an imaging unit mounted on the vehicle;
A procedure in which the control unit of the vehicle extracts an image of the wavelength range of the pattern light from the acquired image with a first filter;
A procedure for the controller to extract an image that does not include the wavelength range of the pattern light from the acquired image with a second filter;
A step of calculating a posture angle of the vehicle with respect to the road surface from the position of the pattern light in the image extracted by the first filter;
A step of calculating a posture change amount of the vehicle based on temporal changes of a plurality of feature points on the road surface detected from the image extracted by the second filter;
The control unit calculates the current position and posture angle of the vehicle by adding the amount of posture change to the initial position and posture angle of the vehicle;
A self-position calculation method comprising:
JP2015063861A 2015-03-26 2015-03-26 Self-position calculation device and self-position calculation method Active JP6459701B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015063861A JP6459701B2 (en) 2015-03-26 2015-03-26 Self-position calculation device and self-position calculation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015063861A JP6459701B2 (en) 2015-03-26 2015-03-26 Self-position calculation device and self-position calculation method

Publications (2)

Publication Number Publication Date
JP2016183889A JP2016183889A (en) 2016-10-20
JP6459701B2 true JP6459701B2 (en) 2019-01-30

Family

ID=57241811

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015063861A Active JP6459701B2 (en) 2015-03-26 2015-03-26 Self-position calculation device and self-position calculation method

Country Status (1)

Country Link
JP (1) JP6459701B2 (en)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4653316A (en) * 1986-03-14 1987-03-31 Kabushiki Kaisha Komatsu Seisakusho Apparatus mounted on vehicles for detecting road surface conditions
JP2001264033A (en) * 2000-03-17 2001-09-26 Sony Corp Three-dimensional shape-measuring apparatus and its method, three-dimensional modeling device and its method, and program providing medium
JP4032603B2 (en) * 2000-03-31 2008-01-16 コニカミノルタセンシング株式会社 3D measuring device
JP2004198211A (en) * 2002-12-18 2004-07-15 Aisin Seiki Co Ltd Apparatus for monitoring vicinity of mobile object
JP2004198212A (en) * 2002-12-18 2004-07-15 Aisin Seiki Co Ltd Apparatus for monitoring vicinity of mobile object
JP4780614B2 (en) * 2006-04-10 2011-09-28 アルパイン株式会社 Body behavior measuring device
JP4914726B2 (en) * 2007-01-19 2012-04-11 クラリオン株式会社 Current position calculation device, current position calculation method
RU2627914C1 (en) * 2014-02-24 2017-08-14 Ниссан Мотор Ко., Лтд. Device for calculation of own position and method of calculation of own position

Also Published As

Publication number Publication date
JP2016183889A (en) 2016-10-20

Similar Documents

Publication Publication Date Title
JP6237876B2 (en) Self-position calculation device and self-position calculation method
JP6269838B2 (en) Self-position calculation device and self-position calculation method
JP6237875B2 (en) Self-position calculation device and self-position calculation method
JP6187671B2 (en) Self-position calculation device and self-position calculation method
JP6187672B2 (en) Self-position calculation device and self-position calculation method
JP6237874B2 (en) Self-position calculation device and self-position calculation method
JP6176387B2 (en) Self-position calculation device and self-position calculation method
JP6547362B2 (en) Self-position calculation device and self-position calculation method
JP6398218B2 (en) Self-position calculation device and self-position calculation method
JP6369897B2 (en) Self-position calculation device and self-position calculation method
JP6299319B2 (en) Self-position calculation device and self-position calculation method
JP6492974B2 (en) Self-position calculation device and self-position calculation method
WO2015182771A1 (en) Image capturing device, image processing device, image processing method, and computer program
JP2015158417A (en) Self position calculation apparatus and self position calculation method
JP6459701B2 (en) Self-position calculation device and self-position calculation method
JP2006155400A (en) Image extraction device
JP6369898B2 (en) Self-position calculation device and self-position calculation method
JP6459745B2 (en) Self-position calculation device and self-position calculation method
JP2006155428A (en) Apparatus for monitoring area around vehicle
JP2015158419A (en) Self position calculation apparatus and self position calculation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181217

R151 Written notification of patent or utility model registration

Ref document number: 6459701

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151