JP6477348B2 - Self-position estimation apparatus and self-position estimation method - Google Patents

Self-position estimation apparatus and self-position estimation method Download PDF

Info

Publication number
JP6477348B2
JP6477348B2 JP2015157925A JP2015157925A JP6477348B2 JP 6477348 B2 JP6477348 B2 JP 6477348B2 JP 2015157925 A JP2015157925 A JP 2015157925A JP 2015157925 A JP2015157925 A JP 2015157925A JP 6477348 B2 JP6477348 B2 JP 6477348B2
Authority
JP
Japan
Prior art keywords
vehicle
image
unit
light
sign
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015157925A
Other languages
Japanese (ja)
Other versions
JP2017036980A (en
Inventor
光範 中村
光範 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2015157925A priority Critical patent/JP6477348B2/en
Publication of JP2017036980A publication Critical patent/JP2017036980A/en
Application granted granted Critical
Publication of JP6477348B2 publication Critical patent/JP6477348B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)
  • Image Processing (AREA)

Description

本発明は、車両の地図上での位置を推定する自己位置推定装置及び自己位置推定方法に関する。   The present invention relates to a self-position estimation apparatus and a self-position estimation method for estimating the position of a vehicle on a map.

特許文献1(特開2009−163714号公報)には、自車両の周囲に存在する標識の位置を推定し、推定した標識位置とナビゲーション装置に用いられる地図上の標識位置を照合して、地図情報に含まれる標識位置を補正することが開示されている。   In Patent Document 1 (Japanese Patent Laid-Open No. 2009-163714), a position of a sign existing around the host vehicle is estimated, and the estimated sign position is compared with a sign position on a map used for a navigation device. It is disclosed to correct the marker position included in the information.

該特許文献1では、投光器より周期的に点灯、消灯が切り替わる光を投光し、更に、この光の反射光をカメラで撮像し、点灯時及び消灯時に撮像した画像の差分画像を生成する。この差分画像に基づき、反射強度が所定値以上であり、且つ、対象とする標識(例えば、四角形)に相当する面積を有する領域を設定して、標識の有無及び位置を算出することが示されている。   In Patent Document 1, light that is periodically switched on and off is projected from a projector, and the reflected light of the light is captured by a camera, and a difference image between the images captured at the time of lighting and extinguishing is generated. Based on this difference image, it is shown that the presence / absence and position of a sign is calculated by setting a region having a reflection intensity equal to or higher than a predetermined value and having an area corresponding to a target sign (for example, a rectangle). ing.

特開2009−163714号公報JP 2009-163714 A

しかしながら、上述した特許文献1に開示された従来例では、投光する光と類似した周期で点灯、消灯する光源の存在や、車両に対する標識面の角度に応じてカメラで撮像した画像に含まれる反射光が変化してしまう。このため、カメラで撮像した画像に含まれる標識位置と地図情報に含まれる標識位置を照合できず、ひいては、車両の自己位置を高精度に推定できなくなるという問題があった。   However, in the conventional example disclosed in Patent Document 1 described above, it is included in an image captured by a camera in accordance with the presence of a light source that is turned on and off at a cycle similar to the light to be projected and the angle of the sign surface with respect to the vehicle. The reflected light changes. For this reason, there is a problem in that the sign position included in the image captured by the camera cannot be collated with the sign position included in the map information, and the self-position of the vehicle cannot be estimated with high accuracy.

本発明は、このような従来の課題を解決するためになされたものであり、その目的とするところは、車両の自己位置を高精度に推定することが可能な自己位置推定装置及び自己位置推定方法を提供することにある。   The present invention has been made to solve such a conventional problem, and an object of the present invention is to provide a self-position estimation device and a self-position estimation capable of estimating the self-position of a vehicle with high accuracy. It is to provide a method.

上記目的を達成するため、本発明の一態様は、車両周囲に光を投光する投光部と、投光部より光が投光された領域を含む車両周囲を撮像する撮像部と、撮像部で撮像された画像から反射光を抽出する反射光抽出部と、反射光抽出部にて抽出された反射光に基づいて、撮像部で撮像された画像から反射物の画像領域を設定し、画像領域の面積、中心座標、受信強度の分布、及び受信強度の積分値に基づいて、車両周囲に存在する標識位置を推定する標識位置推定部を有する。更に、地図情報を取得する地図情報取得部と、地図情報に含まれる標識位置と、標識位置推定部で推定された標識位置に基づいて、車両の地図上の位置を推定する自己位置推定部を備える。 In order to achieve the above object, according to one embodiment of the present invention, a light projecting unit that projects light around a vehicle, an image capturing unit that captures an area around the vehicle including a region where light is projected from the light projecting unit, and imaging Based on the reflected light extracted from the reflected light extracted from the image captured by the imaging unit and the reflected light extracted by the reflected light extracting unit , the image area of the reflector is set from the image captured by the imaging unit, Based on the area of the image area, the center coordinates, the distribution of the received intensity, and the integrated value of the received intensity, the apparatus has a sign position estimating unit that estimates a marker position existing around the vehicle. Further, a map information acquisition unit that acquires map information, a self-position estimation unit that estimates a position of the vehicle on the map based on the sign position included in the map information and the sign position estimated by the sign position estimation unit Prepare.

本発明によれば、撮像された画像から抽出された反射光の面積、強度の分布から車両周囲に存在する標識位置を推定し、更に、地図情報に含まれる標識位置に基づいて車両の地図上の位置を推定するので、車両の自己位置を高精度に推定することが可能となる。   According to the present invention, the sign position existing around the vehicle is estimated from the area and intensity distribution of the reflected light extracted from the captured image, and further on the map of the vehicle based on the sign position included in the map information. Therefore, it is possible to estimate the self-position of the vehicle with high accuracy.

本発明の一実施形態に係る自己位置推定装置の構成を示すブロック図である。It is a block diagram which shows the structure of the self-position estimation apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る自己位置推定装置の、自己位置推定の処置手順を示すフローチャートである。It is a flowchart which shows the treatment procedure of the self-position estimation of the self-position estimation apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る自己位置推定装置の、再散布処理の処置手順を示すフローチャートである。It is a flowchart which shows the treatment procedure of the respreading process of the self-position estimation apparatus which concerns on one Embodiment of this invention. (a)は車両位置と投光される光の強度分布との関係を示し、(b)は撮像部の画角と反射係数との関係を示す特性図である。(A) shows the relationship between the vehicle position and the intensity distribution of the projected light, and (b) is a characteristic diagram showing the relationship between the angle of view of the imaging unit and the reflection coefficient. 再散布処理により生成された計測画像の一例を示す説明図である。It is explanatory drawing which shows an example of the measurement image produced | generated by the respreading process. 画素のx座標と、受信強度との関係を示す特性図であり、(a)は反射光抽出部で取得された受信強度の分布を示し、(b)は再散布処理により得られた受信強度の分布を示す。It is a characteristic diagram which shows the relationship between the x coordinate of a pixel, and reception intensity, (a) shows distribution of the reception intensity acquired in the reflected light extraction part, (b) is reception intensity obtained by the respreading process The distribution of. 計測画像と複数の参照画像の画素値を乗算し、更にこれらの加算値を演算し、加算値が最大となる参照画像を選択する処理を模式的に示す説明図である。It is explanatory drawing which shows typically the process which multiplies the measured image and the pixel value of a some reference image, calculates these addition values, and selects the reference image with the largest addition value.

以下、本発明の実施形態を図面に基づいて説明する。図1は、本発明の一実施形態に係る自己位置推定装置100の構成を示すブロック図である。本実施形態に係る自己位置推定装置100は、車両周囲に存在する標識位置を高精度に検出し、且つ、検出した標識位置と地図情報に含まれる標識位置を照合することにより、地図上での車両の自己位置を推定する。なお、以下に示す「標識」とは、交通標識等の路側に立設されているものやボッツドッツと併設されている反射板等の路面に設けられているものを含む概念である。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a self-position estimation apparatus 100 according to an embodiment of the present invention. The self-position estimation apparatus 100 according to the present embodiment detects the sign positions existing around the vehicle with high accuracy, and collates the detected sign positions with the sign positions included in the map information. Estimate the vehicle's self-position. In addition, the “signs” shown below are concepts including those provided on the road side such as traffic signs and those provided on the road surface such as a reflector provided together with Botsdots.

図1に示すように、本実施形態に係る自己位置推定装置100は、投光部11と、撮像部12と、反射光抽出部13と、標識位置推定部14を備えている。更に、車両の位置情報を取得するGPS17と、参照画像生成部16と、自己位置推定部15を備えている。   As shown in FIG. 1, the self-position estimation apparatus 100 according to the present embodiment includes a light projecting unit 11, an imaging unit 12, a reflected light extraction unit 13, and a marker position estimation unit 14. Furthermore, a GPS 17 that acquires vehicle position information, a reference image generation unit 16, and a self-position estimation unit 15 are provided.

投光部11は、車両の適所に搭載され、車両の周囲に向けて所定の周期で点灯、消灯を繰り返す点滅光を投光する。   The light projecting unit 11 is mounted at an appropriate position of the vehicle, and projects flashing light that repeatedly turns on and off at a predetermined cycle toward the periphery of the vehicle.

撮像部12は、車両に搭載される例えばCCDカメラやCMOSカメラであり、投光部11より照射され、車両周囲に存在する標識等の反射物Pで反射する光を撮像する。   The imaging unit 12 is, for example, a CCD camera or a CMOS camera mounted on the vehicle, and images light that is irradiated from the light projecting unit 11 and reflected by a reflecting object P such as a sign existing around the vehicle.

反射光抽出部13は、投光部11にて投光した点滅光の周期に同期させて、撮像部12で撮像された画像を取得する。そして、投光部11の点灯時の画像と、消灯時の画像の差分を演算することにより、投光部11により投光した光の反射光のみを抽出する。   The reflected light extraction unit 13 acquires an image captured by the imaging unit 12 in synchronization with the cycle of the blinking light projected by the light projecting unit 11. And only the reflected light of the light projected by the light projecting unit 11 is extracted by calculating the difference between the image when the light projecting unit 11 is turned on and the image when the light projecting unit 11 is turned off.

標識位置推定部14は、反射光抽出部13で検出された反射光に基づいて、撮像部12で撮像した画像内における標識の位置、領域、及び反射光強度を測定する。そして、後述する正規化処理を実施して、標識を含む画像(以下「計測画像」という)を生成する。即ち、標識位置推定部14は、反射光抽出部13で抽出された反射光の面積及び強度の分布から車両周囲に存在する標識位置を推定する機能を備えている。   Based on the reflected light detected by the reflected light extraction unit 13, the marker position estimation unit 14 measures the position, region, and reflected light intensity of the marker in the image captured by the imaging unit 12. And the normalization process mentioned later is implemented and the image (henceforth "measurement image") containing a label | marker is produced | generated. That is, the sign position estimating unit 14 has a function of estimating the sign position existing around the vehicle from the distribution of the area and intensity of the reflected light extracted by the reflected light extracting unit 13.

参照画像生成部16は、GPS17より取得される車両の現在位置情報、及び車両周囲に存在する標識位置を含む地図情報に基づき、予想される複数の車両姿勢から撮像部12で撮像される車両周囲の複数の画像を参照画像として生成する。この際、複数の参照画像は、x,y,z座標、及びヨー、ロール、ピッチがそれぞれ異なるように生成される。その結果、撮像部12で撮像されると予想される複数の参照画像が生成される。即ち、参照画像生成部16は、車両周囲に存在する標識位置を含む地図情報を取得する地図情報取得部としての機能を備え、この地図情報に基づいて複数の参照画像を生成する。   The reference image generation unit 16 is based on the current position information of the vehicle acquired from the GPS 17 and the map information including the marker positions existing around the vehicle, and the vehicle surroundings captured by the imaging unit 12 from a plurality of predicted vehicle postures. Are generated as reference images. At this time, the plurality of reference images are generated so that the x, y, and z coordinates, the yaw, the roll, and the pitch are different from each other. As a result, a plurality of reference images that are expected to be captured by the imaging unit 12 are generated. That is, the reference image generation unit 16 has a function as a map information acquisition unit that acquires map information including sign positions existing around the vehicle, and generates a plurality of reference images based on the map information.

自己位置推定部15は、参照画像生成部16で生成された複数の参照画像と、標識位置推定部14で生成された計測画像との間でマッチング処理を実行し、各画像間の一致度を演算する。そして、一致度が最も高い参照画像を選択する。更に、選択された参照画像に設定されているx,y,z座標、及びヨー、ロール、ピッチに基づいて、地図上での車両位置、及び車両の姿勢角を推定する。即ち、自己位置推定部15は、地図情報に含まれる標識位置と、標識位置推定部14で推定された標識位置に基づいて、車両の地図上の位置を推定する機能を備えている。   The self-position estimation unit 15 executes a matching process between the plurality of reference images generated by the reference image generation unit 16 and the measurement image generated by the marker position estimation unit 14, and determines the degree of coincidence between the images. Calculate. Then, the reference image having the highest degree of coincidence is selected. Further, the vehicle position on the map and the attitude angle of the vehicle are estimated based on the x, y, z coordinates set in the selected reference image, and the yaw, roll, and pitch. That is, the self-position estimating unit 15 has a function of estimating the position of the vehicle on the map based on the sign position included in the map information and the sign position estimated by the sign position estimating unit 14.

上記のマッチング処理では、例えば、図7に示すように、計測画像Mの各画素と参照画像Nの各画素の乗算を乗算器31にて行い、更に、各乗算結果を加算する。そして、各参照画像Nについての加算値を比較し、加算値が最も大きくなる参照画像Nが、計測画像との間の一致度が最も高い画像であると判断する。詳細については後述する。   In the above matching process, for example, as shown in FIG. 7, multiplication of each pixel of the measurement image M and each pixel of the reference image N is performed by the multiplier 31, and each multiplication result is added. Then, the addition values for the respective reference images N are compared, and it is determined that the reference image N having the largest addition value is the image having the highest degree of coincidence with the measurement image. Details will be described later.

ここで、図1に示す反射光抽出部13、標識位置推定部14、自己位置推定部15、及び参照画像生成部16は、例えば、中央演算ユニット(CPU)や、RAM、ROM、ハードディスク等の記憶手段からなる一体型のコンピュータとして構成することができる。   Here, the reflected light extraction unit 13, the sign position estimation unit 14, the self-position estimation unit 15, and the reference image generation unit 16 illustrated in FIG. 1 are, for example, a central processing unit (CPU), a RAM, a ROM, a hard disk, or the like. It can be configured as an integrated computer comprising storage means.

次に、本実施形態に係る自己位置推定装置100の作用を、図2、図3に示すフローチャートを参照して説明する。初めに、図2のステップS11において、投光部11より車両周囲に点滅光を投光する。ステップS12において、撮像部12は、車両周囲を撮像する。撮像された画像には、点滅光が照射され標識(反射物)で反射した光が含まれる。   Next, the operation of the self-position estimation apparatus 100 according to the present embodiment will be described with reference to the flowcharts shown in FIGS. First, in step S11 of FIG. 2, flashing light is projected from the light projecting unit 11 around the vehicle. In step S12, the imaging unit 12 images the surroundings of the vehicle. The captured image includes light that is irradiated with blinking light and reflected by a sign (reflector).

ステップS13において、反射光抽出部13は、投光部11が点灯している際に撮像部12で撮像された画像と、消灯している際に撮像部12で撮像された画像との差分を演算する。その結果、撮像部12で撮像される画像の、各画素の受信強度が求められる。標識位置推定部14は、この受信強度を取得する。   In step S <b> 13, the reflected light extraction unit 13 calculates a difference between an image captured by the imaging unit 12 when the light projecting unit 11 is lit and an image captured by the imaging unit 12 when the light projecting unit 11 is turned off. Calculate. As a result, the reception intensity of each pixel of the image captured by the imaging unit 12 is obtained. The marker position estimation unit 14 acquires the reception intensity.

ステップS14において、標識位置推定部14は、受信強度が一定のレベル以上の領域を標識が存在する領域として設定する。例えば、車両の前方に四角形の標識が存在する場合には、該標識にて投光部11より投光した光が反射して撮像部12で撮像されるので、この標識に対応する画像領域にて受信強度が一定のレベル以上となる。従って、この画像領域を標識が存在する領域として設定する。その結果、例えば図5に示すように、撮像部12で撮像した画像中に、2つの画像領域R1、R2が設定される。   In step S14, the sign position estimation unit 14 sets an area having a reception intensity equal to or higher than a certain level as an area where a sign exists. For example, when a square sign is present in front of the vehicle, the light projected from the light projecting unit 11 is reflected by the sign and is imaged by the imaging unit 12, so that an image area corresponding to the sign is displayed. As a result, the reception strength exceeds a certain level. Therefore, this image area is set as an area where a sign exists. As a result, as shown in FIG. 5, for example, two image regions R1 and R2 are set in the image captured by the imaging unit 12.

ステップS15において、標識位置推定部14は、ステップS14の処理で設定した画像領域内の中心座標、受信強度の積分値、面積、及び受信強度の分布を演算する。具体的には、図5に示す画像領域R1に対して、中心座標(x1,y1)、受信強度積分値ΣA1、及び面積D1が演算され、更に、受信強度の分布が演算される。また、画像領域R2に対して、中心座標(x2,y2)、受信強度積分値ΣA2、及び面積D2が演算され、更に、受信強度の分布が演算される。面積D1及びD2は、例えば、予め設定される所定の受信強度値以上の画素の数から演算することができる。   In step S15, the marker position estimation unit 14 calculates the center coordinates, the integrated value of the received intensity, the area, and the distribution of the received intensity set in the process of step S14. Specifically, for the image region R1 shown in FIG. 5, the center coordinates (x1, y1), the received intensity integral value ΣA1, and the area D1 are calculated, and further, the received intensity distribution is calculated. Further, for the image region R2, the center coordinates (x2, y2), the received intensity integral value ΣA2, and the area D2 are calculated, and further, the received intensity distribution is calculated. The areas D1 and D2 can be calculated from, for example, the number of pixels equal to or greater than a predetermined reception intensity value set in advance.

ステップS16において、標識位置推定部14は、ステップS15の処理で演算された各情報に基づいて、受信強度情報の再散布処理を実行し、車両V1の走行方向に対して直交する方向(画像横方向)についての光強度の変動分を補正する。以下、再散布処理を実行する理由を、図4に示す説明図を参照して説明する。   In step S <b> 16, the sign position estimation unit 14 performs a re-spreading process of the received intensity information based on each information calculated in the process of step S <b> 15, and a direction orthogonal to the traveling direction of the vehicle V <b> 1 (image horizontal direction). The variation of the light intensity with respect to (direction) is corrected. Hereinafter, the reason for executing the respreading process will be described with reference to the explanatory diagram shown in FIG.

図4(a)は、車両V1が走行路X1を走行しており、該走行路X1の右前方に標識Q2が存在し、更にその遠方に標識Q1が存在する状況を示している。車両V1より点滅光が投光されると、符号q1の曲線に示すように、光の強度は、車両V1の正面が最も高く、左右方向に向けて徐々に低くなる特性を有する。従って、反射光の受信強度はこの特性の影響を受けることになる。   FIG. 4 (a) shows a situation in which the vehicle V1 is traveling on the traveling path X1, the sign Q2 is present on the right front side of the traveling path X1, and the sign Q1 is further on the far side. When blinking light is projected from the vehicle V1, the intensity of the light is highest at the front of the vehicle V1 and gradually decreases in the left-right direction, as shown by the curve q1. Accordingly, the reception intensity of the reflected light is affected by this characteristic.

例えば、図4(b)に示すように標識Q1については、画角の変化に対して光の反射係数に大きな変化は無い。即ち、標識Q1の左端p1に示す反射係数と右端p2に示す反射係数に大差はない。これに対して、標識Q2については、画角の変化に対して光の反射係数が大きく変化する。即ち、標識Q2の左端p3に示す反射係数に対して右端p4に示す反射係数は著しく低下している。従って、標識Q2で反射した光が撮像部12で撮像されると、画像領域内の各画素で受信強度に大きな偏りが生じてしまい、正確な標識の位置推定ができなくなる。   For example, as shown in FIG. 4B, for the sign Q1, there is no significant change in the light reflection coefficient with respect to the change in the angle of view. That is, there is no great difference between the reflection coefficient shown at the left end p1 of the sign Q1 and the reflection coefficient shown at the right end p2. On the other hand, for the sign Q2, the light reflection coefficient changes greatly with respect to the change in the angle of view. That is, the reflection coefficient shown at the right end p4 is significantly lower than the reflection coefficient shown at the left end p3 of the sign Q2. Therefore, when the light reflected by the sign Q2 is picked up by the image pickup unit 12, the reception intensity is greatly biased at each pixel in the image area, and the sign position cannot be accurately estimated.

そこで、図2のステップS16において、受信強度の再散布処理を実行し、車両V1の走行方向に対して直交する方向(画像横方向)についての光強度の変動分を補正する。以下、図3に示すフローチャートを参照して、再散布処理の詳細な処理手順について説明する。なお、図4(a)に示した標識Q1、Q2は、それぞれ図5に示す画像領域R1、R2に対応している。ここでは、一例として図5に示した画像領域R2の再散布処理について説明する。   Therefore, in step S16 in FIG. 2, the reception intensity re-spreading process is executed to correct the variation in the light intensity in the direction orthogonal to the traveling direction of the vehicle V1 (the image lateral direction). Hereinafter, with reference to the flowchart shown in FIG. 3, a detailed processing procedure of the respreading process will be described. Note that the signs Q1 and Q2 shown in FIG. 4A correspond to the image areas R1 and R2 shown in FIG. 5, respectively. Here, the re-spreading process for the image region R2 illustrated in FIG. 5 will be described as an example.

初めに、図3のステップS31において、標識位置推定部14は、図2のステップS14で設定された画像領域R2の受信強度の積分値ΣA2を取得する。   First, in step S31 of FIG. 3, the marker position estimation unit 14 acquires the integral value ΣA2 of the reception intensity of the image region R2 set in step S14 of FIG.

ステップS32において、標識位置推定部14は、画像領域R2内における各画素の受信強度の分布に基づき、受信強度の重心座標Xc(図6(b)参照)を取得する。   In step S32, the sign position estimation unit 14 acquires the barycentric coordinates Xc (see FIG. 6B) of the reception intensity based on the distribution of the reception intensity of each pixel in the image region R2.

ステップS33において、標識位置推定部14は、画像縦方向が一定値で画像横方向が正規分布画像となるように受信強度を再散布する。即ち、画像領域R2で検出される信号強度は、図4で説明したように、画像領域R2内で偏りが存在する。具体的には、図6(a)に示すように、画像領域R2の左側の受信強度が大きく、右側に移動するにつれて受信強度が低下する。標識位置推定部14は、画像領域R2内における受信強度の積分値ΣA2が一定であるという条件下で、受信強度を正規化して各画素に受信強度を再散布する。具体的には、平均値μ、標準偏差σを用いて、下記(1)式で確率密度関数f(x)を演算する。

Figure 0006477348
In step S33, the sign position estimation unit 14 respreads the reception intensity so that the image vertical direction is a constant value and the image horizontal direction is a normal distribution image. That is, the signal intensity detected in the image region R2 has a bias in the image region R2, as described with reference to FIG. Specifically, as shown in FIG. 6A, the reception intensity on the left side of the image region R2 is large, and the reception intensity decreases as it moves to the right side. The marker position estimation unit 14 normalizes the reception intensity and respreads the reception intensity on each pixel under the condition that the integral value ΣA2 of the reception intensity in the image region R2 is constant. Specifically, the probability density function f (x) is calculated by the following equation (1) using the average value μ and the standard deviation σ.
Figure 0006477348

ステップS34において、標識位置推定部14は、上記の確率密度関数f(x)に基づいて再散布後の画像を生成する。再散布により得られた画像は、投光部11の光分布のばらつきによる受信強度の変動が均一化されている。即ち、図6(b)に示すように、正規分布を有する受信強度分布を有する計測画像に変換される。   In step S34, the marker position estimation unit 14 generates an image after re-scattering based on the probability density function f (x). In the image obtained by the respreading, fluctuations in reception intensity due to variations in the light distribution of the light projecting unit 11 are made uniform. That is, as shown in FIG. 6B, the image is converted into a measurement image having a reception intensity distribution having a normal distribution.

その後、ステップS35において、自己位置推定部15は、ステップS34の処理で演算された計測画像と、参照画像生成部16で生成された複数の参照画像とを比較することにより、車両の自己位置を推定する。具体的には、図7に示すように、乗算器31にて計測画像Mに含まれる各画素と参照画像Nに含まれる各画素の乗算を実行する。更に、各乗算結果を加算して加算値を求める。この演算を、複数の参照画像Nに対して全て実行する。   Thereafter, in step S35, the self-position estimation unit 15 compares the measurement image calculated in the process of step S34 with the plurality of reference images generated by the reference image generation unit 16, thereby determining the self-position of the vehicle. presume. Specifically, as shown in FIG. 7, the multiplier 31 performs multiplication of each pixel included in the measurement image M and each pixel included in the reference image N. Further, each multiplication result is added to obtain an added value. This calculation is performed for all the reference images N.

計測画像Mと参照画像Nとの一致度が高いほど、上記の加算値が大きい値になる。従って、各参照画像Nのうち加算値が最も大きくなる参照画像を選択し、選択した参照画像のx,y,z座標、及びヨー、ピッチ、ロールを取得する。取得したx,y,z座標、及びヨー、ピッチ、ロールに基づいて、地図上での車両の位置を高精度に推定することができる。   The higher the degree of coincidence between the measurement image M and the reference image N, the larger the added value. Therefore, the reference image having the largest added value is selected from the reference images N, and the x, y, z coordinates, yaw, pitch, and roll of the selected reference image are acquired. Based on the acquired x, y, z coordinates and the yaw, pitch, and roll, the position of the vehicle on the map can be estimated with high accuracy.

このように、本実施形態に係る自己位置推定装置100では、GPS17で検出される車両の自己位置に基づいて、この自己位置で撮影されると予想される画像を、x,y,zの各座標、及びヨー、ピッチ、ロールを適宜変更して複数作成し、これらを参照画像とする。そして、各参照画像像と、再散布処理により得られた計測画像との間で、各画素の乗算を実施し、更に各乗算値を加算する。画像の一致度が高い画像は、加算値が大きくなる。よって、複数の参照画像のうち、計測画像との間の加算値が最も大きいものが、計測画像と一致度が高い参照画像であると判断できる。従って、一致度が最も高いと判断された参照画像のx,y,z座標、及びヨー、ピッチ、ロールに基づいて、車両の自己位置を推定する。こうして、車両の自己位置を高精度に推定する。   Thus, in the self-position estimation apparatus 100 according to the present embodiment, based on the self-position of the vehicle detected by the GPS 17, an image expected to be captured at this self-position is obtained for each of x, y, and z. A plurality of coordinates, yaw, pitch, and roll are appropriately changed to create a reference image. Then, multiplication of each pixel is performed between each reference image image and the measurement image obtained by the redispersion process, and each multiplication value is added. An image having a high degree of coincidence of images has a large added value. Therefore, it can be determined that the reference image having the highest added value between the plurality of reference images and the measurement image is a reference image having a high degree of coincidence with the measurement image. Therefore, the self-position of the vehicle is estimated based on the x, y, and z coordinates of the reference image determined to have the highest degree of coincidence, and the yaw, pitch, and roll. Thus, the self-position of the vehicle is estimated with high accuracy.

つまり、車両の走行路に存在する標識を検出し、地図上での車両位置を推定する場合において、多くの標識が反射素材を用いており、点滅光源を用いたときに、その形状や受信強度情報は、反射率と距離に応じて変化する。その際、反射光の受信強度は、距離や反射物の傾き、光学的な正反射の有無等に影響され易く、計測画像と複数の参照画像との乗算を実施する場合には、上記の影響が誤差要因となる場合がある。   In other words, when detecting signs on the road of the vehicle and estimating the vehicle position on the map, many signs use reflective material, and when using a blinking light source, its shape and received intensity Information varies with reflectivity and distance. At that time, the reception intensity of the reflected light is easily affected by the distance, the inclination of the reflecting object, the presence or absence of optical regular reflection, and the like when the multiplication of the measurement image and a plurality of reference images is performed. May be an error factor.

本実施形態では、標識の反射面の反射強度情報を正規分布補正した画像の画素値と、自車両候補位置から生成した参照画像の画素値との乗算を行うので、反射光学的な誤差要因を低減し、反射板の重心付近でマッチングの合計値が高くなる。従って、反射物の形状に依存し難く位置情報を特定することができることになる。   In this embodiment, the pixel value of the image obtained by normal distribution correction of the reflection intensity information on the reflecting surface of the sign is multiplied by the pixel value of the reference image generated from the own vehicle candidate position. The total value of matching increases near the center of gravity of the reflector. Therefore, the position information can be specified without depending on the shape of the reflector.

ここで、上述した実施形態では、x,y,z座標、及びヨー、ピッチ、ロールを適宜変更した参照画像を作成し、この参照画像とのマッチング処理にて加算値が最も大きい参照画像を特定する例について説明したが、周知の技術であるパーティクルフィルタを用いてマッチング処理を実行することもできる。   Here, in the above-described embodiment, a reference image in which the x, y, and z coordinates, the yaw, the pitch, and the roll are appropriately changed is created, and the reference image having the largest added value is specified by matching processing with the reference image. Although the example to do was demonstrated, a matching process can also be performed using the particle filter which is a well-known technique.

即ち、図1に示す自己位置推定部15は、パーティクルフィルタを用いて所定範囲のパーティクル存在分布範囲を設定する。そして、設定した存在分布範囲内にパーティクルフィルタを散布して、各パーティクルフィルタにて予測される複数の車両姿勢に基づいて、地図情報に含まれる標識位置と、標識位置推定部14で推定された標識位置とのマッチング処理を実施して車両の地図上の位置、及び姿勢角を推定することも可能である。   That is, the self-position estimation unit 15 shown in FIG. 1 sets a predetermined particle presence distribution range using a particle filter. Then, the particle filter is dispersed within the set presence distribution range, and the sign position included in the map information and the sign position estimation unit 14 are estimated based on a plurality of vehicle postures predicted by each particle filter. It is also possible to estimate the position of the vehicle on the map and the attitude angle by performing matching processing with the sign position.

このようにして、本実施形態に係る自己位置推定装置100では、反射面の反射強度情報を正規化し、正規化した計測画像を用いて参照画像とのマッチング処理を実施する。従って、標識の形状や反射率等の光学的な特性に影響されることなく、高精度に計測画像を生成することができ、ひいては自己位置を高精度に推定することが可能となる。   In this way, the self-position estimation apparatus 100 according to the present embodiment normalizes the reflection intensity information of the reflecting surface, and performs the matching process with the reference image using the normalized measurement image. Therefore, it is possible to generate a measurement image with high accuracy without being affected by optical characteristics such as the shape of the sign and the reflectance, and it is possible to estimate the self-position with high accuracy.

また、投光部11より、周期的に点灯、消灯が切り替わる点滅光を投光し、点滅光が点灯している際の画像、及び点滅光が消灯しているときの画像から、反射物からの反射光を検出する。従って、他の光源等の影響を低減することができ、標識位置の検出を高精度に行うことが可能となる。   In addition, the light projecting unit 11 emits flashing light that is switched on and off periodically, and from the image when the flashing light is turned on and the image when the flashing light is turned off, from the reflector. The reflected light of is detected. Therefore, the influence of other light sources and the like can be reduced, and the marker position can be detected with high accuracy.

更に、標識位置推定部14は、抽出した領域の、水平方向に抽出した反射光の面積、及び反射強度の分布に基づいて、標識位置を検出する。即ち、強度分布を検出する際に、光学的な位置関係の影響が大きい水平方向について評価することで、強度分布による影響を抑えて、面積及び強度の積分値から高精度に位置を測定することが可能となる。   Further, the marker position estimation unit 14 detects the marker position based on the area of the reflected light extracted in the horizontal direction and the distribution of the reflection intensity in the extracted region. In other words, when detecting the intensity distribution, it is possible to measure the position with high accuracy from the integrated values of the area and intensity by suppressing the influence of the intensity distribution by evaluating the horizontal direction where the influence of the optical positional relationship is large. Is possible.

また、上述した実施形態では、x,y,z座標、及びヨー、ピッチ、ロールが相違する複数の参照画像を生成し、各参照画像と計測画像との一致度を求めて、車両の自己位置を推定する例について説明したが、パーティクルフィルタを用いることも可能である。   In the above-described embodiment, a plurality of reference images having different x, y, and z coordinates, yaw, pitch, and roll are generated, and the degree of coincidence between each reference image and the measurement image is obtained to determine the self-position of the vehicle. Although an example of estimating the above has been described, it is also possible to use a particle filter.

更に、パーティクルフィルタを用いて計測画像との一致度を求める場合には、所定範囲内の探索を行う際に、反射強度を重み付けに含めて探索することで、より強い反射が得られる反射物に応じた自己位置計測の結果が得られる。従って、自己位置の推定精度をより一層向上させることが可能となる。   Furthermore, when the degree of coincidence with the measurement image is obtained using a particle filter, when performing a search within a predetermined range, the reflection intensity is included in the weighting to search for a reflector that can obtain a stronger reflection. A corresponding self-position measurement result is obtained. Therefore, it is possible to further improve the self-position estimation accuracy.

[変形例の説明]
上記した実施形態では、点滅光を投光して、標識が存在する領域を検出する例について説明したが、周期変化された光を投光し、撮像された画像から、その周期と同期した光を抽出して同期画像を生成する同期検波処理を用いることも可能である。具体的には、投光部11より送信する信号をS(t)とし、これをsin(ωt)で変調する。更に、撮像部12で撮像された画像データにsin(ωt)を乗じる。すると、下記(2)式の関係から、ローパスフィルタで高周波成分を除去すれば、信号S(t)を抽出できる。
S(t)*sin(ωt)*sin(ωt)=S(t)*(1−cos(2ωt))/2 …(2)
なお、同期検波方式は、周知の技術であるので、詳細な説明を省略する。そして、同期検波処理を用いることにより、より高精度に標識位置を推定することが可能となる。
[Description of modification]
In the above-described embodiment, the example in which the blinking light is projected to detect the area where the sign is present has been described. However, the light that is periodically changed is projected, and the light that is synchronized with the period is captured from the captured image. It is also possible to use a synchronous detection process that extracts a signal to generate a synchronous image. Specifically, a signal transmitted from the light projecting unit 11 is S (t), and this is modulated with sin (ωt). Further, the image data captured by the imaging unit 12 is multiplied by sin (ωt). Then, the signal S (t) can be extracted from the relationship of the following equation (2) by removing the high-frequency component with a low-pass filter.
S (t) * sin (ωt) * sin (ωt) = S (t) * (1-cos (2ωt)) / 2 (2)
Since the synchronous detection method is a well-known technique, detailed description thereof is omitted. Then, by using the synchronous detection process, it is possible to estimate the marker position with higher accuracy.

即ち、投光部11は、周期的に輝度が変化する光を投光し、反射光抽出部13は、撮像部12で取得された画像から、輝度の周期的変化と同期する反射光を抽出する。そして、この反射光に基づいて同期画像を生成し、この同期画像を計測画像として用いる。従って、反射光の強度を正確に計測するために、同期検波回路を設けて、投光部11と同調して反射光の周期的な変調を検知し、振幅強度を観測できるので、画像中に存在する標識位置の検出を、より高精度に実施することが可能となる。   That is, the light projecting unit 11 projects light whose luminance periodically changes, and the reflected light extracting unit 13 extracts reflected light synchronized with the periodic change in luminance from the image acquired by the imaging unit 12. To do. And a synchronous image is produced | generated based on this reflected light, and this synchronous image is used as a measurement image. Therefore, in order to accurately measure the intensity of the reflected light, a synchronous detection circuit is provided to detect the periodic modulation of the reflected light in synchronization with the light projecting unit 11 and observe the amplitude intensity. It is possible to detect an existing marker position with higher accuracy.

以上、本発明の自己位置推定装置、及び自己位置推定方法を図示の実施形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置き換えることができる。   The self-position estimation apparatus and self-position estimation method of the present invention have been described based on the illustrated embodiment. However, the present invention is not limited to this, and the configuration of each unit is an arbitrary function having the same function. It can be replaced with that of the configuration.

11 投光部
12 撮像部
13 反射光抽出部
14 標識位置推定部
15 自己位置推定部
16 参照画像生成部
17 GPS
31 乗算器
100 自己位置推定装置
DESCRIPTION OF SYMBOLS 11 Light projection part 12 Imaging part 13 Reflected light extraction part 14 Mark position estimation part 15 Self-position estimation part 16 Reference image generation part 17 GPS
31 Multiplier 100 Self-position estimation device

Claims (5)

車両に搭載され、車両周囲に光を投光する投光部と、
車両に搭載され、前記投光部より光が投光された領域を含む車両周囲を撮像する撮像部と、
前記撮像部で撮像された画像から、前記投光部より投光された光の反射光を抽出する反射光抽出部と、
前記反射光抽出部にて抽出された反射光に基づいて、前記撮像部で撮像された画像から反射物の画像領域を設定し、前記画像領域の面積、中心座標、受信強度の分布、及び受信強度の積分値に基づいて、車両周囲に存在する標識位置を推定する標識位置推定部と、
車両周囲に存在する標識位置を含む地図情報を取得する地図情報取得部と、
前記地図情報に含まれる標識位置と、前記標識位置推定部で推定された標識位置に基づいて、前記車両の地図上の位置を推定する自己位置推定部と、
を備えたことを特徴とする自己位置推定装置。
A light projecting unit mounted on the vehicle and projecting light around the vehicle;
An imaging unit that is mounted on a vehicle and that images a vehicle periphery including an area where light is projected from the light projecting unit;
A reflected light extraction unit that extracts reflected light of light projected from the light projecting unit from an image captured by the imaging unit;
Based on the reflected light extracted by the reflected light extraction unit , an image area of a reflecting object is set from the image captured by the imaging unit, and the area of the image area, the center coordinates, the distribution of received intensity, and the reception A sign position estimator for estimating a sign position existing around the vehicle based on the integrated value of the intensity ;
A map information acquisition unit for acquiring map information including sign positions existing around the vehicle;
A self-position estimating unit that estimates a position of the vehicle on the map based on the sign position included in the map information and the sign position estimated by the sign position estimating unit;
A self-position estimation apparatus comprising:
前記投光部は、周期的に輝度が変化する光を投光し、
前記反射光抽出部は、前記撮像部で取得された画像から、前記輝度の周期的変化と同期する反射光を抽出すること
を特徴とする請求項1に記載の自己位置推定装置。
The light projecting unit projects light whose luminance periodically changes,
The self-position estimation apparatus according to claim 1, wherein the reflected light extraction unit extracts reflected light that is synchronized with a periodic change in luminance from an image acquired by the imaging unit.
前記標識位置推定部は、抽出した領域の、水平方向に抽出した反射光の面積、及び反射強度の分布に基づいて、標識位置を検出すること
を特徴とする請求項2に記載の自己位置推定装置。
3. The self-position estimation according to claim 2, wherein the sign position estimation unit detects the sign position based on an area of reflected light extracted in a horizontal direction and a distribution of reflection intensity in the extracted region. apparatus.
前記自己位置推定部は、パーティクルフィルタを用いて所定範囲のパーティクル存在分布範囲を設定し、
設定した存在分布範囲内に散布したパーティクルと、前記車両が所定時間に進んだ後のパーティクルの位置関係から予測される複数の車両姿勢と、地図情報に含まれる標識位置と、前記標識位置推定部で推定された標識位置に基づいて、前記車両の地図上の位置、及び姿勢角を推定すること
を特徴とする請求項1〜3のいずれか1項に記載の自己位置推定装置。
The self-position estimation unit sets a predetermined particle presence distribution range using a particle filter,
Particles dispersed within a set presence distribution range, a plurality of vehicle postures predicted from the positional relationship of the particles after the vehicle has advanced for a predetermined time, a marker position included in map information, and the marker position estimation unit The self-position estimation apparatus according to any one of claims 1 to 3, wherein a position and a posture angle of the vehicle on the map are estimated based on the sign position estimated in (4).
車両周囲に光を投光する工程と、
前記光が投光された領域を含む車両周囲を撮像する工程と、
前記車両周囲の画像から、前記光の反射光を抽出する工程と、
前記抽出された反射光に基づいて、前記車両周囲の画像から反射物の画像領域を設定し、前記画像領域の面積、中心座標、受信強度の分布、及び受信強度の積分値に基づいて、車両周囲に存在する標識位置を推定する工程と、
車両周囲に存在する標識位置を含む地図情報を取得する工程と、
前記地図情報に含まれる標識位置と、推定された標識位置に基づいて、前記車両の地図上の位置を推定する工程と、
を備えたことを特徴とする自己位置推定方法。

Projecting light around the vehicle;
Imaging a vehicle periphery including a region where the light is projected;
Extracting reflected light of the light from an image around the vehicle;
Based on the extracted reflected light, to set the image area of the reflector from the vehicle around the image, the area of the image region, the center coordinates, the reception intensity distribution, and based on the integrated value of the reception intensity, vehicle Estimating a surrounding marker position;
Obtaining map information including sign positions present around the vehicle;
Estimating the position of the vehicle on the map based on the sign position included in the map information and the estimated sign position;
A self-position estimation method comprising:

JP2015157925A 2015-08-10 2015-08-10 Self-position estimation apparatus and self-position estimation method Active JP6477348B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015157925A JP6477348B2 (en) 2015-08-10 2015-08-10 Self-position estimation apparatus and self-position estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015157925A JP6477348B2 (en) 2015-08-10 2015-08-10 Self-position estimation apparatus and self-position estimation method

Publications (2)

Publication Number Publication Date
JP2017036980A JP2017036980A (en) 2017-02-16
JP6477348B2 true JP6477348B2 (en) 2019-03-06

Family

ID=58047583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015157925A Active JP6477348B2 (en) 2015-08-10 2015-08-10 Self-position estimation apparatus and self-position estimation method

Country Status (1)

Country Link
JP (1) JP6477348B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6984256B2 (en) * 2017-09-11 2021-12-17 ソニーグループ株式会社 Signal processing equipment, and signal processing methods, programs, and mobiles.
JP2020034472A (en) * 2018-08-31 2020-03-05 株式会社デンソー Map system, method and storage medium for autonomous navigation
JP2023066524A (en) * 2021-10-29 2023-05-16 ソニーグループ株式会社 Information processor, method for processing information, and information processing system
CN115050206B (en) * 2022-06-09 2023-06-27 陕西工业职业技术学院 Intelligent parking lot parking car-searching navigation system based on smart phone

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4321142B2 (en) * 2003-07-02 2009-08-26 日産自動車株式会社 Sign recognition device
JP4847090B2 (en) * 2005-10-14 2011-12-28 クラリオン株式会社 Position positioning device and position positioning method
JP5200861B2 (en) * 2007-12-10 2013-06-05 富士通株式会社 Sign judging device and sign judging method
JP5992184B2 (en) * 2012-03-09 2016-09-14 株式会社トプコン Image data processing apparatus, image data processing method, and image data processing program

Also Published As

Publication number Publication date
JP2017036980A (en) 2017-02-16

Similar Documents

Publication Publication Date Title
Reynolds et al. Capturing time-of-flight data with confidence
JP6667065B2 (en) Position estimation device and position estimation method
CN109831660B (en) Depth image acquisition method, depth image acquisition module and electronic equipment
JP6125188B2 (en) Video processing method and apparatus
JP5472538B2 (en) Distance measuring device and environmental map generating device
EP2072947B1 (en) Image processing device and image processing method
US10156437B2 (en) Control method of a depth camera
US20190188860A1 (en) Detection system
KR20130099735A (en) Method and fusion system of time-of-flight camera and stereo camera for reliable wide range depth acquisition
JP6477348B2 (en) Self-position estimation apparatus and self-position estimation method
WO2009110082A1 (en) Image photographic device, image photographic method, and image photographic program
JP6566768B2 (en) Information processing apparatus, information processing method, and program
US20150268035A1 (en) Information processing apparatus, information processing method, and storage medium
EP3002550B1 (en) Information processing system and information processing method for distance measurement
US10240913B2 (en) Three-dimensional coordinate measuring apparatus and three-dimensional coordinate measuring method
CN112313541A (en) Apparatus and method
US10348961B2 (en) Camera modeling system
US20160259034A1 (en) Position estimation device and position estimation method
JP2015059768A (en) Level difference measuring device, level difference measuring method and program
JP2014067193A (en) Image processing apparatus and image processing method
KR20180061803A (en) Apparatus and method for inpainting occlusion of road surface
JP6425406B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
JP2013257244A (en) Distance measurement device, distance measurement method, and distance measurement program
JP6452361B2 (en) Information processing apparatus, information processing method, and program
WO2019016879A1 (en) Object detection device and object detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181122

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190121

R151 Written notification of patent or utility model registration

Ref document number: 6477348

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151