JP2012122734A - Moving body position estimation device and moving body position estimation method - Google Patents

Moving body position estimation device and moving body position estimation method Download PDF

Info

Publication number
JP2012122734A
JP2012122734A JP2010271064A JP2010271064A JP2012122734A JP 2012122734 A JP2012122734 A JP 2012122734A JP 2010271064 A JP2010271064 A JP 2010271064A JP 2010271064 A JP2010271064 A JP 2010271064A JP 2012122734 A JP2012122734 A JP 2012122734A
Authority
JP
Japan
Prior art keywords
feature point
unit
imaging range
bent portion
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010271064A
Other languages
Japanese (ja)
Inventor
Yasuhito Sano
泰仁 佐野
Naoki Kojo
直樹 古城
Toshiyuki Ando
敏之 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2010271064A priority Critical patent/JP2012122734A/en
Publication of JP2012122734A publication Critical patent/JP2012122734A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a moving body position estimation device and a moving body position estimation method capable of estimating the position of a moving body even when the appearances of feature points detected from different places change from one detection place to another.SOLUTION: The moving body position estimation device includes a rising line calculation unit 16 for calculating a rising line rising at a preset angle from a bent part plane in the bent part where linear light projected into the imaging range of a peripheral image imaged by an imaging unit 2 is bent, a feature point collation unit 20 for collating a bent part after the change of the imaging range with a bent part before the change of the imaging range based on the rising line calculated by the rising line calculation unit 16 and a distance from the imaging unit 2 to the feature point, and a moving body position estimation unit 22 for estimating the position of a vehicle V based on the change amount of a position between the bent part before the change of the imaging range and the bent part after the change of the imaging range collated by the feature point collation unit 20.

Description

本発明は、例えば、車両等、移動体の位置を推定する移動体位置推定装置及び移動体位置推定方法に関する。   The present invention relates to a mobile object position estimation device and a mobile object position estimation method for estimating the position of a mobile object such as a vehicle.

車両等、移動体の位置(自己位置)を推定する装置としては、例えば、特許文献1に記載されている装置がある。
特許文献1に記載されている移動体位置推定装置は、移動体の前方視野の輝度画像を取得し、取得した輝度画像のうち連続する少なくとも二つのフレームに対して、輝度画像間における特徴点の位置の変位量に基づいて、移動体の位置を算出する。
As an apparatus for estimating the position (self position) of a moving body such as a vehicle, there is an apparatus described in Patent Document 1, for example.
The moving body position estimation apparatus described in Patent Document 1 acquires a luminance image of the front field of view of a moving body, and for feature points between luminance images for at least two consecutive frames of the acquired luminance images. The position of the moving body is calculated based on the displacement amount of the position.

特開2002‐048513号公報JP 2002-048513 A

特許文献1に記載の移動体位置推定装置では、輝度画像内の特徴点を検出し、この検出した特徴点と輝度画像を取得したカメラとの相対距離を計測する手順を有する。しかしながら、特徴点の見え方は、特徴点を検出する検出位置に依存するため、異なる場所から特徴点を検出すると、それぞれの場所において、特徴点の見え方が変化することとなる。このような、特徴点の見え方が変化は、特に、特徴点が、カメラ中心からの放射線方向と平行に近い角度で配置されている平面上の特徴点である場合に顕著となる。そのため、道路脇の建物壁面等に検出された特徴点等は、特徴点を検出する場所が少しずれてしまうだけでも検出が困難となる。   The moving body position estimation apparatus described in Patent Literature 1 includes a procedure for detecting a feature point in a luminance image and measuring a relative distance between the detected feature point and a camera that has acquired the luminance image. However, since the appearance of the feature point depends on the detection position for detecting the feature point, when the feature point is detected from different locations, the appearance of the feature point changes at each location. Such a change in the appearance of the feature point is particularly noticeable when the feature point is a feature point on a plane arranged at an angle close to parallel to the radiation direction from the camera center. Therefore, it is difficult to detect the feature points detected on the building wall or the like on the roadside even if the location where the feature points are detected is slightly shifted.

このため、異なる場所から検出した特徴点は、位置の算出に用いることが不適切なものとなり、位置の推定が困難となるという問題が発生するおそれがある。
本発明は、上記のような問題点に着目してなされたもので、異なる場所から検出した特徴点の見え方が、各検出場所で変化する場合であっても、移動体の位置を推定することが可能な、移動体位置推定装置及び移動体位置推定方法を提供することを課題とする。
For this reason, feature points detected from different places are inappropriate for use in position calculation, and there is a possibility that it may be difficult to estimate the position.
The present invention has been made paying attention to the above problems, and estimates the position of a moving object even when the appearance of feature points detected from different locations changes at each detection location. It is an object of the present invention to provide a movable body position estimation apparatus and a movable body position estimation method that can be used.

上記課題を解決するために、本発明は、撮像部で連続的に撮像した移動体の周囲画像の撮像範囲内へ線状光を投光した状態で、撮像した周囲画像から、撮像範囲が変化しても追従可能な点である特徴点を検出する。そして、撮像部から特徴点までの距離を算出し、さらに、特徴点及びその周囲から検出した線状光が屈曲している部分である折曲部の、屈曲角度である折曲角を算出し、この折曲角から、折曲部が存在する平面である折曲部平面を定義する。これに加え、折曲部において折曲部平面から予め設定した角度で立ち上がる立ち上がり線を算出し、撮像範囲の変化に応じて、撮像部と折曲部との距離と立ち上がり線とに基づいて、撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部とを照合する。さらに、照合した両折曲部の位置の変位量に基づいて、移動体の位置を推定する。   In order to solve the above-described problem, the present invention changes the imaging range from the captured surrounding image in a state where linear light is projected into the imaging range of the surrounding image of the moving object continuously captured by the imaging unit. A feature point that is a point that can be followed is detected. Then, the distance from the imaging unit to the feature point is calculated, and further, the bending angle that is the bending angle of the bending portion that is the portion where the linear light detected from the feature point and its surroundings is bent is calculated. From this bend angle, a bend plane that is a plane where the bend exists is defined. In addition to this, a rising line that rises at a preset angle from the bent portion plane in the bent portion is calculated, and according to a change in the imaging range, based on the distance and the rising line between the imaging portion and the bent portion, The bent part before the imaging range is changed is compared with the bent part after the imaging range is changed. Further, the position of the moving body is estimated based on the displacement amount of the collated position of both bent portions.

本発明によれば、折曲部が存在する折曲部平面と、折曲部平面から立ち上がる立ち上がり線に基づいて、移動体の位置を推定することが可能となる。このため、移動体の移動に伴う特徴点の検出位置の変化によって、特徴点の見え方が各検出位置で変化しても、移動体の位置を推定することが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to estimate the position of a mobile body based on the bending part plane in which a bending part exists, and the rising line rising from a bending part plane. For this reason, it is possible to estimate the position of the moving object even if the appearance of the feature point changes at each detection position due to the change in the detection position of the feature point accompanying the movement of the moving object.

本発明の第一実施形態の移動体位置推定装置を備えた車両の概略構成を示す図である。It is a figure showing the schematic structure of the vehicles provided with the mobile object position estimating device of a first embodiment of the present invention. 本発明の第一実施形態の移動体位置推定装置の概略構成を示す図である。It is a figure which shows schematic structure of the moving body position estimation apparatus of 1st embodiment of this invention. 撮像部と、投光部と、投光平面との位置関係を示す図である。It is a figure which shows the positional relationship with an imaging part, a light projection part, and a light projection plane. 撮像画像と実世界との関係を示す図である。It is a figure which shows the relationship between a captured image and the real world. 法線方向と、法線方向の許容される範囲を示す図である。It is a figure which shows the normal line direction and the allowable range of a normal line direction. 移動体位置推定装置が行う動作の一部を示すフローチャートである。It is a flowchart which shows a part of operation | movement which a moving body position estimation apparatus performs. 移動体位置推定装置が行う動作の一部を示すフローチャートである。It is a flowchart which shows a part of operation | movement which a moving body position estimation apparatus performs.

以下、本発明の実施形態について図面を参照しつつ説明する。
(第一実施形態)
以下、本発明の第一実施形態(以下、本実施形態と記載する)について、図面を参照しつつ説明する。
(構成)
図1は、本実施形態の移動体位置推定装置1を備えた車両Vの概略構成を示す図である。
図1中に示すように、移動体位置推定装置1は、移動体である車両Vが備える。すなわち、本実施形態では、移動体位置推定装置1を備える対象を、車両(自動車)とする。
図2は、移動体位置推定装置1の概略構成を示す図である。
図2中に示すように、移動体位置推定装置1は、撮像部2と、投光部4と、演算処理部6を備える。
Embodiments of the present invention will be described below with reference to the drawings.
(First embodiment)
Hereinafter, a first embodiment of the present invention (hereinafter referred to as the present embodiment) will be described with reference to the drawings.
(Constitution)
FIG. 1 is a diagram illustrating a schematic configuration of a vehicle V including a moving body position estimation apparatus 1 according to the present embodiment.
As shown in FIG. 1, the moving body position estimation apparatus 1 is provided in a vehicle V that is a moving body. In other words, in the present embodiment, a target including the moving body position estimation apparatus 1 is a vehicle (automobile).
FIG. 2 is a diagram illustrating a schematic configuration of the moving object position estimation apparatus 1.
As illustrated in FIG. 2, the moving body position estimation apparatus 1 includes an imaging unit 2, a light projecting unit 4, and an arithmetic processing unit 6.

撮像部2は、例えば、赤外線カメラ等のカメラを用いて形成し、予め設定した時間間隔t[s]で、車両V(移動体)の周囲画像を連続的に撮像する。
また、撮像部2は、撮像した周囲画像を含む情報信号を、演算処理部6へ出力する。具体的には、撮像した周囲画像を含む情報信号を、後述する特徴点検出部8と、距離算出部10と、特徴点照合部20及び移動体位置推定部22へ出力する。
The imaging unit 2 is formed using a camera such as an infrared camera, for example, and continuously captures surrounding images of the vehicle V (moving body) at a preset time interval t [s].
Further, the imaging unit 2 outputs an information signal including the captured surrounding image to the arithmetic processing unit 6. Specifically, an information signal including the captured surrounding image is output to a feature point detection unit 8, a distance calculation unit 10, a feature point matching unit 20, and a moving body position estimation unit 22 described later.

本実施形態では、撮像部2の構成を、車両Vの周囲画像のうち、車両Vの前方の画像を連続的に撮像する構成とする。したがって、本実施形態では、撮像部2を、例えば、車両Vの車室内におけるフロントウインド付近等、車両Vの車両前後方向前方の画像を撮像可能な位置に配置する場合について説明する。
投光部4は、例えば、レーザー照射機等、直線状の光を投光可能な装置を用いて形成し、撮像部2の撮像範囲内に、線状光(ライン状の光)を投光する。
In the present embodiment, the configuration of the imaging unit 2 is configured to continuously capture images in front of the vehicle V among the surrounding images of the vehicle V. Therefore, in the present embodiment, a case will be described in which the imaging unit 2 is disposed at a position where an image of the vehicle V in the front-rear direction of the vehicle V can be captured, for example, near the front window in the vehicle interior of the vehicle V.
The light projecting unit 4 is formed by using a device capable of projecting linear light, such as a laser irradiator, and projects linear light (line-shaped light) within the imaging range of the imaging unit 2. To do.

また、投光部4は、線状光を投光している状態を含む情報信号を、演算処理部6へ出力する。具体的には、線状光を投光している状態を含む情報信号を、後述する折曲部検出部12へ出力する。
本実施形態では、撮像部2の構成を、車両Vの前方の画像を連続的に撮像する構成とするため、これに伴い、投光部4の構成を、車両Vの前方へ線状光を投光する構成とする。したがって、本実施形態では、投光部4を、撮像部2の付近、例えば、車両Vの車室内におけるフロントウインド付近等、車両Vの車両前後方向前方へ線状光を投光可能な位置に配置する場合について説明する。
Further, the light projecting unit 4 outputs an information signal including a state where linear light is projected to the arithmetic processing unit 6. Specifically, an information signal including a state where linear light is projected is output to the bent portion detection unit 12 described later.
In the present embodiment, the configuration of the imaging unit 2 is configured to continuously capture images in front of the vehicle V. Accordingly, the configuration of the light projecting unit 4 is changed to linear light in front of the vehicle V. It is assumed that the light is projected. Therefore, in the present embodiment, the light projecting unit 4 is placed at a position where linear light can be projected forward in the vehicle front-rear direction of the vehicle V, such as in the vicinity of the imaging unit 2, for example, near the front window in the vehicle interior of the vehicle V. The case where it arrange | positions is demonstrated.

ここで、投光部4から線状光を投光すると、線状光が通過する領域は、平面(以下、「投光平面」と記載する場合がある)となる。
本実施形態では、図2及び3中に示すように、撮像部2と投光平面との位置関係を、予め設定した距離d1で離間する位置関係に設定する。上述したように、本実施形態では、撮像部2及び投光部4の構成を、車両Vの前方の画像を連続的に撮像する構成とするため、これに伴い、撮像部2と投光部4との距離d1を、車幅方向の距離とする。なお、図3は、撮像部2と、投光部4と、投光平面との位置関係を示す図である。
Here, when linear light is projected from the light projecting unit 4, the region through which the linear light passes becomes a plane (hereinafter, sometimes referred to as “light projection plane”).
In this embodiment, as shown in FIGS. 2 and 3, the positional relationship between the imaging unit 2 and the light projection plane is set to a positional relationship that is separated by a preset distance d1. As described above, in the present embodiment, the configuration of the imaging unit 2 and the light projecting unit 4 is configured to continuously capture images in front of the vehicle V, and accordingly, the imaging unit 2 and the light projecting unit. The distance d1 to 4 is the distance in the vehicle width direction. FIG. 3 is a diagram illustrating a positional relationship among the imaging unit 2, the light projecting unit 4, and the light projecting plane.

また、本実施形態では、撮像部2の取り付け角度θを、一例として、撮像部2から車両Vの前方に存在する物体までの距離を、2〜10[m]までの範囲内において、誤差3[%]で計測することが求められる場合に、−70〜−130[°]の範囲内とする。
これは、投光平面上で、撮像部2から車両Vの前方に存在する物体までの距離に対する3[%]の距離変化が、1[pixel]以上の画像の変化となって現れる条件が、投光平面からの距離が1.0[m]以上となるためである。この条件は、撮像部2から2[m]の位置及び10[m]の位置がそれぞれ撮像される場合に適用する。
In the present embodiment, the attachment angle θ of the imaging unit 2 is taken as an example, and the distance from the imaging unit 2 to the object existing in front of the vehicle V is within the range of 2 to 10 [m], and the error 3 When it is required to measure in [%], it is set within the range of -70 to -130 [°].
This is because a condition in which a 3% change in distance relative to the distance from the imaging unit 2 to an object in front of the vehicle V appears as a change in an image of 1 [pixel] or more on the projection plane. This is because the distance from the projection plane is 1.0 [m] or more. This condition is applied when the positions of 2 [m] and 10 [m] are imaged from the imaging unit 2.

演算処理部6は、特徴点検出部8と、距離算出部10と、折曲部検出部12と、折曲角算出部14と、立ち上がり線算出部16と、マップ保存部18と、特徴点照合部20と、移動体位置推定部22を備える。
特徴点検出部8は、撮像部2が撮像した周囲画像(車両Vの前方の画像)から特徴点を検出する。ここで、特徴点は、例えば、車両Vの移動等に伴って撮像範囲が移動した際に、追従可能な点である。また、特徴点検出部8は、検出した特徴点を含む情報信号を、折曲部検出部12へ出力する。
The arithmetic processing unit 6 includes a feature point detection unit 8, a distance calculation unit 10, a bending part detection unit 12, a bending angle calculation unit 14, a rising line calculation unit 16, a map storage unit 18, a feature point A collation unit 20 and a moving body position estimation unit 22 are provided.
The feature point detection unit 8 detects a feature point from a surrounding image (an image ahead of the vehicle V) captured by the imaging unit 2. Here, the feature point is a point that can be followed when the imaging range is moved with the movement of the vehicle V, for example. Further, the feature point detection unit 8 outputs an information signal including the detected feature point to the bent portion detection unit 12.

ここで、特徴点は、一般的には、撮像部2が撮像した周囲画像内において、他の点と比較して縦方向及び横方向に輝度差がある点である。また、特徴点の検出方法としては、公知のSURF(Speeded Up Robust Features)や、SIFT(Scale‐Invariant Feature Transform)等を用いることが可能である。
また、特徴点の発生要因は、車両Vの移動等に伴って特徴点の観測位置が変化したときの、特徴点の見え方の変化に大きな影響を与える。このため、本実施形態では、観測位置が変化したときの特徴点を観測し、この観測した特徴点を、マップ保存部18に保存しておく。
また、特徴点には、平面上のテクスチャが観測されるテクスチャ特徴点と、異なる距離に存在する物体の境界に発生する構造特徴点がある。
Here, the feature point is generally a point having a luminance difference in the vertical direction and the horizontal direction in the surrounding image captured by the imaging unit 2 as compared with other points. As a feature point detection method, a known SURF (Speeded Up Robust Features), SIFT (Scale-Invariant Feature Transform), or the like can be used.
In addition, the feature point generation factor greatly affects the change in the appearance of the feature point when the observation position of the feature point changes with the movement of the vehicle V or the like. For this reason, in the present embodiment, a feature point when the observation position changes is observed, and the observed feature point is stored in the map storage unit 18.
The feature points include a texture feature point where a texture on a plane is observed and a structure feature point generated at the boundary of an object existing at a different distance.

検出した特徴点が、テクスチャ特徴点であるか構造特徴点であるかを判定する際には、特徴点及びその周囲の幾何学的構造を検出する。ここで、幾何学的構造とは、観測位置(撮像部2)から観測される特徴点の発生要因を決定する要素である。
特徴点の幾何学的構造を検出する方法は、まず、撮像部2が撮像した周囲画像内における、投光部4から投光された線状光の高さを計測することで、撮像部2から撮像対象までの距離を計測する。そして、撮像部2と撮像対象とを結ぶ直線の連続性を確認することで、特徴点及びその周囲の幾何学的構造を確認する。
When determining whether the detected feature point is a texture feature point or a structure feature point, the feature point and the surrounding geometric structure are detected. Here, the geometric structure is an element that determines the generation factor of the feature point observed from the observation position (imaging unit 2).
The method of detecting the geometric structure of the feature point is as follows. First, the height of the linear light projected from the light projecting unit 4 in the surrounding image captured by the image capturing unit 2 is measured. Measure the distance from the target to the imaging target. Then, by confirming the continuity of the straight line connecting the imaging unit 2 and the imaging target, the feature point and the surrounding geometric structure are confirmed.

この場合、撮像部2と撮像対象とを結ぶ直線の連続性が保たれていれば、その特徴点及びその周囲は連続的な平面である。したがって、撮像部2と撮像対象とを結ぶ直線の連続性が保たれている場合、その特徴点は、平面上のテクスチャ特徴点である。
一方、撮像部2と撮像対象とを結ぶ直線の連続性が保たれておらず、屈曲している場合や切断されている場合は、その特徴点及びその周囲は連続的な平面ではない。したがって、撮像部2と撮像対象とを結ぶ直線の連続性が保たれていない場合、その特徴点は、異なる距離に存在する物体の境界にできた構造特徴点である。
In this case, if the continuity of the straight line connecting the imaging unit 2 and the imaging target is maintained, the feature point and the periphery thereof are continuous planes. Therefore, when the continuity of the straight line connecting the imaging unit 2 and the imaging target is maintained, the feature point is a texture feature point on a plane.
On the other hand, the continuity of the straight line connecting the imaging unit 2 and the imaging target is not maintained, and when it is bent or cut, the feature point and its periphery are not a continuous plane. Therefore, when the continuity of the straight line connecting the imaging unit 2 and the imaging target is not maintained, the feature point is a structural feature point formed at the boundary of an object existing at a different distance.

距離算出部10は、撮像部2から特徴点までの距離を算出し、この算出した距離を示す情報信号を、特徴点照合部20へ出力する。
本実施形態では、距離算出部10が、投光部4から投光した線状光が、撮像部2で撮像した画像のどこに写っているのかを観測することによって、撮像部2から線状光が投光されている場所までの距離を計測する場合について説明する。しかしながら、撮像部2から特徴点までの距離を算出する方法は、これに限定するものではない。
以下、撮像部2から特徴点までの距離を算出する際の具体的な手順を説明する。
線状光の撮像画像内における位置は、図3中に示すように、線状光が通過する範囲(投光平面π=(0 0 1 0)T)に対して、投光部4との距離d1として撮像部2を設置した場合、距離d1に応じて以下の式(1)により変化する。
The distance calculation unit 10 calculates the distance from the imaging unit 2 to the feature point, and outputs an information signal indicating the calculated distance to the feature point matching unit 20.
In the present embodiment, the distance calculation unit 10 observes where the linear light projected from the light projecting unit 4 is reflected in the image captured by the imaging unit 2, thereby causing the linear light from the imaging unit 2. The case where the distance to the place where the light is projected is measured will be described. However, the method for calculating the distance from the imaging unit 2 to the feature point is not limited to this.
Hereinafter, a specific procedure for calculating the distance from the imaging unit 2 to the feature point will be described.
As shown in FIG. 3, the position of the linear light in the captured image is relative to the light projecting unit 4 with respect to the range through which the linear light passes (light projection plane π = (0 0 1 0) T ). When the imaging unit 2 is installed as the distance d1, the following equation (1) changes according to the distance d1.

Figure 2012122734
Figure 2012122734

ここで、上記の式(1)における「x」は、x=(x y w)Tで示される値であり、撮像画像上の点をHomography座標で表したものである。
また、上記の式(1)における「X」は、X=(X Y Z 1)Tで示される値であり、三次元空間上の点をHomography座標で表したものである。
また、上記の式(1)における「k」は、キャリブレーションマトリックスであり、以下の式(2)で表される。
Here, “x” in the above equation (1) is a value represented by x = (x y w) T , and represents a point on the captured image in Homography coordinates.
Further, “X” in the above formula (1) is a value represented by X = (X Y Z 1) T , and represents a point on a three-dimensional space in Homography coordinates.
In addition, “k” in the above equation (1) is a calibration matrix and is represented by the following equation (2).

Figure 2012122734
Figure 2012122734

ここで、上記の式(2)における「f」は、撮像画像上の焦点距離であり、「ux」及び「uy」は、撮像画像中心のオフセットである。
また、上記の式(2)における「ML」は、投光平面を基準としたカメラマトリックスであり、以下の式(3)で表される。
Here, “f” in the above formula (2) is a focal length on the captured image, and “ux” and “uy” are offsets of the center of the captured image.
Further, “M L ” in the above formula (2) is a camera matrix based on the light projection plane, and is represented by the following formula (3).

Figure 2012122734
Figure 2012122734

ここで、上記の式(3)における「R」は、世界座標系での撮像部2の姿勢を表す回転行列である。
また、上記の式(3)における「C」は、撮像部2の位置(座標)を表す値である。
ここで、撮像部2の回転方向を、投光平面に対するZ方向への変位とx軸周りの回転に限定すると、上記の「R」と「C」は、以下の式(4)及び(5)で表される。
Here, “R” in the above equation (3) is a rotation matrix representing the attitude of the imaging unit 2 in the world coordinate system.
Further, “C” in the above equation (3) is a value representing the position (coordinates) of the imaging unit 2.
Here, when the rotation direction of the imaging unit 2 is limited to the displacement in the Z direction with respect to the projection plane and the rotation around the x axis, the above “R” and “C” are expressed by the following equations (4) and (5). ).

Figure 2012122734
Figure 2012122734

ここで、投光された線状光が照射される条件は、常にZ=0であるので、投光平面上の点は、X=(X Y 0 1)と表すことができる。このとき、撮像画像上の位置x=(x y w)は、次式(6)で表す値となる。   Here, since the condition in which the projected linear light is irradiated is always Z = 0, the point on the light projection plane can be expressed as X = (X Y 0 1). At this time, the position x = (x y w) on the captured image is a value represented by the following equation (6).

Figure 2012122734
Figure 2012122734

ここで、上記の式(6)における「x」は、撮像画像上の線状光の位置であり、「f」は、撮像画像上の焦点距離である。なお、上記の式(6)における「x」及び「f」は、共に、既知または観測可能な値である。
また、上記の式(6)における「ux」及び「uy」は、撮像画像のオフセット(撮像画像は、一般的に左上を原点とするため、オフセットを設定する必要がある)であり、「d2」は、投光平面から撮像部2までの距離である。なお、上記の式(6)における「ux」、「uy」及び「d2」は、共に既知または観測可能な値である。
Here, “x” in the above equation (6) is the position of the linear light on the captured image, and “f” is the focal length on the captured image. Note that “x” and “f” in the above equation (6) are both known or observable values.
In addition, “ux” and “uy” in the above equation (6) are offsets of the captured image (the captured image generally has an upper left as the origin, and thus it is necessary to set the offset), and “d2 "Is a distance from the light projection plane to the imaging unit 2. Note that “ux”, “uy”, and “d2” in Equation (6) are all known or observable values.

したがって、撮像画像上の点のy(縦方向の位置)は、カメラからの距離Yによってのみ決定されるため、線状光の撮像画像上の位置を計測することによって、線状光が照射された物体と撮像部2との距離を確認することが可能となる。これにより、撮像部2から特徴点までの距離を算出することが可能となる。
なお、上述した説明では、撮像部2から特徴点までの距離を算出する方法として、投光による直接的な計測を記載したが、撮像部2から特徴点までの距離を算出する方法は、これに限定するものではない。すなわち、例えば、異なる位置から撮影された二枚以上の画像を用いて、これらの画像中にある特徴点の画面内における位置の変化から、実空間上の位置を特定する、「Motion Stereo」と呼ばれる手法を用いてもよい。
Therefore, y (vertical position) of the point on the captured image is determined only by the distance Y from the camera. Therefore, linear light is emitted by measuring the position of the linear light on the captured image. It is possible to confirm the distance between the object and the imaging unit 2. Thereby, it is possible to calculate the distance from the imaging unit 2 to the feature point.
In the above description, direct measurement by light projection is described as a method for calculating the distance from the imaging unit 2 to the feature point. However, a method for calculating the distance from the imaging unit 2 to the feature point is described here. It is not limited to. That is, for example, using two or more images taken from different positions, “Motion Stereo” that identifies the position in the real space from the change in the position of the feature points in these images on the screen. You may use the method called.

以上により、本実施形態では、上述したように、撮像部2と投光部4との距離d1を設定しておくことによって、撮像部2から車両Vの前方に存在する物体までの距離を計測することが可能となる。
折曲部検出部12は、撮像部2が撮像した周囲画像における、特徴点検出部8が検出した特徴点及びその周囲から、投光部4が投光した線状光が屈曲している部分である折曲部を検出する。また、折曲部検出部12は、検出した折曲部を含む情報信号を、折曲角算出部14及び距離算出部10へ出力する。
As described above, in the present embodiment, as described above, the distance d1 between the imaging unit 2 and the light projecting unit 4 is set, thereby measuring the distance from the imaging unit 2 to the object existing in front of the vehicle V. It becomes possible to do.
The bent portion detection unit 12 is a portion where the linear light projected by the light projecting unit 4 is bent from the feature point detected by the feature point detection unit 8 and its surroundings in the surrounding image captured by the imaging unit 2. The bent part which is is detected. Further, the bent part detection unit 12 outputs an information signal including the detected bent part to the bending angle calculation unit 14 and the distance calculation unit 10.

以下、特徴点検出部8が検出した特徴点及びその周囲から折曲部を検出する際の、具体的な手順を説明する。
折曲部検出部12は、特徴点検出部8において確認した、撮像部2と撮像対象とを結ぶ直線の連続性が保たれておらず、特徴点が構造特徴点である場合には、処理を終了する。
一方、折曲部検出部12は、特徴点検出部8において確認した、撮像部2と撮像対象とを結ぶ直線の連続性が保たれており、特徴点が平面上のテクスチャ特徴点である場合は、以下の処理を行う。
Hereinafter, a specific procedure for detecting a feature point detected by the feature point detection unit 8 and a bent portion thereof will be described.
When the feature point detection unit 12 confirms the feature point detection unit 8 and the continuity of the straight line connecting the imaging unit 2 and the imaging target is not maintained, the feature point is a structural feature point. Exit.
On the other hand, the bent portion detection unit 12 maintains the continuity of the straight line connecting the imaging unit 2 and the imaging target confirmed by the feature point detection unit 8, and the feature point is a texture feature point on a plane. Performs the following processing.

具体的には、折曲部検出部12は、特徴点が平面上のテクスチャ特徴点である場合、線状光の直線の傾きを求める。
ここで、線状光の直線の傾きとは、図4中に示すように、線分(線状光の直線)の両端に存在する折曲部であり、撮像画像内の座標x1と座標x2である。なお、図4は、撮像画像と実世界との関係を示す図である。また、図4中では、撮像画像を符号「P」で示し、特徴点及びその周囲を表す領域を符合「E」で示している。
折曲角算出部14は、折曲部検出部12が検出した折曲部の屈曲角度である折曲角を算出し、この算出した折曲角を含む情報信号を、立ち上がり線算出部16へ出力する。ここで、折曲角の算出は、例えば、撮像部2が撮像した周囲画像から、折曲部及びその周辺部分を抽出して行う。
Specifically, when the feature point is a texture feature point on a plane, the bent portion detection unit 12 obtains the slope of the straight line of the linear light.
Here, as shown in FIG. 4, the slope of the straight line of linear light is a bent portion existing at both ends of a line segment (straight line of linear light), and coordinates x 1 and coordinates in the captured image it is x 2. FIG. 4 is a diagram illustrating the relationship between the captured image and the real world. Further, in FIG. 4, the captured image is indicated by a symbol “P”, and the feature point and a region representing the periphery thereof are indicated by a symbol “E”.
The bending angle calculation unit 14 calculates a bending angle that is a bending angle of the bending part detected by the bending part detection unit 12, and sends an information signal including the calculated bending angle to the rising line calculation unit 16. Output. Here, the bending angle is calculated by, for example, extracting the bent portion and its peripheral portion from the surrounding image captured by the imaging unit 2.

立ち上がり線算出部16は、折曲角算出部14が算出した折曲角から、折曲部が存在する平面である折曲部平面を定義する。これに加え、立ち上がり線算出部16は、折曲部において折曲部平面から予め設定した角度で立ち上がる立ち上がり線を算出する。また、立ち上がり線算出部16は、算出した立ち上がり線を含む情報信号を、特徴点照合部20へ出力する。
本実施形態では、一例として、立ち上がり線算出部16の構成を、折曲部平面から垂直方向に立ち上がる法線ベクトルに基づいて、立ち上がり線を算出する構成とした場合について説明する。
The rising line calculation unit 16 defines a bent portion plane, which is a plane on which the bent portion exists, from the bent angle calculated by the bent angle calculating portion 14. In addition, the rising line calculation unit 16 calculates a rising line that rises at a preset angle from the plane of the bent portion at the bent portion. Further, the rising line calculation unit 16 outputs an information signal including the calculated rising line to the feature point matching unit 20.
In the present embodiment, as an example, a case will be described in which the configuration of the rising line calculation unit 16 is configured to calculate a rising line based on a normal vector rising in the vertical direction from the bent portion plane.

以下、折曲部平面の法線方向を算出する手順について説明する。
立ち上がり線算出部16は、特徴点検出部8において確認した特徴点が、平面上のテクスチャ特徴点である場合、その特徴点が存在する平面(折曲部平面)の法線方向を求める。
ここで、例えば、図5中に示すように、特徴点を検出する範囲βを80[°]とすると、折曲部平面の法線方向に関して許容される範囲αは、前後5[°]の誤差までとなる。なお、図5は、法線方向と、法線方向の許容される範囲を示す図である。また、図5中では、図4中と同様、撮像画像を符号「P」で示し、特徴点及びその周囲を表す領域を符合「E」で示している。
Hereinafter, the procedure for calculating the normal direction of the bent portion plane will be described.
When the feature point confirmed by the feature point detection unit 8 is a texture feature point on a plane, the rising line calculation unit 16 obtains the normal direction of the plane (folded plane) where the feature point exists.
Here, for example, as shown in FIG. 5, if the range β for detecting feature points is 80 [°], the allowable range α with respect to the normal direction of the plane of the bent portion is 5 [°]. Up to an error. FIG. 5 is a diagram illustrating the normal direction and the allowable range of the normal direction. Further, in FIG. 5, as in FIG. 4, the captured image is indicated by the symbol “P”, and the feature point and the area representing the periphery thereof are indicated by the symbol “E”.

まず、撮像画像上における、実世界における線分の両端の点X1及びX2までの奥行きであるY1及びY2を、上記の式(6)を用いて計算する。なお、奥行きY1及びY2は、折曲部の点x1=(x11 w)と、x1の縦方向の位置y1と、x2=(x22 1)と、x2の縦方向の位置y1とy2から、上記の式(6)を用いて計算する。
さらに、上記の式(6)を用いて計算したY1及びY2と、上記の式(6)の一行目の式を用いて、点X1及びX2を求める。
First, Y 1 and Y 2 that are the depths to the points X 1 and X 2 at both ends of the line segment in the real world on the captured image are calculated using the above equation (6). Incidentally, the depth Y 1 and Y 2 are the points of the bent portion x 1 = (x 1 y 1 w), and the position y 1 of the longitudinal x 1, x 2 = a (x 2 y 2 1), Calculation is performed from the vertical position y 1 and y 2 of x 2 using the above equation (6).
Further, the points X 1 and X 2 are obtained using Y 1 and Y 2 calculated using the above equation (6) and the equation in the first row of the above equation (6).

また、点X1及びX2は、投光平面上の点であり、投光平面πは、Z=0に広がる平面(図3参照)であるため、点X1に対応するZ1(図示せず)は「0」となり、点X2に対応するZ2(図示せず)は「0」となる。さらに、特徴点が存在する平面が、Z軸に対して平行であるという仮定を用いれば、特に図示しないが、実世界における点X3=(X1 Y1 a 1)とすることが可能となる。ここで、「a」は、任意の値である。
以上により、特徴点が存在する平面の法線方向Dcは、上述した三つの点、すなわち、X1と、X2及びX3によって規定される平面の法線方向となるため、次式(7)により計算することが可能である。
Further, since the points X 1 and X 2 are points on the light projecting plane, and the light projecting plane π is a plane extending to Z = 0 (see FIG. 3), Z 1 (see FIG. 3) corresponding to the point X 1 (Not shown) is “0”, and Z 2 (not shown) corresponding to the point X 2 is “0”. Further, if it is assumed that the plane on which the feature point exists is parallel to the Z axis, the point X 3 = (X1 Y1 a 1) in the real world can be obtained, although not particularly illustrated. Here, “a” is an arbitrary value.
As described above, the normal direction D c of the plane where the feature point exists is the normal direction of the plane defined by the three points described above, that is, X1, X2, and X3. It is possible to calculate.

Figure 2012122734
Figure 2012122734

マップ保存部18は、特徴点検出部8が検出した特徴点と、距離算出部10が算出した撮像部2と特徴点との距離と、折曲部検出部12が検出した折曲部を用いて特徴点マップを形成し、その形成した特徴点マップを保存する。また、マップ保存部18は、上記のように形成した特徴点マップをマップ保存部18内に保存するとともに、特徴点マップを含む情報信号を特徴点照合部20へ出力する。   The map storage unit 18 uses the feature point detected by the feature point detection unit 8, the distance between the imaging unit 2 and the feature point calculated by the distance calculation unit 10, and the bending unit detected by the bending unit detection unit 12. To form a feature point map, and store the formed feature point map. Further, the map storage unit 18 stores the feature point map formed as described above in the map storage unit 18 and outputs an information signal including the feature point map to the feature point matching unit 20.

以下、特徴点マップを形成する際の具体的な手順について説明する。
距離算出部10が算出した撮像部2と特徴点との距離や、立ち上がり線算出部16が算出した法線ベクトル(立ち上がり線)は、カメラ座標系を基準としている。しかしながら、車両Vの走行時には、カメラ(撮像部2)の位置は常に変化するため、カメラ座標系を基準とした値を用いると、カメラ(撮像部2)が移動したときに、特徴点等の位置が不定となってしまう。
Hereinafter, a specific procedure for forming the feature point map will be described.
The distance between the imaging unit 2 and the feature point calculated by the distance calculation unit 10 and the normal vector (rising line) calculated by the rising line calculation unit 16 are based on the camera coordinate system. However, since the position of the camera (imaging unit 2) always changes when the vehicle V travels, if a value based on the camera coordinate system is used, when the camera (imaging unit 2) moves, a feature point or the like The position becomes indefinite.

したがって、特徴点マップをマップ保存部18内に保存するためには、距離算出部10が算出した撮像部2と特徴点との距離や、立ち上がり線算出部16が算出した法線ベクトルを、カメラ座標系から世界座標系に変換して保存する必要がある。
上述した撮像部2と特徴点との距離や法線ベクトルを、カメラ座標系から世界座標系に変換するためには、世界座標系における撮像部2の位置を、特徴点マップの生成と同時に算出する必要がある。
Therefore, in order to store the feature point map in the map storage unit 18, the distance between the imaging unit 2 and the feature point calculated by the distance calculation unit 10 and the normal vector calculated by the rising line calculation unit 16 are used as the camera. It is necessary to convert from the coordinate system to the world coordinate system and save it.
In order to convert the distance and normal vector between the imaging unit 2 and the feature point described above from the camera coordinate system to the world coordinate system, the position of the imaging unit 2 in the world coordinate system is calculated simultaneously with the generation of the feature point map. There is a need to.

また、撮像部2と特徴点との距離や法線ベクトルを、カメラ座標系から世界座標系に変換するためには、カメラ座標系への変換行列を算出する必要がある。
特徴点マップの生成と、撮像部2の位置の算出を同時に行うとともに、変換行列を算出する手法としては、例えば、公知のSLAM(Simultaneous Localization and Mapping)を用いることが可能である。ここで、撮像部2(カメラ)を使用したSLAMとしては、例えば、Mono‐SLAMやPTAM等がある。
Further, in order to convert the distance between the imaging unit 2 and the feature point and the normal vector from the camera coordinate system to the world coordinate system, it is necessary to calculate a conversion matrix to the camera coordinate system.
As a technique for simultaneously generating the feature point map and calculating the position of the imaging unit 2 and calculating the transformation matrix, for example, a well-known SLAM (Simultaneous Localization and Mapping) can be used. Here, examples of the SLAM using the imaging unit 2 (camera) include Mono-SLAM and PTAM.

なお、撮像部2の位置の算出を行う方法としては、上述したSLAM以外に、例えば、公知の車輪速センサが検出した車輪速度パルスを用いて、車両Vの移動量を積算していく方法を用いてもよい。
そして、上記の変換行列を算出した後、世界座標系からカメラ座標系への変換行列の逆数を用いて、撮像部2と特徴点との距離YWを、次式(8)を用いて設定する。
As a method for calculating the position of the imaging unit 2, in addition to the above-described SLAM, for example, a method of integrating the movement amount of the vehicle V using a wheel speed pulse detected by a known wheel speed sensor. It may be used.
Then, after calculating the above transformation matrix, the distance Y W between the imaging unit 2 and the feature point is set using the following equation (8) using the inverse of the transformation matrix from the world coordinate system to the camera coordinate system. To do.

Figure 2012122734
Figure 2012122734

さらに、特徴点及びその周囲の法線ベクトルDwを、次式(9)を用いて設定する。 Further, the feature point and the surrounding normal vector D w are set using the following equation (9).

Figure 2012122734
Figure 2012122734

撮像部2と特徴点との距離YWと特徴点及びその周囲の法線ベクトルDwを設定した後、これらの設定した値と特徴点のテクスチャ画像Ifとを合わせて特徴点マップを形成し、この形成した特徴点マップをマップ保存部18内に保存する。
特徴点照合部20は、撮像範囲の変化に応じて、立ち上がり線算出部16が算出した立ち上がり線と、距離算出部10が算出した距離に基づいて、撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部とを照合する。また、特徴点照合部20は、撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部とを照合した結果を含む情報信号を、移動体位置推定部22へ出力する。
After setting the distance Y W between the imaging unit 2 and the feature point, the feature point and the normal vector D w around it, the feature point map is formed by combining the set value and the texture image If of the feature point. Then, the formed feature point map is stored in the map storage unit 18.
The feature point matching unit 20 includes a rising line calculated by the rising line calculation unit 16 according to a change in the imaging range, and a bending unit before the imaging range changes based on the distance calculated by the distance calculation unit 10. The folded portion after the imaging range is changed is collated. Further, the feature point matching unit 20 outputs an information signal including a result obtained by matching the bent part before the imaging range is changed and the bent part after the imaging range is changed to the moving body position estimating unit 22. .

本実施形態では、一例として、特徴点照合部20の構成を、撮像部2が撮像する周囲画像に対するマッチング処理により、撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部とを照合する構成とした場合について説明する。
以下、撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部とを照合する際に、特徴点照合部20が行う処理を説明する。
In the present embodiment, as an example, the configuration of the feature point matching unit 20 is configured such that the folding unit before the imaging range is changed and the folding after the imaging range is changed by the matching process on the surrounding image captured by the imaging unit 2. The case where it is set as the structure which collates with a part is demonstrated.
Hereinafter, a process performed by the feature point matching unit 20 when the bent part before the imaging range is changed and the bent part after the imaging range is changed will be described.

特徴点照合部20は、まず、撮像範囲が変化する前の折曲部を算出する処理として、走行前における車両Vの事前位置を推定する処理(事前位置推定)を行う。
ここで、事前位置推定時には、マップ保存部18に保持した特徴点マップ内の特徴点と、撮像部2が撮像した画像内で検出された特徴点とを照合する。
具体的には、事前知識(以前の位置推定処理における位置推定結果や、停車中の車両Vが走行を開始する位置や、各種センサによる位置の計測結果等)を用いて、事前位置推定を行う。なお、上記の「各種センサ」とは、例えば、GPS(Global Positioning System)等である。
The feature point matching unit 20 first performs a process of estimating the prior position of the vehicle V before traveling (preliminary position estimation) as a process of calculating a bent part before the imaging range changes.
Here, at the time of pre-position estimation, the feature points in the feature point map held in the map storage unit 18 and the feature points detected in the image captured by the imaging unit 2 are collated.
Specifically, prior position estimation is performed using prior knowledge (position estimation result in the previous position estimation process, position where the stopped vehicle V starts traveling, position measurement results by various sensors, and the like). . The above-mentioned “various sensors” are, for example, GPS (Global Positioning System).

そして、事前位置推定により、特徴点マップ内における位置と、世界座標系での撮像部2の姿勢を検出した後、撮像部2が撮像した画像内に写っていると予測される特徴点を、特徴点マップ内から選別する。ここで、撮像部2が撮像した画像内に写っていると予測される特徴点は、特徴点マップ内における特徴点の位置と、世界座標系での撮像部2の姿勢を用いて、特徴点マップ内に保存されている特徴点の中からマップ内から選別する。
撮像部2が撮像した画像内に写っていると予測される特徴点を、特徴点マップ内から選別する際には、特徴点マップ内における特徴点の位置に対して、撮像部2による周囲画像上での位置を、次式(10)を用いて計算する。
Then, after detecting the position in the feature point map and the attitude of the imaging unit 2 in the world coordinate system by the prior position estimation, the feature point predicted to be reflected in the image captured by the imaging unit 2 is Select from the feature point map. Here, the feature point predicted to be reflected in the image captured by the imaging unit 2 is obtained by using the position of the feature point in the feature point map and the attitude of the imaging unit 2 in the world coordinate system. Select from the feature points stored in the map.
When selecting a feature point predicted to appear in an image captured by the imaging unit 2 from the feature point map, the surrounding image by the imaging unit 2 is selected with respect to the position of the feature point in the feature point map. The above position is calculated using the following equation (10).

Figure 2012122734
Figure 2012122734

ここで、上記の式(10)における「Xp」は、特徴点マップに保存されている特徴点の世界座標系による位置である。
また、上記の式(10)における「MW」は、世界座標系を基準とした撮像部2の位置であり、車両Vの位置に応じた事前推定値MWである。この事前推定値MWは、車両Vの詳細な事前位置推定を行うための初期解を与えるものである。これは、事前位置推定は、推定に伴う計算負荷が大きいため、初期解を与えることにより、その処理を簡略化するために行う。
Here, “X p ” in the above equation (10) is the position of the feature point stored in the feature point map in the world coordinate system.
In addition, “M W ” in the above equation (10) is the position of the imaging unit 2 with respect to the world coordinate system, and is a prior estimated value M W according to the position of the vehicle V. This pre-estimated value M W gives an initial solution for performing detailed pre-position estimation of the vehicle V. This is performed in order to simplify the prior position estimation by giving an initial solution because the calculation load accompanying the estimation is large.

ここで、上記の式(10)における「x」が、周囲画像の撮像範囲内であれば、特徴点マップ内における特徴点が、撮像部2が撮像した画像内に写る可能性が高いと判断し、その場所を保持する。
そして、撮像部2が撮像した周囲画像内に写っていると予測される特徴点を選別した後、この選別した特徴点の周囲画像内での位置を推定し、その推定した位置を中心として、周囲画像内で、特徴点の実際の位置を検索する。これにより、事前推定値から想定される周囲画像内での位置に基づく撮像範囲が変化する前の折曲部と、実際に検出された画像内位置に基づく撮像範囲が変化した後の折曲部とを照合する。
Here, if “x” in the above equation (10) is within the imaging range of the surrounding image, it is determined that there is a high possibility that the feature point in the feature point map will appear in the image captured by the imaging unit 2. And hold that place.
Then, after selecting the feature points that are predicted to be captured in the surrounding image captured by the imaging unit 2, the position of the selected feature points in the surrounding image is estimated, and the estimated position is the center, The actual position of the feature point is searched in the surrounding image. Thereby, the bent part before the imaging range based on the position in the surrounding image assumed from the pre-estimated value is changed, and the bent part after the imaging range based on the actually detected image position is changed. And match.

このとき、特徴点検出部8により特徴点を検出した位置と、車両Vの現在位置が大きく異なる場合では、特徴点の見え方が大きく異なる。このため、上記のような特徴点同士のマッチング処理では、特徴点の実際の位置を検索できない場合がある。
これに対し、本実施形態では、上述したように、折曲部が存在する平面である折曲部平面から垂直方向に立ち上がる法線ベクトルに基づいて、立ち上がり線を算出することにより、特徴点の見え方を推定する。そして、この推定した特徴点の見え方に基づいて、特徴点の実際の位置を検索する。
ここで、特徴点がテクスチャ特徴点であり、その法線方向が保存されている場合は、その法線方向Dを、撮像部2の座標(位置)C'に合わせ、次式(11)を用いて変換しておく。
At this time, in the case where the position where the feature point is detected by the feature point detection unit 8 and the current position of the vehicle V are greatly different, the way the feature points are viewed is greatly different. For this reason, in the above matching processing between feature points, the actual position of the feature points may not be searched.
On the other hand, in the present embodiment, as described above, by calculating the rising line based on the normal vector rising in the vertical direction from the bent portion plane, which is the plane where the bent portion exists, the feature point is calculated. Estimate how it looks. Based on the estimated appearance of the feature point, the actual position of the feature point is searched.
Here, when the feature point is a texture feature point and the normal direction thereof is stored, the normal direction D is aligned with the coordinates (position) C ′ of the imaging unit 2 and the following equation (11) is obtained. Use to convert.

Figure 2012122734
Figure 2012122734

周囲画像内で、特徴点の実際の位置を検索する際に用いる方法としては、以下に記載する方法を用いることが可能である。
すなわち、特徴点の実際の位置を検索する際に用いる方法は、まず、上記のように推定した位置(x)を中心として、ある大きさの矩形範囲を探索領域として設定する。そして、設定した探索領域の中で、SSD(Source Skin Distance)やSAD(Source Axis Distance)等により算出した画像一致度を、1[pixel]毎に変化させて計算する。さらに、最も画像一致度が高い場所を探索する。
As a method used when searching for the actual position of the feature point in the surrounding image, the method described below can be used.
That is, in the method used when searching for the actual position of the feature point, first, a rectangular range having a certain size is set as a search area around the position (x) estimated as described above. Then, in the set search area, the image matching degree calculated by SSD (Source Skin Distance), SAD (Source Axis Distance), or the like is changed for each [pixel]. Furthermore, a place with the highest image matching degree is searched.

このとき、特徴点がテクスチャ特徴点であり、テクスチャ平面の法線方向が保存されている場合は、撮像部2の位置からの見え方に合わせて、テクスチャを変換する。
テクスチャを変換する場合、テクスチャは平面に存在するので、二次元のHomography変換を実施する。ここで、保存されているテクスチャ画像Ifの各Pixel位置を、Pi=(Ix Iy 1)とすると、テクスチャを変換した後の特徴点の位置Pt’=(I’x I’y 1)は、次式(12)として表される。
At this time, when the feature point is a texture feature point and the normal direction of the texture plane is stored, the texture is converted in accordance with the appearance from the position of the imaging unit 2.
When converting a texture, the texture exists in a plane, so a two-dimensional Homography conversion is performed. Here, assuming that each pixel position of the stored texture image If is Pi = (Ix Iy 1), the position Pt ′ = (I′x I′y 1) of the feature point after the texture is transformed is Is expressed as the following equation (12).

Figure 2012122734
Figure 2012122734

上記の式(12)において、「H」は3×3の変換行列であり、法線ベクトルと撮像部2の位置から、次式(13)を用いて算出する。   In the above equation (12), “H” is a 3 × 3 transformation matrix, and is calculated from the normal vector and the position of the imaging unit 2 using the following equation (13).

Figure 2012122734
Figure 2012122734

ここで、上記の式(13)における「R」は、撮像範囲が変化する前の折曲部を撮像したときの撮像部2の位置Cから、撮像範囲が変化した後の折曲部を撮像したときの撮像部2の位置C'への回転行列である。
また、上記の式(13)における「t」は、撮像範囲が変化する前の折曲部を撮像したときの撮像部2の位置Cから、撮像範囲が変化した後の折曲部を撮像したときの撮像部2の位置C'への移動ベクトルである。
また、上記の式(13)における「Dc'」は、撮像部2から見たときの、テクスチャ特徴点の法線ベクトルである。
Here, “R” in the above equation (13) images the bent part after the imaging range has changed from the position C of the imaging unit 2 when the bent part before the imaging range has changed is imaged. The rotation matrix to the position C ′ of the imaging unit 2 at the time.
In addition, “t” in the above formula (13) is an image of the bent part after the imaging range is changed from the position C of the imaging unit 2 when the bent part before the imaging range is changed. The movement vector to the position C ′ of the imaging unit 2 at the time.
Further, “Dc ′” in the above equation (13) is a normal vector of the texture feature point when viewed from the imaging unit 2.

また、上記の式(13)における「d3」は、撮像部2から特徴点までの距離である。
移動体位置推定部22は、特徴点照合部20が照合した、撮像範囲が変化する前の折曲部と、撮像範囲が変化した後の折曲部を用いて、両者の位置の変位量を算出する。そして、算出した変位量に基づいて、車両Vの位置を推定(以下、「事後推定」と記載する場合がある)する。
Further, “d3” in the above equation (13) is a distance from the imaging unit 2 to the feature point.
The moving body position estimation unit 22 uses the bent part before the imaging range changed and the bent part after the imaging range changed, which are collated by the feature point matching unit 20, to calculate the displacement amount of both positions. calculate. Based on the calculated displacement, the position of the vehicle V is estimated (hereinafter may be referred to as “post-mortem estimation”).

また、移動体位置推定部22による車両Vの位置の推定結果は、例えば、特に図示しないが、表示装置(ディスプレイ等)に、地図上における座標等として表示する。
なお、本実施形態では、特徴点の位置が実際の計測位置に合うように事前推定の結果を調整することによって、事後推定を行う。これは、特徴点検出部8が検出した特徴点の位置が正しい場合、特徴点照合部20が照合した特徴点同士の位置の差は、事前推定値の誤差として考えられるためである。したがって、特徴点照合部20が照合した特徴点同士の位置の差を最小化することによって事前推定値を補正し、事後推定値を得る。
なお、特徴点照合部20が照合した特徴点同士の位置の差を最小化するための方法としては、例えば、公知のモンテカルロ法等、複数の事後推定候補に対して、改めて特徴点同士の位置の差を計算する方法を用いてもよい。
In addition, the estimation result of the position of the vehicle V by the moving body position estimation unit 22 is displayed as coordinates on the map or the like on a display device (display or the like), for example, although not particularly illustrated.
In the present embodiment, post-estimation is performed by adjusting the result of prior estimation so that the position of the feature point matches the actual measurement position. This is because, when the position of the feature point detected by the feature point detection unit 8 is correct, the difference in position between the feature points verified by the feature point verification unit 20 is considered as an error of the prior estimated value. Therefore, the pre-estimation value is corrected by minimizing the position difference between the feature points collated by the feature point collating unit 20 to obtain the posterior estimation value.
In addition, as a method for minimizing the difference between the positions of the feature points collated by the feature point matching unit 20, for example, the positions of the feature points are newly determined with respect to a plurality of post-estimation candidates such as a known Monte Carlo method. A method for calculating the difference between the two may be used.

(動作)
以下、図1から図5を参照しつつ、図6及び図7を用いて、移動体位置推定装置1が行う動作を説明する。
図6は、移動体位置推定装置1が行う動作の一部を示すフローチャートである。
図6中に示すように、移動体位置推定装置1が動作を開始(START)すると、まず、ステップS10において、撮像部2が、予め設定した時間間隔t[s]で、車両Vの周囲画像を連続的に撮像する。このとき、投光部4により、撮像部2の撮像範囲内に、線状光を投光する。ステップS10において、車両Vの周囲画像を連続的に撮像すると、移動体位置推定装置1が行う処理は、ステップS12へ移行する。
(Operation)
Hereinafter, the operation performed by the moving object position estimation apparatus 1 will be described with reference to FIGS. 1 to 5 and FIGS. 6 and 7.
FIG. 6 is a flowchart showing a part of the operation performed by the mobile object position estimation apparatus 1.
As shown in FIG. 6, when the moving object position estimation device 1 starts operation (START), first, in step S <b> 10, the imaging unit 2 displays the surrounding image of the vehicle V at a preset time interval t [s]. Are continuously imaged. At this time, the light projecting unit 4 projects linear light within the imaging range of the imaging unit 2. If the surrounding image of the vehicle V is continuously imaged in step S10, the process performed by the mobile object position estimation device 1 proceeds to step S12.

ステップS12では、特徴点検出部8が、撮像部2が撮像した周囲画像から特徴点を検出する。ステップS12において、特徴点を検出すると、移動体位置推定装置1が行う処理は、ステップS14へ移行する。
ステップS14では、距離算出部10が、撮像部2から特徴点までの距離を算出する。ステップS14において、撮像部2から特徴点までの距離を算出すると、移動体位置推定装置1が行う処理は、ステップS16へ移行する。
In step S <b> 12, the feature point detection unit 8 detects a feature point from the surrounding image captured by the imaging unit 2. When the feature point is detected in step S12, the process performed by the mobile object position estimation apparatus 1 proceeds to step S14.
In step S14, the distance calculation unit 10 calculates the distance from the imaging unit 2 to the feature point. When the distance from the imaging unit 2 to the feature point is calculated in step S14, the process performed by the mobile object position estimation device 1 proceeds to step S16.

ステップS16では、折曲部検出部12が、特徴点検出部8が検出した特徴点及びその周囲から折曲部を検出する。ステップS16において、折曲部を検出すると、移動体位置推定装置1が行う処理は、ステップS18へ移行する。
ステップS18では、立ち上がり線算出部16が、折曲角算出部14が算出した折曲角から折曲部平面を定義し、さらに、折曲部において折曲部平面から予め設定した角度で立ち上がる立ち上がり線を算出する。ステップS18において、立ち上がり線を算出すると、移動体位置推定装置1が行う処理は、ステップS20へ移行する。
In step S <b> 16, the bent portion detection unit 12 detects a bent portion from the feature point detected by the feature point detection unit 8 and its surroundings. In step S16, if a bending part is detected, the process which the mobile body position estimation apparatus 1 performs will transfer to step S18.
In step S18, the rising line calculation unit 16 defines a bent portion plane from the bent angle calculated by the bent angle calculating portion 14, and further rises at a predetermined angle from the bent portion plane at the bent portion. Calculate the line. When the rising line is calculated in step S18, the process performed by the mobile object position estimation device 1 proceeds to step S20.

ステップS20では、マップ保存部18が、特徴点マップを形成し、その形成した特徴点マップを保存する。このとき、特徴点マップの保存に伴い、特徴点検出部8が検出した特徴点を消去する。ステップS20において、特徴点マップを保存すると、移動体位置推定装置1が行う処理は、ステップS10へ復帰する。
上述したステップS10からS20の処理によって、マップ保存部18に特徴点マップを保存した後、移動体位置推定装置1は、図7中に示す動作を行う。なお、図7は、移動体位置推定装置1が行う動作の一部を示すフローチャートである。
In step S20, the map storage unit 18 forms a feature point map and stores the formed feature point map. At this time, the feature point detected by the feature point detection unit 8 is deleted along with the storage of the feature point map. When the feature point map is stored in step S20, the process performed by the mobile object position estimation device 1 returns to step S10.
After the feature point map is stored in the map storage unit 18 by the processing of steps S10 to S20 described above, the mobile object position estimation device 1 performs the operation shown in FIG. FIG. 7 is a flowchart showing a part of the operation performed by the mobile object position estimation apparatus 1.

図7中に示すように、移動体位置推定装置1が動作を開始(START)すると、まず、ステップS30において、特徴点照合部20が、車両Vに対する事前位置推定を行う。ステップS30において、事前位置推定を行うと、移動体位置推定装置1が行う処理は、ステップS32へ移行する。
ステップS32では、ステップS30で行った事前位置推定が、正常に終了したか否かを判定する。そして、ステップS30で行った事前位置推定が正常に終了していると判定した場合は、移動体位置推定装置1が行う処理は、ステップS34へ移行する。
As shown in FIG. 7, when the moving body position estimating apparatus 1 starts operation (START), first, the feature point matching unit 20 performs a prior position estimation with respect to the vehicle V in step S30. If prior position estimation is performed in step S30, the process performed by the mobile object position estimation apparatus 1 proceeds to step S32.
In step S32, it is determined whether or not the prior position estimation performed in step S30 has ended normally. And when it determines with the prior position estimation performed by step S30 having been complete | finished normally, the process which the mobile body position estimation apparatus 1 performs transfers to step S34.

一方、ステップS30で行った事前位置推定が正常に終了していないと判定した場合は、移動体位置推定装置1が行う処理は終了(END)する。
ここで、ステップS32の処理を行う理由は、ステップS30で行う事前位置推定が、何らかの原因で失敗することがあるためであり、失敗した場合には、事前位置推定に用いるパラメータをリセットした状態で、再び事前位置推定を行う必要があるためである。
On the other hand, when it is determined that the prior position estimation performed in step S30 has not ended normally, the process performed by the mobile object position estimation device 1 ends (END).
Here, the reason for performing the process of step S32 is that the prior position estimation performed in step S30 may fail for some reason, and in the case of failure, the parameters used for the prior position estimation are reset. This is because it is necessary to perform the prior position estimation again.

ステップS34では、折曲部が存在する平面である折曲部平面から垂直方向に立ち上がる法線ベクトルに基づいて、立ち上がり線を算出することにより、特徴点の見え方を推定する。ステップS34において、特徴点の見え方を推定すると、移動体位置推定装置1が行う処理は、ステップS36へ移行する。
ステップS36では、撮像部2が撮像した車両Vの周囲画像を取得する。ここで、ステップS36において取得する周囲画像は、上述したステップS10において取得した周囲画像よりも時間が経過して車両Vが移動している状態の画像である。ステップS36において、車両Vの周囲画像を取得すると、移動体位置推定装置1が行う処理は、ステップS38へ移行する。
In step S34, the appearance of the feature point is estimated by calculating the rising line based on the normal vector rising in the vertical direction from the bent plane where the bent portion exists. If the appearance of the feature point is estimated in step S34, the process performed by the mobile object position estimation apparatus 1 proceeds to step S36.
In step S36, the surrounding image of the vehicle V imaged by the imaging unit 2 is acquired. Here, the surrounding image acquired in step S36 is an image in a state where the vehicle V is moving after a lapse of time from the surrounding image acquired in step S10 described above. If the surrounding image of the vehicle V is acquired in step S36, the process which the mobile body position estimation apparatus 1 performs will transfer to step S38.

ステップS38では、特徴点照合部20が、撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部とを照合する。ステップS38において、撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部とを照合すると、移動体位置推定装置1が行う処理は、ステップS40へ移行する。
ステップS40では、移動体位置推定部22が、特徴点照合部20が照合した、撮像範囲が変化する前の折曲部と、撮像範囲が変化した後の折曲部を用いて、両者の位置の変位量を算出する。ステップS40において、変位量を算出すると、移動体位置推定装置1が行う処理は、ステップS42へ移行する。
In step S38, the feature point collating unit 20 collates the bent part before the imaging range changes with the bent part after the imaging range changes. In step S38, when the bent part before the imaging range is changed and the bent part after the imaging range is changed, the process performed by the mobile object position estimating apparatus 1 proceeds to step S40.
In step S <b> 40, the moving body position estimation unit 22 uses the bent part before the change of the imaging range and the bent part after the change of the imaging range, which are collated by the feature point matching unit 20. The amount of displacement is calculated. When the displacement amount is calculated in step S40, the process performed by the mobile object position estimation apparatus 1 proceeds to step S42.

ステップS42では、移動体位置推定部22が、ステップS40で算出した変位量に基づいて、車両Vの位置に対する事後推定を行う。ステップS42において、事後推定を行うと、移動体位置推定装置1が行う処理は、ステップS44へ移行する。
ステップS44では、ステップS42で行った事後推定が、正常に終了したか否かを判定する。そして、ステップS42で行った事後推定が正常に終了していると判定した場合は、移動体位置推定装置1が行う処理は、ステップS46へ移行する。
In step S42, the moving body position estimation unit 22 performs a posteriori estimation on the position of the vehicle V based on the displacement amount calculated in step S40. If post-mortem estimation is performed in step S42, the process performed by the mobile object position estimation apparatus 1 proceeds to step S44.
In step S44, it is determined whether or not the posterior estimation performed in step S42 has been completed normally. And when it determines with the posterior estimation performed in step S42 having been normally complete | finished, the process which the mobile body position estimation apparatus 1 transfers to step S46.

一方、ステップS42で行った事後推定が正常に終了していないと判定した場合は、移動体位置推定装置1が行う処理は終了(END)する。
ここで、ステップS44の処理を行う理由は、ステップS42で行う事後推定が、何らかの原因で失敗することがあるためであり、失敗した場合には、事後推定に用いるパラメータをリセットした状態で、再び事後推定を行う必要があるためである。
On the other hand, when it is determined that the posterior estimation performed in step S42 is not normally completed, the process performed by the mobile object position estimation device 1 is terminated (END).
Here, the reason for performing the process of step S44 is that the posterior estimation performed in step S42 may fail for some reason, and in the case of failure, the parameters used for the posterior estimation are reset and again This is because it is necessary to perform post-mortem estimation.

ステップS46では、移動体位置推定部22が行った移動体の位置の推定が、正常に終了したか否かを判定する。そして、移動体位置推定部22が行った移動体の位置の推定が正常に終了していると判定した場合は、移動体位置推定装置1が行う処理は、ステップS30へ移行する。
一方、移動体位置推定部22が行った移動体の位置の推定が正常に終了していないと判定した場合は、移動体位置推定装置1が行う処理は終了(END)する。
In step S46, it is determined whether or not the estimation of the position of the moving object performed by the moving object position estimation unit 22 has ended normally. And when it determines with the estimation of the position of the moving body performed by the moving body position estimation part 22 having been complete | finished normally, the process which the moving body position estimation apparatus 1 performs transfers to step S30.
On the other hand, when it is determined that the estimation of the position of the moving object performed by the moving object position estimation unit 22 has not ended normally, the process performed by the moving object position estimation device 1 ends (END).

なお、上述したように、本実施形態の移動体位置推定装置1の動作で実施する移動体位置推定方法は、撮像範囲が変化する前の折曲部の位置と撮像範囲が変化した後の折曲部の位置との変位量に基づいて、車両Vの位置を推定する方法である。
ここで、撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部との照合は、撮像範囲の変化に応じて、折曲部平面から予め設定した角度で立ち上がる立ち上がり線と撮像部2から特徴点までの距離に基づいて行う。
Note that, as described above, the mobile object position estimation method implemented by the operation of the mobile object position estimation apparatus 1 according to the present embodiment is the folding position before the imaging range is changed and the folding position after the imaging range is changed. This is a method for estimating the position of the vehicle V based on the amount of displacement from the position of the curved portion.
Here, the collation between the bent part before the imaging range changes and the bent part after the imaging range changes is a rising line that rises at a preset angle from the bent part plane according to the change of the imaging range. And based on the distance from the imaging unit 2 to the feature point.

なお、立ち上がり線の算出は、まず、撮像部2で連続的に撮像した車両Vの周囲画像の撮像範囲内へ線状光を投光した状態で、撮像部2で撮像した周囲画像から、撮像範囲が変化しても追従可能な点である特徴点を検出する。そして、検出した特徴点及びその周囲から、撮像部2で連続的に撮像した車両Vの周囲画像の撮像範囲内へ投光した線状光が屈曲している部分である折曲部を検出する。これにより、検出した折曲部の屈曲角度である折曲角から折曲部が存在する平面である折曲部平面を定義して、立ち上がり線を算出する。   The rising line is calculated from the surrounding image captured by the imaging unit 2 in a state where linear light is projected into the imaging range of the surrounding image of the vehicle V continuously captured by the imaging unit 2. A feature point that is a point that can be followed even if the range changes is detected. And the bending part which is the part which the linear light projected in the imaging range of the surrounding image of the vehicle V continuously imaged with the imaging part 2 is bent from the detected feature point and its periphery is detected. . Accordingly, a rising line is calculated by defining a bent portion plane that is a plane on which the bent portion exists from the detected bending angle that is the bending angle of the bent portion.

以上により、投光部4は、投光手段に対応する。また、特徴点検出部8は、特徴点検出手段に対応する。また、距離算出部10は、距離算出手段に対応する。また、折曲部検出部12は、折曲部検出手段に対応する。また、折曲角算出部14は、折曲角算出手段に対応する。また、立ち上がり線算出部16は、立ち上がり線算出手段に対応する。また、特徴点照合部20は、特徴点照合手段に対応する。また、移動体位置推定部22は、移動体位置推定手段に対応する。   Thus, the light projecting unit 4 corresponds to the light projecting unit. The feature point detector 8 corresponds to a feature point detector. The distance calculation unit 10 corresponds to a distance calculation unit. Moreover, the bent part detection part 12 respond | corresponds to a bent part detection means. The bending angle calculation unit 14 corresponds to a bending angle calculation unit. The rising line calculation unit 16 corresponds to rising line calculation means. The feature point matching unit 20 corresponds to feature point matching means. Moreover, the moving body position estimation part 22 respond | corresponds to a moving body position estimation means.

(第一実施形態の効果)
(1)特徴点検出部8は、投光部4が線状光を投光した状態で、撮像部2が撮像した周囲画像から、撮像範囲が変化しても追従可能な点である特徴点を検出し、折曲部検出部12は、特徴点検出部8が検出した特徴点及びその周囲から折曲部を検出する。また、折曲角算出部14は、折曲部の屈曲角度である折曲角を算出し、立ち上がり線算出部16は、折曲部が存在する平面である折曲部平面を定義し、さらに、折曲部において折曲部平面から予め設定した角度で立ち上がる立ち上がり線を算出する。
(Effects of the first embodiment)
(1) The feature point detection unit 8 is a feature point that can be tracked even if the imaging range changes from the surrounding image captured by the imaging unit 2 in a state where the light projecting unit 4 projects linear light. The bend detection unit 12 detects a bend from the feature point detected by the feature point detection unit 8 and its surroundings. The bending angle calculation unit 14 calculates a bending angle that is a bending angle of the bending part, the rising line calculation unit 16 defines a bending part plane that is a plane on which the bending part exists, and Then, a rising line that rises at a predetermined angle from the plane of the bent portion in the bent portion is calculated.

これに加え、特徴点照合部20は、撮像範囲の変化に応じて、立ち上がり線算出部16が算出した立ち上がり線と、距離算出部10が算出した撮像部2から特徴点までの距離に基づいて、撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部とを照合する。さらに、移動体位置推定部22が、撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部との位置の変位量に基づいて、車両Vの位置を推定する。
このため、折曲部が存在する折曲部平面と、折曲部平面から立ち上がる立ち上がり線に基づいて、車両Vの位置を推定することが可能となる。
その結果、異なる場所から検出した特徴点の見え方が、各検出場所で変化する場合であっても車両Vの位置を推定することが可能となり、車両Vの位置を推定可能な条件を増加させることが可能となる。
In addition to this, the feature point matching unit 20 is based on the rising line calculated by the rising line calculation unit 16 and the distance from the imaging unit 2 to the feature point calculated by the distance calculation unit 10 according to the change of the imaging range. The folded part before the imaging range is changed is compared with the bent part after the imaging range is changed. Furthermore, the mobile body position estimation unit 22 estimates the position of the vehicle V based on the displacement amount of the position between the bent part before the imaging range changes and the bent part after the imaging range changes.
For this reason, it becomes possible to estimate the position of the vehicle V based on the bent portion plane where the bent portion exists and the rising line rising from the bent portion plane.
As a result, it is possible to estimate the position of the vehicle V even if the appearance of the feature points detected from different places changes at each detection place, and increase the conditions under which the position of the vehicle V can be estimated. It becomes possible.

(2)立ち上がり線算出部16が、折曲部が存在する折曲部平面から垂直方向に立ち上がる法線ベクトルに基づいて、立ち上がり線を算出する。
このため、車両Vの位置の事後推定を行う際に、特徴点が存在する平面の法線ベクトルと、特徴点の特徴点マップ上における位置と、撮像部2の位置の事前推定値を用いて、事前推定した撮像部2の位置からの、特徴点の見え方を推定することが可能となる。
その結果、検出した角度により見え方が大きく変化する特徴点に対し、その特徴点の検出精度を向上させることが可能となる。
(2) The rising line calculation unit 16 calculates the rising line based on the normal vector rising in the vertical direction from the bent plane where the bent portion exists.
For this reason, when performing a posteriori estimation of the position of the vehicle V, the normal vector of the plane where the feature point exists, the position of the feature point on the feature point map, and the prior estimated value of the position of the imaging unit 2 are used. It is possible to estimate the appearance of the feature point from the pre-estimated position of the imaging unit 2.
As a result, it is possible to improve the detection accuracy of a feature point whose appearance changes greatly depending on the detected angle.

(3)特徴点照合部20が、撮像部2が撮像する周囲画像に対するマッチング処理により、撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部とを照合する。
その結果、マッチング処理以外の処理を用いて、撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部とを照合する場合と比較して、シンプルな処理で照合が可能になるため、車両Vの位置を推定する処理を簡略化することが可能となる。
(3) The feature point matching unit 20 matches the bent part before the imaging range is changed with the bent part after the imaging range is changed by the matching process on the surrounding image captured by the imaging unit 2.
As a result, using processes other than matching processing, collation can be performed with simpler processing compared to the case where the folded part before the imaging range changes and the folded part after the imaging range changes. Therefore, the process for estimating the position of the vehicle V can be simplified.

(4)本実施形態の移動体位置推定方法では、撮像部2が撮像した周囲画像の撮像範囲内へ線状光を投光した状態で、撮像範囲が変化しても追従可能な点である特徴点を検出し、この検出した特徴点及びその周囲から折曲部を検出する。また、折曲部の屈曲角度である折曲角を算出し、折曲部が存在する平面である折曲部平面を定義し、さらに、折曲部において折曲部平面から予め設定した角度で立ち上がる立ち上がり線を算出する。 (4) The moving body position estimation method of the present embodiment is a point that can follow even if the imaging range changes in a state where linear light is projected into the imaging range of the surrounding image captured by the imaging unit 2. A feature point is detected, and a bent portion is detected from the detected feature point and its periphery. Further, a bending angle that is a bending angle of the bent portion is calculated, a bent portion plane that is a plane on which the bent portion exists is defined, and further, a predetermined angle is set from the bent portion plane in the bent portion. Calculate the rising line that rises.

これに加え、撮像範囲の変化に応じて、立ち上がり線と、撮像部2から特徴点までの距離に基づいて、撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部とを照合する。さらに、撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部との位置の変位量に基づいて、車両Vの位置を推定する。
このため、折曲部が存在する折曲部平面と、折曲部平面から立ち上がる立ち上がり線に基づいて、車両Vの位置を推定することが可能となる。
その結果、異なる場所から検出した特徴点の見え方が、各検出場所で変化する場合であっても車両Vの位置を推定することが可能となり、車両Vの位置を推定可能な条件を増加させることが可能となる。
In addition to this, in accordance with the change of the imaging range, the bent line before the imaging range changes and the bent part after the imaging range changes based on the rising line and the distance from the imaging unit 2 to the feature point And match. Furthermore, the position of the vehicle V is estimated based on the displacement amount of the position of the bent part before the imaging range changes and the bent part after the imaging range changes.
For this reason, it becomes possible to estimate the position of the vehicle V based on the bent portion plane where the bent portion exists and the rising line rising from the bent portion plane.
As a result, it is possible to estimate the position of the vehicle V even if the appearance of the feature points detected from different places changes at each detection place, and increase the conditions under which the position of the vehicle V can be estimated. It becomes possible.

(変形例)
(1)本実施形態の移動体位置推定装置1では、立ち上がり線算出部16が、折曲部が存在する折曲部平面から垂直方向に立ち上がる法線ベクトルに基づいて、立ち上がり線を算出するが、立ち上がり線算出部16の構成は、これに限定するものではない。すなわち、立ち上がり線算出部16の構成を、法線ベクトル以外に基づいて、立ち上がり線を算出する構成としてもよい。
(Modification)
(1) In the moving body position estimation apparatus 1 according to the present embodiment, the rising line calculation unit 16 calculates the rising line based on the normal vector rising in the vertical direction from the bent part plane where the bent part exists. The configuration of the rising line calculation unit 16 is not limited to this. That is, the configuration of the rising line calculation unit 16 may be configured to calculate the rising line based on other than the normal vector.

(2)本実施形態の移動体位置推定装置1では、特徴点照合部20が、撮像部2が撮像する周囲画像に対するマッチング処理により、撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部とを照合する。しかしながら、特徴点照合部20の構成は、これに限定するものではなく、撮像部2が撮像する周囲画像に対するマッチング処理以外の処理により、撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部とを照合する構成としてもよい。
(3)本実施形態の移動体位置推定装置1では、移動体位置推定装置1を備える対象を車両としたが、これに限定するものではなく、例えば、作業機械や電車等を、移動体位置推定装置1を備える対象としてもよい。
(2) In the moving body position estimation apparatus 1 according to the present embodiment, the feature point matching unit 20 changes the folding range and the imaging range before the imaging range is changed by the matching process on the surrounding image captured by the imaging unit 2. Check the folded part after the check. However, the configuration of the feature point matching unit 20 is not limited to this, and the bending portion and the imaging range before the imaging range changes are changed by processing other than the matching processing for the surrounding image captured by the imaging unit 2. It is good also as a structure which collates with the bent part after doing.
(3) In the mobile body position estimation apparatus 1 of the present embodiment, the object including the mobile body position estimation apparatus 1 is a vehicle. However, the present invention is not limited to this. For example, a work machine, a train, etc. It is good also as a target provided with the estimation apparatus 1. FIG.

1 移動体位置推定装置
2 撮像部
4 投光部(投光手段)
6 演算処理部
8 特徴点検出部(特徴点検出手段)
10 距離算出部(距離算出手段)
12 折曲部検出部(折曲部検出手段)
14 折曲角算出部(折曲角算出手段)
16 立ち上がり線算出部(立ち上がり線算出手段)
18 マップ保存部
20 特徴点照合部(特徴点照合手段)
22 移動体位置推定部(移動体位置推定手段)
V 車両
P 撮像画像
E 特徴点及びその周囲を表す領域
DESCRIPTION OF SYMBOLS 1 Mobile body position estimation apparatus 2 Imaging part 4 Light projection part (light projection means)
6 arithmetic processing unit 8 feature point detection unit (feature point detection means)
10 Distance calculation unit (distance calculation means)
12 Bent part detection part (bent part detection means)
14 Bending angle calculation unit (bending angle calculation means)
16 Rising line calculation unit (rising line calculation means)
18 Map storage unit 20 Feature point matching unit (feature point matching unit)
22 Moving body position estimation unit (moving body position estimation means)
V Vehicle P Captured image E Feature point and its surrounding area

Claims (4)

移動体の周囲画像を連続的に撮像する撮像部と、
前記撮像部が撮像する周囲画像の撮像範囲内へ線状光を投光する投光手段と、
前記投光手段が線状光を投光した状態で、前記撮像部が撮像した周囲画像から、前記撮像範囲が変化しても追従可能な点である特徴点を検出する特徴点検出手段と、
前記撮像部から前記特徴点までの距離を算出する距離算出手段と、
前記特徴点検出手段が検出した特徴点及びその周囲から、前記投光手段が投光した線状光が屈曲している部分である折曲部を検出する折曲部検出手段と、
前記折曲部検出手段が検出した折曲部の屈曲角度である折曲角を算出する折曲角算出手段と、
前記折曲角算出手段が算出した折曲角から前記折曲部が存在する平面である折曲部平面を定義し、さらに、前記折曲部において前記折曲部平面から予め設定した角度で立ち上がる立ち上がり線を算出する立ち上がり線算出手段と、
前記撮像範囲の変化に応じて、前記立ち上がり線算出手段が算出した立ち上がり線と前記距離検出手段が算出した距離に基づいて、前記撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部とを照合する特徴点照合手段と、
前記特徴点照合手段が照合した前記撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部との位置の変位量に基づいて、前記移動体の位置を推定する移動体位置推定手段と、を備えることを特徴とする移動体位置推定装置。
An imaging unit that continuously captures surrounding images of the moving body;
A light projecting unit that projects linear light into an imaging range of a surrounding image captured by the imaging unit;
A feature point detection unit that detects a feature point that is a point that can be followed even if the imaging range changes, from a surrounding image captured by the imaging unit in a state where the light projecting unit projects linear light;
Distance calculating means for calculating a distance from the imaging unit to the feature point;
A bent portion detecting means for detecting a bent portion that is a portion where the linear light projected by the light projecting means is bent from the feature point detected by the feature point detecting means and the periphery thereof; and
A bending angle calculating means for calculating a bending angle that is a bending angle of the bent portion detected by the bent portion detecting means;
A bent portion plane, which is a plane on which the bent portion exists, is defined from the bent angle calculated by the bent angle calculating means, and the bent portion rises from the bent portion plane at a preset angle. A rising line calculating means for calculating the rising line;
Based on the rising line calculated by the rising line calculating means and the distance calculated by the distance detecting means, after the change of the imaging range and the bent portion before the imaging range changes, in accordance with the change of the imaging range A feature point matching means for matching the bent portion of
A moving body that estimates the position of the moving body based on a displacement amount of a position between the bent portion before the imaging range changed by the feature point matching means and the bent portion after the imaging range has changed. A moving body position estimating apparatus comprising: a position estimating means;
前記立ち上がり線算出手段は、前記折曲部平面から垂直方向に立ち上がる法線ベクトルに基づいて、前記立ち上がり線を算出することを特徴とする請求項1に記載した移動体位置推定装置。   2. The moving body position estimating apparatus according to claim 1, wherein the rising line calculating means calculates the rising line based on a normal vector rising in a vertical direction from the bent portion plane. 前記特徴点照合手段は、前記撮像部が撮像する周囲画像に対するマッチング処理により、前記撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部とを照合することを特徴とする請求項1または2に記載した移動体位置推定装置。   The feature point matching unit is configured to match a bent part before the imaging range is changed with a bent part after the imaging range is changed by a matching process on a surrounding image captured by the imaging unit. The moving body position estimation apparatus according to claim 1 or 2. 撮像部で連続的に撮像した移動体の周囲画像の撮像範囲内へ線状光を投光し、
前記線状光を投光した状態で、前記撮像した周囲画像から、前記撮像範囲が変化しても追従可能な点である特徴点を検出し、
前記撮像部から前記特徴点までの距離を算出し、
前記検出した特徴点及びその周囲から、前記投光した線状光が屈曲している部分である折曲部を検出し、
前記検出した折曲部の屈曲角度である折曲角を算出し、
前記算出した折曲角から前記折曲部が存在する平面である折曲部平面を定義し、さらに、前記折曲部において前記折曲部平面から予め設定した角度で立ち上がる立ち上がり線を算出し、
前記撮像範囲の変化に応じて、前記算出した立ち上がり線と前記算出した距離に基づいて、前記撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部とを照合し、
前記照合した前記撮像範囲が変化する前の折曲部と前記撮像範囲が変化した後の折曲部との位置の変位量に基づいて、前記移動体の位置を推定することを特徴とする移動体位置推定方法。
Project linear light into the imaging range of the surrounding image of the moving object continuously captured by the imaging unit,
In a state where the linear light is projected, a feature point that is a point that can be followed even if the imaging range changes is detected from the captured surrounding image,
Calculating a distance from the imaging unit to the feature point;
From the detected feature point and its surroundings, a bent portion that is a portion where the projected linear light is bent is detected,
Calculating a bending angle that is a bending angle of the detected bending portion;
Define a bent portion plane that is a plane in which the bent portion exists from the calculated bent angle, and further calculate a rising line that rises at a preset angle from the bent portion plane in the bent portion,
Based on the calculated rising line and the calculated distance in accordance with the change of the imaging range, the folded part before the imaging range is changed and the bent part after the imaging range is changed,
The movement is characterized in that the position of the moving body is estimated based on a displacement amount of a position of the folded portion before the collated imaging range is changed and a bent portion after the imaging range is changed. Body position estimation method.
JP2010271064A 2010-12-06 2010-12-06 Moving body position estimation device and moving body position estimation method Pending JP2012122734A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010271064A JP2012122734A (en) 2010-12-06 2010-12-06 Moving body position estimation device and moving body position estimation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010271064A JP2012122734A (en) 2010-12-06 2010-12-06 Moving body position estimation device and moving body position estimation method

Publications (1)

Publication Number Publication Date
JP2012122734A true JP2012122734A (en) 2012-06-28

Family

ID=46504337

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010271064A Pending JP2012122734A (en) 2010-12-06 2010-12-06 Moving body position estimation device and moving body position estimation method

Country Status (1)

Country Link
JP (1) JP2012122734A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016038287A (en) * 2014-08-07 2016-03-22 日産自動車株式会社 Self position calculation device and self position calculation method
JP2020045687A (en) * 2018-09-19 2020-03-26 日立建機株式会社 Work machine

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016038287A (en) * 2014-08-07 2016-03-22 日産自動車株式会社 Self position calculation device and self position calculation method
JP2020045687A (en) * 2018-09-19 2020-03-26 日立建機株式会社 Work machine

Similar Documents

Publication Publication Date Title
JP5588812B2 (en) Image processing apparatus and imaging apparatus using the same
JP2009041972A (en) Image processing device and method therefor
JP5804185B2 (en) Moving object position / orientation estimation apparatus and moving object position / orientation estimation method
KR101973917B1 (en) Three-dimensional measuring device and its supporting method of measurement
WO2015125298A1 (en) Local location computation device and local location computation method
JP6171593B2 (en) Object tracking method and system from parallax map
JP5299296B2 (en) Vehicle periphery image display device and vehicle periphery image display method
JP2006053890A (en) Obstacle detection apparatus and method therefor
JP2009017462A (en) Driving support system and vehicle
JP4609603B2 (en) 3D information display device and 3D information display method
JP5663411B2 (en) Ranging device
JP6552448B2 (en) Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection
KR101300350B1 (en) Apparatus and method for processing image
JPWO2014076769A1 (en) Detection apparatus, method and program
JP2019185599A (en) Route simulation device
JP5181602B2 (en) Object detection device
JP2009139324A (en) Travel road surface detecting apparatus for vehicle
JP2016148956A (en) Positioning device, positioning method and positioning computer program
JP4553071B1 (en) 3D information display device and 3D information display method
JP2020118575A (en) Inter-vehicle distance measurement device, error model generation device, learning model generation device, and method and program thereof
JP6398218B2 (en) Self-position calculation device and self-position calculation method
JP7308227B2 (en) Image processing device, image processing method, and program
JP2007233440A (en) On-vehicle image processor
KR102065337B1 (en) Apparatus and method for measuring movement information of an object using a cross-ratio
JP2012122734A (en) Moving body position estimation device and moving body position estimation method