JP2012122734A - Moving body position estimation device and moving body position estimation method - Google Patents
Moving body position estimation device and moving body position estimation method Download PDFInfo
- Publication number
- JP2012122734A JP2012122734A JP2010271064A JP2010271064A JP2012122734A JP 2012122734 A JP2012122734 A JP 2012122734A JP 2010271064 A JP2010271064 A JP 2010271064A JP 2010271064 A JP2010271064 A JP 2010271064A JP 2012122734 A JP2012122734 A JP 2012122734A
- Authority
- JP
- Japan
- Prior art keywords
- feature point
- unit
- imaging range
- bent portion
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、例えば、車両等、移動体の位置を推定する移動体位置推定装置及び移動体位置推定方法に関する。 The present invention relates to a mobile object position estimation device and a mobile object position estimation method for estimating the position of a mobile object such as a vehicle.
車両等、移動体の位置(自己位置)を推定する装置としては、例えば、特許文献1に記載されている装置がある。
特許文献1に記載されている移動体位置推定装置は、移動体の前方視野の輝度画像を取得し、取得した輝度画像のうち連続する少なくとも二つのフレームに対して、輝度画像間における特徴点の位置の変位量に基づいて、移動体の位置を算出する。
As an apparatus for estimating the position (self position) of a moving body such as a vehicle, there is an apparatus described in
The moving body position estimation apparatus described in
特許文献1に記載の移動体位置推定装置では、輝度画像内の特徴点を検出し、この検出した特徴点と輝度画像を取得したカメラとの相対距離を計測する手順を有する。しかしながら、特徴点の見え方は、特徴点を検出する検出位置に依存するため、異なる場所から特徴点を検出すると、それぞれの場所において、特徴点の見え方が変化することとなる。このような、特徴点の見え方が変化は、特に、特徴点が、カメラ中心からの放射線方向と平行に近い角度で配置されている平面上の特徴点である場合に顕著となる。そのため、道路脇の建物壁面等に検出された特徴点等は、特徴点を検出する場所が少しずれてしまうだけでも検出が困難となる。
The moving body position estimation apparatus described in
このため、異なる場所から検出した特徴点は、位置の算出に用いることが不適切なものとなり、位置の推定が困難となるという問題が発生するおそれがある。
本発明は、上記のような問題点に着目してなされたもので、異なる場所から検出した特徴点の見え方が、各検出場所で変化する場合であっても、移動体の位置を推定することが可能な、移動体位置推定装置及び移動体位置推定方法を提供することを課題とする。
For this reason, feature points detected from different places are inappropriate for use in position calculation, and there is a possibility that it may be difficult to estimate the position.
The present invention has been made paying attention to the above problems, and estimates the position of a moving object even when the appearance of feature points detected from different locations changes at each detection location. It is an object of the present invention to provide a movable body position estimation apparatus and a movable body position estimation method that can be used.
上記課題を解決するために、本発明は、撮像部で連続的に撮像した移動体の周囲画像の撮像範囲内へ線状光を投光した状態で、撮像した周囲画像から、撮像範囲が変化しても追従可能な点である特徴点を検出する。そして、撮像部から特徴点までの距離を算出し、さらに、特徴点及びその周囲から検出した線状光が屈曲している部分である折曲部の、屈曲角度である折曲角を算出し、この折曲角から、折曲部が存在する平面である折曲部平面を定義する。これに加え、折曲部において折曲部平面から予め設定した角度で立ち上がる立ち上がり線を算出し、撮像範囲の変化に応じて、撮像部と折曲部との距離と立ち上がり線とに基づいて、撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部とを照合する。さらに、照合した両折曲部の位置の変位量に基づいて、移動体の位置を推定する。 In order to solve the above-described problem, the present invention changes the imaging range from the captured surrounding image in a state where linear light is projected into the imaging range of the surrounding image of the moving object continuously captured by the imaging unit. A feature point that is a point that can be followed is detected. Then, the distance from the imaging unit to the feature point is calculated, and further, the bending angle that is the bending angle of the bending portion that is the portion where the linear light detected from the feature point and its surroundings is bent is calculated. From this bend angle, a bend plane that is a plane where the bend exists is defined. In addition to this, a rising line that rises at a preset angle from the bent portion plane in the bent portion is calculated, and according to a change in the imaging range, based on the distance and the rising line between the imaging portion and the bent portion, The bent part before the imaging range is changed is compared with the bent part after the imaging range is changed. Further, the position of the moving body is estimated based on the displacement amount of the collated position of both bent portions.
本発明によれば、折曲部が存在する折曲部平面と、折曲部平面から立ち上がる立ち上がり線に基づいて、移動体の位置を推定することが可能となる。このため、移動体の移動に伴う特徴点の検出位置の変化によって、特徴点の見え方が各検出位置で変化しても、移動体の位置を推定することが可能となる。 ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to estimate the position of a mobile body based on the bending part plane in which a bending part exists, and the rising line rising from a bending part plane. For this reason, it is possible to estimate the position of the moving object even if the appearance of the feature point changes at each detection position due to the change in the detection position of the feature point accompanying the movement of the moving object.
以下、本発明の実施形態について図面を参照しつつ説明する。
(第一実施形態)
以下、本発明の第一実施形態(以下、本実施形態と記載する)について、図面を参照しつつ説明する。
(構成)
図1は、本実施形態の移動体位置推定装置1を備えた車両Vの概略構成を示す図である。
図1中に示すように、移動体位置推定装置1は、移動体である車両Vが備える。すなわち、本実施形態では、移動体位置推定装置1を備える対象を、車両(自動車)とする。
図2は、移動体位置推定装置1の概略構成を示す図である。
図2中に示すように、移動体位置推定装置1は、撮像部2と、投光部4と、演算処理部6を備える。
Embodiments of the present invention will be described below with reference to the drawings.
(First embodiment)
Hereinafter, a first embodiment of the present invention (hereinafter referred to as the present embodiment) will be described with reference to the drawings.
(Constitution)
FIG. 1 is a diagram illustrating a schematic configuration of a vehicle V including a moving body
As shown in FIG. 1, the moving body
FIG. 2 is a diagram illustrating a schematic configuration of the moving object
As illustrated in FIG. 2, the moving body
撮像部2は、例えば、赤外線カメラ等のカメラを用いて形成し、予め設定した時間間隔t[s]で、車両V(移動体)の周囲画像を連続的に撮像する。
また、撮像部2は、撮像した周囲画像を含む情報信号を、演算処理部6へ出力する。具体的には、撮像した周囲画像を含む情報信号を、後述する特徴点検出部8と、距離算出部10と、特徴点照合部20及び移動体位置推定部22へ出力する。
The
Further, the
本実施形態では、撮像部2の構成を、車両Vの周囲画像のうち、車両Vの前方の画像を連続的に撮像する構成とする。したがって、本実施形態では、撮像部2を、例えば、車両Vの車室内におけるフロントウインド付近等、車両Vの車両前後方向前方の画像を撮像可能な位置に配置する場合について説明する。
投光部4は、例えば、レーザー照射機等、直線状の光を投光可能な装置を用いて形成し、撮像部2の撮像範囲内に、線状光(ライン状の光)を投光する。
In the present embodiment, the configuration of the
The light projecting unit 4 is formed by using a device capable of projecting linear light, such as a laser irradiator, and projects linear light (line-shaped light) within the imaging range of the
また、投光部4は、線状光を投光している状態を含む情報信号を、演算処理部6へ出力する。具体的には、線状光を投光している状態を含む情報信号を、後述する折曲部検出部12へ出力する。
本実施形態では、撮像部2の構成を、車両Vの前方の画像を連続的に撮像する構成とするため、これに伴い、投光部4の構成を、車両Vの前方へ線状光を投光する構成とする。したがって、本実施形態では、投光部4を、撮像部2の付近、例えば、車両Vの車室内におけるフロントウインド付近等、車両Vの車両前後方向前方へ線状光を投光可能な位置に配置する場合について説明する。
Further, the light projecting unit 4 outputs an information signal including a state where linear light is projected to the
In the present embodiment, the configuration of the
ここで、投光部4から線状光を投光すると、線状光が通過する領域は、平面(以下、「投光平面」と記載する場合がある)となる。
本実施形態では、図2及び3中に示すように、撮像部2と投光平面との位置関係を、予め設定した距離d1で離間する位置関係に設定する。上述したように、本実施形態では、撮像部2及び投光部4の構成を、車両Vの前方の画像を連続的に撮像する構成とするため、これに伴い、撮像部2と投光部4との距離d1を、車幅方向の距離とする。なお、図3は、撮像部2と、投光部4と、投光平面との位置関係を示す図である。
Here, when linear light is projected from the light projecting unit 4, the region through which the linear light passes becomes a plane (hereinafter, sometimes referred to as “light projection plane”).
In this embodiment, as shown in FIGS. 2 and 3, the positional relationship between the
また、本実施形態では、撮像部2の取り付け角度θを、一例として、撮像部2から車両Vの前方に存在する物体までの距離を、2〜10[m]までの範囲内において、誤差3[%]で計測することが求められる場合に、−70〜−130[°]の範囲内とする。
これは、投光平面上で、撮像部2から車両Vの前方に存在する物体までの距離に対する3[%]の距離変化が、1[pixel]以上の画像の変化となって現れる条件が、投光平面からの距離が1.0[m]以上となるためである。この条件は、撮像部2から2[m]の位置及び10[m]の位置がそれぞれ撮像される場合に適用する。
In the present embodiment, the attachment angle θ of the
This is because a condition in which a 3% change in distance relative to the distance from the
演算処理部6は、特徴点検出部8と、距離算出部10と、折曲部検出部12と、折曲角算出部14と、立ち上がり線算出部16と、マップ保存部18と、特徴点照合部20と、移動体位置推定部22を備える。
特徴点検出部8は、撮像部2が撮像した周囲画像(車両Vの前方の画像)から特徴点を検出する。ここで、特徴点は、例えば、車両Vの移動等に伴って撮像範囲が移動した際に、追従可能な点である。また、特徴点検出部8は、検出した特徴点を含む情報信号を、折曲部検出部12へ出力する。
The
The feature
ここで、特徴点は、一般的には、撮像部2が撮像した周囲画像内において、他の点と比較して縦方向及び横方向に輝度差がある点である。また、特徴点の検出方法としては、公知のSURF(Speeded Up Robust Features)や、SIFT(Scale‐Invariant Feature Transform)等を用いることが可能である。
また、特徴点の発生要因は、車両Vの移動等に伴って特徴点の観測位置が変化したときの、特徴点の見え方の変化に大きな影響を与える。このため、本実施形態では、観測位置が変化したときの特徴点を観測し、この観測した特徴点を、マップ保存部18に保存しておく。
また、特徴点には、平面上のテクスチャが観測されるテクスチャ特徴点と、異なる距離に存在する物体の境界に発生する構造特徴点がある。
Here, the feature point is generally a point having a luminance difference in the vertical direction and the horizontal direction in the surrounding image captured by the
In addition, the feature point generation factor greatly affects the change in the appearance of the feature point when the observation position of the feature point changes with the movement of the vehicle V or the like. For this reason, in the present embodiment, a feature point when the observation position changes is observed, and the observed feature point is stored in the
The feature points include a texture feature point where a texture on a plane is observed and a structure feature point generated at the boundary of an object existing at a different distance.
検出した特徴点が、テクスチャ特徴点であるか構造特徴点であるかを判定する際には、特徴点及びその周囲の幾何学的構造を検出する。ここで、幾何学的構造とは、観測位置(撮像部2)から観測される特徴点の発生要因を決定する要素である。
特徴点の幾何学的構造を検出する方法は、まず、撮像部2が撮像した周囲画像内における、投光部4から投光された線状光の高さを計測することで、撮像部2から撮像対象までの距離を計測する。そして、撮像部2と撮像対象とを結ぶ直線の連続性を確認することで、特徴点及びその周囲の幾何学的構造を確認する。
When determining whether the detected feature point is a texture feature point or a structure feature point, the feature point and the surrounding geometric structure are detected. Here, the geometric structure is an element that determines the generation factor of the feature point observed from the observation position (imaging unit 2).
The method of detecting the geometric structure of the feature point is as follows. First, the height of the linear light projected from the light projecting unit 4 in the surrounding image captured by the
この場合、撮像部2と撮像対象とを結ぶ直線の連続性が保たれていれば、その特徴点及びその周囲は連続的な平面である。したがって、撮像部2と撮像対象とを結ぶ直線の連続性が保たれている場合、その特徴点は、平面上のテクスチャ特徴点である。
一方、撮像部2と撮像対象とを結ぶ直線の連続性が保たれておらず、屈曲している場合や切断されている場合は、その特徴点及びその周囲は連続的な平面ではない。したがって、撮像部2と撮像対象とを結ぶ直線の連続性が保たれていない場合、その特徴点は、異なる距離に存在する物体の境界にできた構造特徴点である。
In this case, if the continuity of the straight line connecting the
On the other hand, the continuity of the straight line connecting the
距離算出部10は、撮像部2から特徴点までの距離を算出し、この算出した距離を示す情報信号を、特徴点照合部20へ出力する。
本実施形態では、距離算出部10が、投光部4から投光した線状光が、撮像部2で撮像した画像のどこに写っているのかを観測することによって、撮像部2から線状光が投光されている場所までの距離を計測する場合について説明する。しかしながら、撮像部2から特徴点までの距離を算出する方法は、これに限定するものではない。
以下、撮像部2から特徴点までの距離を算出する際の具体的な手順を説明する。
線状光の撮像画像内における位置は、図3中に示すように、線状光が通過する範囲(投光平面π=(0 0 1 0)T)に対して、投光部4との距離d1として撮像部2を設置した場合、距離d1に応じて以下の式(1)により変化する。
The
In the present embodiment, the
Hereinafter, a specific procedure for calculating the distance from the
As shown in FIG. 3, the position of the linear light in the captured image is relative to the light projecting unit 4 with respect to the range through which the linear light passes (light projection plane π = (0 0 1 0) T ). When the
ここで、上記の式(1)における「x」は、x=(x y w)Tで示される値であり、撮像画像上の点をHomography座標で表したものである。
また、上記の式(1)における「X」は、X=(X Y Z 1)Tで示される値であり、三次元空間上の点をHomography座標で表したものである。
また、上記の式(1)における「k」は、キャリブレーションマトリックスであり、以下の式(2)で表される。
Here, “x” in the above equation (1) is a value represented by x = (x y w) T , and represents a point on the captured image in Homography coordinates.
Further, “X” in the above formula (1) is a value represented by X = (X Y Z 1) T , and represents a point on a three-dimensional space in Homography coordinates.
In addition, “k” in the above equation (1) is a calibration matrix and is represented by the following equation (2).
ここで、上記の式(2)における「f」は、撮像画像上の焦点距離であり、「ux」及び「uy」は、撮像画像中心のオフセットである。
また、上記の式(2)における「ML」は、投光平面を基準としたカメラマトリックスであり、以下の式(3)で表される。
Here, “f” in the above formula (2) is a focal length on the captured image, and “ux” and “uy” are offsets of the center of the captured image.
Further, “M L ” in the above formula (2) is a camera matrix based on the light projection plane, and is represented by the following formula (3).
ここで、上記の式(3)における「R」は、世界座標系での撮像部2の姿勢を表す回転行列である。
また、上記の式(3)における「C」は、撮像部2の位置(座標)を表す値である。
ここで、撮像部2の回転方向を、投光平面に対するZ方向への変位とx軸周りの回転に限定すると、上記の「R」と「C」は、以下の式(4)及び(5)で表される。
Here, “R” in the above equation (3) is a rotation matrix representing the attitude of the
Further, “C” in the above equation (3) is a value representing the position (coordinates) of the
Here, when the rotation direction of the
ここで、投光された線状光が照射される条件は、常にZ=0であるので、投光平面上の点は、X=(X Y 0 1)と表すことができる。このとき、撮像画像上の位置x=(x y w)は、次式(6)で表す値となる。 Here, since the condition in which the projected linear light is irradiated is always Z = 0, the point on the light projection plane can be expressed as X = (X Y 0 1). At this time, the position x = (x y w) on the captured image is a value represented by the following equation (6).
ここで、上記の式(6)における「x」は、撮像画像上の線状光の位置であり、「f」は、撮像画像上の焦点距離である。なお、上記の式(6)における「x」及び「f」は、共に、既知または観測可能な値である。
また、上記の式(6)における「ux」及び「uy」は、撮像画像のオフセット(撮像画像は、一般的に左上を原点とするため、オフセットを設定する必要がある)であり、「d2」は、投光平面から撮像部2までの距離である。なお、上記の式(6)における「ux」、「uy」及び「d2」は、共に既知または観測可能な値である。
Here, “x” in the above equation (6) is the position of the linear light on the captured image, and “f” is the focal length on the captured image. Note that “x” and “f” in the above equation (6) are both known or observable values.
In addition, “ux” and “uy” in the above equation (6) are offsets of the captured image (the captured image generally has an upper left as the origin, and thus it is necessary to set the offset), and “d2 "Is a distance from the light projection plane to the
したがって、撮像画像上の点のy(縦方向の位置)は、カメラからの距離Yによってのみ決定されるため、線状光の撮像画像上の位置を計測することによって、線状光が照射された物体と撮像部2との距離を確認することが可能となる。これにより、撮像部2から特徴点までの距離を算出することが可能となる。
なお、上述した説明では、撮像部2から特徴点までの距離を算出する方法として、投光による直接的な計測を記載したが、撮像部2から特徴点までの距離を算出する方法は、これに限定するものではない。すなわち、例えば、異なる位置から撮影された二枚以上の画像を用いて、これらの画像中にある特徴点の画面内における位置の変化から、実空間上の位置を特定する、「Motion Stereo」と呼ばれる手法を用いてもよい。
Therefore, y (vertical position) of the point on the captured image is determined only by the distance Y from the camera. Therefore, linear light is emitted by measuring the position of the linear light on the captured image. It is possible to confirm the distance between the object and the
In the above description, direct measurement by light projection is described as a method for calculating the distance from the
以上により、本実施形態では、上述したように、撮像部2と投光部4との距離d1を設定しておくことによって、撮像部2から車両Vの前方に存在する物体までの距離を計測することが可能となる。
折曲部検出部12は、撮像部2が撮像した周囲画像における、特徴点検出部8が検出した特徴点及びその周囲から、投光部4が投光した線状光が屈曲している部分である折曲部を検出する。また、折曲部検出部12は、検出した折曲部を含む情報信号を、折曲角算出部14及び距離算出部10へ出力する。
As described above, in the present embodiment, as described above, the distance d1 between the
The bent
以下、特徴点検出部8が検出した特徴点及びその周囲から折曲部を検出する際の、具体的な手順を説明する。
折曲部検出部12は、特徴点検出部8において確認した、撮像部2と撮像対象とを結ぶ直線の連続性が保たれておらず、特徴点が構造特徴点である場合には、処理を終了する。
一方、折曲部検出部12は、特徴点検出部8において確認した、撮像部2と撮像対象とを結ぶ直線の連続性が保たれており、特徴点が平面上のテクスチャ特徴点である場合は、以下の処理を行う。
Hereinafter, a specific procedure for detecting a feature point detected by the feature
When the feature
On the other hand, the bent
具体的には、折曲部検出部12は、特徴点が平面上のテクスチャ特徴点である場合、線状光の直線の傾きを求める。
ここで、線状光の直線の傾きとは、図4中に示すように、線分(線状光の直線)の両端に存在する折曲部であり、撮像画像内の座標x1と座標x2である。なお、図4は、撮像画像と実世界との関係を示す図である。また、図4中では、撮像画像を符号「P」で示し、特徴点及びその周囲を表す領域を符合「E」で示している。
折曲角算出部14は、折曲部検出部12が検出した折曲部の屈曲角度である折曲角を算出し、この算出した折曲角を含む情報信号を、立ち上がり線算出部16へ出力する。ここで、折曲角の算出は、例えば、撮像部2が撮像した周囲画像から、折曲部及びその周辺部分を抽出して行う。
Specifically, when the feature point is a texture feature point on a plane, the bent
Here, as shown in FIG. 4, the slope of the straight line of linear light is a bent portion existing at both ends of a line segment (straight line of linear light), and coordinates x 1 and coordinates in the captured image it is x 2. FIG. 4 is a diagram illustrating the relationship between the captured image and the real world. Further, in FIG. 4, the captured image is indicated by a symbol “P”, and the feature point and a region representing the periphery thereof are indicated by a symbol “E”.
The bending
立ち上がり線算出部16は、折曲角算出部14が算出した折曲角から、折曲部が存在する平面である折曲部平面を定義する。これに加え、立ち上がり線算出部16は、折曲部において折曲部平面から予め設定した角度で立ち上がる立ち上がり線を算出する。また、立ち上がり線算出部16は、算出した立ち上がり線を含む情報信号を、特徴点照合部20へ出力する。
本実施形態では、一例として、立ち上がり線算出部16の構成を、折曲部平面から垂直方向に立ち上がる法線ベクトルに基づいて、立ち上がり線を算出する構成とした場合について説明する。
The rising
In the present embodiment, as an example, a case will be described in which the configuration of the rising
以下、折曲部平面の法線方向を算出する手順について説明する。
立ち上がり線算出部16は、特徴点検出部8において確認した特徴点が、平面上のテクスチャ特徴点である場合、その特徴点が存在する平面(折曲部平面)の法線方向を求める。
ここで、例えば、図5中に示すように、特徴点を検出する範囲βを80[°]とすると、折曲部平面の法線方向に関して許容される範囲αは、前後5[°]の誤差までとなる。なお、図5は、法線方向と、法線方向の許容される範囲を示す図である。また、図5中では、図4中と同様、撮像画像を符号「P」で示し、特徴点及びその周囲を表す領域を符合「E」で示している。
Hereinafter, the procedure for calculating the normal direction of the bent portion plane will be described.
When the feature point confirmed by the feature
Here, for example, as shown in FIG. 5, if the range β for detecting feature points is 80 [°], the allowable range α with respect to the normal direction of the plane of the bent portion is 5 [°]. Up to an error. FIG. 5 is a diagram illustrating the normal direction and the allowable range of the normal direction. Further, in FIG. 5, as in FIG. 4, the captured image is indicated by the symbol “P”, and the feature point and the area representing the periphery thereof are indicated by the symbol “E”.
まず、撮像画像上における、実世界における線分の両端の点X1及びX2までの奥行きであるY1及びY2を、上記の式(6)を用いて計算する。なお、奥行きY1及びY2は、折曲部の点x1=(x1 y1 w)と、x1の縦方向の位置y1と、x2=(x2 y2 1)と、x2の縦方向の位置y1とy2から、上記の式(6)を用いて計算する。
さらに、上記の式(6)を用いて計算したY1及びY2と、上記の式(6)の一行目の式を用いて、点X1及びX2を求める。
First, Y 1 and Y 2 that are the depths to the points X 1 and X 2 at both ends of the line segment in the real world on the captured image are calculated using the above equation (6). Incidentally, the depth Y 1 and Y 2 are the points of the bent portion x 1 = (x 1 y 1 w), and the position y 1 of the longitudinal x 1, x 2 = a (x 2 y 2 1), Calculation is performed from the vertical position y 1 and y 2 of x 2 using the above equation (6).
Further, the points X 1 and X 2 are obtained using Y 1 and Y 2 calculated using the above equation (6) and the equation in the first row of the above equation (6).
また、点X1及びX2は、投光平面上の点であり、投光平面πは、Z=0に広がる平面(図3参照)であるため、点X1に対応するZ1(図示せず)は「0」となり、点X2に対応するZ2(図示せず)は「0」となる。さらに、特徴点が存在する平面が、Z軸に対して平行であるという仮定を用いれば、特に図示しないが、実世界における点X3=(X1 Y1 a 1)とすることが可能となる。ここで、「a」は、任意の値である。
以上により、特徴点が存在する平面の法線方向Dcは、上述した三つの点、すなわち、X1と、X2及びX3によって規定される平面の法線方向となるため、次式(7)により計算することが可能である。
Further, since the points X 1 and X 2 are points on the light projecting plane, and the light projecting plane π is a plane extending to Z = 0 (see FIG. 3), Z 1 (see FIG. 3) corresponding to the point X 1 (Not shown) is “0”, and Z 2 (not shown) corresponding to the point X 2 is “0”. Further, if it is assumed that the plane on which the feature point exists is parallel to the Z axis, the point X 3 = (X1 Y1 a 1) in the real world can be obtained, although not particularly illustrated. Here, “a” is an arbitrary value.
As described above, the normal direction D c of the plane where the feature point exists is the normal direction of the plane defined by the three points described above, that is, X1, X2, and X3. It is possible to calculate.
マップ保存部18は、特徴点検出部8が検出した特徴点と、距離算出部10が算出した撮像部2と特徴点との距離と、折曲部検出部12が検出した折曲部を用いて特徴点マップを形成し、その形成した特徴点マップを保存する。また、マップ保存部18は、上記のように形成した特徴点マップをマップ保存部18内に保存するとともに、特徴点マップを含む情報信号を特徴点照合部20へ出力する。
The
以下、特徴点マップを形成する際の具体的な手順について説明する。
距離算出部10が算出した撮像部2と特徴点との距離や、立ち上がり線算出部16が算出した法線ベクトル(立ち上がり線)は、カメラ座標系を基準としている。しかしながら、車両Vの走行時には、カメラ(撮像部2)の位置は常に変化するため、カメラ座標系を基準とした値を用いると、カメラ(撮像部2)が移動したときに、特徴点等の位置が不定となってしまう。
Hereinafter, a specific procedure for forming the feature point map will be described.
The distance between the
したがって、特徴点マップをマップ保存部18内に保存するためには、距離算出部10が算出した撮像部2と特徴点との距離や、立ち上がり線算出部16が算出した法線ベクトルを、カメラ座標系から世界座標系に変換して保存する必要がある。
上述した撮像部2と特徴点との距離や法線ベクトルを、カメラ座標系から世界座標系に変換するためには、世界座標系における撮像部2の位置を、特徴点マップの生成と同時に算出する必要がある。
Therefore, in order to store the feature point map in the
In order to convert the distance and normal vector between the
また、撮像部2と特徴点との距離や法線ベクトルを、カメラ座標系から世界座標系に変換するためには、カメラ座標系への変換行列を算出する必要がある。
特徴点マップの生成と、撮像部2の位置の算出を同時に行うとともに、変換行列を算出する手法としては、例えば、公知のSLAM(Simultaneous Localization and Mapping)を用いることが可能である。ここで、撮像部2(カメラ)を使用したSLAMとしては、例えば、Mono‐SLAMやPTAM等がある。
Further, in order to convert the distance between the
As a technique for simultaneously generating the feature point map and calculating the position of the
なお、撮像部2の位置の算出を行う方法としては、上述したSLAM以外に、例えば、公知の車輪速センサが検出した車輪速度パルスを用いて、車両Vの移動量を積算していく方法を用いてもよい。
そして、上記の変換行列を算出した後、世界座標系からカメラ座標系への変換行列の逆数を用いて、撮像部2と特徴点との距離YWを、次式(8)を用いて設定する。
As a method for calculating the position of the
Then, after calculating the above transformation matrix, the distance Y W between the
さらに、特徴点及びその周囲の法線ベクトルDwを、次式(9)を用いて設定する。 Further, the feature point and the surrounding normal vector D w are set using the following equation (9).
撮像部2と特徴点との距離YWと特徴点及びその周囲の法線ベクトルDwを設定した後、これらの設定した値と特徴点のテクスチャ画像Ifとを合わせて特徴点マップを形成し、この形成した特徴点マップをマップ保存部18内に保存する。
特徴点照合部20は、撮像範囲の変化に応じて、立ち上がり線算出部16が算出した立ち上がり線と、距離算出部10が算出した距離に基づいて、撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部とを照合する。また、特徴点照合部20は、撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部とを照合した結果を含む情報信号を、移動体位置推定部22へ出力する。
After setting the distance Y W between the
The feature
本実施形態では、一例として、特徴点照合部20の構成を、撮像部2が撮像する周囲画像に対するマッチング処理により、撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部とを照合する構成とした場合について説明する。
以下、撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部とを照合する際に、特徴点照合部20が行う処理を説明する。
In the present embodiment, as an example, the configuration of the feature
Hereinafter, a process performed by the feature
特徴点照合部20は、まず、撮像範囲が変化する前の折曲部を算出する処理として、走行前における車両Vの事前位置を推定する処理(事前位置推定)を行う。
ここで、事前位置推定時には、マップ保存部18に保持した特徴点マップ内の特徴点と、撮像部2が撮像した画像内で検出された特徴点とを照合する。
具体的には、事前知識(以前の位置推定処理における位置推定結果や、停車中の車両Vが走行を開始する位置や、各種センサによる位置の計測結果等)を用いて、事前位置推定を行う。なお、上記の「各種センサ」とは、例えば、GPS(Global Positioning System)等である。
The feature
Here, at the time of pre-position estimation, the feature points in the feature point map held in the
Specifically, prior position estimation is performed using prior knowledge (position estimation result in the previous position estimation process, position where the stopped vehicle V starts traveling, position measurement results by various sensors, and the like). . The above-mentioned “various sensors” are, for example, GPS (Global Positioning System).
そして、事前位置推定により、特徴点マップ内における位置と、世界座標系での撮像部2の姿勢を検出した後、撮像部2が撮像した画像内に写っていると予測される特徴点を、特徴点マップ内から選別する。ここで、撮像部2が撮像した画像内に写っていると予測される特徴点は、特徴点マップ内における特徴点の位置と、世界座標系での撮像部2の姿勢を用いて、特徴点マップ内に保存されている特徴点の中からマップ内から選別する。
撮像部2が撮像した画像内に写っていると予測される特徴点を、特徴点マップ内から選別する際には、特徴点マップ内における特徴点の位置に対して、撮像部2による周囲画像上での位置を、次式(10)を用いて計算する。
Then, after detecting the position in the feature point map and the attitude of the
When selecting a feature point predicted to appear in an image captured by the
ここで、上記の式(10)における「Xp」は、特徴点マップに保存されている特徴点の世界座標系による位置である。
また、上記の式(10)における「MW」は、世界座標系を基準とした撮像部2の位置であり、車両Vの位置に応じた事前推定値MWである。この事前推定値MWは、車両Vの詳細な事前位置推定を行うための初期解を与えるものである。これは、事前位置推定は、推定に伴う計算負荷が大きいため、初期解を与えることにより、その処理を簡略化するために行う。
Here, “X p ” in the above equation (10) is the position of the feature point stored in the feature point map in the world coordinate system.
In addition, “M W ” in the above equation (10) is the position of the
ここで、上記の式(10)における「x」が、周囲画像の撮像範囲内であれば、特徴点マップ内における特徴点が、撮像部2が撮像した画像内に写る可能性が高いと判断し、その場所を保持する。
そして、撮像部2が撮像した周囲画像内に写っていると予測される特徴点を選別した後、この選別した特徴点の周囲画像内での位置を推定し、その推定した位置を中心として、周囲画像内で、特徴点の実際の位置を検索する。これにより、事前推定値から想定される周囲画像内での位置に基づく撮像範囲が変化する前の折曲部と、実際に検出された画像内位置に基づく撮像範囲が変化した後の折曲部とを照合する。
Here, if “x” in the above equation (10) is within the imaging range of the surrounding image, it is determined that there is a high possibility that the feature point in the feature point map will appear in the image captured by the
Then, after selecting the feature points that are predicted to be captured in the surrounding image captured by the
このとき、特徴点検出部8により特徴点を検出した位置と、車両Vの現在位置が大きく異なる場合では、特徴点の見え方が大きく異なる。このため、上記のような特徴点同士のマッチング処理では、特徴点の実際の位置を検索できない場合がある。
これに対し、本実施形態では、上述したように、折曲部が存在する平面である折曲部平面から垂直方向に立ち上がる法線ベクトルに基づいて、立ち上がり線を算出することにより、特徴点の見え方を推定する。そして、この推定した特徴点の見え方に基づいて、特徴点の実際の位置を検索する。
ここで、特徴点がテクスチャ特徴点であり、その法線方向が保存されている場合は、その法線方向Dを、撮像部2の座標(位置)C'に合わせ、次式(11)を用いて変換しておく。
At this time, in the case where the position where the feature point is detected by the feature
On the other hand, in the present embodiment, as described above, by calculating the rising line based on the normal vector rising in the vertical direction from the bent portion plane, which is the plane where the bent portion exists, the feature point is calculated. Estimate how it looks. Based on the estimated appearance of the feature point, the actual position of the feature point is searched.
Here, when the feature point is a texture feature point and the normal direction thereof is stored, the normal direction D is aligned with the coordinates (position) C ′ of the
周囲画像内で、特徴点の実際の位置を検索する際に用いる方法としては、以下に記載する方法を用いることが可能である。
すなわち、特徴点の実際の位置を検索する際に用いる方法は、まず、上記のように推定した位置(x)を中心として、ある大きさの矩形範囲を探索領域として設定する。そして、設定した探索領域の中で、SSD(Source Skin Distance)やSAD(Source Axis Distance)等により算出した画像一致度を、1[pixel]毎に変化させて計算する。さらに、最も画像一致度が高い場所を探索する。
As a method used when searching for the actual position of the feature point in the surrounding image, the method described below can be used.
That is, in the method used when searching for the actual position of the feature point, first, a rectangular range having a certain size is set as a search area around the position (x) estimated as described above. Then, in the set search area, the image matching degree calculated by SSD (Source Skin Distance), SAD (Source Axis Distance), or the like is changed for each [pixel]. Furthermore, a place with the highest image matching degree is searched.
このとき、特徴点がテクスチャ特徴点であり、テクスチャ平面の法線方向が保存されている場合は、撮像部2の位置からの見え方に合わせて、テクスチャを変換する。
テクスチャを変換する場合、テクスチャは平面に存在するので、二次元のHomography変換を実施する。ここで、保存されているテクスチャ画像Ifの各Pixel位置を、Pi=(Ix Iy 1)とすると、テクスチャを変換した後の特徴点の位置Pt’=(I’x I’y 1)は、次式(12)として表される。
At this time, when the feature point is a texture feature point and the normal direction of the texture plane is stored, the texture is converted in accordance with the appearance from the position of the
When converting a texture, the texture exists in a plane, so a two-dimensional Homography conversion is performed. Here, assuming that each pixel position of the stored texture image If is Pi = (Ix Iy 1), the position Pt ′ = (I′x I′y 1) of the feature point after the texture is transformed is Is expressed as the following equation (12).
上記の式(12)において、「H」は3×3の変換行列であり、法線ベクトルと撮像部2の位置から、次式(13)を用いて算出する。
In the above equation (12), “H” is a 3 × 3 transformation matrix, and is calculated from the normal vector and the position of the
ここで、上記の式(13)における「R」は、撮像範囲が変化する前の折曲部を撮像したときの撮像部2の位置Cから、撮像範囲が変化した後の折曲部を撮像したときの撮像部2の位置C'への回転行列である。
また、上記の式(13)における「t」は、撮像範囲が変化する前の折曲部を撮像したときの撮像部2の位置Cから、撮像範囲が変化した後の折曲部を撮像したときの撮像部2の位置C'への移動ベクトルである。
また、上記の式(13)における「Dc'」は、撮像部2から見たときの、テクスチャ特徴点の法線ベクトルである。
Here, “R” in the above equation (13) images the bent part after the imaging range has changed from the position C of the
In addition, “t” in the above formula (13) is an image of the bent part after the imaging range is changed from the position C of the
Further, “Dc ′” in the above equation (13) is a normal vector of the texture feature point when viewed from the
また、上記の式(13)における「d3」は、撮像部2から特徴点までの距離である。
移動体位置推定部22は、特徴点照合部20が照合した、撮像範囲が変化する前の折曲部と、撮像範囲が変化した後の折曲部を用いて、両者の位置の変位量を算出する。そして、算出した変位量に基づいて、車両Vの位置を推定(以下、「事後推定」と記載する場合がある)する。
Further, “d3” in the above equation (13) is a distance from the
The moving body position estimation unit 22 uses the bent part before the imaging range changed and the bent part after the imaging range changed, which are collated by the feature
また、移動体位置推定部22による車両Vの位置の推定結果は、例えば、特に図示しないが、表示装置(ディスプレイ等)に、地図上における座標等として表示する。
なお、本実施形態では、特徴点の位置が実際の計測位置に合うように事前推定の結果を調整することによって、事後推定を行う。これは、特徴点検出部8が検出した特徴点の位置が正しい場合、特徴点照合部20が照合した特徴点同士の位置の差は、事前推定値の誤差として考えられるためである。したがって、特徴点照合部20が照合した特徴点同士の位置の差を最小化することによって事前推定値を補正し、事後推定値を得る。
なお、特徴点照合部20が照合した特徴点同士の位置の差を最小化するための方法としては、例えば、公知のモンテカルロ法等、複数の事後推定候補に対して、改めて特徴点同士の位置の差を計算する方法を用いてもよい。
In addition, the estimation result of the position of the vehicle V by the moving body position estimation unit 22 is displayed as coordinates on the map or the like on a display device (display or the like), for example, although not particularly illustrated.
In the present embodiment, post-estimation is performed by adjusting the result of prior estimation so that the position of the feature point matches the actual measurement position. This is because, when the position of the feature point detected by the feature
In addition, as a method for minimizing the difference between the positions of the feature points collated by the feature
(動作)
以下、図1から図5を参照しつつ、図6及び図7を用いて、移動体位置推定装置1が行う動作を説明する。
図6は、移動体位置推定装置1が行う動作の一部を示すフローチャートである。
図6中に示すように、移動体位置推定装置1が動作を開始(START)すると、まず、ステップS10において、撮像部2が、予め設定した時間間隔t[s]で、車両Vの周囲画像を連続的に撮像する。このとき、投光部4により、撮像部2の撮像範囲内に、線状光を投光する。ステップS10において、車両Vの周囲画像を連続的に撮像すると、移動体位置推定装置1が行う処理は、ステップS12へ移行する。
(Operation)
Hereinafter, the operation performed by the moving object
FIG. 6 is a flowchart showing a part of the operation performed by the mobile object
As shown in FIG. 6, when the moving object
ステップS12では、特徴点検出部8が、撮像部2が撮像した周囲画像から特徴点を検出する。ステップS12において、特徴点を検出すると、移動体位置推定装置1が行う処理は、ステップS14へ移行する。
ステップS14では、距離算出部10が、撮像部2から特徴点までの距離を算出する。ステップS14において、撮像部2から特徴点までの距離を算出すると、移動体位置推定装置1が行う処理は、ステップS16へ移行する。
In step S <b> 12, the feature
In step S14, the
ステップS16では、折曲部検出部12が、特徴点検出部8が検出した特徴点及びその周囲から折曲部を検出する。ステップS16において、折曲部を検出すると、移動体位置推定装置1が行う処理は、ステップS18へ移行する。
ステップS18では、立ち上がり線算出部16が、折曲角算出部14が算出した折曲角から折曲部平面を定義し、さらに、折曲部において折曲部平面から予め設定した角度で立ち上がる立ち上がり線を算出する。ステップS18において、立ち上がり線を算出すると、移動体位置推定装置1が行う処理は、ステップS20へ移行する。
In step S <b> 16, the bent
In step S18, the rising
ステップS20では、マップ保存部18が、特徴点マップを形成し、その形成した特徴点マップを保存する。このとき、特徴点マップの保存に伴い、特徴点検出部8が検出した特徴点を消去する。ステップS20において、特徴点マップを保存すると、移動体位置推定装置1が行う処理は、ステップS10へ復帰する。
上述したステップS10からS20の処理によって、マップ保存部18に特徴点マップを保存した後、移動体位置推定装置1は、図7中に示す動作を行う。なお、図7は、移動体位置推定装置1が行う動作の一部を示すフローチャートである。
In step S20, the
After the feature point map is stored in the
図7中に示すように、移動体位置推定装置1が動作を開始(START)すると、まず、ステップS30において、特徴点照合部20が、車両Vに対する事前位置推定を行う。ステップS30において、事前位置推定を行うと、移動体位置推定装置1が行う処理は、ステップS32へ移行する。
ステップS32では、ステップS30で行った事前位置推定が、正常に終了したか否かを判定する。そして、ステップS30で行った事前位置推定が正常に終了していると判定した場合は、移動体位置推定装置1が行う処理は、ステップS34へ移行する。
As shown in FIG. 7, when the moving body
In step S32, it is determined whether or not the prior position estimation performed in step S30 has ended normally. And when it determines with the prior position estimation performed by step S30 having been complete | finished normally, the process which the mobile body
一方、ステップS30で行った事前位置推定が正常に終了していないと判定した場合は、移動体位置推定装置1が行う処理は終了(END)する。
ここで、ステップS32の処理を行う理由は、ステップS30で行う事前位置推定が、何らかの原因で失敗することがあるためであり、失敗した場合には、事前位置推定に用いるパラメータをリセットした状態で、再び事前位置推定を行う必要があるためである。
On the other hand, when it is determined that the prior position estimation performed in step S30 has not ended normally, the process performed by the mobile object
Here, the reason for performing the process of step S32 is that the prior position estimation performed in step S30 may fail for some reason, and in the case of failure, the parameters used for the prior position estimation are reset. This is because it is necessary to perform the prior position estimation again.
ステップS34では、折曲部が存在する平面である折曲部平面から垂直方向に立ち上がる法線ベクトルに基づいて、立ち上がり線を算出することにより、特徴点の見え方を推定する。ステップS34において、特徴点の見え方を推定すると、移動体位置推定装置1が行う処理は、ステップS36へ移行する。
ステップS36では、撮像部2が撮像した車両Vの周囲画像を取得する。ここで、ステップS36において取得する周囲画像は、上述したステップS10において取得した周囲画像よりも時間が経過して車両Vが移動している状態の画像である。ステップS36において、車両Vの周囲画像を取得すると、移動体位置推定装置1が行う処理は、ステップS38へ移行する。
In step S34, the appearance of the feature point is estimated by calculating the rising line based on the normal vector rising in the vertical direction from the bent plane where the bent portion exists. If the appearance of the feature point is estimated in step S34, the process performed by the mobile object
In step S36, the surrounding image of the vehicle V imaged by the
ステップS38では、特徴点照合部20が、撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部とを照合する。ステップS38において、撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部とを照合すると、移動体位置推定装置1が行う処理は、ステップS40へ移行する。
ステップS40では、移動体位置推定部22が、特徴点照合部20が照合した、撮像範囲が変化する前の折曲部と、撮像範囲が変化した後の折曲部を用いて、両者の位置の変位量を算出する。ステップS40において、変位量を算出すると、移動体位置推定装置1が行う処理は、ステップS42へ移行する。
In step S38, the feature
In step S <b> 40, the moving body position estimation unit 22 uses the bent part before the change of the imaging range and the bent part after the change of the imaging range, which are collated by the feature
ステップS42では、移動体位置推定部22が、ステップS40で算出した変位量に基づいて、車両Vの位置に対する事後推定を行う。ステップS42において、事後推定を行うと、移動体位置推定装置1が行う処理は、ステップS44へ移行する。
ステップS44では、ステップS42で行った事後推定が、正常に終了したか否かを判定する。そして、ステップS42で行った事後推定が正常に終了していると判定した場合は、移動体位置推定装置1が行う処理は、ステップS46へ移行する。
In step S42, the moving body position estimation unit 22 performs a posteriori estimation on the position of the vehicle V based on the displacement amount calculated in step S40. If post-mortem estimation is performed in step S42, the process performed by the mobile object
In step S44, it is determined whether or not the posterior estimation performed in step S42 has been completed normally. And when it determines with the posterior estimation performed in step S42 having been normally complete | finished, the process which the mobile body
一方、ステップS42で行った事後推定が正常に終了していないと判定した場合は、移動体位置推定装置1が行う処理は終了(END)する。
ここで、ステップS44の処理を行う理由は、ステップS42で行う事後推定が、何らかの原因で失敗することがあるためであり、失敗した場合には、事後推定に用いるパラメータをリセットした状態で、再び事後推定を行う必要があるためである。
On the other hand, when it is determined that the posterior estimation performed in step S42 is not normally completed, the process performed by the mobile object
Here, the reason for performing the process of step S44 is that the posterior estimation performed in step S42 may fail for some reason, and in the case of failure, the parameters used for the posterior estimation are reset and again This is because it is necessary to perform post-mortem estimation.
ステップS46では、移動体位置推定部22が行った移動体の位置の推定が、正常に終了したか否かを判定する。そして、移動体位置推定部22が行った移動体の位置の推定が正常に終了していると判定した場合は、移動体位置推定装置1が行う処理は、ステップS30へ移行する。
一方、移動体位置推定部22が行った移動体の位置の推定が正常に終了していないと判定した場合は、移動体位置推定装置1が行う処理は終了(END)する。
In step S46, it is determined whether or not the estimation of the position of the moving object performed by the moving object position estimation unit 22 has ended normally. And when it determines with the estimation of the position of the moving body performed by the moving body position estimation part 22 having been complete | finished normally, the process which the moving body
On the other hand, when it is determined that the estimation of the position of the moving object performed by the moving object position estimation unit 22 has not ended normally, the process performed by the moving object
なお、上述したように、本実施形態の移動体位置推定装置1の動作で実施する移動体位置推定方法は、撮像範囲が変化する前の折曲部の位置と撮像範囲が変化した後の折曲部の位置との変位量に基づいて、車両Vの位置を推定する方法である。
ここで、撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部との照合は、撮像範囲の変化に応じて、折曲部平面から予め設定した角度で立ち上がる立ち上がり線と撮像部2から特徴点までの距離に基づいて行う。
Note that, as described above, the mobile object position estimation method implemented by the operation of the mobile object
Here, the collation between the bent part before the imaging range changes and the bent part after the imaging range changes is a rising line that rises at a preset angle from the bent part plane according to the change of the imaging range. And based on the distance from the
なお、立ち上がり線の算出は、まず、撮像部2で連続的に撮像した車両Vの周囲画像の撮像範囲内へ線状光を投光した状態で、撮像部2で撮像した周囲画像から、撮像範囲が変化しても追従可能な点である特徴点を検出する。そして、検出した特徴点及びその周囲から、撮像部2で連続的に撮像した車両Vの周囲画像の撮像範囲内へ投光した線状光が屈曲している部分である折曲部を検出する。これにより、検出した折曲部の屈曲角度である折曲角から折曲部が存在する平面である折曲部平面を定義して、立ち上がり線を算出する。
The rising line is calculated from the surrounding image captured by the
以上により、投光部4は、投光手段に対応する。また、特徴点検出部8は、特徴点検出手段に対応する。また、距離算出部10は、距離算出手段に対応する。また、折曲部検出部12は、折曲部検出手段に対応する。また、折曲角算出部14は、折曲角算出手段に対応する。また、立ち上がり線算出部16は、立ち上がり線算出手段に対応する。また、特徴点照合部20は、特徴点照合手段に対応する。また、移動体位置推定部22は、移動体位置推定手段に対応する。
Thus, the light projecting unit 4 corresponds to the light projecting unit. The
(第一実施形態の効果)
(1)特徴点検出部8は、投光部4が線状光を投光した状態で、撮像部2が撮像した周囲画像から、撮像範囲が変化しても追従可能な点である特徴点を検出し、折曲部検出部12は、特徴点検出部8が検出した特徴点及びその周囲から折曲部を検出する。また、折曲角算出部14は、折曲部の屈曲角度である折曲角を算出し、立ち上がり線算出部16は、折曲部が存在する平面である折曲部平面を定義し、さらに、折曲部において折曲部平面から予め設定した角度で立ち上がる立ち上がり線を算出する。
(Effects of the first embodiment)
(1) The feature
これに加え、特徴点照合部20は、撮像範囲の変化に応じて、立ち上がり線算出部16が算出した立ち上がり線と、距離算出部10が算出した撮像部2から特徴点までの距離に基づいて、撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部とを照合する。さらに、移動体位置推定部22が、撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部との位置の変位量に基づいて、車両Vの位置を推定する。
このため、折曲部が存在する折曲部平面と、折曲部平面から立ち上がる立ち上がり線に基づいて、車両Vの位置を推定することが可能となる。
その結果、異なる場所から検出した特徴点の見え方が、各検出場所で変化する場合であっても車両Vの位置を推定することが可能となり、車両Vの位置を推定可能な条件を増加させることが可能となる。
In addition to this, the feature
For this reason, it becomes possible to estimate the position of the vehicle V based on the bent portion plane where the bent portion exists and the rising line rising from the bent portion plane.
As a result, it is possible to estimate the position of the vehicle V even if the appearance of the feature points detected from different places changes at each detection place, and increase the conditions under which the position of the vehicle V can be estimated. It becomes possible.
(2)立ち上がり線算出部16が、折曲部が存在する折曲部平面から垂直方向に立ち上がる法線ベクトルに基づいて、立ち上がり線を算出する。
このため、車両Vの位置の事後推定を行う際に、特徴点が存在する平面の法線ベクトルと、特徴点の特徴点マップ上における位置と、撮像部2の位置の事前推定値を用いて、事前推定した撮像部2の位置からの、特徴点の見え方を推定することが可能となる。
その結果、検出した角度により見え方が大きく変化する特徴点に対し、その特徴点の検出精度を向上させることが可能となる。
(2) The rising
For this reason, when performing a posteriori estimation of the position of the vehicle V, the normal vector of the plane where the feature point exists, the position of the feature point on the feature point map, and the prior estimated value of the position of the
As a result, it is possible to improve the detection accuracy of a feature point whose appearance changes greatly depending on the detected angle.
(3)特徴点照合部20が、撮像部2が撮像する周囲画像に対するマッチング処理により、撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部とを照合する。
その結果、マッチング処理以外の処理を用いて、撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部とを照合する場合と比較して、シンプルな処理で照合が可能になるため、車両Vの位置を推定する処理を簡略化することが可能となる。
(3) The feature
As a result, using processes other than matching processing, collation can be performed with simpler processing compared to the case where the folded part before the imaging range changes and the folded part after the imaging range changes. Therefore, the process for estimating the position of the vehicle V can be simplified.
(4)本実施形態の移動体位置推定方法では、撮像部2が撮像した周囲画像の撮像範囲内へ線状光を投光した状態で、撮像範囲が変化しても追従可能な点である特徴点を検出し、この検出した特徴点及びその周囲から折曲部を検出する。また、折曲部の屈曲角度である折曲角を算出し、折曲部が存在する平面である折曲部平面を定義し、さらに、折曲部において折曲部平面から予め設定した角度で立ち上がる立ち上がり線を算出する。
(4) The moving body position estimation method of the present embodiment is a point that can follow even if the imaging range changes in a state where linear light is projected into the imaging range of the surrounding image captured by the
これに加え、撮像範囲の変化に応じて、立ち上がり線と、撮像部2から特徴点までの距離に基づいて、撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部とを照合する。さらに、撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部との位置の変位量に基づいて、車両Vの位置を推定する。
このため、折曲部が存在する折曲部平面と、折曲部平面から立ち上がる立ち上がり線に基づいて、車両Vの位置を推定することが可能となる。
その結果、異なる場所から検出した特徴点の見え方が、各検出場所で変化する場合であっても車両Vの位置を推定することが可能となり、車両Vの位置を推定可能な条件を増加させることが可能となる。
In addition to this, in accordance with the change of the imaging range, the bent line before the imaging range changes and the bent part after the imaging range changes based on the rising line and the distance from the
For this reason, it becomes possible to estimate the position of the vehicle V based on the bent portion plane where the bent portion exists and the rising line rising from the bent portion plane.
As a result, it is possible to estimate the position of the vehicle V even if the appearance of the feature points detected from different places changes at each detection place, and increase the conditions under which the position of the vehicle V can be estimated. It becomes possible.
(変形例)
(1)本実施形態の移動体位置推定装置1では、立ち上がり線算出部16が、折曲部が存在する折曲部平面から垂直方向に立ち上がる法線ベクトルに基づいて、立ち上がり線を算出するが、立ち上がり線算出部16の構成は、これに限定するものではない。すなわち、立ち上がり線算出部16の構成を、法線ベクトル以外に基づいて、立ち上がり線を算出する構成としてもよい。
(Modification)
(1) In the moving body
(2)本実施形態の移動体位置推定装置1では、特徴点照合部20が、撮像部2が撮像する周囲画像に対するマッチング処理により、撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部とを照合する。しかしながら、特徴点照合部20の構成は、これに限定するものではなく、撮像部2が撮像する周囲画像に対するマッチング処理以外の処理により、撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部とを照合する構成としてもよい。
(3)本実施形態の移動体位置推定装置1では、移動体位置推定装置1を備える対象を車両としたが、これに限定するものではなく、例えば、作業機械や電車等を、移動体位置推定装置1を備える対象としてもよい。
(2) In the moving body
(3) In the mobile body
1 移動体位置推定装置
2 撮像部
4 投光部(投光手段)
6 演算処理部
8 特徴点検出部(特徴点検出手段)
10 距離算出部(距離算出手段)
12 折曲部検出部(折曲部検出手段)
14 折曲角算出部(折曲角算出手段)
16 立ち上がり線算出部(立ち上がり線算出手段)
18 マップ保存部
20 特徴点照合部(特徴点照合手段)
22 移動体位置推定部(移動体位置推定手段)
V 車両
P 撮像画像
E 特徴点及びその周囲を表す領域
DESCRIPTION OF
6
10 Distance calculation unit (distance calculation means)
12 Bent part detection part (bent part detection means)
14 Bending angle calculation unit (bending angle calculation means)
16 Rising line calculation unit (rising line calculation means)
18
22 Moving body position estimation unit (moving body position estimation means)
V Vehicle P Captured image E Feature point and its surrounding area
Claims (4)
前記撮像部が撮像する周囲画像の撮像範囲内へ線状光を投光する投光手段と、
前記投光手段が線状光を投光した状態で、前記撮像部が撮像した周囲画像から、前記撮像範囲が変化しても追従可能な点である特徴点を検出する特徴点検出手段と、
前記撮像部から前記特徴点までの距離を算出する距離算出手段と、
前記特徴点検出手段が検出した特徴点及びその周囲から、前記投光手段が投光した線状光が屈曲している部分である折曲部を検出する折曲部検出手段と、
前記折曲部検出手段が検出した折曲部の屈曲角度である折曲角を算出する折曲角算出手段と、
前記折曲角算出手段が算出した折曲角から前記折曲部が存在する平面である折曲部平面を定義し、さらに、前記折曲部において前記折曲部平面から予め設定した角度で立ち上がる立ち上がり線を算出する立ち上がり線算出手段と、
前記撮像範囲の変化に応じて、前記立ち上がり線算出手段が算出した立ち上がり線と前記距離検出手段が算出した距離に基づいて、前記撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部とを照合する特徴点照合手段と、
前記特徴点照合手段が照合した前記撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部との位置の変位量に基づいて、前記移動体の位置を推定する移動体位置推定手段と、を備えることを特徴とする移動体位置推定装置。 An imaging unit that continuously captures surrounding images of the moving body;
A light projecting unit that projects linear light into an imaging range of a surrounding image captured by the imaging unit;
A feature point detection unit that detects a feature point that is a point that can be followed even if the imaging range changes, from a surrounding image captured by the imaging unit in a state where the light projecting unit projects linear light;
Distance calculating means for calculating a distance from the imaging unit to the feature point;
A bent portion detecting means for detecting a bent portion that is a portion where the linear light projected by the light projecting means is bent from the feature point detected by the feature point detecting means and the periphery thereof; and
A bending angle calculating means for calculating a bending angle that is a bending angle of the bent portion detected by the bent portion detecting means;
A bent portion plane, which is a plane on which the bent portion exists, is defined from the bent angle calculated by the bent angle calculating means, and the bent portion rises from the bent portion plane at a preset angle. A rising line calculating means for calculating the rising line;
Based on the rising line calculated by the rising line calculating means and the distance calculated by the distance detecting means, after the change of the imaging range and the bent portion before the imaging range changes, in accordance with the change of the imaging range A feature point matching means for matching the bent portion of
A moving body that estimates the position of the moving body based on a displacement amount of a position between the bent portion before the imaging range changed by the feature point matching means and the bent portion after the imaging range has changed. A moving body position estimating apparatus comprising: a position estimating means;
前記線状光を投光した状態で、前記撮像した周囲画像から、前記撮像範囲が変化しても追従可能な点である特徴点を検出し、
前記撮像部から前記特徴点までの距離を算出し、
前記検出した特徴点及びその周囲から、前記投光した線状光が屈曲している部分である折曲部を検出し、
前記検出した折曲部の屈曲角度である折曲角を算出し、
前記算出した折曲角から前記折曲部が存在する平面である折曲部平面を定義し、さらに、前記折曲部において前記折曲部平面から予め設定した角度で立ち上がる立ち上がり線を算出し、
前記撮像範囲の変化に応じて、前記算出した立ち上がり線と前記算出した距離に基づいて、前記撮像範囲が変化する前の折曲部と撮像範囲が変化した後の折曲部とを照合し、
前記照合した前記撮像範囲が変化する前の折曲部と前記撮像範囲が変化した後の折曲部との位置の変位量に基づいて、前記移動体の位置を推定することを特徴とする移動体位置推定方法。 Project linear light into the imaging range of the surrounding image of the moving object continuously captured by the imaging unit,
In a state where the linear light is projected, a feature point that is a point that can be followed even if the imaging range changes is detected from the captured surrounding image,
Calculating a distance from the imaging unit to the feature point;
From the detected feature point and its surroundings, a bent portion that is a portion where the projected linear light is bent is detected,
Calculating a bending angle that is a bending angle of the detected bending portion;
Define a bent portion plane that is a plane in which the bent portion exists from the calculated bent angle, and further calculate a rising line that rises at a preset angle from the bent portion plane in the bent portion,
Based on the calculated rising line and the calculated distance in accordance with the change of the imaging range, the folded part before the imaging range is changed and the bent part after the imaging range is changed,
The movement is characterized in that the position of the moving body is estimated based on a displacement amount of a position of the folded portion before the collated imaging range is changed and a bent portion after the imaging range is changed. Body position estimation method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010271064A JP2012122734A (en) | 2010-12-06 | 2010-12-06 | Moving body position estimation device and moving body position estimation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010271064A JP2012122734A (en) | 2010-12-06 | 2010-12-06 | Moving body position estimation device and moving body position estimation method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012122734A true JP2012122734A (en) | 2012-06-28 |
Family
ID=46504337
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010271064A Pending JP2012122734A (en) | 2010-12-06 | 2010-12-06 | Moving body position estimation device and moving body position estimation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012122734A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016038287A (en) * | 2014-08-07 | 2016-03-22 | 日産自動車株式会社 | Self position calculation device and self position calculation method |
JP2020045687A (en) * | 2018-09-19 | 2020-03-26 | 日立建機株式会社 | Work machine |
-
2010
- 2010-12-06 JP JP2010271064A patent/JP2012122734A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016038287A (en) * | 2014-08-07 | 2016-03-22 | 日産自動車株式会社 | Self position calculation device and self position calculation method |
JP2020045687A (en) * | 2018-09-19 | 2020-03-26 | 日立建機株式会社 | Work machine |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5588812B2 (en) | Image processing apparatus and imaging apparatus using the same | |
JP2009041972A (en) | Image processing device and method therefor | |
JP5804185B2 (en) | Moving object position / orientation estimation apparatus and moving object position / orientation estimation method | |
KR101973917B1 (en) | Three-dimensional measuring device and its supporting method of measurement | |
WO2015125298A1 (en) | Local location computation device and local location computation method | |
JP6171593B2 (en) | Object tracking method and system from parallax map | |
JP5299296B2 (en) | Vehicle periphery image display device and vehicle periphery image display method | |
JP2006053890A (en) | Obstacle detection apparatus and method therefor | |
JP2009017462A (en) | Driving support system and vehicle | |
JP4609603B2 (en) | 3D information display device and 3D information display method | |
JP5663411B2 (en) | Ranging device | |
JP6552448B2 (en) | Vehicle position detection device, vehicle position detection method, and computer program for vehicle position detection | |
KR101300350B1 (en) | Apparatus and method for processing image | |
JPWO2014076769A1 (en) | Detection apparatus, method and program | |
JP2019185599A (en) | Route simulation device | |
JP5181602B2 (en) | Object detection device | |
JP2009139324A (en) | Travel road surface detecting apparatus for vehicle | |
JP2016148956A (en) | Positioning device, positioning method and positioning computer program | |
JP4553071B1 (en) | 3D information display device and 3D information display method | |
JP2020118575A (en) | Inter-vehicle distance measurement device, error model generation device, learning model generation device, and method and program thereof | |
JP6398218B2 (en) | Self-position calculation device and self-position calculation method | |
JP7308227B2 (en) | Image processing device, image processing method, and program | |
JP2007233440A (en) | On-vehicle image processor | |
KR102065337B1 (en) | Apparatus and method for measuring movement information of an object using a cross-ratio | |
JP2012122734A (en) | Moving body position estimation device and moving body position estimation method |