JP2010009236A - Plane area estimation device and program - Google Patents
Plane area estimation device and program Download PDFInfo
- Publication number
- JP2010009236A JP2010009236A JP2008166325A JP2008166325A JP2010009236A JP 2010009236 A JP2010009236 A JP 2010009236A JP 2008166325 A JP2008166325 A JP 2008166325A JP 2008166325 A JP2008166325 A JP 2008166325A JP 2010009236 A JP2010009236 A JP 2010009236A
- Authority
- JP
- Japan
- Prior art keywords
- plane
- area
- image
- estimation target
- target plane
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、平面領域推定装置及びプログラムに係り、特に、推定対象平面を表わす領域を推定する平面領域推定装置及びプログラムに関する。 The present invention relates to a plane area estimation apparatus and program, and more particularly, to a plane area estimation apparatus and program for estimating an area representing an estimation target plane.
従来より、複数の線を有する路面と路面上に存在する障害物を区別するため、路面上の特徴点から射影変換行列を求め、射影変換画像との差分を計算したときの各点の値の大きさにより路面か障害物かを判定する障害物検出装置が知られている(特許文献1)。 Conventionally, in order to distinguish a road surface having a plurality of lines from obstacles existing on the road surface, a projection transformation matrix is obtained from feature points on the road surface, and the value of each point when the difference from the projection transformation image is calculated. An obstacle detection device that determines whether the road surface is an obstacle or not is known (Patent Document 1).
また、2台のカメラから平面の射影変換行列を推定し、推定した射影変換行列により一方のカメラの画像を変換し、もう一方のカメラの画像との差分をとることにより、平面領域を検出する平面検出装置が知られている(特許文献2)。 In addition, a planar projection transformation matrix is estimated from two cameras, an image of one camera is transformed by the estimated projection transformation matrix, and a difference from the image of the other camera is taken to detect a planar region. A flat surface detector is known (Patent Document 2).
上記の特許文献1、2に記載の技術では、平面の射影変換行列を求め、射影変換行列により変換した画像を用いて差分計算により平面領域を検出している。
しかしながら、上記の特許文献1、2に記載の技術では、パターンのない領域について、変換によりずれが生じても、差分値に変化が出ないため、平面領域であるか否かを精度よく判定することができない、という問題がある。
However, in the techniques described in
本発明は、上記の問題点を解決するためになされたもので、パターンのない領域があっても、推定対象平面を表わす領域を精度よく推定することができる平面領域推定装置及びプログラムを提供することを目的とする。 The present invention has been made to solve the above problems, and provides a plane area estimation apparatus and program capable of accurately estimating an area representing an estimation target plane even if there is an area without a pattern. For the purpose.
上記の目的を達成するために第1の発明に係る平面領域推定装置は、推定対象平面を含む範囲を撮像した複数の画像を出力する移動体に搭載された撮像手段と、前記撮像手段が第1の位置及び第1の姿勢となっているときに前記撮像手段によって撮像された第1画像における推定対象平面を表わす領域を、前記第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢で前記撮像手段によって撮像された第2画像において推定対象平面が表されるべき領域に変換するための変換によって、前記第1画像を変換する画像変換手段と、前記画像変換手段によって変換された前記第1画像と前記第2画像とに基づいて、各画素について画素値の差分を算出する差分算出手段と、大きさが異なる複数の閾値の各々を用いて、前記算出された画素値の差分が前記閾値未満となる領域を平面候補領域として検出する領域検出手段と、最も大きい閾値を用いて検出された前記平面候補領域の各々が推定対象平面のみを表わしているか否かを判定し、次に大きい閾値から降順に、前記閾値を用いて検出された前記平面候補領域のうち、前記推定対象平面のみを表していないと前回判定された前記平面候補領域内から検出された前記平面候補領域の各々について、前記推定対象平面のみを表わしているか否かを判定する判定を順次行う判定手段と、前記判定手段によって前記推定対象平面のみを表わしていると判定された平面候補領域を統合して、前記推定対象平面を表わす領域を推定する領域推定手段とを含んで構成されている。 In order to achieve the above object, a planar region estimation apparatus according to a first aspect of the present invention includes an imaging unit mounted on a moving body that outputs a plurality of images obtained by imaging a range including an estimation target plane, and the imaging unit includes An area representing the estimation target plane in the first image captured by the imaging unit when the first position and the first attitude are set is a second position different from the first position and the first attitude, and An image converting means for converting the first image by a conversion for converting into an area in which the estimation target plane is to be represented in the second image imaged by the imaging means in the second posture; and the image converting means. Based on the converted first image and the second image, difference calculation means for calculating a difference between pixel values for each pixel, and each of a plurality of thresholds having different sizes is used to calculate the calculated pixel. value Determining whether or not each of the plane candidate areas detected using the largest threshold represents only the estimation target plane, as an area detection means for detecting an area where the difference is less than the threshold as a plane candidate area; Of the plane candidate areas detected using the threshold value in descending order from the next largest threshold value, the plane candidate areas detected from the plane candidate area previously determined not to represent only the estimation target plane. A determination means for sequentially determining whether or not only the estimation target plane is represented, and a plane candidate area determined by the determination means to represent only the estimation target plane. And an area estimation means for estimating an area representing the estimation target plane.
また、第2の発明に係るプログラムは、コンピュータを、推定対象平面を含む範囲を撮像した複数の画像を出力する移動体に搭載された撮像手段が第1の位置及び第1の姿勢となっているときに前記撮像手段によって撮像された第1画像における推定対象平面を表わす領域を、前記第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢で前記撮像手段によって撮像された第2画像において推定対象平面が表されるべき領域に変換するための変換によって、前記第1画像を変換する画像変換手段、前記画像変換手段によって変換された前記第1画像と前記第2画像とに基づいて、各画素について画素値の差分を算出する差分算出手段、大きさが異なる複数の閾値の各々を用いて、前記算出された画素値の差分が前記閾値未満となる領域を平面候補領域として検出する領域検出手段、最も大きい閾値を用いて検出された前記平面候補領域の各々が推定対象平面のみを表わしているか否かを判定し、次に大きい閾値から降順に、前記閾値を用いて検出された前記平面候補領域のうち、前記推定対象平面のみを表していないと前回判定された前記平面候補領域内から検出された前記平面候補領域の各々について、前記推定対象平面のみを表わしているか否かを判定する判定を順次行う判定手段、及び前記判定手段によって前記推定対象平面のみを表わしていると判定された平面候補領域を統合して、前記推定対象平面を表わす領域を推定する領域推定手段として機能させるためのプログラムである。 In the program according to the second invention, the imaging means mounted on the moving body that outputs a plurality of images obtained by imaging the range including the estimation target plane is in the first position and the first posture. A region representing the estimation target plane in the first image picked up by the image pickup means is picked up by the image pickup means at a second position and a second posture different from the first position and the first posture. In addition, the first image and the second image converted by the image converting means for converting the first image by conversion for converting into an area in which the estimation target plane is to be represented in the second image. Based on the above, a difference calculation means for calculating a difference between pixel values for each pixel, and a region where the difference between the calculated pixel values is less than the threshold using each of a plurality of thresholds having different sizes Area detection means for detecting as a plane candidate area, whether or not each of the plane candidate areas detected using the largest threshold represents only the estimation target plane, and in descending order from the next largest threshold For each of the plane candidate areas detected from within the plane candidate area that was previously determined as not representing only the estimation target plane among the plane candidate areas detected by using only the estimation target plane A determination means for sequentially determining whether or not the object is represented; and a candidate plane region determined to represent only the estimation target plane by the determination means is integrated to estimate an area representing the estimation target plane It is a program for functioning as a region estimation means.
第1の発明及び第2の発明によれば、移動体に搭載された撮像手段によって、推定対象平面を含む範囲を撮像した複数の画像を出力する。そして、画像変換手段によって、撮像手段が第1の位置及び第1の姿勢となっているときに撮像手段によって撮像された第1画像における推定対象平面を表わす領域を、第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢で撮像手段によって撮像された第2画像において推定対象平面が表されるべき領域に変換するための変換によって、第1画像を変換する。 According to the first invention and the second invention, a plurality of images obtained by imaging a range including the estimation target plane are output by the imaging means mounted on the moving body. Then, the region representing the estimation target plane in the first image picked up by the image pickup means when the image pickup means is in the first position and the first posture by the image conversion means is set to the first position and the first position. The first image is converted by conversion for converting the estimation target plane into a region in which the estimation target plane is to be represented in the second image captured by the imaging unit at the second position and the second posture different from the first posture.
差分算出手段によって、画像変換手段によって変換された第1画像と第2画像とに基づいて、各画素について画素値の差分を算出する。領域検出手段によって、大きさが異なる複数の閾値の各々を用いて、算出された画素値の差分が閾値未満となる領域を平面候補領域として検出する。 Based on the first image and the second image converted by the image conversion unit, the difference calculation unit calculates a difference in pixel value for each pixel. By using each of a plurality of thresholds having different sizes, the region detection unit detects a region where the difference between the calculated pixel values is less than the threshold as a plane candidate region.
そして、判定手段によって、最も大きい閾値を用いて検出された平面候補領域の各々が推定対象平面のみを表わしているか否かを判定する。また、判定手段によって、次に大きい閾値から降順に、閾値を用いて検出された平面候補領域のうち、推定対象平面のみを表していないと前回判定された平面候補領域内から検出された平面候補領域の各々について、推定対象平面のみを表わしているか否かを判定する判定を順次行う。領域推定手段によって、判定手段によって推定対象平面のみを表わしていると判定された平面候補領域を統合して、推定対象平面を表わす領域を推定する。 Then, the determination unit determines whether each of the plane candidate areas detected using the largest threshold value represents only the estimation target plane. In addition, the plane candidates detected from the plane candidate areas previously determined as not representing only the estimation target plane among the plane candidate areas detected using the threshold values in descending order from the next largest threshold value by the determination unit. For each of the areas, a determination is sequentially made to determine whether or not only the estimation target plane is represented. The region estimation unit integrates the plane candidate regions determined by the determination unit to represent only the estimation target plane, and estimates the region representing the estimation target plane.
このように、変換された第1画像と第2画像との各画素の差分から、大きさが異なる複数の閾値の各々を用いて検出された平面候補領域について、検出に用いられた閾値の大きさの降順に、推定対象平面のみを表わしているか否かを順次判定して、推定対象平面を表わす領域を推定することにより、パターンのない領域があっても、推定対象平面を表わす領域を精度よく推定することができる。 As described above, the size of the threshold used for detection of the planar candidate region detected using each of the plurality of thresholds having different sizes from the difference between the pixels of the converted first image and second image. By sequentially determining whether or not only the estimation target plane is represented in descending order, and estimating the area representing the estimation target plane, the area representing the estimation target plane can be accurately detected even if there is an area without a pattern. Can be estimated well.
第3の発明に係る平面領域推定装置は、推定対象平面を含む範囲を撮像した複数の画像を出力する移動体に搭載された撮像手段と、前記撮像手段が第1の位置及び第1の姿勢となっているときに前記撮像手段によって撮像された第1画像における推定対象平面を表わす領域を、前記第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢で前記撮像手段によって撮像された第2画像において推定対象平面が表されるべき領域に変換するための変換によって、前記第1画像を変換する画像変換手段と、前記画像変換手段によって変換された前記第1画像と前記第2画像とに基づいて、各画素について画素値の差分を算出する差分算出手段と、大きさが異なる複数の閾値のうち最も大きい閾値を用いて、前記算出された画素値の差分が前記閾値未満となる領域を平面候補領域として検出すると共に、前記平面候補領域が推定対象平面のみを表わしているか否かを判定し、次に大きい閾値から降順に、前記推定対象平面のみを表していないと前回判定された前記平面候補領域内から、前記閾値を用いて、前記算出された画素値の差分が前記閾値未満となる領域を平面候補領域として検出すると共に、前記平面候補領域が推定対象平面のみを表わしているか否かを判定する判定を順次行う判定手段と、前記判定手段によって前記推定対象平面のみを表わしていると判定された平面候補領域を統合して、前記推定対象平面を表わす領域を推定する領域推定手段とを含んで構成されている。 According to a third aspect of the present invention, there is provided a planar area estimation apparatus including an imaging unit mounted on a moving body that outputs a plurality of images obtained by imaging a range including an estimation target plane, and the imaging unit has a first position and a first attitude. The region representing the estimation target plane in the first image picked up by the image pickup means at the second position and the second posture different from the first position and the first posture is the image pickup means. The image conversion means for converting the first image by the conversion for converting to the region in which the estimation target plane is to be represented in the second image captured by the method, and the first image converted by the image conversion means, Based on the second image, difference calculation means for calculating a difference between pixel values for each pixel, and using the largest threshold value among a plurality of threshold values having different sizes, the difference between the calculated pixel values is An area that is less than the value is detected as a plane candidate area, and it is determined whether or not the plane candidate area represents only the estimation target plane, and only the estimation target plane is not represented in descending order from the next largest threshold value. And using the threshold value, the area where the difference between the calculated pixel values is less than the threshold value is detected as a plane candidate area, and the plane candidate area is an estimation target plane. A region that represents the estimation target plane by integrating a determination unit that sequentially determines whether or not it represents only the plane candidate region that is determined by the determination unit to represent only the estimation target plane And an area estimation means for estimating.
第4の発明に係るプログラムは、コンピュータを、推定対象平面を含む範囲を撮像した複数の画像を出力する移動体に搭載された撮像手段が第1の位置及び第1の姿勢となっているときに前記撮像手段によって撮像された第1画像における推定対象平面を表わす領域を、前記第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢で前記撮像手段によって撮像された第2画像において推定対象平面が表されるべき領域に変換するための変換によって、前記第1画像を変換する画像変換手段、前記画像変換手段によって変換された前記第1画像と前記第2画像とに基づいて、各画素について画素値の差分を算出する差分算出手段、大きさが異なる複数の閾値のうち最も大きい閾値を用いて、前記算出された画素値の差分が前記閾値未満となる領域を平面候補領域として検出すると共に、前記平面候補領域が推定対象平面のみを表わしているか否かを判定し、次に大きい閾値から降順に、前記推定対象平面のみを表していないと前回判定された前記平面候補領域内から、前記閾値を用いて、前記算出された画素値の差分が前記閾値未満となる領域を平面候補領域として検出すると共に、前記平面候補領域が推定対象平面のみを表わしているか否かを判定する判定を順次行う判定手段、及び前記判定手段によって前記推定対象平面のみを表わしていると判定された平面候補領域を統合して、前記推定対象平面を表わす領域を推定する領域推定手段として機能させるためのプログラムである。 According to a fourth aspect of the present invention, there is provided a program according to a first aspect of the present invention, in which an imaging unit mounted on a moving body that outputs a plurality of images obtained by imaging a range including an estimation target plane has a first position and a first posture. A region representing the estimation target plane in the first image captured by the imaging unit is captured by the imaging unit at a second position and a second attitude different from the first position and the first attitude. The image conversion means for converting the first image by conversion for converting the region to be estimated to be represented in the two images, and the first image and the second image converted by the image conversion means Based on the difference calculation means for calculating the difference between the pixel values for each pixel, the difference between the calculated pixel values is less than the threshold by using the largest threshold among a plurality of thresholds having different sizes. Is determined as a plane candidate area, and it is determined whether or not the plane candidate area represents only the estimation target plane, and it is previously determined that only the estimation target plane is not represented in descending order from the next largest threshold value. Using the threshold value, the area where the difference between the calculated pixel values is less than the threshold value is detected as a plane candidate area, and the plane candidate area represents only the estimation target plane. A determination unit that sequentially determines whether or not the plane is estimated; and a plane candidate region that is determined to represent only the estimation target plane by the determination unit is integrated to estimate a region that represents the estimation target plane This is a program for functioning as region estimation means.
第3の発明及び第4の発明によれば、移動体に搭載された撮像手段によって、推定対象平面を含む範囲を撮像した複数の画像を出力する。そして、画像変換手段によって、撮像手段が第1の位置及び第1の姿勢となっているときに撮像手段によって撮像された第1画像における推定対象平面を表わす領域を、第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢で撮像手段によって撮像された第2画像において推定対象平面が表されるべき領域に変換するための変換によって、第1画像を変換する。 According to the third invention and the fourth invention, a plurality of images obtained by imaging a range including the estimation target plane are output by the imaging means mounted on the moving body. Then, the region representing the estimation target plane in the first image picked up by the image pickup means when the image pickup means is in the first position and the first posture by the image conversion means is set to the first position and the first position. The first image is converted by conversion for converting the estimation target plane into a region in which the estimation target plane is to be represented in the second image captured by the imaging unit at the second position and the second posture different from the first posture.
差分算出手段によって、画像変換手段によって変換された第1画像と第2画像とに基づいて、各画素について画素値の差分を算出する。領域検出手段によって、大きさが異なる複数の閾値の各々を用いて、算出された画素値の差分が閾値未満となる領域を平面候補領域として検出する。 Based on the first image and the second image converted by the image conversion unit, the difference calculation unit calculates a difference in pixel value for each pixel. By using each of a plurality of thresholds having different sizes, the region detection unit detects a region where the difference between the calculated pixel values is less than the threshold as a plane candidate region.
そして、判定手段によって、大きさが異なる複数の閾値のうち最も大きい閾値を用いて、算出された画素値の差分が閾値未満となる領域を平面候補領域として検出すると共に、平面候補領域が推定対象平面のみを表わしているか否かを判定する。また、判定手段によって、次に大きい閾値から降順に、推定対象平面のみを表していないと前回判定された平面候補領域内から、閾値を用いて、算出された画素値の差分が閾値未満となる領域を平面候補領域として検出すると共に、平面候補領域が推定対象平面のみを表わしているか否かを判定する判定を順次行う。領域推定手段によって、判定手段によって推定対象平面のみを表わしていると判定された平面候補領域を統合して、推定対象平面を表わす領域を推定する。 Then, by using the largest threshold value among a plurality of threshold values having different sizes, the determination unit detects an area where the difference between the calculated pixel values is less than the threshold value as a plane candidate area, and the plane candidate area is an estimation target. It is determined whether or not only a plane is represented. In addition, the difference between the pixel values calculated by using the threshold value is less than the threshold value from the plane candidate area previously determined that the estimation unit does not represent only the estimation target plane in descending order from the next largest threshold value. An area is detected as a plane candidate area, and determination is sequentially performed to determine whether or not the plane candidate area represents only the estimation target plane. The region estimation unit integrates the plane candidate regions determined by the determination unit to represent only the estimation target plane, and estimates the region representing the estimation target plane.
このように、変換された第1画像と第2画像との各画素の差分から、大きさが異なる複数の閾値の降順に、閾値を用いて平面候補領域を検出して、推定対象平面のみを表わしているか否かを順次判定して、推定対象平面を表わす領域を推定することにより、パターンのない領域があっても、推定対象平面を表わす領域を精度よく推定することができる。 In this way, from the difference between each pixel of the converted first image and second image, a plane candidate region is detected using threshold values in descending order of a plurality of threshold values having different sizes, and only the estimation target plane is detected. By sequentially determining whether or not the region is represented and estimating the region representing the estimation target plane, the region representing the estimation target plane can be accurately estimated even if there is a region having no pattern.
第1の発明に係る判定手段は、最も大きい閾値を用いて検出された平面候補領域の各々が、推定対象平面のみを表わす領域、及び推定対象平面を表わす領域を含む領域の何れであるかを判定し、次に大きい閾値から降順に、閾値を用いて検出された平面候補領域のうち、推定対象平面を表わす領域を含む領域であると前回判定された平面候補領域内から検出された平面候補領域の各々について、推定対象平面のみを表わす領域及び推定対象平面を表わす領域を含む領域の何れであるかを判定する判定を順次行うことができる。 The determination means according to the first invention determines whether each of the plane candidate areas detected using the largest threshold is an area representing only the estimation target plane or an area including the area representing the estimation target plane. Plane candidates detected from within the plane candidate region that was previously determined to be a region including the region representing the estimation target plane among the plane candidate regions detected using the threshold value in descending order from the next largest threshold value For each of the areas, it is possible to sequentially determine whether the area represents only the estimation target plane or the area including the estimation target plane.
第3の発明に係る判定手段は、最も大きい閾値を用いて、算出された画素値の差分が閾値未満となる領域を平面候補領域として検出すると共に、平面候補領域が、推定対象平面のみを表わす領域、及び推定対象平面を表わす領域を含む領域の何れであるかを判定し、次に大きい閾値から降順に、推定対象平面を表わす領域を含む領域であると前回判定された平面候補領域内から、閾値を用いて、算出された画素値の差分が閾値未満となる領域を平面候補領域として検出すると共に、平面候補領域が、推定対象平面のみを表わす領域、及び推定対象平面を表わす領域を含む領域の何れであるかを判定する判定を順次行うことができる。 The determination means according to the third invention uses the largest threshold value to detect an area where the difference between the calculated pixel values is less than the threshold value as a plane candidate area, and the plane candidate area represents only the estimation target plane. It is determined whether it is an area or an area including an area representing the estimation target plane, and from the plane candidate area previously determined to be an area including the area representing the estimation target plane in descending order from the next largest threshold value. Using the threshold value, an area where the difference between the calculated pixel values is less than the threshold value is detected as a plane candidate area, and the plane candidate area includes an area representing only the estimation target plane and an area representing the estimation target plane. It is possible to sequentially determine which region is to be determined.
第1の発明及び第3の発明に係る平面領域推定装置は、撮像手段によって撮像された第1画像及び第2画像の各々から、特徴点であって、かつ、第1画像及び第2画像の間で対応した点を検索する検索手段と、検索手段によって検索された対応した点に基づいて、第1の位置及び第1の姿勢と第2の位置及び第2の姿勢との相対関係を算出する位置姿勢算出手段と、検索手段によって検索された対応した点と位置姿勢算出手段によって算出された相対関係とに基づいて、第1画像における推定対象平面上の特徴点の3次元位置を算出する位置算出手段と、位置算出手段によって算出された推定対象平面上の特徴点の3次元位置に基づいて、推定対象平面を表わすパラメータを算出する平面パラメータ算出手段とを更に含み、画像変換手段は、位置姿勢算出手段によって算出された相対関係、及び平面パラメータ算出手段によって算出された推定対象平面を表わすパラメータに基づいて、変換の変換行列を算出し、変換行列に基づいて、第1画像を変換することができる。 The planar region estimation apparatus according to the first and third inventions is a feature point from each of the first image and the second image imaged by the imaging means, and the first image and the second image Based on the search means for searching for the corresponding points between them and the corresponding points searched by the search means, the relative relationship between the first position and the first posture and the second position and the second posture is calculated. The three-dimensional position of the feature point on the estimation target plane in the first image is calculated based on the position / orientation calculation means that performs the search, the corresponding point searched by the search means and the relative relationship calculated by the position / orientation calculation means. A position calculation unit; and a plane parameter calculation unit that calculates a parameter representing the estimation target plane based on the three-dimensional position of the feature point on the estimation target plane calculated by the position calculation unit. A conversion matrix for conversion is calculated based on the relative relationship calculated by the posture calculation means and a parameter representing the estimation target plane calculated by the plane parameter calculation means, and the first image is converted based on the conversion matrix. be able to.
上記の平面領域推定装置は、撮像手段によって撮像された第1画像及び第2画像の各々から、特徴点であって、かつ、第1画像及び第2画像の間で対応した点を検索する検索手段と、検索手段によって検索された対応した点に基づいて、第1の位置及び第1の姿勢と第2の位置及び第2の姿勢との相対関係を算出する位置姿勢算出手段と、検索手段によって検索された対応した点と位置姿勢算出手段によって算出された相対関係とに基づいて、検索手段によって検索された対応した点の3次元位置を算出する位置算出手段とを更に含み、判定手段は、平面候補領域内の対応した点の3次元位置に基づいて、平面候補領域が推定対象平面のみを表わしているか否かを判定することができる。これによって、平面候補領域が推定対象平面を表わしているか否かを精度よく判定することができる。 The above planar area estimation device searches for a feature point and a corresponding point between the first image and the second image from each of the first image and the second image captured by the imaging means. And a position and orientation calculation means for calculating a relative relationship between the first position and the first orientation and the second position and the second orientation based on the corresponding points searched by the search means, and the search means And a position calculation means for calculating a three-dimensional position of the corresponding point searched by the search means based on the corresponding point searched by the position and the relative relationship calculated by the position and orientation calculation means. Based on the three-dimensional position of the corresponding point in the plane candidate area, it can be determined whether or not the plane candidate area represents only the estimation target plane. Thereby, it can be accurately determined whether or not the plane candidate region represents the estimation target plane.
上記の差分算出手段は、各画素について、画素を含む所定領域の画素値の差分を算出することができる。これによって、第1画像の変換のずれを考慮した画素値の差分により、平面候補領域を検出することができる。 The difference calculation means can calculate a difference between pixel values of a predetermined area including the pixel for each pixel. Thereby, the plane candidate region can be detected based on the difference between the pixel values considering the shift of the conversion of the first image.
以上説明したように、本発明の平面領域推定装置及びプログラムによれば、パターンのない領域があっても、推定対象平面を表わす領域を精度よく推定することができる、という効果が得られる。 As described above, according to the planar region estimation apparatus and program of the present invention, there is an effect that a region representing an estimation target plane can be accurately estimated even if there is a region without a pattern.
以下、図面を参照して本発明の実施の形態を詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
図1に示すように、本実施の形態に係る平面領域推定装置10は、車両(図示省略)に搭載され、かつ、道路平面を含む自車両前方を撮像して画像を出力する撮像装置12と、撮像装置12から得られる画像に基づいて、道路平面を表わす領域を推定して、推定結果を表示装置16に表示させるコンピュータ14とを備えている。
As shown in FIG. 1, a planar
撮像装置12は、自車両前方を撮像し、画像の画像信号を生成する単眼のカメラで構成される撮像部(図示省略)と、撮像部で生成された画像信号をA/D変換するA/D変換部(図示省略)と、A/D変換された画像信号を一時的に格納するための画像メモリ(図示省略)とを備えている。
The
コンピュータ14は、CPUと、RAMと、後述する平面領域推定処理ルーチンを実行するためのプログラムを記憶したROMとを備え、機能的には次に示すように構成されている。コンピュータ14は、撮像装置12により異なる位置姿勢で撮像された複数の画像を取得する画像入力部18と、取得した複数の画像の各々から、画像上で追跡しやすい特徴点を複数抽出する特徴点抽出部20と、特徴点抽出部20により得られた2つの画像の各々における特徴点から、2つの画像の間で対応する対応点を検索する対応点検索部22と、対応点検索部22で得られた各対応点における各画像の画像座標を入力として、対応点が検索された一方の画像を撮像したときの撮像装置12の位置姿勢を基準とした、対応点が検索された他方の画像を撮像したときの撮像装置12の位置姿勢への変化(位置及び姿勢の相対関係)を、撮像装置12の運動のXYZ軸方向の移動量及びXYZ軸を基準とする回転量として算出する位置姿勢算出部24と、対応点検索部22で得られた各対応点における各画像の画像座標と位置姿勢算出部24によって算出された移動量及び回転量とに基づいて、各対応点の3次元座標を計算する3次元位置計算部26とを備えている。
The
画像入力部18は、異なる位置及び姿勢で撮像された2つの画像を撮像装置12から取得する。なお、以下では、異なる位置及び姿勢で撮像された2つの画像のうち、第1の位置及び第1の姿勢で撮像された画像を第1の画像とし、第2の位置及び第2の姿勢で撮像された画像を第2の画像として説明する。
The
特徴点抽出部20は、撮像装置12から取得した第1の画像から特徴点を抽出すると共に、撮像装置12から取得した第2の画像から特徴点を抽出する。特徴点とは、周囲の点と区別でき、異なる画像間で対応関係を求めることが容易な点のことを指す。特徴点は、2次元的に濃淡変化の勾配値が大きくなる画素を検出する方法(例えばHarrisオペレータなど)を用いて、自動的に抽出される。Harrisオペレータを用いる方法では、以下に説明するように、特徴点を抽出する。まず、画像の点(u,v)の輝度をI(u,v)として、以下の(1)式によって、行列Mを計算する。
The feature
ただし、Iu,Ivはそれぞれ水平方向、垂直方向の微分、Gσは標準偏差σのガウス分布による平滑化を表す。 However, I u and I v represent horizontal and vertical differentiation, respectively, and G σ represents smoothing by a Gaussian distribution with a standard deviation σ.
そして、上記(1)式で計算された行列Mの固有値λ1、λ2を用いて、以下の(2)式によりコーナー強度を計算する。 Then, using the eigenvalues λ 1 and λ 2 of the matrix M calculated by the above equation (1), the corner strength is calculated by the following equation (2).
ただし、kは予め設定される定数であって、0.04〜0.06の値が一般に用いられる。Harrisオペレータを用いる方法では、このコーナー強度がしきい値以上でかつ極大となる点を選択し、選択された点を特徴点として抽出する。 However, k is a preset constant, and a value of 0.04 to 0.06 is generally used. In the method using the Harris operator, a point at which the corner intensity is equal to or greater than a threshold value is selected, and the selected point is extracted as a feature point.
対応点検索部22は、特徴点抽出部20において抽出された第1の画像の特徴点に対応する点を、第2の画像において抽出された特徴点から検索して、特徴点の対応付けを行う。
The corresponding
2つの画像間での特徴点の対応付けでは、特徴点周辺に設定した小領域での輝度分布が似ている点の組を選択し、選択された点の組を対応している点とする。2つの特徴点が似ているかどうかの判定にはSSD(Sum of Squared Differences)などの値を用いればよい。 In associating feature points between two images, a pair of points having similar brightness distributions in a small area set around the feature point is selected, and the selected point pair is regarded as a corresponding point. . A value such as SSD (Sum of Squared Differences) may be used to determine whether the two feature points are similar.
例えば、第1の画像I1の特徴点p=(x,y)について、第2の画像I2の特徴点p'=(x’,y’)の各々との組み合わせをペアとして、以下の(3)式を各々計算する。 For example, regarding the feature point p = (x, y) of the first image I 1 as a pair with the combination of the feature point p ′ = (x ′, y ′) of the second image I 2 , the following (3) Each formula is calculated.
そして、上記(3)式によって計算される値が最小となったときの第2の画像の特徴点を検索し、第1の画像の特徴点に対応する点とする。 Then, the feature point of the second image when the value calculated by the above equation (3) is minimized is searched for as a point corresponding to the feature point of the first image.
上記の計算を、第1の画像の特徴点の各々について行って、第1の画像の特徴点の各々に対応する点を、第2の画像の特徴点から検索する。また、対応点検索部22は、特徴点抽出部20において2つの画像の各々から抽出された特徴点について、2つの画像間で対応する点を少なくとも8組検索する。
The above calculation is performed for each feature point of the first image, and a point corresponding to each of the feature points of the first image is searched from the feature points of the second image. In addition, the corresponding
位置姿勢算出部24は、対応点検索部22より得られる2つの画像における少なくとも8組の対応点の画像座標から、2つの画像の各々が撮像されたときの撮像装置12の位置及び姿勢の変化(XYZ軸方向の移動量及びXYZ軸を基準とする回転量)を計算する。位置及び姿勢の変化は、図2に示すように、第1の画像から第2の画像への回転行列R(X軸を基準とする回転量、Y軸を基準とする回転量、Z軸を基準とする回転量)と、並進ベクトルt(X軸方向の移動量tx、Y軸方向の移動量ty、Z軸方向の移動量tz)との6要素から構成される運動である。なお、回転行列R及び並進ベクトルtの要素は、2つの画像間の画像座標の変換を表す物理量である。
The position /
ここで、第1の画像から第2の画像への回転行列Rと並進ベクトルtとの計算方法について説明する。第1の画像におけるn点の対応点の画像座標Iiと第2の画像におけるn点の対応点の画像座標Ii’とについて(n≧8)、対応点が正しくて誤差がなければ、以下の(4)式を満たす3×3行列Fが存在する。 Here, a calculation method of the rotation matrix R and the translation vector t from the first image to the second image will be described. For the image coordinates I i of the corresponding points of the n points in the first image and the image coordinates I i ′ of the corresponding points of the n points in the second image (n ≧ 8), if the corresponding points are correct and there is no error, There is a 3 × 3 matrix F that satisfies the following equation (4).
ただし、Ii=(ui,vi,1)T、Ii’=(ui’,vi’,1)Tであり、第1の画像での画像座標(ui,vi)の点に対応する第2の画像での点の画像座標が(ui’,vi’)である。 However, I i = (u i , v i , 1) T , I i ′ = (u i ′, v i ′, 1) T , and the image coordinates (u i , v i ) in the first image The image coordinates of the point in the second image corresponding to the point are (u i ′, v i ′).
ここで、上記(4)式を満たす行列Fは、定数倍の不定性を持っている。すなわち、Fsが上記(4)式を満たす場合には、αFsも上記(4)式を満たす(ただし、aは実数)。よって、行列Fを以下の(5)式のように表すことができる。 Here, the matrix F satisfying the above equation (4) has a constant multiple indefiniteness. That is, when F s satisfies the above equation (4), αF s also satisfies the above equation (4) (where a is a real number). Therefore, the matrix F can be expressed as the following equation (5).
また、上記(4)式、(5)式より、以下の(6)式が成り立つ。 Further, from the above equations (4) and (5), the following equation (6) is established.
ここで、8組以上の対応点Ii、Ii’があれば、上記(6)式が少なくとも8つ得られるため、8つの変数f11〜f32を求めることができる。なお、得られる8つの式が互いに独立である必要があり、また、誤差が含まれる場合であっても安定して計算するために、他の対応点の組となるべく異なる動きをしている特徴点の組を対応点として検索することが好ましい。 Here, if there are eight or more pairs of corresponding points I i and I i ′, at least eight of the above formula (6) can be obtained, so that eight variables f 11 to f 32 can be obtained. It should be noted that the eight formulas obtained need to be independent from each other, and even when errors are included, in order to perform stable calculation, other corresponding points are moving as differently as possible. It is preferable to search for a set of points as corresponding points.
上述したように行列Fが計算でき、また、撮像装置12のキャリブレーション行列Kが既知である場合には、以下の(7)式、(8)式より、回転行列Rと並進ベクトルtとを計算することができる.
When the matrix F can be calculated as described above and the calibration matrix K of the
撮像装置12のキャリブレーション行列Kは、以下の(9)式で表される。
The calibration matrix K of the
ただし、fxは、撮像装置12のX方向の焦点距離、fyは、撮像装置12のY方向の焦点距離、(cu,cv)は画像中心である。なお、画像上の画像座標は、X方向に対応するU方向の座標uとY方向に対応するV方向の座標vとで表されるものとする。
However, f x is the focal length in the X direction of the
3次元位置計算部26は、対応点検索部22から得られる2つの画像間でのn点の対応点の画像座標の組Ii、Ii’、及び位置姿勢算出部24から得られる2つの画像間の回転行列及び並進ベクトルを用いて、n点の対応点の3次元座標を計算する。対応点の3次元座標は以下の方法により計算できる。
The three-dimensional
まず、2枚の画像の各々の対応点の画像座標を(u,v)、(u’,v’)とし、画像間の回転行列をRとし、並進ベクトルをtとし、撮像装置12のキャリブレーション行列をKとしたとき、以下の(10)式、(11)式のような行列P、P’を定義する。
First, the image coordinates of the corresponding points of the two images are (u, v), (u ′, v ′), the rotation matrix between the images is R, the translation vector is t, and the
そして、pi,p’iをそれぞれ行列P,P’の第i行のベクトルとすると、対応点の3次元座標X=(x,y,z,1)Tは以下の(12)式の解として求めることができる。 Then, if p i and p ′ i are the vectors in the i-th row of the matrices P and P ′, respectively, the three-dimensional coordinates X = (x, y, z, 1) T of the corresponding points are expressed by the following equation (12). It can be obtained as a solution.
また、コンピュータ14は、道路平面上の各対応点の3次元座標に基づいて、道路平面を表わすパラメータを推定する平面推定部30と、一方の画像の道路平面領域を他方の画像の道路平面領域に重ねるように変換するための変換を示す射影変換行列に基づいて、一方の画像を変換する画像変換部32と、一方の画像を変換した変換画像と他方の画像との各画素の差分値を計算する差分計算部34と、各画素の差分値に基づいて、道路平面候補領域を検出する平面候補領域検出部36と、検出された道路平面候補領域が道路平面を表わす領域であるか否かを判定する平面領域判定部38と、道路平面を表わす領域を統合して、推定結果として表示装置16に表示させる領域統合部40とを備えている。
The
平面推定部30は、3次元位置計算部26により得られる対応点の3次元位置のうち、第1の画像の道路平面を表わす領域内の対応点の3次元位置を用いて、道路平面を表わすパラメータを推定する。推定する道路平面は3次元空間で以下の(14)式で表すことができる。
The
平面推定部30は、第1の画像の道路平面を表わす領域内から対応点を抽出し、抽出された対応点の3次元座標から、上記のパラメータ(a,b,c)を求める。3点以上の3次元座標が得られると、上記パラメータの計算が可能であるが、3点より多くの3次元座標から得られた場合には、最小二乗法やLMedS(Least Median Squares)法などにより、パラメータ(a,b,c)を推定する。なお、第1の画像の道路平面を表わす領域は、撮像装置12の道路平面に対する位置及び姿勢に基づいて、予め求めておけばよい。または、1ステップ前の処理で推定された道路平面領域を用いて、第1の画像の道路平面を表わす領域を求めてもよい。また、上記の推定する道路平面のパラメータは、撮像装置12の第1の位置及び第1の姿勢に対する道路平面の相対的な位置及び姿勢を表わしている。
The
画像変換部32は、位置姿勢算出部24により算出された第1の画像と第2の画像との間の位置及び姿勢の変化と、平面推定部30により得られた道路平面のパラメータとに基づいて、第1の画像における道路平面を表わす領域を、第2の画像において道路平面が表されるべき領域に重ねるように変換するための変換を示す射影変換行列を計算し、計算された射影変換行列により、第1の画像を変換する。
The
第1の画像と第2の画像との間の位置及び姿勢の変化が、回転行列Rと並進ベクトルtによって表され、道路平面のパラメータ(a,b,c)で表される道路平面がax+by+cz=1であるとき、射影変換行列Hは、以下の(15)式によって計算される。 The change in position and orientation between the first image and the second image is represented by the rotation matrix R and the translation vector t, and the road plane represented by the road plane parameters (a, b, c) is ax + by + cz. When = 1, the projective transformation matrix H is calculated by the following equation (15).
ただし、行列Kは撮像装置12のキャリブレーション行列である。
However, the matrix K is a calibration matrix of the
上記(15)式によって計算された射影変換行列Hを用いて、第1の画像を射影変換した変換画像を生成する。第1の画像の画素をIiとすると、対応する変換画像の画素Jiは以下の(16)式により計算される。
Ji=H・Ii ・・・(16)
例えば、図3(A)に示すような第1の画像を射影変換して、図3(C)に示すような変換画像を生成する。
Using the projective transformation matrix H calculated by the above equation (15), a transformed image obtained by projectively transforming the first image is generated. If the pixel of the first image is Ii, the corresponding pixel Ji of the converted image is calculated by the following equation (16).
Ji = H · Ii (16)
For example, the first image as shown in FIG. 3A is projectively transformed to generate a converted image as shown in FIG.
差分計算部34は、画像変換部32により生成された、射影変換行列により第1の画像を変換した変換画像と第2の画像とについて、各画素の差分値を計算する。例えば、上記図3(C)に示すような変換画像と、図3(B)に示すような第2の画像との各画素の差分値を計算する。
The
平面候補領域検出部36は、差分計算部34により得られた各画素に対する差分値から、複数の平面候補領域を検出する。
The plane candidate
ここで、本実施の形態の原理について説明する。従来、2枚の画像を用いて平面候補領域を抽出する場合、画像間の位置及び姿勢の相対的な関係、及び推定対象の平面の位置及び姿勢の相対的な関係を求め、2つの画像間での平面領域に対する射影変換行列を計算し、一方の画像を射影変換行列により変換した変換画像と、もう一方の画像との差分をとり、各画素の差分値を閾値で2値化することにより、平面領域を求めている。射影変換した変換画像ともう一方の画像との差分をとると、平面領域上にある画素であれば、変換画像と第2の画像とで同じ位置を表わしており、差分値が小さくなるため、平面領域を抽出することができる。しかし、テクスチャパターンのない領域では、変換画像と第2の画像でずれが生じても差分が大きくならず、平面領域に属していなくても差分値が小さくなるため、誤って平面領域として抽出してしまう。 Here, the principle of the present embodiment will be described. Conventionally, when extracting a plane candidate region using two images, the relative relationship between the position and orientation between images and the relative relationship between the position and orientation of the estimation target plane are obtained, and the two images are By calculating the projective transformation matrix for the planar region at, taking the difference between the transformed image obtained by transforming one image with the projective transformation matrix and the other image, and binarizing the difference value of each pixel with a threshold value Seeking a planar area. When the difference between the converted image obtained by projective transformation and the other image is taken, the converted image and the second image represent the same position if the pixel is on the plane area, and the difference value becomes small. A planar area can be extracted. However, in a region without a texture pattern, the difference does not increase even if a shift occurs between the converted image and the second image, and the difference value decreases even if it does not belong to the plane region. End up.
これに対し、複数の閾値の各々を用いて、各画素の差分値の2値化を行い、差分値が閾値より小さくなる領域を、階層構造で表される分割された領域として検出し、それぞれ分割された領域毎に、画像から計算された内部に存在する特徴点の3次元位置を用いて、平面領域であるか否かを判定することにより、テクスチャのない領域を誤って平面領域として抽出することが防ぐことができる。 On the other hand, each of a plurality of threshold values is used to binarize the difference value of each pixel, and a region where the difference value is smaller than the threshold value is detected as a divided region represented by a hierarchical structure. For each divided area, use the 3D position of the feature points present inside the image to determine whether or not it is a plane area, thereby erroneously extracting the area without texture as a plane area Can be prevented.
そこで、本実施の形態では、平面候補領域検出部36によって、大きさが異なる複数の閾値を用いて、以下に説明するように、階層構造で表わされる複数の平面候補領域を検出する。
Therefore, in the present embodiment, the plane candidate
まず、平面候補領域の検出では、各注目画素に対して、その注目画素を中心とする所定領域を設定して、所定領域の画素の差分値として、SAD(Sum of Absolute Differences)又はSSD(Sum of Squared Defferences)を計算し、その計算値が、閾値未満であれば、注目画素が平面候補領域上の画素であると判断し、計算値が閾値以上であれば、注目画素が平面候補領域上の画素でないと判断する。 First, in the detection of a plane candidate area, a predetermined area centered on the target pixel is set for each target pixel, and a difference value between the pixels of the predetermined area is set as SAD (Sum of Absolute Differences) or SSD (Sum (Sum)). of Squared Differences), and if the calculated value is less than the threshold, it is determined that the pixel of interest is a pixel on the plane candidate region. If the calculated value is equal to or greater than the threshold, the pixel of interest is on the plane candidate region. It is determined that the pixel is not.
閾値を変更して、各々の閾値を用いて、各注目画素が平面候補領域上の画素であるか否かを判断して、複数の平面候補領域を検出する。例えば、Th1>Th2>Th3の関係にある3つの閾値を用いて、道路平面候補領域を検出すると、図4(A)に示すように、最も大きい閾値Th1を用いて検出した場合には、道路平面上にない領域も含んだ広い道路平面候補領域が検出される。また、図4(B)、(C)に示すように、検出に用いる閾値をTh2、Th3と小さくするに従い、道路平面候補領域が多くの領域に分割されて検出される。 The threshold value is changed, and using each threshold value, it is determined whether or not each target pixel is a pixel on the plane candidate area, and a plurality of plane candidate areas are detected. For example, when a road plane candidate region is detected using three threshold values that have a relationship of Th1> Th2> Th3, as shown in FIG. 4A, if the road plane candidate region is detected using the largest threshold value Th1, Wide road plane candidate areas including areas not on the plane are detected. Further, as shown in FIGS. 4B and 4C, the road plane candidate area is divided into many areas and detected as the threshold values used for detection are reduced to Th2 and Th3.
上記図4(C)に示すように、閾値をTh3と小さくした場合には、道路平面の一部が候補領域として検出されなくなるが、これは推定された位置及び姿勢の変化、及び平面パラメータに含まれる誤差の影響で、輝度変化が大きい部分などで、道路平面であっても差分値が閾値Th3より大きくなることによるものである。また、閾値をTh3にまで小さくした場合でもテクスチャのない道路平面以外の領域が候補領域として検出される。 As shown in FIG. 4C, when the threshold value is reduced to Th3, a part of the road plane is not detected as a candidate area. This is based on changes in the estimated position and orientation, and the plane parameters. This is because the difference value becomes larger than the threshold value Th3 even in the road plane due to the influence of the included error even in a portion where the luminance change is large. Even when the threshold value is reduced to Th3, a region other than a road plane having no texture is detected as a candidate region.
なお、各閾値で道路平面候補領域を検出するとき、各画素のSAD又はSSDの計算値のみに基づいて検出を行うと、誤差やノイズなどにより、孤立した平面候補領域が検出されたり、検出された平面候補領域内に抜けが発生したりするため、検出された道路平面候補領域に対して、収縮、膨張処理を行うようにしても良い。 When detecting a road plane candidate area with each threshold, if detection is performed based only on the SAD or SSD calculation value of each pixel, an isolated plane candidate area is detected or detected due to error or noise. For example, a missing area may be generated in the plane candidate area, so that the contraction / expansion process may be performed on the detected road plane candidate area.
上述したように、複数の閾値の各々を用いて、複数の道路平面候補領域が検出されると、道路平面候補領域の包含関係から、候補領域間の関係が求められ、階層構造で表わされる道路平面候補領域が取得される。 As described above, when a plurality of road plane candidate areas are detected using each of a plurality of threshold values, the relationship between the candidate areas is obtained from the inclusion relation of the road plane candidate areas, and the road is represented by a hierarchical structure. A plane candidate area is acquired.
検出に用いる閾値を大きい閾値から小さい閾値に変更すると、小さい閾値で検出された候補領域は、大きい閾値で検出された候補領域内の部分領域となる。そこで、大きい値閾値で検出された候補領域と小さい閾値で検出された候補領域との包含関係から、図5に示すような階層構造で表わされる複数の道路平面候補領域を求める。最も大きい閾値を用いて検出された候補領域A1を一番上の階層とし、候補領域A1は、次に大きい閾値で検出された候補領域B1〜B5に分割され、例えば、候補領域B2は、次に大きい閾値で検出された候補領域C2、C3に分割される。これらの候補領域の包含関係から階層構造で表わされる複数の道路平面候補領域が求められる。 When the threshold value used for detection is changed from a large threshold value to a small threshold value, the candidate area detected with the small threshold value becomes a partial area within the candidate area detected with the large threshold value. Therefore, a plurality of road plane candidate areas represented by a hierarchical structure as shown in FIG. 5 is obtained from the inclusion relationship between the candidate areas detected with a large threshold value and the candidate areas detected with a small threshold value. The candidate area A1 detected using the largest threshold is set as the highest hierarchy, and the candidate area A1 is divided into candidate areas B1 to B5 detected with the next largest threshold. For example, the candidate area B2 is Is divided into candidate areas C2 and C3 detected with a large threshold. A plurality of road plane candidate areas represented by a hierarchical structure are obtained from the inclusion relation of these candidate areas.
平面領域判定部38は、平面候補領域検出部36により得られる階層構造で表わされる複数の道路平面候補領域、対応点検索部22で検索された対応点の画像上の位置、及び3次元位置計算部26により計算された対応点の3次元位置に基づいて、以下に説明するように、道路平面候補領域の各々が、道路平面のみを表わす領域であるか否かを判定する。
The plane
得られた平面候補領域の階層構造を用いて、階層構造の上位にある道路平面候補領域から、順に、道路平面のみを表わしているか否かを判定する。まず、最も上位の階層に対応する道路平面候補領域A1が、道路平面のみを表わしているか、道路平面領域を含まないか、又は何れでもないかを判定する。この判定は、判定対象の道路平面候補領域内の特徴点が、道路平面上の点であるか否かにより行い、図6に示すように、各特徴点について、3次元位置に基づいて、道路平面上の点であるか否かが判定される。道路平面候補領域内の特徴点の全てについて、特徴点の3次元位置と道路平面との距離が閾値以下であれば、全ての特徴点が道路平面上の点のみから構成され、道路平面候補領域が道路平面のみを表わしていると判定される。また、道路平面候補領域内の特徴点の全てについて、特徴点の3次元位置と道路平面との距離が閾値より大きければ、全ての特徴点が道路平面上にない点であり、道路平面候補領域が道路平面領域を含まないと判定される。 Using the obtained hierarchical structure of the candidate plane area, it is determined whether or not only the road plane is represented in order from the candidate road plane area at the upper level of the hierarchical structure. First, it is determined whether the road plane candidate area A1 corresponding to the highest hierarchy represents only the road plane, does not include the road plane area, or neither. This determination is performed based on whether or not the feature point in the determination target road plane candidate region is a point on the road plane. As shown in FIG. It is determined whether the point is on the plane. For all feature points in the road plane candidate area, if the distance between the three-dimensional position of the feature point and the road plane is less than or equal to the threshold value, all the feature points are composed only of points on the road plane, and the road plane candidate area Is determined to represent only the road plane. Further, for all the feature points in the road plane candidate area, if the distance between the three-dimensional position of the feature point and the road plane is larger than the threshold, all the feature points are not on the road plane, and the road plane candidate area Is determined not to include the road plane area.
例えば、最上位の階層に対応する道路平面候補領域A1では、道路平面上の点と道路平面上にない点との両方を含むため、道路平面候補領域が、道路平面のみを表わす領域、及び道路平面領域を含む領域の何れでもない。このような場合には、不明であると判定し、階層構造において、道路平面候補領域A1の下位の階層に対応する道路平面候補領域の各々について、同様に上記の判定処理を行う。 For example, since the road plane candidate area A1 corresponding to the highest hierarchy includes both points on the road plane and points not on the road plane, the road plane candidate area includes an area representing only the road plane, and a road It is not any area including a planar area. In such a case, it is determined that it is unknown, and the above determination process is similarly performed for each of the road plane candidate areas corresponding to the hierarchy below the road plane candidate area A1 in the hierarchical structure.
例えば、最上位より1つ下位の階層に対応する道路平面候補領域B1には、道路平面上でない特徴点のみが含まれるので、道路平面領域を含まないと判定し、更に下位の階層に対応する道路平面候補領域C1については、上記の判定処理を行わない。また、最上位より1つ下位の階層に対応する他の道路平面候補領域B2には、道路平面上の特徴点と道路平面上でない特徴点との両方が含まれるので、不明であると判定し、更に一つ下位の階層に対応する道路平面候補領域C2、C3の各々について、上記の判定処理を行う。 For example, since the road plane candidate area B1 corresponding to the hierarchy one level lower than the highest level includes only feature points that are not on the road plane, it is determined not to include the road plane area, and further corresponds to the lower hierarchy. The above determination process is not performed for the road plane candidate region C1. Further, the other road plane candidate area B2 corresponding to the hierarchy one level lower than the highest level includes both feature points on the road plane and feature points not on the road plane, so it is determined that it is unknown. In addition, the above-described determination process is performed for each of the road plane candidate areas C2 and C3 corresponding to the next lower hierarchy.
このように、上記の判定処理で、道路平面候補領域について不明であると判定されれば、1つ下位の階層に対応する道路平面候補領域について判定処理を行い、道路平面候補領域が道路平面のみを表わす、又は道路平面領域を含まないと判定された場合には、更に下位の階層に対応する道路平面候補領域については、判定処理を行わない。これによって、図7に示すような、各道路平面候補領域に対する判定結果が得られる。 Thus, if it is determined that the road plane candidate area is unknown in the above determination process, the road plane candidate area corresponding to the next lower hierarchy is determined, and the road plane candidate area is only the road plane. Or the road plane candidate area corresponding to a lower hierarchy is not subjected to the determination process. As a result, the determination result for each road plane candidate region as shown in FIG. 7 is obtained.
領域統合部40は、図8(A)に示すような、平面領域判定部38によって道路平面のみを表わしていると判定された道路平面候補領域を統合して、図8(B)に示すような、統合された候補領域を、道路平面領域として推定する。
The
候補領域の統合処理は、以下に説明するように行う。平面領域のみを表わしていると判定されたn個の候補領域R1〜Rnが得られたとき、異なる2つの候補領域ペアRi,Rjについて、まず隣り合っているか否かを判定する。 The candidate area integration processing is performed as described below. When n candidate regions R1 to Rn determined to represent only a planar region are obtained, it is first determined whether or not two different candidate region pairs Ri and Rj are adjacent to each other.
隣り合っているか否かの判定は、Riの領域中心とRjの領域中心とを結ぶ直線が、Ri、Rj以外の候補領域を通るか否かで行う。中心を結ぶ直線が他の候補領域を通ることがなければ隣り合っていると判定し、他の候補領域を通れば隣り合っていないと判定する。Ri,Rjが隣り合っていなければ、他の候補領域ペアを選択して、上記の隣り合っているか否かの判定を行う。2つの候補領域Ri,Rjが隣り合っていれば、2つの候補領域の統合を行い、1つの領域とする。 Whether or not they are adjacent to each other is determined based on whether or not a straight line connecting the center of Ri and the center of Rj passes through candidate regions other than Ri and Rj. If the straight line connecting the centers does not pass through other candidate areas, it is determined that they are adjacent to each other, and if they pass through other candidate areas, it is determined that they are not adjacent. If Ri and Rj are not adjacent to each other, another candidate region pair is selected to determine whether or not they are adjacent to each other. If the two candidate areas Ri and Rj are adjacent to each other, the two candidate areas are integrated into one area.
領域統合部40は、上記の統合処理を、統合できる候補領域がなくなるまで繰り返し、統合された候補領域を、道路平面領域として推定し、表示装置16に出力する。
The
また、2つの候補領域の統合は、以下に説明するように行われる。2つの候補領域ペアRi,Rjを統合するときに、まず、一方の候補領域の境界上の点から、もう一方の候補領域の境界上の点のうち、最も近くなる点を求め、その2点を直線で結ぶ。得られた直線が2つの候補領域内を通らないなら、統合領域の境界候補となる直線の集合に、得られた直線を追加する。例えば、図9(A)に示すように、候補領域Riの境界上の点Pmから候補領域Rjの境界上の最も近い点を結ぶ直線は、候補領域Ri,Rjの内部を通らないので、統合領域の境界候補となる直線の集合に追加される。また、図9(B)に示すように、候補領域Riの境界上の点Pnから候補領域Rjの境界上の最も近い点を結んだ直線は、候補領域Riの内部を通るので、境界候補としない。 The integration of the two candidate areas is performed as described below. When integrating two candidate region pairs Ri and Rj, first, the closest point among the points on the boundary of one candidate region is obtained from the points on the boundary of one candidate region, and the two points Are connected by straight lines. If the obtained straight line does not pass through the two candidate areas, the obtained straight line is added to a set of straight lines that are boundary candidates of the integrated area. For example, as shown in FIG. 9A, a straight line connecting the point Pm on the boundary of the candidate area Ri and the closest point on the boundary of the candidate area Rj does not pass through the inside of the candidate areas Ri and Rj. It is added to the set of straight lines that are the region boundary candidates. Further, as shown in FIG. 9B, since a straight line connecting the point Pn on the boundary of the candidate area Ri and the closest point on the boundary of the candidate area Rj passes through the inside of the candidate area Ri, do not do.
以上のような処理を、候補領域Ri及びRjの境界上のすべての点について行って、統合領域の境界候補となる直線の集合を求める。 The process as described above is performed for all points on the boundary between the candidate areas Ri and Rj, and a set of straight lines as boundary candidates for the integrated area is obtained.
統合領域の境界候補となる直線の集合が得られると、境界候補となる直線の集合のうちの2本の直線を選択し、選択された2本の直線により囲まれる領域を統合領域としたときに、統合領域の面積が最大となるような2本の直線を特定する。例えば、図10(A)に示すような、境界候補の直線の集合が得られた場合には、直線L3とL5を選択すると、図10(B)に示すような統合領域が得られ、直線L1とL7を選択すると、図10(C)に示すような統合領域が得られる。この場合には、上記図10(C)のような統合領域の面積が最大となるので、統合領域の面積が最大となるような2本の直線として、直線L1とL7が特定される。 When a set of straight lines as boundary candidates for the integrated area is obtained, two straight lines are selected from the set of straight lines as boundary candidates, and the area surrounded by the selected two straight lines is set as the integrated area In addition, two straight lines that maximize the area of the integrated region are specified. For example, when a set of straight lines of boundary candidates as shown in FIG. 10A is obtained, if the straight lines L3 and L5 are selected, an integrated region as shown in FIG. When L1 and L7 are selected, an integrated region as shown in FIG. 10C is obtained. In this case, since the area of the integrated region as shown in FIG. 10C is maximized, the straight lines L1 and L7 are specified as two straight lines that maximize the area of the integrated region.
最後に、得られた統合領域から、道路平面領域でないと判定された道路平面候補領域と重なる領域を削除して、2つの候補領域ペアRi,Rjを統合した領域とする。 Finally, an area overlapping with the road plane candidate area determined not to be a road plane area is deleted from the obtained integrated area, and the two candidate area pairs Ri and Rj are integrated.
次に、本実施の形態に係る平面領域推定装置10の作用について説明する。なお、平面領域推定装置10を搭載した車両の走行中に、道路平面領域を推定する場合を例に説明する。
Next, the operation of the planar
まず、撮像装置12によって、自車両前方の連続撮像が開始されると、コンピュータ14において、図11に示す平面領域推定処理ルーチンが実行される。
First, when the
まず、ステップ100において、撮像装置12から、第1の位置及び第1の姿勢で撮像された第1の画像と、第2の位置及び第2の姿勢で撮像された第2の画像とを順に取得する。
First, in
そして、ステップ102において、上記ステップ100で取得した第1の画像と第2の画像との各々から特徴点を複数抽出し、ステップ104で、上記ステップ102で抽出された複数の特徴点から、第1の画像と第2の画像との間で対応する対応点を少なくとも8組検索する。そして、ステップ106において、上記ステップ104で検索された少なくとも8組の対応点の画像座標に基づいて、第1の画像を撮像したときの撮像装置12の位置姿勢を基準とした第2の画像を撮像したときの撮像装置12の位置姿勢の変化を表わす並進ベクトル及び回転行列を算出する。
In
そして、ステップ108において、上記ステップ106で算出された第1の画像と第2の画像との間における並進ベクトル及び回転行列、及び上記ステップ104で検索された第1の画像と第2の画像との各々における対応点の画像座標に基づいて、この対応点が示す特徴点の3次元座標を計算する。次のステップ110では、上記ステップ108で計算された、第1の画像の道路平面を表わす領域内の対応点が示す特徴点の3次元座標に基づいて、道路平面を表わすパラメータを推定する。
In
そして、ステップ112において、上記ステップ106で算出された第1の画像と第2の画像との間における並進ベクトル及び回転行列と、上記ステップ108で推定された道路平面を表わすパラメータとに基づいて、射影変換行列を算出する。ステップ114において、上記ステップ112で算出された射影変換行列に従って、第1の画像を変換する。
In
次のステップ116では、上記ステップ114で第1の画像を変換した変換画像と、上記ステップ100で取得した第2の画像との各画素の差分値を算出する。そして、ステップ118において、大きさが異なる複数の閾値の各々を用いて、上記ステップ116で算出された各画素の差分値から、階層構造で表わされる複数の道路平面候補領域を検出する。
In the
ステップ120において、階層構造の階層を示す変数nを初期値である1に設定すると共に、判定対象領域として、最も大きい閾値を用いて検出された少なくとも1つの道路平面候補領域を設定する。次に、ステップ122で、上記ステップ108で算出された対応点の3次元座標のうち、第n階層の判定対象領域である道路平面候補領域内の対応点の3次元座標に基づいて、第n階層の判定対象領域である道路平面候補領域が、道路平面のみを表わしているか、道路平面領域を含まないか、又は不明であるか(何れでもないか)を判定する。
In
そして、ステップ124において、上記ステップ122の第n階層の判定対象領域に対する判定において、不明であると判定された道路平面候補領域が存在するか否かを判定する。不明であると判定された道路平面候補領域が存在する場合には、ステップ126において、階層構造の階層を示す変数nをインクリメントし、ステップ128において、上記ステップ122において不明であると前回判定された道路平面候補領域内に存在する第n階層の道路平面候補領域を、第n階層の判定対象領域として設定して、ステップ122へ戻る。
In
上記ステップ124において、不明であると判定された道路平面候補領域が存在せず、第n階層の判定対象領域の全てについて、道路平面のみを表わしている、又は道路平面領域を含まないと判定された場合には、ステップ130へ移行する。また、上記ステップ124において、不明であると判定された道路平面候補領域が存在する場合であっても、一番小さい閾値を用いて検出された道路平面候補領域について、上記ステップ122の判定が行われた場合には、ステップ130へ移行する。
In
ステップ130では、上記ステップ122で道路平面のみを表わしていると判定された道路平面候補領域を統合して、道路平面領域として推定する。そして、ステップ132において、推定された道路平面領域を表示装置16に表示させて、平面領域推定処理ルーチンを終了する。
In
また、上記ステップ130は、図12に示す平面候補統合処理ルーチンによって実現される。まず、ステップ150において、上記ステップ122で道路平面のみを表わしていると判定された道路平面候補領域のうち、2つの道路平面候補領域のペアRi、Rj(1≦i,j≦n、i≠j)を選択する。そして、ステップ152において、上記ステップ150で選択された2つの道路平面候補領域のペアRi、Rjが隣り合っているか否かを判定する。2つの道路平面候補領域のペアRi、Rjが隣り合っていないと判定された場合には、上記ステップ150へ戻って、道路平面候補領域の別のペアを選択する。
The
一方、上記ステップ152で、2つの道路平面候補領域のペアRi、Rjが隣り合っていると判定された場合には、ステップ154において、2つの道路平面候補領域のペアRi、Rjを統合する。
On the other hand, if it is determined in
そして、ステップ156では、上記ステップ122で道路平面のみを表わしていると判定された道路平面候補領域のうち、全ての道路平面候補領域のペアについて、上記ステップ152の判定処理が行われたか否かを判定し、上記ステップ152の判定処理が行われていない道路平面候補領域のペアが存在する場合には、上記ステップ150へ戻り、道路平面候補領域の別のペアを選択する。一方、上記ステップ156において、全ての道路平面候補領域のペアについて、上記ステップ152の判定処理が行われた場合には、平面候補統合処理ルーチンを終了する。
In
上記ステップ154の処理は、図13に示す処理ルーチンによって実現される。まず、ステップ158において、一方の道路平面候補領域の境界上の点から、もう一方の道路平面候補領域の境界上の最も近い点までの直線を求める。ステップ160では、上記ステップ158で得られた直線が、どちらの道路平面候補領域内も通らないか否かを判定し、どちらの道路平面候補領域内も通らない場合には、統合領域の境界候補となる直線の集合に、上記ステップ158で得られた直線を追加する。
The processing in
そして、ステップ162において、一方の道路平面候補領域の全ての境界上の点について、上記ステップ158、160の処理を実行したか否かを判定する。全ての境界上の点について実行していない場合には、上記ステップ158へ戻り、一方の道路平面候補領域の境界上の他の点について、上記ステップ158、160の処理を実行する。
In
上記ステップ162で、全ての境界上の点について実行したと判定された場合には、ステップ164において、境界候補となる直線の集合から、2本の直線により囲まれる領域を統合領域としたときに統合領域の面積が最大となるような2本の直線を特定して、特定した2本の直線を統合領域の境界として、2つの道路平面候補領域を統合する。
If it is determined in
そして、ステップ166において、上記ステップ164で得られた統合領域から、上記ステップ122で道路平面領域を含まないと判定された道路平面候補領域と重なる領域を削除して、処理ルーチンを終了する。
In
以上説明したように、第1の実施の形態に係る平面領域推定装置によれば、第1の画像を変換した変換画像と第2の画像との各画素の差分から、大きさが異なる複数の閾値の各々を用いて検出された、階層構造で表わされる複数の平面候補領域について、検出に用いられた閾値の大きさの降順に、道路平面のみを表わしているか否かを順次判定して、なるべく大きい範囲の領域として、道路平面を表わす領域を検出することができる。また、パターンのない領域があっても、誤って道路平面を表わす領域として検出することを防止することができる。また、道路平面のみを表わす領域を統合して、道路平面を表わす領域を精度よく推定することができる。 As described above, according to the planar region estimation device according to the first embodiment, a plurality of different sizes are obtained from the difference between the pixels of the converted image obtained by converting the first image and the second image. For a plurality of candidate plane areas represented by a hierarchical structure detected using each of the threshold values, sequentially determine whether or not they represent only road planes in descending order of the threshold values used for detection, An area representing a road plane can be detected as an area as large as possible. Further, even if there is an area without a pattern, it can be prevented that it is erroneously detected as an area representing a road plane. In addition, it is possible to accurately estimate the area representing the road plane by integrating the areas representing only the road plane.
また、道路平面候補領域内の対応点の3次元位置に基づいて、道路平面候補領域が道路平面のみを表わしているか否かを精度よく判定することができる。 Further, based on the three-dimensional position of the corresponding point in the road plane candidate area, it can be accurately determined whether or not the road plane candidate area represents only the road plane.
次に、第2の実施の形態に係る平面領域推定装置について説明する。なお、第2の実施の形態に係る平面領域推定装置は、第1の実施の形態と同様の構成となっているため、同一符号を付して説明を省略する。 Next, a planar area estimation apparatus according to the second embodiment will be described. In addition, since the planar area estimation apparatus which concerns on 2nd Embodiment has the structure similar to 1st Embodiment, it attaches | subjects the same code | symbol and abbreviate | omits description.
第2の実施の形態では、オプティカルフローの近似式を利用して、第1の画像を変換している点が、第1の実施の形態と異なっている。 The second embodiment is different from the first embodiment in that the first image is converted using an optical flow approximation.
第2の実施の形態では、画像変換部32によって、第1の画像における道路平面を表わす領域を、第2の画像において道路平面が表されるべき領域に重ねるように変換するための変換を示すオプティカルフローの近似式を計算し、計算された近似式により、第1の画像を変換する。
In the second embodiment, the conversion for converting the area representing the road plane in the first image so as to overlap the area where the road plane should be represented in the second image is performed by the
位置姿勢算出部24により算出された第1の画像と第2の画像との間の位置及び姿勢の変化が、回転行列w=(wx,wy,wz)Tと並進ベクトルt=(tx,ty,tz)Tで表されるとき、道路平面AX+BY+CZ=1上にある点を投影した点p=(x,y)Tの画像間のオプティカルフローの近似式(u,v)Tは、以下の(17)式、(18)式により計算される。
Changes in the position and orientation between the first image and the second image calculated by the position /
上記(17)式、(18)式により、第1の画像における点p=(x,y)Tに対応する第2の画像上の点はp’=(x+u,y+v)Tとなる。上記(17)式、(18)式により、第1の画像の各画素について、変換画像において対応する画素を求め、第1の画像を変換して変換画像を生成する。 From the above equations (17) and (18), the point on the second image corresponding to the point p = (x, y) T in the first image is p ′ = (x + u, y + v) T. For each pixel of the first image, the corresponding pixel in the converted image is obtained by the above equations (17) and (18), and the converted image is generated by converting the first image.
なお、第2の実施の形態に係る平面領域推定装置の他の構成及び作用は、第1の実施の形態と同様であるため、説明を省略する。 In addition, since the other structure and effect | action of the planar area estimation apparatus which concern on 2nd Embodiment are the same as that of 1st Embodiment, description is abbreviate | omitted.
次に、第3の実施の形態に係る平面領域推定装置について説明する。なお、第1の実施の形態と同様の構成となっている部分については、同一符号を付して説明を省略する。 Next, a planar region estimation apparatus according to the third embodiment will be described. In addition, about the part which becomes the structure similar to 1st Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.
第3の実施の形態では、道路平面のみを表わしているか道路平面領域を含まないか不明であると前回判定された道路平面候補領域内から、閾値を用いて、道路平面候補領域を検出するようになっている点が、第1の実施の形態と異なっている。 In the third embodiment, a road plane candidate region is detected by using a threshold value from within a road plane candidate region that was previously determined to represent only a road plane or not include a road plane region. This is different from the first embodiment.
図14に示すように、第3の実施の形態に係る平面領域推定装置310のコンピュータ314は、画像入力部18と、特徴点抽出部20と、対応点検索部22と、位置姿勢算出部24と、3次元位置計算部26と、平面推定部30と、画像変換部32と、差分計算部34と、各画素の差分値に基づいて、後述する平面領域判定部38で不明であると前回判定された道路平面候補領域内から、道路平面候補領域を検出する平面候補領域検出部336と、平面候補領域検出部336によって検出された道路平面候補領域が道路平面のみを表わしている否かを判定する平面領域判定部338と、領域統合部40とを備えている。
As illustrated in FIG. 14, the
平面候補領域検出部336は、大きさが異なる複数の閾値について、大きい閾値から降順に、以下に説明するように、複数の道路平面候補領域を順次検出する。
The plane candidate
まず、各画素の差分値に基づいて、最も大きい閾値を用いて、差分値が閾値未満となる領域を、道路平面候補領域として検出する。 First, based on the difference value of each pixel, using the largest threshold value, an area where the difference value is less than the threshold value is detected as a road plane candidate area.
次に、前回の検出により得られた道路平面候補領域のうち、平面領域判定部338によって不明であると判定された道路平面候補領域内から、次に大きい閾値を用いて、差分値が閾値未満となる領域を、道路平面候補領域として検出する。
Next, among the road plane candidate areas obtained by the previous detection, the difference value is less than the threshold value using the next largest threshold value from within the road plane candidate area determined to be unknown by the plane
そして、平面領域判定部338によって不明であると判定された道路平面候補領域がなくなるまで、前回の検出により得られた道路平面候補領域のうち、平面領域判定部338によって不明であると判定された道路平面候補領域内から、次の大きい閾値を用いて、差分値が閾値未満となる領域を、道路平面候補領域として検出する検出処理を繰り返し行う。
Then, until there is no road plane candidate area determined to be unknown by the plane
平面領域判定部338は、平面候補領域検出部336によって道路平面候補領域が検出される毎に、対応点検索部22で検索された対応点の画像上の位置、及び3次元位置計算部26により計算された対応点の3次元位置に基づいて、検出された道路平面候補領域が、道路平面のみを表わしているか、道路平面領域を含まないか、又は不明であるか(何れでもないか)を判定する。
The plane
道路平面候補領域が不明であると判定されれば、上記の平面候補領域検出部336によって、不明であると判定された道路平面候補領域内から、閾値を用いて、再び道路平面候補領域が検出される。一方、道路平面候補領域が道路平面のみを表わしている、又は道路平面領域を含まないと判定された場合には、その道路平面候補領域内から、平面候補領域検出部336によって道路平面候補領域が検出されない。
If it is determined that the road plane candidate area is unknown, the road plane candidate area is detected again from the road plane candidate area determined to be unknown by the plane candidate
次に、第3の実施の形態に係る平面領域推定処理ルーチンについて、図15を用いて説明する。なお、第1の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。 Next, a planar area estimation processing routine according to the third embodiment will be described with reference to FIG. In addition, about the process similar to 1st Embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.
まず、ステップ100において、撮像装置12から、第1の画像と第2の画像とを順に取得し、ステップ102において、取得した第1の画像と第2の画像との各々から特徴点を複数抽出し、ステップ104で、抽出された複数の特徴点から、第1の画像と第2の画像との間で対応する対応点を少なくとも8組検索する。そして、ステップ106において、第1の画像を撮像したときの撮像装置12の位置姿勢を基準とした第2の画像を撮像したときの撮像装置12の位置姿勢の変化を表わす並進ベクトル及び回転行列を算出する。
First, in
そして、ステップ108において、対応点が示す特徴点の3次元座標を計算する。次のステップ110では、道路平面を表わすパラメータを推定する。ステップ112において、射影変換行列を算出し、ステップ114において、算出された射影変換行列に従って、第1の画像を変換する。
In
次のステップ116では、第1の画像を変換した変換画像と第2の画像との各画素の差分値を算出する。そして、ステップ350において、閾値を識別するための変数nを初期値である1に設定し、ステップ352において、最も大きい閾値(n番目に大きい閾値)を用いて、上記ステップ116で算出された各画素の差分値から、道路平面候補領域を検出する。
In the
次のステップ354では、上記ステップ108で算出された対応点の3次元座標のうち、上記ステップ352又は後述するステップ356でn番目に大きい閾値を用いて検出された道路平面候補領域内の対応点の3次元座標に基づいて、n番目に大きい閾値を用いて検出された道路平面候補領域の各々が、道路平面のみを表わしているか、道路平面領域を含まないか、又は不明であるか(何れでもないか)を判定する。
In the
そして、ステップ124において、上記ステップ354の判定において、不明であると判定された道路平面候補領域が存在するか否かを判定する。不明であると判定された道路平面候補領域が存在する場合には、ステップ356において、閾値を識別する変数nをインクリメントする。そして、ステップ358において、上記ステップ354において不明であると前回判定された各道路平面候補領域内の各画素の差分値から、n番目に大きい閾値を用いて、道路平面候補領域を各々検出して、ステップ354へ戻る。
Then, in
上記ステップ124において、不明であると判定された道路平面候補領域が存在せず、n番目に大きい閾値を用いて検出された道路平面候補領域の全てについて、道路平面のみを表わしている、又は道路平面領域を含まないと判定された場合には、ステップ130へ移行する。また、上記ステップ124において、不明であると判定された道路平面候補領域が存在する場合であっても、一番小さい閾値を用いて検出された道路平面候補領域について、上記ステップ354の判定が行われた場合には、ステップ130へ移行する。
In
ステップ130では、上記ステップ122で道路平面のみを表わしていると判定された道路平面候補領域を統合して、道路平面領域として推定する。そして、ステップ132において、推定された道路平面領域を表示装置16に表示させて、平面領域推定処理ルーチンを終了する。
In
以上説明したように、第3の実施の形態に係る平面領域推定装置によれば、第1の画像を変換した変換画像と第2の画像との各画素の差分から、大きさが異なる複数の閾値の降順に、閾値を用いて道路平面候補領域を検出して、道路平面のみを表わしているか否かを順次判定して、なるべく大きい範囲の領域として、道路平面を表わす領域を検出することができる。また、パターンのない領域があっても、誤って道路平面を表わす領域として検出することを防止することができる。また、道路平面のみを表わす領域を統合して、道路平面を表わす領域を精度よく推定することができる。 As described above, according to the planar region estimation device according to the third embodiment, a plurality of different sizes are obtained from the difference between each pixel of the converted image obtained by converting the first image and the second image. A road plane candidate area is detected using threshold values in descending order of threshold values, and it is sequentially determined whether or not only a road plane is represented, and an area representing a road plane is detected as an area as large as possible. it can. Further, even if there is an area without a pattern, it can be prevented that it is erroneously detected as an area representing a road plane. In addition, it is possible to accurately estimate the area representing the road plane by integrating the areas representing only the road plane.
なお、上記の第1の実施の形態〜第3の実施の形態では、2つの画像から抽出された複数の特徴点から、2つの画像の間で対応する点を検索する場合を例に説明したが、2つの画像の一方の画像から特徴点を抽出し、他方の画像から、抽出された特徴点に対応する対応点を検索するようにしてもよい。 In the first to third embodiments, the case where a corresponding point is searched between two images from a plurality of feature points extracted from the two images has been described as an example. However, a feature point may be extracted from one of the two images, and a corresponding point corresponding to the extracted feature point may be searched from the other image.
また、上記の実施の形態では、撮像装置の位置姿勢の変化を表わすものとして、並進ベクトル及び回転行列を算出する場合を例に説明したが、これに限定されるものではなく、撮像装置の位置姿勢の変化を表わすものとして他の指標を算出するようにしてもよい。 Further, in the above embodiment, the case where the translation vector and the rotation matrix are calculated as an example representing the change in the position and orientation of the imaging device has been described. However, the present invention is not limited to this, and the position of the imaging device Another index may be calculated as representing a change in posture.
また、平面領域推定処理ルーチンにおいて、一番小さい閾値を用いて検出された道路平面候補領域についても、不明であると判定された場合には、道路平面候補領域の検出及び道路平面を表わす領域であるかの判定の繰り返しを終了する場合を例に説明したが、これに限定されるものではなく、更に小さい閾値を新たに用意して、道路平面候補領域を検出し、道路平面を表わす領域であるかの判定を行うようにしてもよい。 Also, in the plane area estimation processing routine, if it is determined that the road plane candidate area detected using the smallest threshold is also unknown, the road plane candidate area is detected and an area representing the road plane is displayed. The case where the repetition of the determination of the end is described as an example. However, the present invention is not limited to this, and a new lower threshold is prepared to detect a road plane candidate area, and an area representing the road plane is used. You may make it determine whether there exists.
10、310 平面領域推定装置
12 撮像装置
14、314 コンピュータ
20 特徴点抽出部
22 対応点検索部
24 位置姿勢算出部
26 3次元位置計算部
30 平面推定部
32 画像変換部
34 差分計算部
36、336 平面候補領域検出部
38、338 平面領域判定部
40 領域統合部
DESCRIPTION OF SYMBOLS 10,310 Planar
Claims (9)
前記撮像手段が第1の位置及び第1の姿勢となっているときに前記撮像手段によって撮像された第1画像における推定対象平面を表わす領域を、前記第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢で前記撮像手段によって撮像された第2画像において推定対象平面が表されるべき領域に変換するための変換によって、前記第1画像を変換する画像変換手段と、
前記画像変換手段によって変換された前記第1画像と前記第2画像とに基づいて、各画素について画素値の差分を算出する差分算出手段と、
大きさが異なる複数の閾値の各々を用いて、前記算出された画素値の差分が前記閾値未満となる領域を平面候補領域として検出する領域検出手段と、
最も大きい閾値を用いて検出された前記平面候補領域の各々が推定対象平面のみを表わしているか否かを判定し、次に大きい閾値から降順に、前記閾値を用いて検出された前記平面候補領域のうち、前記推定対象平面のみを表していないと前回判定された前記平面候補領域内から検出された前記平面候補領域の各々について、前記推定対象平面のみを表わしているか否かを判定する判定を順次行う判定手段と、
前記判定手段によって前記推定対象平面のみを表わしていると判定された平面候補領域を統合して、前記推定対象平面を表わす領域を推定する領域推定手段と、
を含む平面領域推定装置。 An imaging unit mounted on a moving body that outputs a plurality of images obtained by imaging a range including the estimation target plane;
An area representing the estimation target plane in the first image captured by the imaging unit when the imaging unit is in the first position and the first orientation is different from the first position and the first orientation. Image conversion means for converting the first image by conversion for converting into an area in which the estimation target plane is to be represented in the second image captured by the imaging means at the second position and the second orientation;
Difference calculating means for calculating a difference in pixel value for each pixel based on the first image and the second image converted by the image converting means;
Using each of a plurality of thresholds having different sizes, an area detection unit that detects an area where the difference between the calculated pixel values is less than the threshold as a plane candidate area;
It is determined whether each of the plane candidate areas detected using the largest threshold represents only the estimation target plane, and the plane candidate areas detected using the threshold in descending order from the next largest threshold Determining whether or not each of the plane candidate areas detected from within the plane candidate area previously determined as not representing only the estimation target plane represents only the estimation target plane. Sequential determination means;
Area estimation means for integrating the plane candidate areas determined to represent only the estimation target plane by the determination means and estimating the area representing the estimation target plane;
A plane region estimation apparatus including:
前記撮像手段が第1の位置及び第1の姿勢となっているときに前記撮像手段によって撮像された第1画像における推定対象平面を表わす領域を、前記第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢で前記撮像手段によって撮像された第2画像において推定対象平面が表されるべき領域に変換するための変換によって、前記第1画像を変換する画像変換手段と、
前記画像変換手段によって変換された前記第1画像と前記第2画像とに基づいて、各画素について画素値の差分を算出する差分算出手段と、
大きさが異なる複数の閾値のうち最も大きい閾値を用いて、前記算出された画素値の差分が前記閾値未満となる領域を平面候補領域として検出すると共に、前記平面候補領域が推定対象平面のみを表わしているか否かを判定し、次に大きい閾値から降順に、前記推定対象平面のみを表していないと前回判定された前記平面候補領域内から、前記閾値を用いて、前記算出された画素値の差分が前記閾値未満となる領域を平面候補領域として検出すると共に、前記平面候補領域が推定対象平面のみを表わしているか否かを判定する判定を順次行う判定手段と、
前記判定手段によって前記推定対象平面のみを表わしていると判定された平面候補領域を統合して、前記推定対象平面を表わす領域を推定する領域推定手段と、
を含む平面領域推定装置。 An imaging unit mounted on a moving body that outputs a plurality of images obtained by imaging a range including the estimation target plane;
The region representing the estimation target plane in the first image captured by the imaging unit when the imaging unit is in the first position and the first orientation is different from the first position and the first orientation. Image conversion means for converting the first image by conversion for converting to an area in which the estimation target plane is to be represented in the second image imaged by the imaging means at the second position and the second orientation;
Difference calculating means for calculating a difference in pixel value for each pixel based on the first image and the second image converted by the image converting means;
Using a largest threshold value among a plurality of threshold values having different sizes, an area where the difference between the calculated pixel values is less than the threshold value is detected as a plane candidate area, and the plane candidate area includes only an estimation target plane. The calculated pixel value is determined using the threshold value from within the plane candidate region that was previously determined not to represent only the estimation target plane in descending order from the next largest threshold value. A determination unit that sequentially detects a region where the difference is less than the threshold as a plane candidate region and determines whether or not the plane candidate region represents only the estimation target plane;
Area estimation means for integrating the plane candidate areas determined to represent only the estimation target plane by the determination means and estimating the area representing the estimation target plane;
A plane region estimation apparatus including:
前記検索手段によって検索された前記対応した点に基づいて、前記第1の位置及び第1の姿勢と前記第2の位置及び第2の姿勢との相対関係を算出する位置姿勢算出手段と、
前記検索手段によって検索された前記対応した点と前記位置姿勢算出手段によって算出された相対関係とに基づいて、前記第1画像における推定対象平面上の特徴点の3次元位置を算出する位置算出手段と、
前記位置算出手段によって算出された前記推定対象平面上の特徴点の3次元位置に基づいて、前記推定対象平面を表わすパラメータを算出する平面パラメータ算出手段とを更に含み、
前記画像変換手段は、前記位置姿勢算出手段によって算出された相対関係、及び前記平面パラメータ算出手段によって算出された前記推定対象平面を表わすパラメータに基づいて、前記変換の変換行列を算出し、前記変換行列に基づいて、前記第1画像を変換する請求項1〜請求項4の何れか1項記載の平面領域推定装置。 Search means for searching for a point that is a feature point and corresponds between the first image and the second image from each of the first image and the second image imaged by the imaging means;
Position and orientation calculation means for calculating a relative relationship between the first position and the first attitude and the second position and the second attitude based on the corresponding points searched by the search means;
Position calculation means for calculating a three-dimensional position of a feature point on the estimation target plane in the first image based on the corresponding point searched by the search means and the relative relationship calculated by the position and orientation calculation means. When,
Plane parameter calculation means for calculating a parameter representing the estimation target plane based on the three-dimensional position of the feature point on the estimation target plane calculated by the position calculation means;
The image conversion unit calculates a conversion matrix of the conversion based on the relative relationship calculated by the position and orientation calculation unit and a parameter representing the estimation target plane calculated by the plane parameter calculation unit, and the conversion The planar area estimation apparatus according to claim 1, wherein the first image is converted based on a matrix.
前記検索手段によって検索された前記対応した点に基づいて、前記第1の位置及び第1の姿勢と前記第2の位置及び第2の姿勢との相対関係を算出する位置姿勢算出手段と、
前記検索手段によって検索された前記対応した点と前記位置姿勢算出手段によって算出された相対関係とに基づいて、前記検索手段によって検索された前記対応した点の3次元位置を算出する位置算出手段とを更に含み、
前記判定手段は、前記平面候補領域内の前記対応した点の3次元位置に基づいて、前記平面候補領域が前記推定対象平面のみを表わしているか否かを判定する請求項1〜請求項5の何れか1項記載の平面領域推定装置。 Search means for searching for a point that is a feature point and corresponds between the first image and the second image from each of the first image and the second image imaged by the imaging means;
Position and orientation calculation means for calculating a relative relationship between the first position and the first attitude and the second position and the second attitude based on the corresponding points searched by the search means;
Position calculating means for calculating a three-dimensional position of the corresponding point searched by the searching means based on the corresponding point searched by the searching means and the relative relation calculated by the position and orientation calculating means; Further including
6. The determination unit according to claim 1, wherein the determination unit determines whether the plane candidate area represents only the estimation target plane based on a three-dimensional position of the corresponding point in the plane candidate area. The planar area estimation apparatus according to any one of the preceding claims.
推定対象平面を含む範囲を撮像した複数の画像を出力する移動体に搭載された撮像手段が第1の位置及び第1の姿勢となっているときに前記撮像手段によって撮像された第1画像における推定対象平面を表わす領域を、前記第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢で前記撮像手段によって撮像された第2画像において推定対象平面が表されるべき領域に変換するための変換によって、前記第1画像を変換する画像変換手段、
前記画像変換手段によって変換された前記第1画像と前記第2画像とに基づいて、各画素について画素値の差分を算出する差分算出手段、
大きさが異なる複数の閾値の各々を用いて、前記算出された画素値の差分が前記閾値未満となる領域を平面候補領域として検出する領域検出手段、
最も大きい閾値を用いて検出された前記平面候補領域の各々が推定対象平面のみを表わしているか否かを判定し、次に大きい閾値から降順に、前記閾値を用いて検出された前記平面候補領域のうち、前記推定対象平面のみを表していないと前回判定された前記平面候補領域内から検出された前記平面候補領域の各々について、前記推定対象平面のみを表わしているか否かを判定する判定を順次行う判定手段、及び
前記判定手段によって前記推定対象平面のみを表わしていると判定された平面候補領域を統合して、前記推定対象平面を表わす領域を推定する領域推定手段
として機能させるためのプログラム。 Computer
In the first image imaged by the imaging means when the imaging means mounted on the moving body that outputs a plurality of images obtained by imaging the range including the estimation target plane is in the first position and the first posture. An area representing the estimation target plane is an area in which the estimation target plane is to be represented in the second image captured by the imaging unit at a second position and a second attitude different from the first position and the first attitude. Image converting means for converting the first image by conversion for converting to
A difference calculating means for calculating a difference between pixel values for each pixel based on the first image and the second image converted by the image converting means;
An area detecting means for detecting, as a plane candidate area, an area where the difference between the calculated pixel values is less than the threshold using each of a plurality of thresholds having different sizes.
It is determined whether each of the plane candidate areas detected using the largest threshold represents only the estimation target plane, and the plane candidate areas detected using the threshold in descending order from the next largest threshold Determining whether or not each of the plane candidate areas detected from within the plane candidate area previously determined as not representing only the estimation target plane represents only the estimation target plane. Sequential determination means, and a program for functioning as a region estimation means for estimating a region representing the estimation target plane by integrating the plane candidate areas determined to represent only the estimation target plane by the determination means .
推定対象平面を含む範囲を撮像した複数の画像を出力する移動体に搭載された撮像手段が第1の位置及び第1の姿勢となっているときに前記撮像手段によって撮像された第1画像における推定対象平面を表わす領域を、前記第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢で前記撮像手段によって撮像された第2画像において推定対象平面が表されるべき領域に変換するための変換によって、前記第1画像を変換する画像変換手段、
前記画像変換手段によって変換された前記第1画像と前記第2画像とに基づいて、各画素について画素値の差分を算出する差分算出手段、
大きさが異なる複数の閾値のうち最も大きい閾値を用いて、前記算出された画素値の差分が前記閾値未満となる領域を平面候補領域として検出すると共に、前記平面候補領域が推定対象平面のみを表わしているか否かを判定し、次に大きい閾値から降順に、前記推定対象平面のみを表していないと前回判定された前記平面候補領域内から、前記閾値を用いて、前記算出された画素値の差分が前記閾値未満となる領域を平面候補領域として検出すると共に、前記平面候補領域が推定対象平面のみを表わしているか否かを判定する判定を順次行う判定手段、及び
前記判定手段によって前記推定対象平面のみを表わしていると判定された平面候補領域を統合して、前記推定対象平面を表わす領域を推定する領域推定手段
として機能させるためのプログラム。 Computer
In the first image imaged by the imaging means when the imaging means mounted on the moving body that outputs a plurality of images obtained by imaging the range including the estimation target plane is in the first position and the first posture. An area representing the estimation target plane is an area in which the estimation target plane is to be represented in the second image captured by the imaging unit at a second position and a second attitude different from the first position and the first attitude. Image converting means for converting the first image by conversion for converting to
A difference calculating means for calculating a difference between pixel values for each pixel based on the first image and the second image converted by the image converting means;
Using a largest threshold value among a plurality of threshold values having different sizes, an area where the difference between the calculated pixel values is less than the threshold value is detected as a plane candidate area, and the plane candidate area includes only an estimation target plane. The calculated pixel value is determined using the threshold value from within the plane candidate region that was previously determined not to represent only the estimation target plane in descending order from the next largest threshold value. An area where the difference between the two is less than the threshold is detected as a plane candidate area, and a determination unit that sequentially determines whether the plane candidate area represents only the estimation target plane, and the estimation by the determination unit A plan for functioning as an area estimation means for integrating the plane candidate areas determined to represent only the target plane and estimating the area representing the estimation target plane. Grams.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008166325A JP4935769B2 (en) | 2008-06-25 | 2008-06-25 | Plane region estimation apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008166325A JP4935769B2 (en) | 2008-06-25 | 2008-06-25 | Plane region estimation apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010009236A true JP2010009236A (en) | 2010-01-14 |
JP4935769B2 JP4935769B2 (en) | 2012-05-23 |
Family
ID=41589670
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008166325A Expired - Fee Related JP4935769B2 (en) | 2008-06-25 | 2008-06-25 | Plane region estimation apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4935769B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012168788A (en) * | 2011-02-15 | 2012-09-06 | Toyota Central R&D Labs Inc | Motion estimation device and program |
JP2014199586A (en) * | 2013-03-29 | 2014-10-23 | 株式会社パスコ | Unevenness extraction device for multi-plane structure, unevenness extraction method for multi-plane structure, and program |
WO2015079533A1 (en) * | 2013-11-28 | 2015-06-04 | パイオニア株式会社 | Detection device, detection method, detection program, and recording medium |
JP2018010601A (en) * | 2016-07-15 | 2018-01-18 | セコム株式会社 | Image processing device |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105975957B (en) * | 2016-05-30 | 2019-02-05 | 大连理工大学 | A kind of road plane detection method based on lane line edge |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001283204A (en) * | 2000-03-31 | 2001-10-12 | Toshiba Corp | Obstacle detector |
JP2004180036A (en) * | 2002-11-27 | 2004-06-24 | Toyota Central Res & Dev Lab Inc | Parallax search method and parallax search device |
JP2007041657A (en) * | 2005-07-29 | 2007-02-15 | Sony Corp | Moving body control method, and moving body |
-
2008
- 2008-06-25 JP JP2008166325A patent/JP4935769B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001283204A (en) * | 2000-03-31 | 2001-10-12 | Toshiba Corp | Obstacle detector |
JP2004180036A (en) * | 2002-11-27 | 2004-06-24 | Toyota Central Res & Dev Lab Inc | Parallax search method and parallax search device |
JP2007041657A (en) * | 2005-07-29 | 2007-02-15 | Sony Corp | Moving body control method, and moving body |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012168788A (en) * | 2011-02-15 | 2012-09-06 | Toyota Central R&D Labs Inc | Motion estimation device and program |
JP2014199586A (en) * | 2013-03-29 | 2014-10-23 | 株式会社パスコ | Unevenness extraction device for multi-plane structure, unevenness extraction method for multi-plane structure, and program |
WO2015079533A1 (en) * | 2013-11-28 | 2015-06-04 | パイオニア株式会社 | Detection device, detection method, detection program, and recording medium |
JP2018010601A (en) * | 2016-07-15 | 2018-01-18 | セコム株式会社 | Image processing device |
Also Published As
Publication number | Publication date |
---|---|
JP4935769B2 (en) | 2012-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5671281B2 (en) | Position / orientation measuring apparatus, control method and program for position / orientation measuring apparatus | |
JP4809291B2 (en) | Measuring device and program | |
JP5618569B2 (en) | Position and orientation estimation apparatus and method | |
JP5297403B2 (en) | Position / orientation measuring apparatus, position / orientation measuring method, program, and storage medium | |
JP5832341B2 (en) | Movie processing apparatus, movie processing method, and movie processing program | |
CN111210477B (en) | Method and system for positioning moving object | |
CN103959307B (en) | The method of detection and Expressive Features from gray level image | |
CN110044374B (en) | Image feature-based monocular vision mileage measurement method and odometer | |
CN102788572B (en) | Method, device and system for measuring attitude of engineering machinery lifting hook | |
JP5262705B2 (en) | Motion estimation apparatus and program | |
JP4935769B2 (en) | Plane region estimation apparatus and program | |
El Bouazzaoui et al. | Enhancing RGB-D SLAM performances considering sensor specifications for indoor localization | |
JP5652239B2 (en) | Motion estimation apparatus and program | |
KR20100128919A (en) | System and method for automatic measuring of the stair dimensions using a single camera and a laser | |
JP6410231B2 (en) | Alignment apparatus, alignment method, and computer program for alignment | |
JP5515018B2 (en) | Environment recognition device | |
Sun et al. | High-accuracy three-dimensional measurement based on multi-directional cooperative target with weighted SfM algorithm | |
JP2015111128A (en) | Position attitude measurement device, position attitude measurement method, and program | |
JP2010066595A (en) | Environment map generating device and environment map generating method | |
JP2018195070A (en) | Information processing apparatus, information processing method, and program | |
JP5267100B2 (en) | Motion estimation apparatus and program | |
JP5656018B2 (en) | Sphere detection method | |
JP5032415B2 (en) | Motion estimation apparatus and program | |
JP5359477B2 (en) | Road area estimation apparatus and program | |
JP4622889B2 (en) | Image processing apparatus and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110310 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120124 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120206 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150302 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150302 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |