JP2010009236A - Plane area estimation device and program - Google Patents

Plane area estimation device and program Download PDF

Info

Publication number
JP2010009236A
JP2010009236A JP2008166325A JP2008166325A JP2010009236A JP 2010009236 A JP2010009236 A JP 2010009236A JP 2008166325 A JP2008166325 A JP 2008166325A JP 2008166325 A JP2008166325 A JP 2008166325A JP 2010009236 A JP2010009236 A JP 2010009236A
Authority
JP
Japan
Prior art keywords
plane
area
image
estimation target
target plane
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008166325A
Other languages
Japanese (ja)
Other versions
JP4935769B2 (en
Inventor
Koichiro Yamaguchi
晃一郎 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2008166325A priority Critical patent/JP4935769B2/en
Publication of JP2010009236A publication Critical patent/JP2010009236A/en
Application granted granted Critical
Publication of JP4935769B2 publication Critical patent/JP4935769B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To estimate an area representing an estimation target plane with high accuracy even if there is an area having no pattern. <P>SOLUTION: A first image and a second image are imaged in different positions/attitudes by an imaging device 12, and the first image is transformed by a projective transformation matrix, by an image transformation part 32. A difference of each pixel between a transformed image and the second image is calculated by a difference calculation part 34, and a plurality of road plane candidate areas represented by a hierarchical structure are detected by use of each of a plurality of threshold values by a plane candidate area detection part 36. By a plane area decision part 38, it is sequentially decided whether or not each of the road plane candidate areas inside the road plane candidate areas decided last time that each of them does not represent only a road plane among the road plane candidate areas detected by use of the threshold values in descending order from the largest threshold value represents only the road plane. By an area integration part 40, the road plane candidate areas decided that each of them represents only the road plane are integrated, and a road plane area is estimated. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、平面領域推定装置及びプログラムに係り、特に、推定対象平面を表わす領域を推定する平面領域推定装置及びプログラムに関する。   The present invention relates to a plane area estimation apparatus and program, and more particularly, to a plane area estimation apparatus and program for estimating an area representing an estimation target plane.

従来より、複数の線を有する路面と路面上に存在する障害物を区別するため、路面上の特徴点から射影変換行列を求め、射影変換画像との差分を計算したときの各点の値の大きさにより路面か障害物かを判定する障害物検出装置が知られている(特許文献1)。   Conventionally, in order to distinguish a road surface having a plurality of lines from obstacles existing on the road surface, a projection transformation matrix is obtained from feature points on the road surface, and the value of each point when the difference from the projection transformation image is calculated. An obstacle detection device that determines whether the road surface is an obstacle or not is known (Patent Document 1).

また、2台のカメラから平面の射影変換行列を推定し、推定した射影変換行列により一方のカメラの画像を変換し、もう一方のカメラの画像との差分をとることにより、平面領域を検出する平面検出装置が知られている(特許文献2)。   In addition, a planar projection transformation matrix is estimated from two cameras, an image of one camera is transformed by the estimated projection transformation matrix, and a difference from the image of the other camera is taken to detect a planar region. A flat surface detector is known (Patent Document 2).

上記の特許文献1、2に記載の技術では、平面の射影変換行列を求め、射影変換行列により変換した画像を用いて差分計算により平面領域を検出している。
特開2000−293693号公報 特開2006−53754号公報
In the techniques described in Patent Documents 1 and 2, a planar projection transformation matrix is obtained, and a planar region is detected by difference calculation using an image transformed by the projection transformation matrix.
JP 2000-293893 A JP 2006-53754 A

しかしながら、上記の特許文献1、2に記載の技術では、パターンのない領域について、変換によりずれが生じても、差分値に変化が出ないため、平面領域であるか否かを精度よく判定することができない、という問題がある。   However, in the techniques described in Patent Documents 1 and 2 described above, even if a shift occurs due to conversion in an area without a pattern, the difference value does not change. There is a problem that can not be.

本発明は、上記の問題点を解決するためになされたもので、パターンのない領域があっても、推定対象平面を表わす領域を精度よく推定することができる平面領域推定装置及びプログラムを提供することを目的とする。   The present invention has been made to solve the above problems, and provides a plane area estimation apparatus and program capable of accurately estimating an area representing an estimation target plane even if there is an area without a pattern. For the purpose.

上記の目的を達成するために第1の発明に係る平面領域推定装置は、推定対象平面を含む範囲を撮像した複数の画像を出力する移動体に搭載された撮像手段と、前記撮像手段が第1の位置及び第1の姿勢となっているときに前記撮像手段によって撮像された第1画像における推定対象平面を表わす領域を、前記第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢で前記撮像手段によって撮像された第2画像において推定対象平面が表されるべき領域に変換するための変換によって、前記第1画像を変換する画像変換手段と、前記画像変換手段によって変換された前記第1画像と前記第2画像とに基づいて、各画素について画素値の差分を算出する差分算出手段と、大きさが異なる複数の閾値の各々を用いて、前記算出された画素値の差分が前記閾値未満となる領域を平面候補領域として検出する領域検出手段と、最も大きい閾値を用いて検出された前記平面候補領域の各々が推定対象平面のみを表わしているか否かを判定し、次に大きい閾値から降順に、前記閾値を用いて検出された前記平面候補領域のうち、前記推定対象平面のみを表していないと前回判定された前記平面候補領域内から検出された前記平面候補領域の各々について、前記推定対象平面のみを表わしているか否かを判定する判定を順次行う判定手段と、前記判定手段によって前記推定対象平面のみを表わしていると判定された平面候補領域を統合して、前記推定対象平面を表わす領域を推定する領域推定手段とを含んで構成されている。   In order to achieve the above object, a planar region estimation apparatus according to a first aspect of the present invention includes an imaging unit mounted on a moving body that outputs a plurality of images obtained by imaging a range including an estimation target plane, and the imaging unit includes An area representing the estimation target plane in the first image captured by the imaging unit when the first position and the first attitude are set is a second position different from the first position and the first attitude, and An image converting means for converting the first image by a conversion for converting into an area in which the estimation target plane is to be represented in the second image imaged by the imaging means in the second posture; and the image converting means. Based on the converted first image and the second image, difference calculation means for calculating a difference between pixel values for each pixel, and each of a plurality of thresholds having different sizes is used to calculate the calculated pixel. value Determining whether or not each of the plane candidate areas detected using the largest threshold represents only the estimation target plane, as an area detection means for detecting an area where the difference is less than the threshold as a plane candidate area; Of the plane candidate areas detected using the threshold value in descending order from the next largest threshold value, the plane candidate areas detected from the plane candidate area previously determined not to represent only the estimation target plane. A determination means for sequentially determining whether or not only the estimation target plane is represented, and a plane candidate area determined by the determination means to represent only the estimation target plane. And an area estimation means for estimating an area representing the estimation target plane.

また、第2の発明に係るプログラムは、コンピュータを、推定対象平面を含む範囲を撮像した複数の画像を出力する移動体に搭載された撮像手段が第1の位置及び第1の姿勢となっているときに前記撮像手段によって撮像された第1画像における推定対象平面を表わす領域を、前記第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢で前記撮像手段によって撮像された第2画像において推定対象平面が表されるべき領域に変換するための変換によって、前記第1画像を変換する画像変換手段、前記画像変換手段によって変換された前記第1画像と前記第2画像とに基づいて、各画素について画素値の差分を算出する差分算出手段、大きさが異なる複数の閾値の各々を用いて、前記算出された画素値の差分が前記閾値未満となる領域を平面候補領域として検出する領域検出手段、最も大きい閾値を用いて検出された前記平面候補領域の各々が推定対象平面のみを表わしているか否かを判定し、次に大きい閾値から降順に、前記閾値を用いて検出された前記平面候補領域のうち、前記推定対象平面のみを表していないと前回判定された前記平面候補領域内から検出された前記平面候補領域の各々について、前記推定対象平面のみを表わしているか否かを判定する判定を順次行う判定手段、及び前記判定手段によって前記推定対象平面のみを表わしていると判定された平面候補領域を統合して、前記推定対象平面を表わす領域を推定する領域推定手段として機能させるためのプログラムである。   In the program according to the second invention, the imaging means mounted on the moving body that outputs a plurality of images obtained by imaging the range including the estimation target plane is in the first position and the first posture. A region representing the estimation target plane in the first image picked up by the image pickup means is picked up by the image pickup means at a second position and a second posture different from the first position and the first posture. In addition, the first image and the second image converted by the image converting means for converting the first image by conversion for converting into an area in which the estimation target plane is to be represented in the second image. Based on the above, a difference calculation means for calculating a difference between pixel values for each pixel, and a region where the difference between the calculated pixel values is less than the threshold using each of a plurality of thresholds having different sizes Area detection means for detecting as a plane candidate area, whether or not each of the plane candidate areas detected using the largest threshold represents only the estimation target plane, and in descending order from the next largest threshold For each of the plane candidate areas detected from within the plane candidate area that was previously determined as not representing only the estimation target plane among the plane candidate areas detected by using only the estimation target plane A determination means for sequentially determining whether or not the object is represented; and a candidate plane region determined to represent only the estimation target plane by the determination means is integrated to estimate an area representing the estimation target plane It is a program for functioning as a region estimation means.

第1の発明及び第2の発明によれば、移動体に搭載された撮像手段によって、推定対象平面を含む範囲を撮像した複数の画像を出力する。そして、画像変換手段によって、撮像手段が第1の位置及び第1の姿勢となっているときに撮像手段によって撮像された第1画像における推定対象平面を表わす領域を、第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢で撮像手段によって撮像された第2画像において推定対象平面が表されるべき領域に変換するための変換によって、第1画像を変換する。   According to the first invention and the second invention, a plurality of images obtained by imaging a range including the estimation target plane are output by the imaging means mounted on the moving body. Then, the region representing the estimation target plane in the first image picked up by the image pickup means when the image pickup means is in the first position and the first posture by the image conversion means is set to the first position and the first position. The first image is converted by conversion for converting the estimation target plane into a region in which the estimation target plane is to be represented in the second image captured by the imaging unit at the second position and the second posture different from the first posture.

差分算出手段によって、画像変換手段によって変換された第1画像と第2画像とに基づいて、各画素について画素値の差分を算出する。領域検出手段によって、大きさが異なる複数の閾値の各々を用いて、算出された画素値の差分が閾値未満となる領域を平面候補領域として検出する。   Based on the first image and the second image converted by the image conversion unit, the difference calculation unit calculates a difference in pixel value for each pixel. By using each of a plurality of thresholds having different sizes, the region detection unit detects a region where the difference between the calculated pixel values is less than the threshold as a plane candidate region.

そして、判定手段によって、最も大きい閾値を用いて検出された平面候補領域の各々が推定対象平面のみを表わしているか否かを判定する。また、判定手段によって、次に大きい閾値から降順に、閾値を用いて検出された平面候補領域のうち、推定対象平面のみを表していないと前回判定された平面候補領域内から検出された平面候補領域の各々について、推定対象平面のみを表わしているか否かを判定する判定を順次行う。領域推定手段によって、判定手段によって推定対象平面のみを表わしていると判定された平面候補領域を統合して、推定対象平面を表わす領域を推定する。   Then, the determination unit determines whether each of the plane candidate areas detected using the largest threshold value represents only the estimation target plane. In addition, the plane candidates detected from the plane candidate areas previously determined as not representing only the estimation target plane among the plane candidate areas detected using the threshold values in descending order from the next largest threshold value by the determination unit. For each of the areas, a determination is sequentially made to determine whether or not only the estimation target plane is represented. The region estimation unit integrates the plane candidate regions determined by the determination unit to represent only the estimation target plane, and estimates the region representing the estimation target plane.

このように、変換された第1画像と第2画像との各画素の差分から、大きさが異なる複数の閾値の各々を用いて検出された平面候補領域について、検出に用いられた閾値の大きさの降順に、推定対象平面のみを表わしているか否かを順次判定して、推定対象平面を表わす領域を推定することにより、パターンのない領域があっても、推定対象平面を表わす領域を精度よく推定することができる。   As described above, the size of the threshold used for detection of the planar candidate region detected using each of the plurality of thresholds having different sizes from the difference between the pixels of the converted first image and second image. By sequentially determining whether or not only the estimation target plane is represented in descending order, and estimating the area representing the estimation target plane, the area representing the estimation target plane can be accurately detected even if there is an area without a pattern. Can be estimated well.

第3の発明に係る平面領域推定装置は、推定対象平面を含む範囲を撮像した複数の画像を出力する移動体に搭載された撮像手段と、前記撮像手段が第1の位置及び第1の姿勢となっているときに前記撮像手段によって撮像された第1画像における推定対象平面を表わす領域を、前記第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢で前記撮像手段によって撮像された第2画像において推定対象平面が表されるべき領域に変換するための変換によって、前記第1画像を変換する画像変換手段と、前記画像変換手段によって変換された前記第1画像と前記第2画像とに基づいて、各画素について画素値の差分を算出する差分算出手段と、大きさが異なる複数の閾値のうち最も大きい閾値を用いて、前記算出された画素値の差分が前記閾値未満となる領域を平面候補領域として検出すると共に、前記平面候補領域が推定対象平面のみを表わしているか否かを判定し、次に大きい閾値から降順に、前記推定対象平面のみを表していないと前回判定された前記平面候補領域内から、前記閾値を用いて、前記算出された画素値の差分が前記閾値未満となる領域を平面候補領域として検出すると共に、前記平面候補領域が推定対象平面のみを表わしているか否かを判定する判定を順次行う判定手段と、前記判定手段によって前記推定対象平面のみを表わしていると判定された平面候補領域を統合して、前記推定対象平面を表わす領域を推定する領域推定手段とを含んで構成されている。   According to a third aspect of the present invention, there is provided a planar area estimation apparatus including an imaging unit mounted on a moving body that outputs a plurality of images obtained by imaging a range including an estimation target plane, and the imaging unit has a first position and a first attitude. The region representing the estimation target plane in the first image picked up by the image pickup means at the second position and the second posture different from the first position and the first posture is the image pickup means. The image conversion means for converting the first image by the conversion for converting to the region in which the estimation target plane is to be represented in the second image captured by the method, and the first image converted by the image conversion means, Based on the second image, difference calculation means for calculating a difference between pixel values for each pixel, and using the largest threshold value among a plurality of threshold values having different sizes, the difference between the calculated pixel values is An area that is less than the value is detected as a plane candidate area, and it is determined whether or not the plane candidate area represents only the estimation target plane, and only the estimation target plane is not represented in descending order from the next largest threshold value. And using the threshold value, the area where the difference between the calculated pixel values is less than the threshold value is detected as a plane candidate area, and the plane candidate area is an estimation target plane. A region that represents the estimation target plane by integrating a determination unit that sequentially determines whether or not it represents only the plane candidate region that is determined by the determination unit to represent only the estimation target plane And an area estimation means for estimating.

第4の発明に係るプログラムは、コンピュータを、推定対象平面を含む範囲を撮像した複数の画像を出力する移動体に搭載された撮像手段が第1の位置及び第1の姿勢となっているときに前記撮像手段によって撮像された第1画像における推定対象平面を表わす領域を、前記第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢で前記撮像手段によって撮像された第2画像において推定対象平面が表されるべき領域に変換するための変換によって、前記第1画像を変換する画像変換手段、前記画像変換手段によって変換された前記第1画像と前記第2画像とに基づいて、各画素について画素値の差分を算出する差分算出手段、大きさが異なる複数の閾値のうち最も大きい閾値を用いて、前記算出された画素値の差分が前記閾値未満となる領域を平面候補領域として検出すると共に、前記平面候補領域が推定対象平面のみを表わしているか否かを判定し、次に大きい閾値から降順に、前記推定対象平面のみを表していないと前回判定された前記平面候補領域内から、前記閾値を用いて、前記算出された画素値の差分が前記閾値未満となる領域を平面候補領域として検出すると共に、前記平面候補領域が推定対象平面のみを表わしているか否かを判定する判定を順次行う判定手段、及び前記判定手段によって前記推定対象平面のみを表わしていると判定された平面候補領域を統合して、前記推定対象平面を表わす領域を推定する領域推定手段として機能させるためのプログラムである。   According to a fourth aspect of the present invention, there is provided a program according to a first aspect of the present invention, in which an imaging unit mounted on a moving body that outputs a plurality of images obtained by imaging a range including an estimation target plane has a first position and a first posture. A region representing the estimation target plane in the first image captured by the imaging unit is captured by the imaging unit at a second position and a second attitude different from the first position and the first attitude. The image conversion means for converting the first image by conversion for converting the region to be estimated to be represented in the two images, and the first image and the second image converted by the image conversion means Based on the difference calculation means for calculating the difference between the pixel values for each pixel, the difference between the calculated pixel values is less than the threshold by using the largest threshold among a plurality of thresholds having different sizes. Is determined as a plane candidate area, and it is determined whether or not the plane candidate area represents only the estimation target plane, and it is previously determined that only the estimation target plane is not represented in descending order from the next largest threshold value. Using the threshold value, the area where the difference between the calculated pixel values is less than the threshold value is detected as a plane candidate area, and the plane candidate area represents only the estimation target plane. A determination unit that sequentially determines whether or not the plane is estimated; and a plane candidate region that is determined to represent only the estimation target plane by the determination unit is integrated to estimate a region that represents the estimation target plane This is a program for functioning as region estimation means.

第3の発明及び第4の発明によれば、移動体に搭載された撮像手段によって、推定対象平面を含む範囲を撮像した複数の画像を出力する。そして、画像変換手段によって、撮像手段が第1の位置及び第1の姿勢となっているときに撮像手段によって撮像された第1画像における推定対象平面を表わす領域を、第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢で撮像手段によって撮像された第2画像において推定対象平面が表されるべき領域に変換するための変換によって、第1画像を変換する。   According to the third invention and the fourth invention, a plurality of images obtained by imaging a range including the estimation target plane are output by the imaging means mounted on the moving body. Then, the region representing the estimation target plane in the first image picked up by the image pickup means when the image pickup means is in the first position and the first posture by the image conversion means is set to the first position and the first position. The first image is converted by conversion for converting the estimation target plane into a region in which the estimation target plane is to be represented in the second image captured by the imaging unit at the second position and the second posture different from the first posture.

差分算出手段によって、画像変換手段によって変換された第1画像と第2画像とに基づいて、各画素について画素値の差分を算出する。領域検出手段によって、大きさが異なる複数の閾値の各々を用いて、算出された画素値の差分が閾値未満となる領域を平面候補領域として検出する。   Based on the first image and the second image converted by the image conversion unit, the difference calculation unit calculates a difference in pixel value for each pixel. By using each of a plurality of thresholds having different sizes, the region detection unit detects a region where the difference between the calculated pixel values is less than the threshold as a plane candidate region.

そして、判定手段によって、大きさが異なる複数の閾値のうち最も大きい閾値を用いて、算出された画素値の差分が閾値未満となる領域を平面候補領域として検出すると共に、平面候補領域が推定対象平面のみを表わしているか否かを判定する。また、判定手段によって、次に大きい閾値から降順に、推定対象平面のみを表していないと前回判定された平面候補領域内から、閾値を用いて、算出された画素値の差分が閾値未満となる領域を平面候補領域として検出すると共に、平面候補領域が推定対象平面のみを表わしているか否かを判定する判定を順次行う。領域推定手段によって、判定手段によって推定対象平面のみを表わしていると判定された平面候補領域を統合して、推定対象平面を表わす領域を推定する。   Then, by using the largest threshold value among a plurality of threshold values having different sizes, the determination unit detects an area where the difference between the calculated pixel values is less than the threshold value as a plane candidate area, and the plane candidate area is an estimation target. It is determined whether or not only a plane is represented. In addition, the difference between the pixel values calculated by using the threshold value is less than the threshold value from the plane candidate area previously determined that the estimation unit does not represent only the estimation target plane in descending order from the next largest threshold value. An area is detected as a plane candidate area, and determination is sequentially performed to determine whether or not the plane candidate area represents only the estimation target plane. The region estimation unit integrates the plane candidate regions determined by the determination unit to represent only the estimation target plane, and estimates the region representing the estimation target plane.

このように、変換された第1画像と第2画像との各画素の差分から、大きさが異なる複数の閾値の降順に、閾値を用いて平面候補領域を検出して、推定対象平面のみを表わしているか否かを順次判定して、推定対象平面を表わす領域を推定することにより、パターンのない領域があっても、推定対象平面を表わす領域を精度よく推定することができる。   In this way, from the difference between each pixel of the converted first image and second image, a plane candidate region is detected using threshold values in descending order of a plurality of threshold values having different sizes, and only the estimation target plane is detected. By sequentially determining whether or not the region is represented and estimating the region representing the estimation target plane, the region representing the estimation target plane can be accurately estimated even if there is a region having no pattern.

第1の発明に係る判定手段は、最も大きい閾値を用いて検出された平面候補領域の各々が、推定対象平面のみを表わす領域、及び推定対象平面を表わす領域を含む領域の何れであるかを判定し、次に大きい閾値から降順に、閾値を用いて検出された平面候補領域のうち、推定対象平面を表わす領域を含む領域であると前回判定された平面候補領域内から検出された平面候補領域の各々について、推定対象平面のみを表わす領域及び推定対象平面を表わす領域を含む領域の何れであるかを判定する判定を順次行うことができる。   The determination means according to the first invention determines whether each of the plane candidate areas detected using the largest threshold is an area representing only the estimation target plane or an area including the area representing the estimation target plane. Plane candidates detected from within the plane candidate region that was previously determined to be a region including the region representing the estimation target plane among the plane candidate regions detected using the threshold value in descending order from the next largest threshold value For each of the areas, it is possible to sequentially determine whether the area represents only the estimation target plane or the area including the estimation target plane.

第3の発明に係る判定手段は、最も大きい閾値を用いて、算出された画素値の差分が閾値未満となる領域を平面候補領域として検出すると共に、平面候補領域が、推定対象平面のみを表わす領域、及び推定対象平面を表わす領域を含む領域の何れであるかを判定し、次に大きい閾値から降順に、推定対象平面を表わす領域を含む領域であると前回判定された平面候補領域内から、閾値を用いて、算出された画素値の差分が閾値未満となる領域を平面候補領域として検出すると共に、平面候補領域が、推定対象平面のみを表わす領域、及び推定対象平面を表わす領域を含む領域の何れであるかを判定する判定を順次行うことができる。   The determination means according to the third invention uses the largest threshold value to detect an area where the difference between the calculated pixel values is less than the threshold value as a plane candidate area, and the plane candidate area represents only the estimation target plane. It is determined whether it is an area or an area including an area representing the estimation target plane, and from the plane candidate area previously determined to be an area including the area representing the estimation target plane in descending order from the next largest threshold value. Using the threshold value, an area where the difference between the calculated pixel values is less than the threshold value is detected as a plane candidate area, and the plane candidate area includes an area representing only the estimation target plane and an area representing the estimation target plane. It is possible to sequentially determine which region is to be determined.

第1の発明及び第3の発明に係る平面領域推定装置は、撮像手段によって撮像された第1画像及び第2画像の各々から、特徴点であって、かつ、第1画像及び第2画像の間で対応した点を検索する検索手段と、検索手段によって検索された対応した点に基づいて、第1の位置及び第1の姿勢と第2の位置及び第2の姿勢との相対関係を算出する位置姿勢算出手段と、検索手段によって検索された対応した点と位置姿勢算出手段によって算出された相対関係とに基づいて、第1画像における推定対象平面上の特徴点の3次元位置を算出する位置算出手段と、位置算出手段によって算出された推定対象平面上の特徴点の3次元位置に基づいて、推定対象平面を表わすパラメータを算出する平面パラメータ算出手段とを更に含み、画像変換手段は、位置姿勢算出手段によって算出された相対関係、及び平面パラメータ算出手段によって算出された推定対象平面を表わすパラメータに基づいて、変換の変換行列を算出し、変換行列に基づいて、第1画像を変換することができる。   The planar region estimation apparatus according to the first and third inventions is a feature point from each of the first image and the second image imaged by the imaging means, and the first image and the second image Based on the search means for searching for the corresponding points between them and the corresponding points searched by the search means, the relative relationship between the first position and the first posture and the second position and the second posture is calculated. The three-dimensional position of the feature point on the estimation target plane in the first image is calculated based on the position / orientation calculation means that performs the search, the corresponding point searched by the search means and the relative relationship calculated by the position / orientation calculation means. A position calculation unit; and a plane parameter calculation unit that calculates a parameter representing the estimation target plane based on the three-dimensional position of the feature point on the estimation target plane calculated by the position calculation unit. A conversion matrix for conversion is calculated based on the relative relationship calculated by the posture calculation means and a parameter representing the estimation target plane calculated by the plane parameter calculation means, and the first image is converted based on the conversion matrix. be able to.

上記の平面領域推定装置は、撮像手段によって撮像された第1画像及び第2画像の各々から、特徴点であって、かつ、第1画像及び第2画像の間で対応した点を検索する検索手段と、検索手段によって検索された対応した点に基づいて、第1の位置及び第1の姿勢と第2の位置及び第2の姿勢との相対関係を算出する位置姿勢算出手段と、検索手段によって検索された対応した点と位置姿勢算出手段によって算出された相対関係とに基づいて、検索手段によって検索された対応した点の3次元位置を算出する位置算出手段とを更に含み、判定手段は、平面候補領域内の対応した点の3次元位置に基づいて、平面候補領域が推定対象平面のみを表わしているか否かを判定することができる。これによって、平面候補領域が推定対象平面を表わしているか否かを精度よく判定することができる。   The above planar area estimation device searches for a feature point and a corresponding point between the first image and the second image from each of the first image and the second image captured by the imaging means. And a position and orientation calculation means for calculating a relative relationship between the first position and the first orientation and the second position and the second orientation based on the corresponding points searched by the search means, and the search means And a position calculation means for calculating a three-dimensional position of the corresponding point searched by the search means based on the corresponding point searched by the position and the relative relationship calculated by the position and orientation calculation means. Based on the three-dimensional position of the corresponding point in the plane candidate area, it can be determined whether or not the plane candidate area represents only the estimation target plane. Thereby, it can be accurately determined whether or not the plane candidate region represents the estimation target plane.

上記の差分算出手段は、各画素について、画素を含む所定領域の画素値の差分を算出することができる。これによって、第1画像の変換のずれを考慮した画素値の差分により、平面候補領域を検出することができる。   The difference calculation means can calculate a difference between pixel values of a predetermined area including the pixel for each pixel. Thereby, the plane candidate region can be detected based on the difference between the pixel values considering the shift of the conversion of the first image.

以上説明したように、本発明の平面領域推定装置及びプログラムによれば、パターンのない領域があっても、推定対象平面を表わす領域を精度よく推定することができる、という効果が得られる。   As described above, according to the planar region estimation apparatus and program of the present invention, there is an effect that a region representing an estimation target plane can be accurately estimated even if there is a region without a pattern.

以下、図面を参照して本発明の実施の形態を詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1に示すように、本実施の形態に係る平面領域推定装置10は、車両(図示省略)に搭載され、かつ、道路平面を含む自車両前方を撮像して画像を出力する撮像装置12と、撮像装置12から得られる画像に基づいて、道路平面を表わす領域を推定して、推定結果を表示装置16に表示させるコンピュータ14とを備えている。   As shown in FIG. 1, a planar area estimation device 10 according to the present embodiment is mounted on a vehicle (not shown) and captures an image of the front of the host vehicle including a road plane and outputs an image. And a computer 14 for estimating an area representing a road plane based on an image obtained from the imaging device 12 and displaying the estimation result on the display device 16.

撮像装置12は、自車両前方を撮像し、画像の画像信号を生成する単眼のカメラで構成される撮像部(図示省略)と、撮像部で生成された画像信号をA/D変換するA/D変換部(図示省略)と、A/D変換された画像信号を一時的に格納するための画像メモリ(図示省略)とを備えている。   The image pickup device 12 picks up an image of the front of the host vehicle and generates an image signal of the image, and includes an image pickup unit (not shown) configured to perform A / D conversion on the image signal generated by the image pickup unit. A D conversion unit (not shown) and an image memory (not shown) for temporarily storing the A / D converted image signal are provided.

コンピュータ14は、CPUと、RAMと、後述する平面領域推定処理ルーチンを実行するためのプログラムを記憶したROMとを備え、機能的には次に示すように構成されている。コンピュータ14は、撮像装置12により異なる位置姿勢で撮像された複数の画像を取得する画像入力部18と、取得した複数の画像の各々から、画像上で追跡しやすい特徴点を複数抽出する特徴点抽出部20と、特徴点抽出部20により得られた2つの画像の各々における特徴点から、2つの画像の間で対応する対応点を検索する対応点検索部22と、対応点検索部22で得られた各対応点における各画像の画像座標を入力として、対応点が検索された一方の画像を撮像したときの撮像装置12の位置姿勢を基準とした、対応点が検索された他方の画像を撮像したときの撮像装置12の位置姿勢への変化(位置及び姿勢の相対関係)を、撮像装置12の運動のXYZ軸方向の移動量及びXYZ軸を基準とする回転量として算出する位置姿勢算出部24と、対応点検索部22で得られた各対応点における各画像の画像座標と位置姿勢算出部24によって算出された移動量及び回転量とに基づいて、各対応点の3次元座標を計算する3次元位置計算部26とを備えている。   The computer 14 includes a CPU, a RAM, and a ROM that stores a program for executing a planar area estimation processing routine described later, and is functionally configured as follows. The computer 14 acquires an image input unit 18 that acquires a plurality of images captured at different positions and orientations by the imaging device 12, and a feature point that extracts a plurality of feature points that are easy to track on each of the acquired images. An extraction unit 20, a corresponding point search unit 22 that searches for corresponding points between the two images from the feature points in each of the two images obtained by the feature point extraction unit 20, and a corresponding point search unit 22 The other image from which the corresponding point has been searched with reference to the position and orientation of the imaging device 12 when the image of one image from which the corresponding point has been searched is captured using the image coordinates of each image at each corresponding point thus obtained as an input. The position and orientation in which the change to the position and orientation of the imaging device 12 when the image is captured (relative relationship between the position and orientation) is calculated as the amount of movement of the motion of the imaging device 12 in the XYZ-axis direction and the rotation amount based on the XYZ axis Based on the image coordinates of each image at each corresponding point obtained by the output unit 24 and the corresponding point search unit 22 and the movement amount and the rotation amount calculated by the position and orientation calculation unit 24, the three-dimensional coordinates of each corresponding point And a three-dimensional position calculation unit 26 for calculating.

画像入力部18は、異なる位置及び姿勢で撮像された2つの画像を撮像装置12から取得する。なお、以下では、異なる位置及び姿勢で撮像された2つの画像のうち、第1の位置及び第1の姿勢で撮像された画像を第1の画像とし、第2の位置及び第2の姿勢で撮像された画像を第2の画像として説明する。   The image input unit 18 acquires two images captured at different positions and orientations from the imaging device 12. In the following description, of the two images captured at different positions and orientations, the image captured at the first position and the first orientation is referred to as the first image, and the second position and the second orientation are used. The captured image will be described as a second image.

特徴点抽出部20は、撮像装置12から取得した第1の画像から特徴点を抽出すると共に、撮像装置12から取得した第2の画像から特徴点を抽出する。特徴点とは、周囲の点と区別でき、異なる画像間で対応関係を求めることが容易な点のことを指す。特徴点は、2次元的に濃淡変化の勾配値が大きくなる画素を検出する方法(例えばHarrisオペレータなど)を用いて、自動的に抽出される。Harrisオペレータを用いる方法では、以下に説明するように、特徴点を抽出する。まず、画像の点(u,v)の輝度をI(u,v)として、以下の(1)式によって、行列Mを計算する。   The feature point extraction unit 20 extracts feature points from the first image acquired from the imaging device 12 and extracts feature points from the second image acquired from the imaging device 12. A feature point refers to a point that can be distinguished from surrounding points and that makes it easy to obtain a correspondence between different images. The feature points are automatically extracted by using a method (for example, a Harris operator) that detects pixels in which the gradient value of the change in shading increases two-dimensionally. In the method using the Harris operator, feature points are extracted as described below. First, the matrix M is calculated by the following equation (1), where the luminance of the point (u, v) of the image is I (u, v).

Figure 2010009236
Figure 2010009236

ただし、I,Iはそれぞれ水平方向、垂直方向の微分、Gσは標準偏差σのガウス分布による平滑化を表す。 However, I u and I v represent horizontal and vertical differentiation, respectively, and G σ represents smoothing by a Gaussian distribution with a standard deviation σ.

そして、上記(1)式で計算された行列Mの固有値λ、λを用いて、以下の(2)式によりコーナー強度を計算する。 Then, using the eigenvalues λ 1 and λ 2 of the matrix M calculated by the above equation (1), the corner strength is calculated by the following equation (2).

Figure 2010009236
Figure 2010009236

ただし、kは予め設定される定数であって、0.04〜0.06の値が一般に用いられる。Harrisオペレータを用いる方法では、このコーナー強度がしきい値以上でかつ極大となる点を選択し、選択された点を特徴点として抽出する。   However, k is a preset constant, and a value of 0.04 to 0.06 is generally used. In the method using the Harris operator, a point at which the corner intensity is equal to or greater than a threshold value is selected, and the selected point is extracted as a feature point.

対応点検索部22は、特徴点抽出部20において抽出された第1の画像の特徴点に対応する点を、第2の画像において抽出された特徴点から検索して、特徴点の対応付けを行う。   The corresponding point search unit 22 searches the feature points extracted in the second image for points corresponding to the feature points of the first image extracted by the feature point extraction unit 20, and associates the feature points with each other. Do.

2つの画像間での特徴点の対応付けでは、特徴点周辺に設定した小領域での輝度分布が似ている点の組を選択し、選択された点の組を対応している点とする。2つの特徴点が似ているかどうかの判定にはSSD(Sum of Squared Differences)などの値を用いればよい。   In associating feature points between two images, a pair of points having similar brightness distributions in a small area set around the feature point is selected, and the selected point pair is regarded as a corresponding point. . A value such as SSD (Sum of Squared Differences) may be used to determine whether the two feature points are similar.

例えば、第1の画像Iの特徴点p=(x,y)について、第2の画像Iの特徴点p'=(x’,y’)の各々との組み合わせをペアとして、以下の(3)式を各々計算する。 For example, regarding the feature point p = (x, y) of the first image I 1 as a pair with the combination of the feature point p ′ = (x ′, y ′) of the second image I 2 , the following (3) Each formula is calculated.

Figure 2010009236
ただし、rは、小領域の大きさを決定する変数であり、予め定められている。
Figure 2010009236
Here, r is a variable for determining the size of the small area and is determined in advance.

そして、上記(3)式によって計算される値が最小となったときの第2の画像の特徴点を検索し、第1の画像の特徴点に対応する点とする。   Then, the feature point of the second image when the value calculated by the above equation (3) is minimized is searched for as a point corresponding to the feature point of the first image.

上記の計算を、第1の画像の特徴点の各々について行って、第1の画像の特徴点の各々に対応する点を、第2の画像の特徴点から検索する。また、対応点検索部22は、特徴点抽出部20において2つの画像の各々から抽出された特徴点について、2つの画像間で対応する点を少なくとも8組検索する。   The above calculation is performed for each feature point of the first image, and a point corresponding to each of the feature points of the first image is searched from the feature points of the second image. In addition, the corresponding point search unit 22 searches for at least eight sets of corresponding points between the two images with respect to the feature points extracted from each of the two images by the feature point extraction unit 20.

位置姿勢算出部24は、対応点検索部22より得られる2つの画像における少なくとも8組の対応点の画像座標から、2つの画像の各々が撮像されたときの撮像装置12の位置及び姿勢の変化(XYZ軸方向の移動量及びXYZ軸を基準とする回転量)を計算する。位置及び姿勢の変化は、図2に示すように、第1の画像から第2の画像への回転行列R(X軸を基準とする回転量、Y軸を基準とする回転量、Z軸を基準とする回転量)と、並進ベクトルt(X軸方向の移動量t、Y軸方向の移動量t、Z軸方向の移動量t)との6要素から構成される運動である。なお、回転行列R及び並進ベクトルtの要素は、2つの画像間の画像座標の変換を表す物理量である。 The position / orientation calculation unit 24 changes the position and orientation of the imaging device 12 when each of the two images is captured from the image coordinates of at least eight sets of corresponding points in the two images obtained from the corresponding point search unit 22. (Amount of movement in the XYZ axis direction and a rotation amount based on the XYZ axis) are calculated. As shown in FIG. 2, the change in position and orientation is a rotation matrix R from the first image to the second image (rotation amount based on the X axis, rotation amount based on the Y axis, and Z axis). This is a movement composed of six elements: a reference rotation amount) and a translation vector t (a movement amount t x in the X-axis direction, a movement amount t y in the Y-axis direction, and a movement amount t z in the Z-axis direction). . Note that the elements of the rotation matrix R and the translation vector t are physical quantities representing conversion of image coordinates between two images.

ここで、第1の画像から第2の画像への回転行列Rと並進ベクトルtとの計算方法について説明する。第1の画像におけるn点の対応点の画像座標Iと第2の画像におけるn点の対応点の画像座標I’とについて(n≧8)、対応点が正しくて誤差がなければ、以下の(4)式を満たす3×3行列Fが存在する。 Here, a calculation method of the rotation matrix R and the translation vector t from the first image to the second image will be described. For the image coordinates I i of the corresponding points of the n points in the first image and the image coordinates I i ′ of the corresponding points of the n points in the second image (n ≧ 8), if the corresponding points are correct and there is no error, There is a 3 × 3 matrix F that satisfies the following equation (4).

Figure 2010009236
Figure 2010009236

ただし、I=(u,v,1)、I’=(u’,v’,1)であり、第1の画像での画像座標(u,v)の点に対応する第2の画像での点の画像座標が(u’,v’)である。 However, I i = (u i , v i , 1) T , I i ′ = (u i ′, v i ′, 1) T , and the image coordinates (u i , v i ) in the first image The image coordinates of the point in the second image corresponding to the point are (u i ′, v i ′).

ここで、上記(4)式を満たす行列Fは、定数倍の不定性を持っている。すなわち、Fが上記(4)式を満たす場合には、αFも上記(4)式を満たす(ただし、aは実数)。よって、行列Fを以下の(5)式のように表すことができる。 Here, the matrix F satisfying the above equation (4) has a constant multiple indefiniteness. That is, when F s satisfies the above equation (4), αF s also satisfies the above equation (4) (where a is a real number). Therefore, the matrix F can be expressed as the following equation (5).

Figure 2010009236
Figure 2010009236

また、上記(4)式、(5)式より、以下の(6)式が成り立つ。   Further, from the above equations (4) and (5), the following equation (6) is established.

Figure 2010009236
Figure 2010009236

ここで、8組以上の対応点I、I’があれば、上記(6)式が少なくとも8つ得られるため、8つの変数f11〜f32を求めることができる。なお、得られる8つの式が互いに独立である必要があり、また、誤差が含まれる場合であっても安定して計算するために、他の対応点の組となるべく異なる動きをしている特徴点の組を対応点として検索することが好ましい。 Here, if there are eight or more pairs of corresponding points I i and I i ′, at least eight of the above formula (6) can be obtained, so that eight variables f 11 to f 32 can be obtained. It should be noted that the eight formulas obtained need to be independent from each other, and even when errors are included, in order to perform stable calculation, other corresponding points are moving as differently as possible. It is preferable to search for a set of points as corresponding points.

上述したように行列Fが計算でき、また、撮像装置12のキャリブレーション行列Kが既知である場合には、以下の(7)式、(8)式より、回転行列Rと並進ベクトルtとを計算することができる.   When the matrix F can be calculated as described above and the calibration matrix K of the imaging device 12 is known, the rotation matrix R and the translation vector t are obtained from the following equations (7) and (8). Can be calculated.

Figure 2010009236
Figure 2010009236

撮像装置12のキャリブレーション行列Kは、以下の(9)式で表される。   The calibration matrix K of the imaging device 12 is expressed by the following equation (9).

Figure 2010009236
Figure 2010009236

ただし、fは、撮像装置12のX方向の焦点距離、fは、撮像装置12のY方向の焦点距離、(c,c)は画像中心である。なお、画像上の画像座標は、X方向に対応するU方向の座標uとY方向に対応するV方向の座標vとで表されるものとする。 However, f x is the focal length in the X direction of the imaging device 12, f y is the focal length in the Y direction of the image pickup device 12, (c u, c v ) is the image center. The image coordinates on the image are represented by a U-direction coordinate u corresponding to the X direction and a V-direction coordinate v corresponding to the Y direction.

3次元位置計算部26は、対応点検索部22から得られる2つの画像間でのn点の対応点の画像座標の組Ii、Ii’、及び位置姿勢算出部24から得られる2つの画像間の回転行列及び並進ベクトルを用いて、n点の対応点の3次元座標を計算する。対応点の3次元座標は以下の方法により計算できる。   The three-dimensional position calculation unit 26 sets the image coordinates Ii and Ii ′ of n corresponding points between the two images obtained from the corresponding point search unit 22 and the two images obtained from the position / orientation calculation unit 24. The three-dimensional coordinates of the n corresponding points are calculated using the rotation matrix and the translation vector. The three-dimensional coordinates of the corresponding points can be calculated by the following method.

まず、2枚の画像の各々の対応点の画像座標を(u,v)、(u’,v’)とし、画像間の回転行列をRとし、並進ベクトルをtとし、撮像装置12のキャリブレーション行列をKとしたとき、以下の(10)式、(11)式のような行列P、P’を定義する。   First, the image coordinates of the corresponding points of the two images are (u, v), (u ′, v ′), the rotation matrix between the images is R, the translation vector is t, and the imaging device 12 is calibrated. When the action matrix is K, matrices P and P ′ such as the following expressions (10) and (11) are defined.

Figure 2010009236
Figure 2010009236

そして、p,p’をそれぞれ行列P,P’の第i行のベクトルとすると、対応点の3次元座標X=(x,y,z,1)は以下の(12)式の解として求めることができる。 Then, if p i and p ′ i are the vectors in the i-th row of the matrices P and P ′, respectively, the three-dimensional coordinates X = (x, y, z, 1) T of the corresponding points are expressed by the following equation (12). It can be obtained as a solution.

Figure 2010009236
Figure 2010009236

また、コンピュータ14は、道路平面上の各対応点の3次元座標に基づいて、道路平面を表わすパラメータを推定する平面推定部30と、一方の画像の道路平面領域を他方の画像の道路平面領域に重ねるように変換するための変換を示す射影変換行列に基づいて、一方の画像を変換する画像変換部32と、一方の画像を変換した変換画像と他方の画像との各画素の差分値を計算する差分計算部34と、各画素の差分値に基づいて、道路平面候補領域を検出する平面候補領域検出部36と、検出された道路平面候補領域が道路平面を表わす領域であるか否かを判定する平面領域判定部38と、道路平面を表わす領域を統合して、推定結果として表示装置16に表示させる領域統合部40とを備えている。   The computer 14 also includes a plane estimation unit 30 that estimates a parameter representing a road plane based on the three-dimensional coordinates of each corresponding point on the road plane, and a road plane area of one image as a road plane area of the other image. The image conversion unit 32 that converts one image based on a projective conversion matrix that indicates conversion for conversion so as to be superimposed on each other, and the difference value of each pixel between the converted image obtained by converting one image and the other image A difference calculation unit 34 to calculate, a plane candidate region detection unit 36 to detect a road plane candidate region based on the difference value of each pixel, and whether or not the detected road plane candidate region is a region representing a road plane And a region integration unit 40 that integrates regions representing road planes and displays them on the display device 16 as estimation results.

平面推定部30は、3次元位置計算部26により得られる対応点の3次元位置のうち、第1の画像の道路平面を表わす領域内の対応点の3次元位置を用いて、道路平面を表わすパラメータを推定する。推定する道路平面は3次元空間で以下の(14)式で表すことができる。   The plane estimation unit 30 represents the road plane using the three-dimensional position of the corresponding point in the region representing the road plane of the first image among the three-dimensional positions of the corresponding point obtained by the three-dimensional position calculation unit 26. Estimate the parameters. The road plane to be estimated can be expressed by the following equation (14) in a three-dimensional space.

Figure 2010009236
上記(14)式において、(a,b,c)が、推定する道路平面のパラメータである。
Figure 2010009236
In the above equation (14), (a, b, c) are parameters of the road plane to be estimated.

平面推定部30は、第1の画像の道路平面を表わす領域内から対応点を抽出し、抽出された対応点の3次元座標から、上記のパラメータ(a,b,c)を求める。3点以上の3次元座標が得られると、上記パラメータの計算が可能であるが、3点より多くの3次元座標から得られた場合には、最小二乗法やLMedS(Least Median Squares)法などにより、パラメータ(a,b,c)を推定する。なお、第1の画像の道路平面を表わす領域は、撮像装置12の道路平面に対する位置及び姿勢に基づいて、予め求めておけばよい。または、1ステップ前の処理で推定された道路平面領域を用いて、第1の画像の道路平面を表わす領域を求めてもよい。また、上記の推定する道路平面のパラメータは、撮像装置12の第1の位置及び第1の姿勢に対する道路平面の相対的な位置及び姿勢を表わしている。   The plane estimation unit 30 extracts corresponding points from the area representing the road plane of the first image, and obtains the parameters (a, b, c) from the three-dimensional coordinates of the extracted corresponding points. When three or more three-dimensional coordinates are obtained, the above parameters can be calculated. However, when the three-dimensional coordinates are obtained from more than three points, the least square method or the LmedS (Least Media Squares) method is used. Thus, the parameters (a, b, c) are estimated. The area representing the road plane of the first image may be obtained in advance based on the position and orientation of the imaging device 12 with respect to the road plane. Or you may obtain | require the area | region showing the road plane of a 1st image using the road plane area estimated by the process 1 step before. The estimated road plane parameter represents the relative position and posture of the road plane with respect to the first position and the first posture of the imaging device 12.

画像変換部32は、位置姿勢算出部24により算出された第1の画像と第2の画像との間の位置及び姿勢の変化と、平面推定部30により得られた道路平面のパラメータとに基づいて、第1の画像における道路平面を表わす領域を、第2の画像において道路平面が表されるべき領域に重ねるように変換するための変換を示す射影変換行列を計算し、計算された射影変換行列により、第1の画像を変換する。   The image conversion unit 32 is based on the change in the position and orientation between the first image and the second image calculated by the position / orientation calculation unit 24 and the road plane parameters obtained by the plane estimation unit 30. Calculating a projective transformation matrix indicating a transformation for transforming the region representing the road plane in the first image so as to overlap the region in which the road plane is to be represented in the second image, and calculating the calculated projective transformation The first image is converted by the matrix.

第1の画像と第2の画像との間の位置及び姿勢の変化が、回転行列Rと並進ベクトルtによって表され、道路平面のパラメータ(a,b,c)で表される道路平面がax+by+cz=1であるとき、射影変換行列Hは、以下の(15)式によって計算される。   The change in position and orientation between the first image and the second image is represented by the rotation matrix R and the translation vector t, and the road plane represented by the road plane parameters (a, b, c) is ax + by + cz. When = 1, the projective transformation matrix H is calculated by the following equation (15).

Figure 2010009236
Figure 2010009236

ただし、行列Kは撮像装置12のキャリブレーション行列である。   However, the matrix K is a calibration matrix of the imaging device 12.

上記(15)式によって計算された射影変換行列Hを用いて、第1の画像を射影変換した変換画像を生成する。第1の画像の画素をIiとすると、対応する変換画像の画素Jiは以下の(16)式により計算される。
Ji=H・Ii ・・・(16)
例えば、図3(A)に示すような第1の画像を射影変換して、図3(C)に示すような変換画像を生成する。
Using the projective transformation matrix H calculated by the above equation (15), a transformed image obtained by projectively transforming the first image is generated. If the pixel of the first image is Ii, the corresponding pixel Ji of the converted image is calculated by the following equation (16).
Ji = H · Ii (16)
For example, the first image as shown in FIG. 3A is projectively transformed to generate a converted image as shown in FIG.

差分計算部34は、画像変換部32により生成された、射影変換行列により第1の画像を変換した変換画像と第2の画像とについて、各画素の差分値を計算する。例えば、上記図3(C)に示すような変換画像と、図3(B)に示すような第2の画像との各画素の差分値を計算する。   The difference calculation unit 34 calculates the difference value of each pixel for the converted image generated by the image conversion unit 32 and converted from the first image by the projective conversion matrix and the second image. For example, the difference value of each pixel between the converted image as shown in FIG. 3C and the second image as shown in FIG. 3B is calculated.

平面候補領域検出部36は、差分計算部34により得られた各画素に対する差分値から、複数の平面候補領域を検出する。   The plane candidate area detection unit 36 detects a plurality of plane candidate areas from the difference value for each pixel obtained by the difference calculation unit 34.

ここで、本実施の形態の原理について説明する。従来、2枚の画像を用いて平面候補領域を抽出する場合、画像間の位置及び姿勢の相対的な関係、及び推定対象の平面の位置及び姿勢の相対的な関係を求め、2つの画像間での平面領域に対する射影変換行列を計算し、一方の画像を射影変換行列により変換した変換画像と、もう一方の画像との差分をとり、各画素の差分値を閾値で2値化することにより、平面領域を求めている。射影変換した変換画像ともう一方の画像との差分をとると、平面領域上にある画素であれば、変換画像と第2の画像とで同じ位置を表わしており、差分値が小さくなるため、平面領域を抽出することができる。しかし、テクスチャパターンのない領域では、変換画像と第2の画像でずれが生じても差分が大きくならず、平面領域に属していなくても差分値が小さくなるため、誤って平面領域として抽出してしまう。   Here, the principle of the present embodiment will be described. Conventionally, when extracting a plane candidate region using two images, the relative relationship between the position and orientation between images and the relative relationship between the position and orientation of the estimation target plane are obtained, and the two images are By calculating the projective transformation matrix for the planar region at, taking the difference between the transformed image obtained by transforming one image with the projective transformation matrix and the other image, and binarizing the difference value of each pixel with a threshold value Seeking a planar area. When the difference between the converted image obtained by projective transformation and the other image is taken, the converted image and the second image represent the same position if the pixel is on the plane area, and the difference value becomes small. A planar area can be extracted. However, in a region without a texture pattern, the difference does not increase even if a shift occurs between the converted image and the second image, and the difference value decreases even if it does not belong to the plane region. End up.

これに対し、複数の閾値の各々を用いて、各画素の差分値の2値化を行い、差分値が閾値より小さくなる領域を、階層構造で表される分割された領域として検出し、それぞれ分割された領域毎に、画像から計算された内部に存在する特徴点の3次元位置を用いて、平面領域であるか否かを判定することにより、テクスチャのない領域を誤って平面領域として抽出することが防ぐことができる。   On the other hand, each of a plurality of threshold values is used to binarize the difference value of each pixel, and a region where the difference value is smaller than the threshold value is detected as a divided region represented by a hierarchical structure. For each divided area, use the 3D position of the feature points present inside the image to determine whether or not it is a plane area, thereby erroneously extracting the area without texture as a plane area Can be prevented.

そこで、本実施の形態では、平面候補領域検出部36によって、大きさが異なる複数の閾値を用いて、以下に説明するように、階層構造で表わされる複数の平面候補領域を検出する。   Therefore, in the present embodiment, the plane candidate area detection unit 36 detects a plurality of plane candidate areas represented by a hierarchical structure as described below, using a plurality of thresholds having different sizes.

まず、平面候補領域の検出では、各注目画素に対して、その注目画素を中心とする所定領域を設定して、所定領域の画素の差分値として、SAD(Sum of Absolute Differences)又はSSD(Sum of Squared Defferences)を計算し、その計算値が、閾値未満であれば、注目画素が平面候補領域上の画素であると判断し、計算値が閾値以上であれば、注目画素が平面候補領域上の画素でないと判断する。   First, in the detection of a plane candidate area, a predetermined area centered on the target pixel is set for each target pixel, and a difference value between the pixels of the predetermined area is set as SAD (Sum of Absolute Differences) or SSD (Sum (Sum)). of Squared Differences), and if the calculated value is less than the threshold, it is determined that the pixel of interest is a pixel on the plane candidate region. If the calculated value is equal to or greater than the threshold, the pixel of interest is on the plane candidate region. It is determined that the pixel is not.

閾値を変更して、各々の閾値を用いて、各注目画素が平面候補領域上の画素であるか否かを判断して、複数の平面候補領域を検出する。例えば、Th1>Th2>Th3の関係にある3つの閾値を用いて、道路平面候補領域を検出すると、図4(A)に示すように、最も大きい閾値Th1を用いて検出した場合には、道路平面上にない領域も含んだ広い道路平面候補領域が検出される。また、図4(B)、(C)に示すように、検出に用いる閾値をTh2、Th3と小さくするに従い、道路平面候補領域が多くの領域に分割されて検出される。   The threshold value is changed, and using each threshold value, it is determined whether or not each target pixel is a pixel on the plane candidate area, and a plurality of plane candidate areas are detected. For example, when a road plane candidate region is detected using three threshold values that have a relationship of Th1> Th2> Th3, as shown in FIG. 4A, if the road plane candidate region is detected using the largest threshold value Th1, Wide road plane candidate areas including areas not on the plane are detected. Further, as shown in FIGS. 4B and 4C, the road plane candidate area is divided into many areas and detected as the threshold values used for detection are reduced to Th2 and Th3.

上記図4(C)に示すように、閾値をTh3と小さくした場合には、道路平面の一部が候補領域として検出されなくなるが、これは推定された位置及び姿勢の変化、及び平面パラメータに含まれる誤差の影響で、輝度変化が大きい部分などで、道路平面であっても差分値が閾値Th3より大きくなることによるものである。また、閾値をTh3にまで小さくした場合でもテクスチャのない道路平面以外の領域が候補領域として検出される。   As shown in FIG. 4C, when the threshold value is reduced to Th3, a part of the road plane is not detected as a candidate area. This is based on changes in the estimated position and orientation, and the plane parameters. This is because the difference value becomes larger than the threshold value Th3 even in the road plane due to the influence of the included error even in a portion where the luminance change is large. Even when the threshold value is reduced to Th3, a region other than a road plane having no texture is detected as a candidate region.

なお、各閾値で道路平面候補領域を検出するとき、各画素のSAD又はSSDの計算値のみに基づいて検出を行うと、誤差やノイズなどにより、孤立した平面候補領域が検出されたり、検出された平面候補領域内に抜けが発生したりするため、検出された道路平面候補領域に対して、収縮、膨張処理を行うようにしても良い。   When detecting a road plane candidate area with each threshold, if detection is performed based only on the SAD or SSD calculation value of each pixel, an isolated plane candidate area is detected or detected due to error or noise. For example, a missing area may be generated in the plane candidate area, so that the contraction / expansion process may be performed on the detected road plane candidate area.

上述したように、複数の閾値の各々を用いて、複数の道路平面候補領域が検出されると、道路平面候補領域の包含関係から、候補領域間の関係が求められ、階層構造で表わされる道路平面候補領域が取得される。   As described above, when a plurality of road plane candidate areas are detected using each of a plurality of threshold values, the relationship between the candidate areas is obtained from the inclusion relation of the road plane candidate areas, and the road is represented by a hierarchical structure. A plane candidate area is acquired.

検出に用いる閾値を大きい閾値から小さい閾値に変更すると、小さい閾値で検出された候補領域は、大きい閾値で検出された候補領域内の部分領域となる。そこで、大きい値閾値で検出された候補領域と小さい閾値で検出された候補領域との包含関係から、図5に示すような階層構造で表わされる複数の道路平面候補領域を求める。最も大きい閾値を用いて検出された候補領域A1を一番上の階層とし、候補領域A1は、次に大きい閾値で検出された候補領域B1〜B5に分割され、例えば、候補領域B2は、次に大きい閾値で検出された候補領域C2、C3に分割される。これらの候補領域の包含関係から階層構造で表わされる複数の道路平面候補領域が求められる。   When the threshold value used for detection is changed from a large threshold value to a small threshold value, the candidate area detected with the small threshold value becomes a partial area within the candidate area detected with the large threshold value. Therefore, a plurality of road plane candidate areas represented by a hierarchical structure as shown in FIG. 5 is obtained from the inclusion relationship between the candidate areas detected with a large threshold value and the candidate areas detected with a small threshold value. The candidate area A1 detected using the largest threshold is set as the highest hierarchy, and the candidate area A1 is divided into candidate areas B1 to B5 detected with the next largest threshold. For example, the candidate area B2 is Is divided into candidate areas C2 and C3 detected with a large threshold. A plurality of road plane candidate areas represented by a hierarchical structure are obtained from the inclusion relation of these candidate areas.

平面領域判定部38は、平面候補領域検出部36により得られる階層構造で表わされる複数の道路平面候補領域、対応点検索部22で検索された対応点の画像上の位置、及び3次元位置計算部26により計算された対応点の3次元位置に基づいて、以下に説明するように、道路平面候補領域の各々が、道路平面のみを表わす領域であるか否かを判定する。   The plane area determination unit 38 calculates a plurality of road plane candidate areas represented by the hierarchical structure obtained by the plane candidate area detection unit 36, the positions of the corresponding points searched by the corresponding point search unit 22, and the three-dimensional position calculation. Based on the three-dimensional position of the corresponding point calculated by the unit 26, it is determined whether each of the road plane candidate areas is an area representing only the road plane, as will be described below.

得られた平面候補領域の階層構造を用いて、階層構造の上位にある道路平面候補領域から、順に、道路平面のみを表わしているか否かを判定する。まず、最も上位の階層に対応する道路平面候補領域A1が、道路平面のみを表わしているか、道路平面領域を含まないか、又は何れでもないかを判定する。この判定は、判定対象の道路平面候補領域内の特徴点が、道路平面上の点であるか否かにより行い、図6に示すように、各特徴点について、3次元位置に基づいて、道路平面上の点であるか否かが判定される。道路平面候補領域内の特徴点の全てについて、特徴点の3次元位置と道路平面との距離が閾値以下であれば、全ての特徴点が道路平面上の点のみから構成され、道路平面候補領域が道路平面のみを表わしていると判定される。また、道路平面候補領域内の特徴点の全てについて、特徴点の3次元位置と道路平面との距離が閾値より大きければ、全ての特徴点が道路平面上にない点であり、道路平面候補領域が道路平面領域を含まないと判定される。   Using the obtained hierarchical structure of the candidate plane area, it is determined whether or not only the road plane is represented in order from the candidate road plane area at the upper level of the hierarchical structure. First, it is determined whether the road plane candidate area A1 corresponding to the highest hierarchy represents only the road plane, does not include the road plane area, or neither. This determination is performed based on whether or not the feature point in the determination target road plane candidate region is a point on the road plane. As shown in FIG. It is determined whether the point is on the plane. For all feature points in the road plane candidate area, if the distance between the three-dimensional position of the feature point and the road plane is less than or equal to the threshold value, all the feature points are composed only of points on the road plane, and the road plane candidate area Is determined to represent only the road plane. Further, for all the feature points in the road plane candidate area, if the distance between the three-dimensional position of the feature point and the road plane is larger than the threshold, all the feature points are not on the road plane, and the road plane candidate area Is determined not to include the road plane area.

例えば、最上位の階層に対応する道路平面候補領域A1では、道路平面上の点と道路平面上にない点との両方を含むため、道路平面候補領域が、道路平面のみを表わす領域、及び道路平面領域を含む領域の何れでもない。このような場合には、不明であると判定し、階層構造において、道路平面候補領域A1の下位の階層に対応する道路平面候補領域の各々について、同様に上記の判定処理を行う。   For example, since the road plane candidate area A1 corresponding to the highest hierarchy includes both points on the road plane and points not on the road plane, the road plane candidate area includes an area representing only the road plane, and a road It is not any area including a planar area. In such a case, it is determined that it is unknown, and the above determination process is similarly performed for each of the road plane candidate areas corresponding to the hierarchy below the road plane candidate area A1 in the hierarchical structure.

例えば、最上位より1つ下位の階層に対応する道路平面候補領域B1には、道路平面上でない特徴点のみが含まれるので、道路平面領域を含まないと判定し、更に下位の階層に対応する道路平面候補領域C1については、上記の判定処理を行わない。また、最上位より1つ下位の階層に対応する他の道路平面候補領域B2には、道路平面上の特徴点と道路平面上でない特徴点との両方が含まれるので、不明であると判定し、更に一つ下位の階層に対応する道路平面候補領域C2、C3の各々について、上記の判定処理を行う。   For example, since the road plane candidate area B1 corresponding to the hierarchy one level lower than the highest level includes only feature points that are not on the road plane, it is determined not to include the road plane area, and further corresponds to the lower hierarchy. The above determination process is not performed for the road plane candidate region C1. Further, the other road plane candidate area B2 corresponding to the hierarchy one level lower than the highest level includes both feature points on the road plane and feature points not on the road plane, so it is determined that it is unknown. In addition, the above-described determination process is performed for each of the road plane candidate areas C2 and C3 corresponding to the next lower hierarchy.

このように、上記の判定処理で、道路平面候補領域について不明であると判定されれば、1つ下位の階層に対応する道路平面候補領域について判定処理を行い、道路平面候補領域が道路平面のみを表わす、又は道路平面領域を含まないと判定された場合には、更に下位の階層に対応する道路平面候補領域については、判定処理を行わない。これによって、図7に示すような、各道路平面候補領域に対する判定結果が得られる。   Thus, if it is determined that the road plane candidate area is unknown in the above determination process, the road plane candidate area corresponding to the next lower hierarchy is determined, and the road plane candidate area is only the road plane. Or the road plane candidate area corresponding to a lower hierarchy is not subjected to the determination process. As a result, the determination result for each road plane candidate region as shown in FIG. 7 is obtained.

領域統合部40は、図8(A)に示すような、平面領域判定部38によって道路平面のみを表わしていると判定された道路平面候補領域を統合して、図8(B)に示すような、統合された候補領域を、道路平面領域として推定する。   The area integration unit 40 integrates the road plane candidate areas determined by the plane area determination unit 38 as representing only the road plane as shown in FIG. 8A, as shown in FIG. 8B. The integrated candidate area is estimated as a road plane area.

候補領域の統合処理は、以下に説明するように行う。平面領域のみを表わしていると判定されたn個の候補領域R1〜Rnが得られたとき、異なる2つの候補領域ペアRi,Rjについて、まず隣り合っているか否かを判定する。   The candidate area integration processing is performed as described below. When n candidate regions R1 to Rn determined to represent only a planar region are obtained, it is first determined whether or not two different candidate region pairs Ri and Rj are adjacent to each other.

隣り合っているか否かの判定は、Riの領域中心とRjの領域中心とを結ぶ直線が、Ri、Rj以外の候補領域を通るか否かで行う。中心を結ぶ直線が他の候補領域を通ることがなければ隣り合っていると判定し、他の候補領域を通れば隣り合っていないと判定する。Ri,Rjが隣り合っていなければ、他の候補領域ペアを選択して、上記の隣り合っているか否かの判定を行う。2つの候補領域Ri,Rjが隣り合っていれば、2つの候補領域の統合を行い、1つの領域とする。   Whether or not they are adjacent to each other is determined based on whether or not a straight line connecting the center of Ri and the center of Rj passes through candidate regions other than Ri and Rj. If the straight line connecting the centers does not pass through other candidate areas, it is determined that they are adjacent to each other, and if they pass through other candidate areas, it is determined that they are not adjacent. If Ri and Rj are not adjacent to each other, another candidate region pair is selected to determine whether or not they are adjacent to each other. If the two candidate areas Ri and Rj are adjacent to each other, the two candidate areas are integrated into one area.

領域統合部40は、上記の統合処理を、統合できる候補領域がなくなるまで繰り返し、統合された候補領域を、道路平面領域として推定し、表示装置16に出力する。   The region integration unit 40 repeats the above integration processing until there is no candidate region that can be integrated, estimates the integrated candidate region as a road plane region, and outputs it to the display device 16.

また、2つの候補領域の統合は、以下に説明するように行われる。2つの候補領域ペアRi,Rjを統合するときに、まず、一方の候補領域の境界上の点から、もう一方の候補領域の境界上の点のうち、最も近くなる点を求め、その2点を直線で結ぶ。得られた直線が2つの候補領域内を通らないなら、統合領域の境界候補となる直線の集合に、得られた直線を追加する。例えば、図9(A)に示すように、候補領域Riの境界上の点Pmから候補領域Rjの境界上の最も近い点を結ぶ直線は、候補領域Ri,Rjの内部を通らないので、統合領域の境界候補となる直線の集合に追加される。また、図9(B)に示すように、候補領域Riの境界上の点Pnから候補領域Rjの境界上の最も近い点を結んだ直線は、候補領域Riの内部を通るので、境界候補としない。   The integration of the two candidate areas is performed as described below. When integrating two candidate region pairs Ri and Rj, first, the closest point among the points on the boundary of one candidate region is obtained from the points on the boundary of one candidate region, and the two points Are connected by straight lines. If the obtained straight line does not pass through the two candidate areas, the obtained straight line is added to a set of straight lines that are boundary candidates of the integrated area. For example, as shown in FIG. 9A, a straight line connecting the point Pm on the boundary of the candidate area Ri and the closest point on the boundary of the candidate area Rj does not pass through the inside of the candidate areas Ri and Rj. It is added to the set of straight lines that are the region boundary candidates. Further, as shown in FIG. 9B, since a straight line connecting the point Pn on the boundary of the candidate area Ri and the closest point on the boundary of the candidate area Rj passes through the inside of the candidate area Ri, do not do.

以上のような処理を、候補領域Ri及びRjの境界上のすべての点について行って、統合領域の境界候補となる直線の集合を求める。   The process as described above is performed for all points on the boundary between the candidate areas Ri and Rj, and a set of straight lines as boundary candidates for the integrated area is obtained.

統合領域の境界候補となる直線の集合が得られると、境界候補となる直線の集合のうちの2本の直線を選択し、選択された2本の直線により囲まれる領域を統合領域としたときに、統合領域の面積が最大となるような2本の直線を特定する。例えば、図10(A)に示すような、境界候補の直線の集合が得られた場合には、直線L3とL5を選択すると、図10(B)に示すような統合領域が得られ、直線L1とL7を選択すると、図10(C)に示すような統合領域が得られる。この場合には、上記図10(C)のような統合領域の面積が最大となるので、統合領域の面積が最大となるような2本の直線として、直線L1とL7が特定される。   When a set of straight lines as boundary candidates for the integrated area is obtained, two straight lines are selected from the set of straight lines as boundary candidates, and the area surrounded by the selected two straight lines is set as the integrated area In addition, two straight lines that maximize the area of the integrated region are specified. For example, when a set of straight lines of boundary candidates as shown in FIG. 10A is obtained, if the straight lines L3 and L5 are selected, an integrated region as shown in FIG. When L1 and L7 are selected, an integrated region as shown in FIG. 10C is obtained. In this case, since the area of the integrated region as shown in FIG. 10C is maximized, the straight lines L1 and L7 are specified as two straight lines that maximize the area of the integrated region.

最後に、得られた統合領域から、道路平面領域でないと判定された道路平面候補領域と重なる領域を削除して、2つの候補領域ペアRi,Rjを統合した領域とする。   Finally, an area overlapping with the road plane candidate area determined not to be a road plane area is deleted from the obtained integrated area, and the two candidate area pairs Ri and Rj are integrated.

次に、本実施の形態に係る平面領域推定装置10の作用について説明する。なお、平面領域推定装置10を搭載した車両の走行中に、道路平面領域を推定する場合を例に説明する。   Next, the operation of the planar area estimation apparatus 10 according to the present embodiment will be described. In addition, the case where a road plane area is estimated while driving | running | working the vehicle carrying the plane area estimation apparatus 10 is demonstrated to an example.

まず、撮像装置12によって、自車両前方の連続撮像が開始されると、コンピュータ14において、図11に示す平面領域推定処理ルーチンが実行される。   First, when the imaging device 12 starts continuous imaging in front of the host vehicle, the computer 14 executes a planar area estimation processing routine shown in FIG.

まず、ステップ100において、撮像装置12から、第1の位置及び第1の姿勢で撮像された第1の画像と、第2の位置及び第2の姿勢で撮像された第2の画像とを順に取得する。   First, in step 100, the first image captured in the first position and the first orientation and the second image captured in the second position and the second orientation are sequentially input from the imaging device 12. get.

そして、ステップ102において、上記ステップ100で取得した第1の画像と第2の画像との各々から特徴点を複数抽出し、ステップ104で、上記ステップ102で抽出された複数の特徴点から、第1の画像と第2の画像との間で対応する対応点を少なくとも8組検索する。そして、ステップ106において、上記ステップ104で検索された少なくとも8組の対応点の画像座標に基づいて、第1の画像を撮像したときの撮像装置12の位置姿勢を基準とした第2の画像を撮像したときの撮像装置12の位置姿勢の変化を表わす並進ベクトル及び回転行列を算出する。   In step 102, a plurality of feature points are extracted from each of the first image and the second image acquired in step 100. In step 104, a plurality of feature points are extracted from the plurality of feature points extracted in step 102. At least eight sets of corresponding points corresponding to the first image and the second image are searched. In step 106, a second image based on the position and orientation of the imaging device 12 when the first image is captured based on the image coordinates of at least eight sets of corresponding points searched in step 104 is obtained. A translation vector and a rotation matrix representing a change in the position and orientation of the imaging device 12 when the image is taken are calculated.

そして、ステップ108において、上記ステップ106で算出された第1の画像と第2の画像との間における並進ベクトル及び回転行列、及び上記ステップ104で検索された第1の画像と第2の画像との各々における対応点の画像座標に基づいて、この対応点が示す特徴点の3次元座標を計算する。次のステップ110では、上記ステップ108で計算された、第1の画像の道路平面を表わす領域内の対応点が示す特徴点の3次元座標に基づいて、道路平面を表わすパラメータを推定する。   In step 108, the translation vector and rotation matrix between the first image and the second image calculated in step 106, and the first image and the second image searched in step 104, The three-dimensional coordinates of the feature point indicated by the corresponding point are calculated based on the image coordinates of the corresponding point. In the next step 110, a parameter representing the road plane is estimated based on the three-dimensional coordinates of the feature point indicated by the corresponding point in the region representing the road plane of the first image calculated in step 108 above.

そして、ステップ112において、上記ステップ106で算出された第1の画像と第2の画像との間における並進ベクトル及び回転行列と、上記ステップ108で推定された道路平面を表わすパラメータとに基づいて、射影変換行列を算出する。ステップ114において、上記ステップ112で算出された射影変換行列に従って、第1の画像を変換する。   In step 112, based on the translation vector and rotation matrix between the first image and the second image calculated in step 106, and the parameter representing the road plane estimated in step 108, A projective transformation matrix is calculated. In step 114, the first image is converted according to the projective transformation matrix calculated in step 112.

次のステップ116では、上記ステップ114で第1の画像を変換した変換画像と、上記ステップ100で取得した第2の画像との各画素の差分値を算出する。そして、ステップ118において、大きさが異なる複数の閾値の各々を用いて、上記ステップ116で算出された各画素の差分値から、階層構造で表わされる複数の道路平面候補領域を検出する。   In the next step 116, a difference value of each pixel between the converted image obtained by converting the first image in step 114 and the second image acquired in step 100 is calculated. In step 118, a plurality of road plane candidate areas represented by a hierarchical structure are detected from the difference value of each pixel calculated in step 116, using each of a plurality of thresholds having different sizes.

ステップ120において、階層構造の階層を示す変数nを初期値である1に設定すると共に、判定対象領域として、最も大きい閾値を用いて検出された少なくとも1つの道路平面候補領域を設定する。次に、ステップ122で、上記ステップ108で算出された対応点の3次元座標のうち、第n階層の判定対象領域である道路平面候補領域内の対応点の3次元座標に基づいて、第n階層の判定対象領域である道路平面候補領域が、道路平面のみを表わしているか、道路平面領域を含まないか、又は不明であるか(何れでもないか)を判定する。   In step 120, the variable n indicating the hierarchy of the hierarchical structure is set to 1 which is an initial value, and at least one road plane candidate area detected using the largest threshold is set as a determination target area. Next, in step 122, among the three-dimensional coordinates of the corresponding points calculated in step 108, the n-th coordinate is calculated based on the three-dimensional coordinates of the corresponding points in the road plane candidate region that is the determination target region of the nth hierarchy. It is determined whether the road plane candidate area that is the determination target area of the hierarchy represents only the road plane, does not include the road plane area, or is unknown (is not any).

そして、ステップ124において、上記ステップ122の第n階層の判定対象領域に対する判定において、不明であると判定された道路平面候補領域が存在するか否かを判定する。不明であると判定された道路平面候補領域が存在する場合には、ステップ126において、階層構造の階層を示す変数nをインクリメントし、ステップ128において、上記ステップ122において不明であると前回判定された道路平面候補領域内に存在する第n階層の道路平面候補領域を、第n階層の判定対象領域として設定して、ステップ122へ戻る。   In step 124, it is determined whether or not there is a road plane candidate region determined to be unknown in the determination on the determination target region in the nth layer in step 122. If there is a road plane candidate area determined to be unknown, in step 126, the variable n indicating the hierarchy of the hierarchical structure is incremented, and in step 128, it was previously determined that it was unknown in step 122 above. The nth layer road plane candidate region existing in the road plane candidate region is set as the determination target region of the nth layer, and the process returns to step 122.

上記ステップ124において、不明であると判定された道路平面候補領域が存在せず、第n階層の判定対象領域の全てについて、道路平面のみを表わしている、又は道路平面領域を含まないと判定された場合には、ステップ130へ移行する。また、上記ステップ124において、不明であると判定された道路平面候補領域が存在する場合であっても、一番小さい閾値を用いて検出された道路平面候補領域について、上記ステップ122の判定が行われた場合には、ステップ130へ移行する。   In step 124, it is determined that there is no road plane candidate area determined to be unknown, and that all the determination target areas in the nth layer represent only the road plane or do not include the road plane area. If YES, go to step 130. Further, even if there is a road plane candidate area determined to be unknown in step 124, the determination in step 122 is performed for the road plane candidate area detected using the smallest threshold. If yes, the process proceeds to step 130.

ステップ130では、上記ステップ122で道路平面のみを表わしていると判定された道路平面候補領域を統合して、道路平面領域として推定する。そして、ステップ132において、推定された道路平面領域を表示装置16に表示させて、平面領域推定処理ルーチンを終了する。   In step 130, the road plane candidate areas determined to represent only the road plane in step 122 are integrated and estimated as a road plane area. In step 132, the estimated road plane area is displayed on the display device 16, and the plane area estimation processing routine is terminated.

また、上記ステップ130は、図12に示す平面候補統合処理ルーチンによって実現される。まず、ステップ150において、上記ステップ122で道路平面のみを表わしていると判定された道路平面候補領域のうち、2つの道路平面候補領域のペアRi、Rj(1≦i,j≦n、i≠j)を選択する。そして、ステップ152において、上記ステップ150で選択された2つの道路平面候補領域のペアRi、Rjが隣り合っているか否かを判定する。2つの道路平面候補領域のペアRi、Rjが隣り合っていないと判定された場合には、上記ステップ150へ戻って、道路平面候補領域の別のペアを選択する。   The step 130 is realized by a plane candidate integration processing routine shown in FIG. First, in step 150, among the road plane candidate areas determined to represent only the road plane in step 122, two road plane candidate area pairs Ri, Rj (1 ≦ i, j ≦ n, i ≠). j) is selected. In step 152, it is determined whether or not the pair Ri and Rj of the two road plane candidate areas selected in step 150 are adjacent to each other. When it is determined that the pair Ri and Rj of the two road plane candidate areas are not adjacent to each other, the process returns to step 150 to select another pair of road plane candidate areas.

一方、上記ステップ152で、2つの道路平面候補領域のペアRi、Rjが隣り合っていると判定された場合には、ステップ154において、2つの道路平面候補領域のペアRi、Rjを統合する。   On the other hand, if it is determined in step 152 that the pair Ri, Rj of the two road plane candidate areas are adjacent to each other, in step 154, the pair Ri, Rj of the two road plane candidate areas is integrated.

そして、ステップ156では、上記ステップ122で道路平面のみを表わしていると判定された道路平面候補領域のうち、全ての道路平面候補領域のペアについて、上記ステップ152の判定処理が行われたか否かを判定し、上記ステップ152の判定処理が行われていない道路平面候補領域のペアが存在する場合には、上記ステップ150へ戻り、道路平面候補領域の別のペアを選択する。一方、上記ステップ156において、全ての道路平面候補領域のペアについて、上記ステップ152の判定処理が行われた場合には、平面候補統合処理ルーチンを終了する。   In step 156, it is determined whether or not the determination processing in step 152 has been performed for all pairs of road plane candidate areas among the road plane candidate areas determined to represent only the road plane in step 122. If there is a pair of road plane candidate areas that have not been subjected to the determination process of step 152, the process returns to step 150 to select another pair of road plane candidate areas. On the other hand, in step 156, if the determination process of step 152 is performed for all road plane candidate area pairs, the plane candidate integration process routine is terminated.

上記ステップ154の処理は、図13に示す処理ルーチンによって実現される。まず、ステップ158において、一方の道路平面候補領域の境界上の点から、もう一方の道路平面候補領域の境界上の最も近い点までの直線を求める。ステップ160では、上記ステップ158で得られた直線が、どちらの道路平面候補領域内も通らないか否かを判定し、どちらの道路平面候補領域内も通らない場合には、統合領域の境界候補となる直線の集合に、上記ステップ158で得られた直線を追加する。   The processing in step 154 is realized by the processing routine shown in FIG. First, in step 158, a straight line from a point on the boundary of one road plane candidate region to the closest point on the other road plane candidate region is obtained. In step 160, it is determined whether the straight line obtained in step 158 does not pass through any road plane candidate area. If neither road plane candidate area passes through, the boundary candidate of the integrated area is determined. The straight line obtained in step 158 is added to the set of straight lines.

そして、ステップ162において、一方の道路平面候補領域の全ての境界上の点について、上記ステップ158、160の処理を実行したか否かを判定する。全ての境界上の点について実行していない場合には、上記ステップ158へ戻り、一方の道路平面候補領域の境界上の他の点について、上記ステップ158、160の処理を実行する。   In step 162, it is determined whether or not the processing in steps 158 and 160 has been executed for all points on the boundary of one road plane candidate region. If not executed for all the points on the boundary, the process returns to step 158, and the processes of steps 158 and 160 are executed for the other points on the boundary of one road plane candidate region.

上記ステップ162で、全ての境界上の点について実行したと判定された場合には、ステップ164において、境界候補となる直線の集合から、2本の直線により囲まれる領域を統合領域としたときに統合領域の面積が最大となるような2本の直線を特定して、特定した2本の直線を統合領域の境界として、2つの道路平面候補領域を統合する。   If it is determined in step 162 that the processing has been performed for all points on the boundary, in step 164, when a region surrounded by two straight lines is defined as an integrated region from a set of straight lines as boundary candidates. Two straight lines that maximize the area of the integrated region are specified, and the two road plane candidate regions are integrated using the specified two straight lines as boundaries of the integrated region.

そして、ステップ166において、上記ステップ164で得られた統合領域から、上記ステップ122で道路平面領域を含まないと判定された道路平面候補領域と重なる領域を削除して、処理ルーチンを終了する。   In step 166, the overlapping area with the road plane candidate area determined not to include the road plane area in step 122 is deleted from the integrated area obtained in step 164, and the processing routine is terminated.

以上説明したように、第1の実施の形態に係る平面領域推定装置によれば、第1の画像を変換した変換画像と第2の画像との各画素の差分から、大きさが異なる複数の閾値の各々を用いて検出された、階層構造で表わされる複数の平面候補領域について、検出に用いられた閾値の大きさの降順に、道路平面のみを表わしているか否かを順次判定して、なるべく大きい範囲の領域として、道路平面を表わす領域を検出することができる。また、パターンのない領域があっても、誤って道路平面を表わす領域として検出することを防止することができる。また、道路平面のみを表わす領域を統合して、道路平面を表わす領域を精度よく推定することができる。   As described above, according to the planar region estimation device according to the first embodiment, a plurality of different sizes are obtained from the difference between the pixels of the converted image obtained by converting the first image and the second image. For a plurality of candidate plane areas represented by a hierarchical structure detected using each of the threshold values, sequentially determine whether or not they represent only road planes in descending order of the threshold values used for detection, An area representing a road plane can be detected as an area as large as possible. Further, even if there is an area without a pattern, it can be prevented that it is erroneously detected as an area representing a road plane. In addition, it is possible to accurately estimate the area representing the road plane by integrating the areas representing only the road plane.

また、道路平面候補領域内の対応点の3次元位置に基づいて、道路平面候補領域が道路平面のみを表わしているか否かを精度よく判定することができる。   Further, based on the three-dimensional position of the corresponding point in the road plane candidate area, it can be accurately determined whether or not the road plane candidate area represents only the road plane.

次に、第2の実施の形態に係る平面領域推定装置について説明する。なお、第2の実施の形態に係る平面領域推定装置は、第1の実施の形態と同様の構成となっているため、同一符号を付して説明を省略する。   Next, a planar area estimation apparatus according to the second embodiment will be described. In addition, since the planar area estimation apparatus which concerns on 2nd Embodiment has the structure similar to 1st Embodiment, it attaches | subjects the same code | symbol and abbreviate | omits description.

第2の実施の形態では、オプティカルフローの近似式を利用して、第1の画像を変換している点が、第1の実施の形態と異なっている。   The second embodiment is different from the first embodiment in that the first image is converted using an optical flow approximation.

第2の実施の形態では、画像変換部32によって、第1の画像における道路平面を表わす領域を、第2の画像において道路平面が表されるべき領域に重ねるように変換するための変換を示すオプティカルフローの近似式を計算し、計算された近似式により、第1の画像を変換する。   In the second embodiment, the conversion for converting the area representing the road plane in the first image so as to overlap the area where the road plane should be represented in the second image is performed by the image conversion unit 32. An approximate expression of optical flow is calculated, and the first image is converted by the calculated approximate expression.

位置姿勢算出部24により算出された第1の画像と第2の画像との間の位置及び姿勢の変化が、回転行列w=(w,w,w)と並進ベクトルt=(t,t,t)で表されるとき、道路平面AX+BY+CZ=1上にある点を投影した点p=(x,y)の画像間のオプティカルフローの近似式(u,v)は、以下の(17)式、(18)式により計算される。 Changes in the position and orientation between the first image and the second image calculated by the position / orientation calculation unit 24 are represented by a rotation matrix w = (w x , w y , w z ) T and a translation vector t = ( t x , t y , t z ) When expressed by T , an approximate expression (u, v) of the optical flow between the images of the point p = (x, y) T projected from the point on the road plane AX + BY + CZ = 1 ) T is calculated by the following equations (17) and (18).

Figure 2010009236
Figure 2010009236

上記(17)式、(18)式により、第1の画像における点p=(x,y)に対応する第2の画像上の点はp’=(x+u,y+v)となる。上記(17)式、(18)式により、第1の画像の各画素について、変換画像において対応する画素を求め、第1の画像を変換して変換画像を生成する。 From the above equations (17) and (18), the point on the second image corresponding to the point p = (x, y) T in the first image is p ′ = (x + u, y + v) T. For each pixel of the first image, the corresponding pixel in the converted image is obtained by the above equations (17) and (18), and the converted image is generated by converting the first image.

なお、第2の実施の形態に係る平面領域推定装置の他の構成及び作用は、第1の実施の形態と同様であるため、説明を省略する。   In addition, since the other structure and effect | action of the planar area estimation apparatus which concern on 2nd Embodiment are the same as that of 1st Embodiment, description is abbreviate | omitted.

次に、第3の実施の形態に係る平面領域推定装置について説明する。なお、第1の実施の形態と同様の構成となっている部分については、同一符号を付して説明を省略する。   Next, a planar region estimation apparatus according to the third embodiment will be described. In addition, about the part which becomes the structure similar to 1st Embodiment, the same code | symbol is attached | subjected and description is abbreviate | omitted.

第3の実施の形態では、道路平面のみを表わしているか道路平面領域を含まないか不明であると前回判定された道路平面候補領域内から、閾値を用いて、道路平面候補領域を検出するようになっている点が、第1の実施の形態と異なっている。   In the third embodiment, a road plane candidate region is detected by using a threshold value from within a road plane candidate region that was previously determined to represent only a road plane or not include a road plane region. This is different from the first embodiment.

図14に示すように、第3の実施の形態に係る平面領域推定装置310のコンピュータ314は、画像入力部18と、特徴点抽出部20と、対応点検索部22と、位置姿勢算出部24と、3次元位置計算部26と、平面推定部30と、画像変換部32と、差分計算部34と、各画素の差分値に基づいて、後述する平面領域判定部38で不明であると前回判定された道路平面候補領域内から、道路平面候補領域を検出する平面候補領域検出部336と、平面候補領域検出部336によって検出された道路平面候補領域が道路平面のみを表わしている否かを判定する平面領域判定部338と、領域統合部40とを備えている。   As illustrated in FIG. 14, the computer 314 of the planar region estimation apparatus 310 according to the third embodiment includes an image input unit 18, a feature point extraction unit 20, a corresponding point search unit 22, and a position / orientation calculation unit 24. And the three-dimensional position calculation unit 26, the plane estimation unit 30, the image conversion unit 32, the difference calculation unit 34, and the plane area determination unit 38, which will be described later, based on the difference value of each pixel. A plane candidate area detecting unit 336 for detecting a road plane candidate area from the determined road plane candidate areas, and whether or not the road plane candidate area detected by the plane candidate area detecting unit 336 represents only a road plane. A plane region determination unit 338 for determination and a region integration unit 40 are provided.

平面候補領域検出部336は、大きさが異なる複数の閾値について、大きい閾値から降順に、以下に説明するように、複数の道路平面候補領域を順次検出する。   The plane candidate area detection unit 336 sequentially detects a plurality of road plane candidate areas for a plurality of thresholds having different sizes in descending order from the larger threshold, as described below.

まず、各画素の差分値に基づいて、最も大きい閾値を用いて、差分値が閾値未満となる領域を、道路平面候補領域として検出する。   First, based on the difference value of each pixel, using the largest threshold value, an area where the difference value is less than the threshold value is detected as a road plane candidate area.

次に、前回の検出により得られた道路平面候補領域のうち、平面領域判定部338によって不明であると判定された道路平面候補領域内から、次に大きい閾値を用いて、差分値が閾値未満となる領域を、道路平面候補領域として検出する。   Next, among the road plane candidate areas obtained by the previous detection, the difference value is less than the threshold value using the next largest threshold value from within the road plane candidate area determined to be unknown by the plane area determination unit 338. Is detected as a road plane candidate region.

そして、平面領域判定部338によって不明であると判定された道路平面候補領域がなくなるまで、前回の検出により得られた道路平面候補領域のうち、平面領域判定部338によって不明であると判定された道路平面候補領域内から、次の大きい閾値を用いて、差分値が閾値未満となる領域を、道路平面候補領域として検出する検出処理を繰り返し行う。   Then, until there is no road plane candidate area determined to be unknown by the plane area determination unit 338, among the road plane candidate areas obtained by the previous detection, the plane area determination unit 338 determines that it is unknown. From the road plane candidate area, using the next large threshold value, the detection process of detecting the area where the difference value is less than the threshold value as the road plane candidate area is repeated.

平面領域判定部338は、平面候補領域検出部336によって道路平面候補領域が検出される毎に、対応点検索部22で検索された対応点の画像上の位置、及び3次元位置計算部26により計算された対応点の3次元位置に基づいて、検出された道路平面候補領域が、道路平面のみを表わしているか、道路平面領域を含まないか、又は不明であるか(何れでもないか)を判定する。   The plane area determination unit 338 determines the position on the image of the corresponding point searched by the corresponding point search unit 22 and the three-dimensional position calculation unit 26 every time the road plane candidate area is detected by the plane candidate area detection unit 336. Based on the calculated three-dimensional position of the corresponding point, whether the detected road plane candidate area represents only the road plane, does not include the road plane area, or is unknown (is not any) judge.

道路平面候補領域が不明であると判定されれば、上記の平面候補領域検出部336によって、不明であると判定された道路平面候補領域内から、閾値を用いて、再び道路平面候補領域が検出される。一方、道路平面候補領域が道路平面のみを表わしている、又は道路平面領域を含まないと判定された場合には、その道路平面候補領域内から、平面候補領域検出部336によって道路平面候補領域が検出されない。   If it is determined that the road plane candidate area is unknown, the road plane candidate area is detected again from the road plane candidate area determined to be unknown by the plane candidate area detection unit 336 using a threshold value. Is done. On the other hand, when it is determined that the road plane candidate area represents only the road plane or does not include the road plane area, the road plane candidate area is determined by the plane candidate area detection unit 336 from the road plane candidate area. Not detected.

次に、第3の実施の形態に係る平面領域推定処理ルーチンについて、図15を用いて説明する。なお、第1の実施の形態と同様の処理については、同一符号を付して詳細な説明を省略する。   Next, a planar area estimation processing routine according to the third embodiment will be described with reference to FIG. In addition, about the process similar to 1st Embodiment, the same code | symbol is attached | subjected and detailed description is abbreviate | omitted.

まず、ステップ100において、撮像装置12から、第1の画像と第2の画像とを順に取得し、ステップ102において、取得した第1の画像と第2の画像との各々から特徴点を複数抽出し、ステップ104で、抽出された複数の特徴点から、第1の画像と第2の画像との間で対応する対応点を少なくとも8組検索する。そして、ステップ106において、第1の画像を撮像したときの撮像装置12の位置姿勢を基準とした第2の画像を撮像したときの撮像装置12の位置姿勢の変化を表わす並進ベクトル及び回転行列を算出する。   First, in step 100, a first image and a second image are acquired in order from the imaging device 12, and in step 102, a plurality of feature points are extracted from each of the acquired first image and second image. In step 104, at least eight sets of corresponding points corresponding to the first image and the second image are searched from the plurality of extracted feature points. In step 106, a translation vector and a rotation matrix representing a change in the position and orientation of the imaging device 12 when the second image is taken with reference to the position and orientation of the imaging device 12 when the first image is taken. calculate.

そして、ステップ108において、対応点が示す特徴点の3次元座標を計算する。次のステップ110では、道路平面を表わすパラメータを推定する。ステップ112において、射影変換行列を算出し、ステップ114において、算出された射影変換行列に従って、第1の画像を変換する。   In step 108, the three-dimensional coordinates of the feature point indicated by the corresponding point are calculated. In the next step 110, a parameter representing the road plane is estimated. In step 112, a projective transformation matrix is calculated, and in step 114, the first image is converted according to the calculated projective transformation matrix.

次のステップ116では、第1の画像を変換した変換画像と第2の画像との各画素の差分値を算出する。そして、ステップ350において、閾値を識別するための変数nを初期値である1に設定し、ステップ352において、最も大きい閾値(n番目に大きい閾値)を用いて、上記ステップ116で算出された各画素の差分値から、道路平面候補領域を検出する。   In the next step 116, the difference value of each pixel between the converted image obtained by converting the first image and the second image is calculated. In step 350, a variable n for identifying a threshold is set to 1 which is an initial value, and in step 352, each of the values calculated in step 116 is calculated using the largest threshold (nth largest threshold). A road plane candidate region is detected from the pixel difference value.

次のステップ354では、上記ステップ108で算出された対応点の3次元座標のうち、上記ステップ352又は後述するステップ356でn番目に大きい閾値を用いて検出された道路平面候補領域内の対応点の3次元座標に基づいて、n番目に大きい閾値を用いて検出された道路平面候補領域の各々が、道路平面のみを表わしているか、道路平面領域を含まないか、又は不明であるか(何れでもないか)を判定する。   In the next step 354, among the three-dimensional coordinates of the corresponding point calculated in step 108, the corresponding point in the road plane candidate region detected using the nth largest threshold value in step 352 or step 356 described later. Whether each of the road plane candidate areas detected using the nth largest threshold value represents only the road plane, does not include the road plane area, or is unknown (whichever But not).

そして、ステップ124において、上記ステップ354の判定において、不明であると判定された道路平面候補領域が存在するか否かを判定する。不明であると判定された道路平面候補領域が存在する場合には、ステップ356において、閾値を識別する変数nをインクリメントする。そして、ステップ358において、上記ステップ354において不明であると前回判定された各道路平面候補領域内の各画素の差分値から、n番目に大きい閾値を用いて、道路平面候補領域を各々検出して、ステップ354へ戻る。   Then, in step 124, it is determined whether or not there is a road plane candidate area determined to be unknown in the determination in step 354. If there is a road plane candidate area determined to be unknown, in step 356, the variable n for identifying the threshold value is incremented. In step 358, each of the road plane candidate areas is detected using the nth largest threshold value from the difference value of each pixel in each road plane candidate area previously determined to be unknown in step 354. Return to step 354.

上記ステップ124において、不明であると判定された道路平面候補領域が存在せず、n番目に大きい閾値を用いて検出された道路平面候補領域の全てについて、道路平面のみを表わしている、又は道路平面領域を含まないと判定された場合には、ステップ130へ移行する。また、上記ステップ124において、不明であると判定された道路平面候補領域が存在する場合であっても、一番小さい閾値を用いて検出された道路平面候補領域について、上記ステップ354の判定が行われた場合には、ステップ130へ移行する。   In step 124, there is no road plane candidate area determined to be unknown, and all road plane candidate areas detected using the nth largest threshold value represent only road planes, or roads When it is determined that the plane area is not included, the process proceeds to step 130. Further, even when there is a road plane candidate area determined to be unknown in step 124, the determination in step 354 is performed for the road plane candidate area detected using the smallest threshold. If yes, the process proceeds to step 130.

ステップ130では、上記ステップ122で道路平面のみを表わしていると判定された道路平面候補領域を統合して、道路平面領域として推定する。そして、ステップ132において、推定された道路平面領域を表示装置16に表示させて、平面領域推定処理ルーチンを終了する。   In step 130, the road plane candidate areas determined to represent only the road plane in step 122 are integrated and estimated as a road plane area. In step 132, the estimated road plane area is displayed on the display device 16, and the plane area estimation processing routine is terminated.

以上説明したように、第3の実施の形態に係る平面領域推定装置によれば、第1の画像を変換した変換画像と第2の画像との各画素の差分から、大きさが異なる複数の閾値の降順に、閾値を用いて道路平面候補領域を検出して、道路平面のみを表わしているか否かを順次判定して、なるべく大きい範囲の領域として、道路平面を表わす領域を検出することができる。また、パターンのない領域があっても、誤って道路平面を表わす領域として検出することを防止することができる。また、道路平面のみを表わす領域を統合して、道路平面を表わす領域を精度よく推定することができる。   As described above, according to the planar region estimation device according to the third embodiment, a plurality of different sizes are obtained from the difference between each pixel of the converted image obtained by converting the first image and the second image. A road plane candidate area is detected using threshold values in descending order of threshold values, and it is sequentially determined whether or not only a road plane is represented, and an area representing a road plane is detected as an area as large as possible. it can. Further, even if there is an area without a pattern, it can be prevented that it is erroneously detected as an area representing a road plane. In addition, it is possible to accurately estimate the area representing the road plane by integrating the areas representing only the road plane.

なお、上記の第1の実施の形態〜第3の実施の形態では、2つの画像から抽出された複数の特徴点から、2つの画像の間で対応する点を検索する場合を例に説明したが、2つの画像の一方の画像から特徴点を抽出し、他方の画像から、抽出された特徴点に対応する対応点を検索するようにしてもよい。   In the first to third embodiments, the case where a corresponding point is searched between two images from a plurality of feature points extracted from the two images has been described as an example. However, a feature point may be extracted from one of the two images, and a corresponding point corresponding to the extracted feature point may be searched from the other image.

また、上記の実施の形態では、撮像装置の位置姿勢の変化を表わすものとして、並進ベクトル及び回転行列を算出する場合を例に説明したが、これに限定されるものではなく、撮像装置の位置姿勢の変化を表わすものとして他の指標を算出するようにしてもよい。   Further, in the above embodiment, the case where the translation vector and the rotation matrix are calculated as an example representing the change in the position and orientation of the imaging device has been described. However, the present invention is not limited to this, and the position of the imaging device Another index may be calculated as representing a change in posture.

また、平面領域推定処理ルーチンにおいて、一番小さい閾値を用いて検出された道路平面候補領域についても、不明であると判定された場合には、道路平面候補領域の検出及び道路平面を表わす領域であるかの判定の繰り返しを終了する場合を例に説明したが、これに限定されるものではなく、更に小さい閾値を新たに用意して、道路平面候補領域を検出し、道路平面を表わす領域であるかの判定を行うようにしてもよい。   Also, in the plane area estimation processing routine, if it is determined that the road plane candidate area detected using the smallest threshold is also unknown, the road plane candidate area is detected and an area representing the road plane is displayed. The case where the repetition of the determination of the end is described as an example. However, the present invention is not limited to this, and a new lower threshold is prepared to detect a road plane candidate area, and an area representing the road plane is used. You may make it determine whether there exists.

本発明の第1の実施の形態に係る平面領域推定装置を示すブロック図である。It is a block diagram which shows the planar area estimation apparatus which concerns on the 1st Embodiment of this invention. 位置姿勢の変化を表わす並進ベクトル及び回転行列を説明するための図である。It is a figure for demonstrating the translation vector and rotation matrix showing the change of a position and orientation. (A)第1の画像を示すイメージ図、(B)第2の画像を示すイメージ図、及び(C)第1の画像を射影変換により変換した変換画像を示すイメージ図である。(A) An image diagram showing a first image, (B) An image diagram showing a second image, and (C) An image diagram showing a converted image obtained by converting the first image by projective transformation. (A)最も大きい閾値Th1を用いて検出された道路平面候補領域を示すイメージ図、(B)次に大きい閾値Th2を用いて検出された道路平面候補領域を示すイメージ図、及び(C)最も小さい閾値Th3を用いて検出された道路平面候補領域を示すイメージ図である。(A) Image diagram showing a road plane candidate region detected using the largest threshold Th1, (B) Image diagram showing a road plane candidate region detected using the next largest threshold Th2, and (C) the smallest threshold It is an image figure which shows the road plane candidate area | region detected using Th3. 検出された道路平面候補領域の階層構造を示すイメージ図である。It is an image figure which shows the hierarchical structure of the detected road plane candidate area | region. 道路平面上にある特徴点と、道路平面上にない特徴点とを示すイメージ図である。It is an image figure which shows the feature point which exists on a road plane, and the feature point which is not on a road plane. 各道路平面候補領域に対する判定結果を示すイメージ図である。It is an image figure which shows the determination result with respect to each road plane candidate area | region. (A)道路平面のみを表わすと判定された道路平面候補領域を示すイメージ図、及び(B)道路平面候補領域統合して推定された道路平面を表わす領域を示すイメージ図である。(A) The image figure which shows the road plane candidate area | region determined to represent only a road plane, (B) The image figure which shows the area | region showing the road plane estimated by unifying a road plane candidate area | region. (A)一方の候補領域の境界上の点から他方の候補領域の境界上の最も近い点を結ぶ直線であって、何れの候補領域の内部も通らない直線を示す図、及び(B)一方の候補領域の境界上の点から他方の候補領域の境界上の最も近い点を結ぶ直線であって、一方の候補領域の内部を通る直線を示す図である。(A) A straight line connecting a point on the boundary of one candidate region to the closest point on the boundary of the other candidate region, and showing a straight line that does not pass through any candidate region, and (B) It is a figure which shows the straight line which connects the nearest point on the boundary of the other candidate area | region from the point on the boundary of one candidate area | region, and passes through the inside of one candidate area | region. (A)統合領域の境界候補となる直線の集合を示す図、(B)境界候補となる直線の集合から選択された2本の直線により囲まれる統合領域を示す図、及び(C)境界候補となる直線の集合から特定された2本の直線により囲まれる面積が最大となる統合領域を示す図である。(A) The figure which shows the set of the straight line used as the boundary candidate of an integrated area, (B) The figure which shows the integrated area enclosed by two straight lines selected from the set of the straight line used as a boundary candidate, (C) The boundary candidate It is a figure which shows the integrated area | region where the area surrounded by two straight lines specified from the set of straight lines becomes the maximum. 本発明の第1の実施の形態に係る平面領域推定装置のコンピュータにおける平面領域推定処理ルーチンを示すフローチャートである。It is a flowchart which shows the plane area estimation process routine in the computer of the plane area estimation apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施の形態に係る平面領域推定装置のコンピュータにおける平面候補統合処理ルーチンを示すフローチャートである。It is a flowchart which shows the plane candidate integration process routine in the computer of the plane area estimation apparatus which concerns on the 1st Embodiment of this invention. 2つの候補領域を統合する処理の処理ルーチンを示すフローチャートである。It is a flowchart which shows the process routine of the process which integrates two candidate area | regions. 本発明の第3の実施の形態に係る平面領域推定装置を示すブロック図である。It is a block diagram which shows the plane area estimation apparatus which concerns on the 3rd Embodiment of this invention. 本発明の第3の実施の形態に係る平面領域推定装置のコンピュータにおける平面領域推定処理ルーチンを示すフローチャートである。It is a flowchart which shows the plane area estimation process routine in the computer of the plane area estimation apparatus which concerns on the 3rd Embodiment of this invention.

符号の説明Explanation of symbols

10、310 平面領域推定装置
12 撮像装置
14、314 コンピュータ
20 特徴点抽出部
22 対応点検索部
24 位置姿勢算出部
26 3次元位置計算部
30 平面推定部
32 画像変換部
34 差分計算部
36、336 平面候補領域検出部
38、338 平面領域判定部
40 領域統合部
DESCRIPTION OF SYMBOLS 10,310 Planar area estimation apparatus 12 Imaging apparatus 14, 314 Computer 20 Feature point extraction part 22 Corresponding point search part 24 Position and orientation calculation part 26 Three-dimensional position calculation part 30 Plane estimation part 32 Image conversion part 34 Difference calculation part 36, 336 Plane candidate area detection unit 38, 338 Plane area determination unit 40 Area integration unit

Claims (9)

推定対象平面を含む範囲を撮像した複数の画像を出力する移動体に搭載された撮像手段と、
前記撮像手段が第1の位置及び第1の姿勢となっているときに前記撮像手段によって撮像された第1画像における推定対象平面を表わす領域を、前記第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢で前記撮像手段によって撮像された第2画像において推定対象平面が表されるべき領域に変換するための変換によって、前記第1画像を変換する画像変換手段と、
前記画像変換手段によって変換された前記第1画像と前記第2画像とに基づいて、各画素について画素値の差分を算出する差分算出手段と、
大きさが異なる複数の閾値の各々を用いて、前記算出された画素値の差分が前記閾値未満となる領域を平面候補領域として検出する領域検出手段と、
最も大きい閾値を用いて検出された前記平面候補領域の各々が推定対象平面のみを表わしているか否かを判定し、次に大きい閾値から降順に、前記閾値を用いて検出された前記平面候補領域のうち、前記推定対象平面のみを表していないと前回判定された前記平面候補領域内から検出された前記平面候補領域の各々について、前記推定対象平面のみを表わしているか否かを判定する判定を順次行う判定手段と、
前記判定手段によって前記推定対象平面のみを表わしていると判定された平面候補領域を統合して、前記推定対象平面を表わす領域を推定する領域推定手段と、
を含む平面領域推定装置。
An imaging unit mounted on a moving body that outputs a plurality of images obtained by imaging a range including the estimation target plane;
An area representing the estimation target plane in the first image captured by the imaging unit when the imaging unit is in the first position and the first orientation is different from the first position and the first orientation. Image conversion means for converting the first image by conversion for converting into an area in which the estimation target plane is to be represented in the second image captured by the imaging means at the second position and the second orientation;
Difference calculating means for calculating a difference in pixel value for each pixel based on the first image and the second image converted by the image converting means;
Using each of a plurality of thresholds having different sizes, an area detection unit that detects an area where the difference between the calculated pixel values is less than the threshold as a plane candidate area;
It is determined whether each of the plane candidate areas detected using the largest threshold represents only the estimation target plane, and the plane candidate areas detected using the threshold in descending order from the next largest threshold Determining whether or not each of the plane candidate areas detected from within the plane candidate area previously determined as not representing only the estimation target plane represents only the estimation target plane. Sequential determination means;
Area estimation means for integrating the plane candidate areas determined to represent only the estimation target plane by the determination means and estimating the area representing the estimation target plane;
A plane region estimation apparatus including:
推定対象平面を含む範囲を撮像した複数の画像を出力する移動体に搭載された撮像手段と、
前記撮像手段が第1の位置及び第1の姿勢となっているときに前記撮像手段によって撮像された第1画像における推定対象平面を表わす領域を、前記第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢で前記撮像手段によって撮像された第2画像において推定対象平面が表されるべき領域に変換するための変換によって、前記第1画像を変換する画像変換手段と、
前記画像変換手段によって変換された前記第1画像と前記第2画像とに基づいて、各画素について画素値の差分を算出する差分算出手段と、
大きさが異なる複数の閾値のうち最も大きい閾値を用いて、前記算出された画素値の差分が前記閾値未満となる領域を平面候補領域として検出すると共に、前記平面候補領域が推定対象平面のみを表わしているか否かを判定し、次に大きい閾値から降順に、前記推定対象平面のみを表していないと前回判定された前記平面候補領域内から、前記閾値を用いて、前記算出された画素値の差分が前記閾値未満となる領域を平面候補領域として検出すると共に、前記平面候補領域が推定対象平面のみを表わしているか否かを判定する判定を順次行う判定手段と、
前記判定手段によって前記推定対象平面のみを表わしていると判定された平面候補領域を統合して、前記推定対象平面を表わす領域を推定する領域推定手段と、
を含む平面領域推定装置。
An imaging unit mounted on a moving body that outputs a plurality of images obtained by imaging a range including the estimation target plane;
The region representing the estimation target plane in the first image captured by the imaging unit when the imaging unit is in the first position and the first orientation is different from the first position and the first orientation. Image conversion means for converting the first image by conversion for converting to an area in which the estimation target plane is to be represented in the second image imaged by the imaging means at the second position and the second orientation;
Difference calculating means for calculating a difference in pixel value for each pixel based on the first image and the second image converted by the image converting means;
Using a largest threshold value among a plurality of threshold values having different sizes, an area where the difference between the calculated pixel values is less than the threshold value is detected as a plane candidate area, and the plane candidate area includes only an estimation target plane. The calculated pixel value is determined using the threshold value from within the plane candidate region that was previously determined not to represent only the estimation target plane in descending order from the next largest threshold value. A determination unit that sequentially detects a region where the difference is less than the threshold as a plane candidate region and determines whether or not the plane candidate region represents only the estimation target plane;
Area estimation means for integrating the plane candidate areas determined to represent only the estimation target plane by the determination means and estimating the area representing the estimation target plane;
A plane region estimation apparatus including:
前記判定手段は、最も大きい閾値を用いて検出された前記平面候補領域の各々が、前記推定対象平面のみを表わす領域、及び前記推定対象平面を表わす領域を含む領域の何れであるかを判定し、次に大きい閾値から降順に、前記閾値を用いて検出された前記平面候補領域のうち、前記推定対象平面を表わす領域を含む領域であると前回判定された前記平面候補領域内から検出された前記平面候補領域の各々について、前記推定対象平面のみを表わす領域及び前記推定対象平面を表わす領域を含む領域の何れであるかを判定する判定を順次行う請求項1記載の平面領域推定装置。   The determination means determines whether each of the plane candidate areas detected using the largest threshold is an area that represents only the estimation target plane or an area that includes an area that represents the estimation target plane. In the descending order from the next largest threshold value, the plane candidate areas detected using the threshold value are detected from the plane candidate areas previously determined to be areas including the area representing the estimation target plane. The planar region estimation apparatus according to claim 1, wherein for each of the planar candidate regions, determination is sequentially performed to determine which of the region representing only the estimation target plane and the region including the region representing the estimation target plane. 前記判定手段は、最も大きい閾値を用いて、前記算出された画素値の差分が前記閾値未満となる領域を平面候補領域として検出すると共に、前記平面候補領域が、前記推定対象平面のみを表わす領域、及び前記推定対象平面を表わす領域を含む領域の何れであるかを判定し、次に大きい閾値から降順に、前記推定対象平面を表わす領域を含む領域であると前回判定された前記平面候補領域内から、前記閾値を用いて、前記算出された画素値の差分が前記閾値未満となる領域を平面候補領域として検出すると共に、前記平面候補領域が、前記推定対象平面のみを表わす領域、及び前記推定対象平面を表わす領域を含む領域の何れであるかを判定する判定を順次行う請求項2記載の平面領域推定装置。   The determination unit detects an area where the difference between the calculated pixel values is less than the threshold as a plane candidate area using the largest threshold, and the plane candidate area represents only the estimation target plane. And the plane candidate area previously determined to be an area including the area representing the estimation target plane in descending order from the next largest threshold value. The region where the calculated pixel value difference is less than the threshold is detected as a plane candidate region using the threshold value, and the plane candidate region represents only the estimation target plane, and The planar area estimation apparatus according to claim 2, wherein determination is sequentially performed to determine which area includes an area representing the estimation target plane. 前記撮像手段によって撮像された第1画像及び第2画像の各々から、特徴点であって、かつ、第1画像及び第2画像の間で対応した点を検索する検索手段と、
前記検索手段によって検索された前記対応した点に基づいて、前記第1の位置及び第1の姿勢と前記第2の位置及び第2の姿勢との相対関係を算出する位置姿勢算出手段と、
前記検索手段によって検索された前記対応した点と前記位置姿勢算出手段によって算出された相対関係とに基づいて、前記第1画像における推定対象平面上の特徴点の3次元位置を算出する位置算出手段と、
前記位置算出手段によって算出された前記推定対象平面上の特徴点の3次元位置に基づいて、前記推定対象平面を表わすパラメータを算出する平面パラメータ算出手段とを更に含み、
前記画像変換手段は、前記位置姿勢算出手段によって算出された相対関係、及び前記平面パラメータ算出手段によって算出された前記推定対象平面を表わすパラメータに基づいて、前記変換の変換行列を算出し、前記変換行列に基づいて、前記第1画像を変換する請求項1〜請求項4の何れか1項記載の平面領域推定装置。
Search means for searching for a point that is a feature point and corresponds between the first image and the second image from each of the first image and the second image imaged by the imaging means;
Position and orientation calculation means for calculating a relative relationship between the first position and the first attitude and the second position and the second attitude based on the corresponding points searched by the search means;
Position calculation means for calculating a three-dimensional position of a feature point on the estimation target plane in the first image based on the corresponding point searched by the search means and the relative relationship calculated by the position and orientation calculation means. When,
Plane parameter calculation means for calculating a parameter representing the estimation target plane based on the three-dimensional position of the feature point on the estimation target plane calculated by the position calculation means;
The image conversion unit calculates a conversion matrix of the conversion based on the relative relationship calculated by the position and orientation calculation unit and a parameter representing the estimation target plane calculated by the plane parameter calculation unit, and the conversion The planar area estimation apparatus according to claim 1, wherein the first image is converted based on a matrix.
前記撮像手段によって撮像された第1画像及び第2画像の各々から、特徴点であって、かつ、第1画像及び第2画像の間で対応した点を検索する検索手段と、
前記検索手段によって検索された前記対応した点に基づいて、前記第1の位置及び第1の姿勢と前記第2の位置及び第2の姿勢との相対関係を算出する位置姿勢算出手段と、
前記検索手段によって検索された前記対応した点と前記位置姿勢算出手段によって算出された相対関係とに基づいて、前記検索手段によって検索された前記対応した点の3次元位置を算出する位置算出手段とを更に含み、
前記判定手段は、前記平面候補領域内の前記対応した点の3次元位置に基づいて、前記平面候補領域が前記推定対象平面のみを表わしているか否かを判定する請求項1〜請求項5の何れか1項記載の平面領域推定装置。
Search means for searching for a point that is a feature point and corresponds between the first image and the second image from each of the first image and the second image imaged by the imaging means;
Position and orientation calculation means for calculating a relative relationship between the first position and the first attitude and the second position and the second attitude based on the corresponding points searched by the search means;
Position calculating means for calculating a three-dimensional position of the corresponding point searched by the searching means based on the corresponding point searched by the searching means and the relative relation calculated by the position and orientation calculating means; Further including
6. The determination unit according to claim 1, wherein the determination unit determines whether the plane candidate area represents only the estimation target plane based on a three-dimensional position of the corresponding point in the plane candidate area. The planar area estimation apparatus according to any one of the preceding claims.
前記差分算出手段は、各画素について、画素を含む所定領域の画素値の差分を算出する請求項1〜請求項6の何れか1項記載の平面領域推定装置。   The planar area estimation apparatus according to any one of claims 1 to 6, wherein the difference calculation unit calculates a difference between pixel values of a predetermined area including the pixel for each pixel. コンピュータを、
推定対象平面を含む範囲を撮像した複数の画像を出力する移動体に搭載された撮像手段が第1の位置及び第1の姿勢となっているときに前記撮像手段によって撮像された第1画像における推定対象平面を表わす領域を、前記第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢で前記撮像手段によって撮像された第2画像において推定対象平面が表されるべき領域に変換するための変換によって、前記第1画像を変換する画像変換手段、
前記画像変換手段によって変換された前記第1画像と前記第2画像とに基づいて、各画素について画素値の差分を算出する差分算出手段、
大きさが異なる複数の閾値の各々を用いて、前記算出された画素値の差分が前記閾値未満となる領域を平面候補領域として検出する領域検出手段、
最も大きい閾値を用いて検出された前記平面候補領域の各々が推定対象平面のみを表わしているか否かを判定し、次に大きい閾値から降順に、前記閾値を用いて検出された前記平面候補領域のうち、前記推定対象平面のみを表していないと前回判定された前記平面候補領域内から検出された前記平面候補領域の各々について、前記推定対象平面のみを表わしているか否かを判定する判定を順次行う判定手段、及び
前記判定手段によって前記推定対象平面のみを表わしていると判定された平面候補領域を統合して、前記推定対象平面を表わす領域を推定する領域推定手段
として機能させるためのプログラム。
Computer
In the first image imaged by the imaging means when the imaging means mounted on the moving body that outputs a plurality of images obtained by imaging the range including the estimation target plane is in the first position and the first posture. An area representing the estimation target plane is an area in which the estimation target plane is to be represented in the second image captured by the imaging unit at a second position and a second attitude different from the first position and the first attitude. Image converting means for converting the first image by conversion for converting to
A difference calculating means for calculating a difference between pixel values for each pixel based on the first image and the second image converted by the image converting means;
An area detecting means for detecting, as a plane candidate area, an area where the difference between the calculated pixel values is less than the threshold using each of a plurality of thresholds having different sizes.
It is determined whether each of the plane candidate areas detected using the largest threshold represents only the estimation target plane, and the plane candidate areas detected using the threshold in descending order from the next largest threshold Determining whether or not each of the plane candidate areas detected from within the plane candidate area previously determined as not representing only the estimation target plane represents only the estimation target plane. Sequential determination means, and a program for functioning as a region estimation means for estimating a region representing the estimation target plane by integrating the plane candidate areas determined to represent only the estimation target plane by the determination means .
コンピュータを、
推定対象平面を含む範囲を撮像した複数の画像を出力する移動体に搭載された撮像手段が第1の位置及び第1の姿勢となっているときに前記撮像手段によって撮像された第1画像における推定対象平面を表わす領域を、前記第1の位置及び第1の姿勢と異なる第2の位置及び第2の姿勢で前記撮像手段によって撮像された第2画像において推定対象平面が表されるべき領域に変換するための変換によって、前記第1画像を変換する画像変換手段、
前記画像変換手段によって変換された前記第1画像と前記第2画像とに基づいて、各画素について画素値の差分を算出する差分算出手段、
大きさが異なる複数の閾値のうち最も大きい閾値を用いて、前記算出された画素値の差分が前記閾値未満となる領域を平面候補領域として検出すると共に、前記平面候補領域が推定対象平面のみを表わしているか否かを判定し、次に大きい閾値から降順に、前記推定対象平面のみを表していないと前回判定された前記平面候補領域内から、前記閾値を用いて、前記算出された画素値の差分が前記閾値未満となる領域を平面候補領域として検出すると共に、前記平面候補領域が推定対象平面のみを表わしているか否かを判定する判定を順次行う判定手段、及び
前記判定手段によって前記推定対象平面のみを表わしていると判定された平面候補領域を統合して、前記推定対象平面を表わす領域を推定する領域推定手段
として機能させるためのプログラム。
Computer
In the first image imaged by the imaging means when the imaging means mounted on the moving body that outputs a plurality of images obtained by imaging the range including the estimation target plane is in the first position and the first posture. An area representing the estimation target plane is an area in which the estimation target plane is to be represented in the second image captured by the imaging unit at a second position and a second attitude different from the first position and the first attitude. Image converting means for converting the first image by conversion for converting to
A difference calculating means for calculating a difference between pixel values for each pixel based on the first image and the second image converted by the image converting means;
Using a largest threshold value among a plurality of threshold values having different sizes, an area where the difference between the calculated pixel values is less than the threshold value is detected as a plane candidate area, and the plane candidate area includes only an estimation target plane. The calculated pixel value is determined using the threshold value from within the plane candidate region that was previously determined not to represent only the estimation target plane in descending order from the next largest threshold value. An area where the difference between the two is less than the threshold is detected as a plane candidate area, and a determination unit that sequentially determines whether the plane candidate area represents only the estimation target plane, and the estimation by the determination unit A plan for functioning as an area estimation means for integrating the plane candidate areas determined to represent only the target plane and estimating the area representing the estimation target plane. Grams.
JP2008166325A 2008-06-25 2008-06-25 Plane region estimation apparatus and program Expired - Fee Related JP4935769B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008166325A JP4935769B2 (en) 2008-06-25 2008-06-25 Plane region estimation apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008166325A JP4935769B2 (en) 2008-06-25 2008-06-25 Plane region estimation apparatus and program

Publications (2)

Publication Number Publication Date
JP2010009236A true JP2010009236A (en) 2010-01-14
JP4935769B2 JP4935769B2 (en) 2012-05-23

Family

ID=41589670

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008166325A Expired - Fee Related JP4935769B2 (en) 2008-06-25 2008-06-25 Plane region estimation apparatus and program

Country Status (1)

Country Link
JP (1) JP4935769B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012168788A (en) * 2011-02-15 2012-09-06 Toyota Central R&D Labs Inc Motion estimation device and program
JP2014199586A (en) * 2013-03-29 2014-10-23 株式会社パスコ Unevenness extraction device for multi-plane structure, unevenness extraction method for multi-plane structure, and program
WO2015079533A1 (en) * 2013-11-28 2015-06-04 パイオニア株式会社 Detection device, detection method, detection program, and recording medium
JP2018010601A (en) * 2016-07-15 2018-01-18 セコム株式会社 Image processing device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105975957B (en) * 2016-05-30 2019-02-05 大连理工大学 A kind of road plane detection method based on lane line edge

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001283204A (en) * 2000-03-31 2001-10-12 Toshiba Corp Obstacle detector
JP2004180036A (en) * 2002-11-27 2004-06-24 Toyota Central Res & Dev Lab Inc Parallax search method and parallax search device
JP2007041657A (en) * 2005-07-29 2007-02-15 Sony Corp Moving body control method, and moving body

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001283204A (en) * 2000-03-31 2001-10-12 Toshiba Corp Obstacle detector
JP2004180036A (en) * 2002-11-27 2004-06-24 Toyota Central Res & Dev Lab Inc Parallax search method and parallax search device
JP2007041657A (en) * 2005-07-29 2007-02-15 Sony Corp Moving body control method, and moving body

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012168788A (en) * 2011-02-15 2012-09-06 Toyota Central R&D Labs Inc Motion estimation device and program
JP2014199586A (en) * 2013-03-29 2014-10-23 株式会社パスコ Unevenness extraction device for multi-plane structure, unevenness extraction method for multi-plane structure, and program
WO2015079533A1 (en) * 2013-11-28 2015-06-04 パイオニア株式会社 Detection device, detection method, detection program, and recording medium
JP2018010601A (en) * 2016-07-15 2018-01-18 セコム株式会社 Image processing device

Also Published As

Publication number Publication date
JP4935769B2 (en) 2012-05-23

Similar Documents

Publication Publication Date Title
JP5671281B2 (en) Position / orientation measuring apparatus, control method and program for position / orientation measuring apparatus
JP4809291B2 (en) Measuring device and program
JP5618569B2 (en) Position and orientation estimation apparatus and method
JP5297403B2 (en) Position / orientation measuring apparatus, position / orientation measuring method, program, and storage medium
JP5832341B2 (en) Movie processing apparatus, movie processing method, and movie processing program
CN111210477B (en) Method and system for positioning moving object
CN103959307B (en) The method of detection and Expressive Features from gray level image
CN110044374B (en) Image feature-based monocular vision mileage measurement method and odometer
CN102788572B (en) Method, device and system for measuring attitude of engineering machinery lifting hook
JP5262705B2 (en) Motion estimation apparatus and program
JP4935769B2 (en) Plane region estimation apparatus and program
El Bouazzaoui et al. Enhancing RGB-D SLAM performances considering sensor specifications for indoor localization
JP5652239B2 (en) Motion estimation apparatus and program
KR20100128919A (en) System and method for automatic measuring of the stair dimensions using a single camera and a laser
JP6410231B2 (en) Alignment apparatus, alignment method, and computer program for alignment
JP5515018B2 (en) Environment recognition device
Sun et al. High-accuracy three-dimensional measurement based on multi-directional cooperative target with weighted SfM algorithm
JP2015111128A (en) Position attitude measurement device, position attitude measurement method, and program
JP2010066595A (en) Environment map generating device and environment map generating method
JP2018195070A (en) Information processing apparatus, information processing method, and program
JP5267100B2 (en) Motion estimation apparatus and program
JP5656018B2 (en) Sphere detection method
JP5032415B2 (en) Motion estimation apparatus and program
JP5359477B2 (en) Road area estimation apparatus and program
JP4622889B2 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120124

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120206

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150302

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150302

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees