JP2013072813A - Level difference part recognition device - Google Patents
Level difference part recognition device Download PDFInfo
- Publication number
- JP2013072813A JP2013072813A JP2011213384A JP2011213384A JP2013072813A JP 2013072813 A JP2013072813 A JP 2013072813A JP 2011213384 A JP2011213384 A JP 2011213384A JP 2011213384 A JP2011213384 A JP 2011213384A JP 2013072813 A JP2013072813 A JP 2013072813A
- Authority
- JP
- Japan
- Prior art keywords
- plane
- projection
- edge
- area
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Manipulator (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Measurement Of Optical Distance (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Theoretical Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
Abstract
Description
本発明は、移動体の移動環境に存在する階段等の段差部の空間的な配置位置を、移動体に搭載されたステレオカメラによって取得されるステレオ画像を用いて認識する装置に関する。 The present invention relates to an apparatus for recognizing a spatial arrangement position of a stepped portion such as a stair existing in a moving environment of a moving body using a stereo image acquired by a stereo camera mounted on the moving body.
従来、例えば自律的に移動可能なロボットに階段の昇降動作を行なわせる場合に、該ロボットに階段を認識させる技術として、例えば特許文献1に見られる技術が提案されている。
Conventionally, for example, when a robot that can move autonomously moves up and down stairs, a technique found in, for example,
この技術では、ロボットに搭載したステレオビジョンシステムによってロボットの外界の距離データを取得し、この距離データを基に、階段の踏面に相当する平面部を検出する。そして、検出した平面部を包含する多角形をSklanskyのアルゴリズムや、Melkmanのアルゴリズムによって求め、その求めた多角形から、階段のフロントエッジ、バックエッジ、幅、長さを特定する。 In this technology, distance data of the outside world of the robot is acquired by a stereo vision system mounted on the robot, and a plane portion corresponding to the tread surface of the stairs is detected based on the distance data. Then, a polygon including the detected plane portion is obtained by Sklansky's algorithm or Melkman's algorithm, and the front edge, back edge, width, and length of the stairs are specified from the obtained polygon.
ところで、2足移動ロボット等の脚式移動ロボットに階段等の段差部の昇降動作を行なわせる場合、ロボットの脚の足平部を、段差部の踏面の先端側エッジ(特許文献1で言うところのフロントエッジ)に載せて、該足平部の一部を段差部の踏面からはみ出させることが必要もしくは好ましい場合がある。 By the way, when a legged mobile robot such as a two-legged mobile robot performs a raising / lowering operation of a stepped portion such as a staircase, the foot portion of the leg of the robot is set to the tip side edge of the stepped surface of the stepped portion (referred to in Patent Document 1). It may be necessary or preferable to place a part of the foot part over the step surface of the step part.
例えば、階段の踏面の奥行き寸法が、ロボットの足平部の大きさに比して狭い場合には、該足平部の全体を踏面に載せることが不可能な場合がある。あるいは、ロボットの足平部の全体を踏面に載せることが可能であっても、該足平部を振り出すときに、該足平部が階段の蹴り込み等と干渉するのを避けるために、ロボットの足平部の一部を踏面からはみ出させることが好ましい場合もある。 For example, if the depth dimension of the tread surface of a staircase is narrower than the size of the foot portion of the robot, it may not be possible to place the entire foot portion on the tread surface. Alternatively, even if it is possible to place the entire foot portion of the robot on the tread surface, in order to avoid the foot portion from interfering with the kicking of the stairs and the like when swinging out the foot portion, In some cases, it is preferable that a part of the foot of the robot protrudes from the tread.
そして、このような場合には、ロボットの足平部の目標とする着地位置を適切に決定するために、階段等の段差部の先端側エッジの位置及びその方向を精度よく認識する必要がある。 In such a case, in order to appropriately determine the target landing position of the foot portion of the robot, it is necessary to accurately recognize the position and direction of the leading edge of the stepped portion such as the staircase. .
しかるに、前記特許文献1に見られる如き従来の手法では、階段などの段差部の踏面の先端側エッジを検出することができない場合が多々ある。
However, in the conventional technique as seen in
すなわち、ステレオビジョンシステムによって得られるステレオ画像から認識される距離データは、撮像画像のテクスチャ等の影響を受けやすいので、段差部の踏面の先端側エッジ付近での信頼性の高い距離データを得ることができない場合も多々ある。そして、このような場合には、段差部の踏面の先端側エッジ付近は、平面部分として認識できないか、もしくは、平面部分から除外されることとなる。その結果、前記多角形は、段差部の踏面の先端側エッジと異なる境界の形状を有するものとなり、該多角形から認識されるフロントエッジは、段差部の踏面の実際の先端側エッジとの誤差が大きなものとなりやすい。 That is, the distance data recognized from the stereo image obtained by the stereo vision system is easily affected by the texture of the captured image, etc., so that reliable distance data near the front edge of the tread of the stepped portion is obtained. There are many cases where this is not possible. In such a case, the vicinity of the tip side edge of the stepped surface of the stepped portion cannot be recognized as a plane portion or is excluded from the plane portion. As a result, the polygon has a different boundary shape from the leading edge of the stepped tread surface, and the front edge recognized from the polygon is an error from the actual leading edge of the stepped tread. Tends to be big.
従って、前記特許文献1に見られる如き従来の手法では、階段などの段差部の踏面の先端側エッジを検出することができない場合が多々ある。
Therefore, the conventional technique as seen in
本発明は、かかる背景に鑑みてなされたものであり、ステレオカメラにより取得されるステレオ画像を利用して、階段等の段差部の踏面の先端側エッジの空間的な位置及び方向を含む該段差部の配置位置を精度良く認識することができる装置を提供することを目的とする。 The present invention has been made in view of such a background, and uses a stereo image acquired by a stereo camera, the step including the spatial position and direction of the tip side edge of the step surface of a step such as a staircase. It is an object of the present invention to provide an apparatus that can accurately recognize the position of a part.
ここで、本発明における用語について補足しておく。本発明においては、「段差部」は、下段側踏面とその一段上側の上段側踏面との組を一組以上(一組又は複数組)有するものである。この場合、「段差部」の各「踏面」は、ある仮想的な平面(無限平面)に包含される平坦な面とみなすことができるような面であるとする。そして、本発明における「段差部」は、その一形態として階段を含むものであるが、階段だけを意味するものではない。例えば、床面に設置される踏み台もしくは任意の設置物により構成される段差部も含まれる。 Here, the terms in the present invention will be supplemented. In the present invention, the “step portion” has one or more sets (one set or a plurality of sets) of a lower step surface and an upper step surface one step above. In this case, each “tread surface” of the “step portion” is a surface that can be regarded as a flat surface included in a certain virtual plane (infinite plane). The “step portion” in the present invention includes a staircase as one form thereof, but does not mean only a staircase. For example, the step part comprised by the step installed on a floor surface or arbitrary installation things is also contained.
また、段差部の上段側踏面の「先端側エッジ」というのは、段差部をその下段側踏面が手前側、上段側踏面が奥側となる視線で見た場合において、上段側踏面の外形の境界線のうち、手前側で横方向(水平方向もしくはそれに近い方向)に直線状に延在する境界線を意味する。 In addition, the `` tip edge '' of the upper step surface of the step portion means that the outer shape of the upper step surface is viewed when the step portion is viewed from the line of sight where the lower step surface is the front side and the upper step surface is the back side. Among the boundary lines, it means a boundary line extending linearly in the lateral direction (horizontal direction or a direction close thereto) on the front side.
換言すれば、段差部の上段側踏面の「先端側エッジ」というのは、段差部をその上段側踏面が手前側、下段側踏面が奥側となる視線で見た場合において、上段側踏面の外形の境界線のうち、奥側で横方向に直線状に延在する境界線を意味する。 In other words, the “tip edge” of the upper step surface of the step portion means that when the step portion is viewed from the line of sight where the upper step surface is the front side and the lower step surface is the back side, It means a boundary line extending linearly in the lateral direction on the back side among the outer boundary lines.
以上を前提として、本発明を以下に説明する。 Based on the above, the present invention will be described below.
本発明の段差部認識装置は、上記の目的を達成するために、ステレオカメラを搭載した移動体の移動環境に存在しており、下段側踏面とその一段上側の上段側踏面との組を一組以上有する段差部の空間的な配置位置を、前記ステレオカメラにより取得されるステレオ画像を構成する基準画像及び参照画像を用いて認識する段差部認識装置であって、
前記段差部が前記ステレオカメラにより撮像されている状態において、前記基準画像から、該段差部の上段側踏面及び下段側踏面にそれぞれ対応する2つの平面部分を少なくとも含む互いに異なる平面部分がそれぞれ投影された領域である複数の平面投影領域を抽出すると共に、各平面投影領域に対応する平面部分を包含する平面の空間的な位置及び姿勢を表す平面パラメータを決定する平面投影領域抽出手段と、
前記段差部の上段側踏面の先端側エッジを前記基準画像に投影してなる実エッジ投影線をそれぞれ含み、且つ、前記基準画像の縦方向に細長い形状を有して該基準画像の横方向に並列する複数条の演算処理領域を該基準画像に設定すると共に、該複数条の演算処理領域のそれぞれにおける前記基準画像の縦方向での前記実エッジ投影線の複数の候補位置を設定し、各演算処理領域毎に、各候補位置の実エッジ投影線の位置に対する適合度を表す評価関数の値を、前記基準画像及び参照画像と、前記決定された平面パラメータとを用いて算出する評価関数算出手段と、
前記実エッジ投影線を推定してなる線である推定エッジ投影線を、前記複数条の演算処理領域のそれぞれにおける該推定エッジ投影線の位置の適合度を合成してなる合成適合度が最も高くなるように、前記算出された評価関数に基づいて決定する推定エッジ投影線決定手段と、
該段差部の空間的な配置位置を認識するためのデータとして、少なくとも前記段差部の上段側踏面の先端側エッジの空間的な位置及び方向を表すデータを前記決定された推定エッジ投影線と前記決定された平面パラメータとに基づいて決定する段差部空間配置決定手段とを備え、
前記評価関数算出手段は、前記各演算処理領域毎に、各候補位置の実エッジ投影線の位置に対する適合度を表す評価関数の値を算出するために、各演算処理領域内に各候補位置を境界として隣接する2つの射影変換対象領域を少なくとも含む複数のエッジ推定用射影変換対象領域を各候補位置に応じて設定する処理と、各エッジ推定用射影変換対象領域に対応する射影変換用平面パラメータを前記平面投影領域抽出手段により決定された平面パラメータに応じて設定する処理と、各演算処理領域及び各候補位置の組毎に、各エッジ推定用射影変換対象領域の画像の画素値分布と、該エッジ推定用射影変換対象領域に対応する前記参照画像中の領域の画像を該エッジ推定用射影変換対象領域に対応する射影変換用平面パラメータに応じて射影変換した場合に得られる射影変換画像の画素値分布との誤差を表す誤差関数の値を算出する処理と、各演算処理領域及び各候補位置の組毎に、各演算処理領域内に設定した複数のエッジ推定用射影変換対象領域のそれぞれに対応して算出した前記誤差関数の値を線形結合してなる値を、前記評価関数の値として算出する処理とを実行することを特徴とする(第1発明)。
In order to achieve the above object, the step recognition apparatus of the present invention exists in the moving environment of a moving body equipped with a stereo camera, and one set of a lower step side tread and an upper step side tread that is one step above. A stepped portion recognition device for recognizing a spatial arrangement position of stepped portions having more than one set by using a standard image and a reference image constituting a stereo image acquired by the stereo camera,
In a state where the stepped portion is imaged by the stereo camera, different plane portions including at least two plane portions respectively corresponding to the upper step surface and the lower step surface of the step portion are projected from the reference image. A plane projection area extracting means for extracting a plurality of plane projection areas, which are areas, and determining plane parameters representing a spatial position and orientation of a plane including a plane portion corresponding to each plane projection area;
Each of which includes an actual edge projection line formed by projecting the leading edge of the upper tread surface of the stepped portion onto the reference image, and has a shape that is elongated in the vertical direction of the reference image in the horizontal direction of the reference image. A plurality of parallel arithmetic processing areas are set in the reference image, and a plurality of candidate positions of the actual edge projection line in the vertical direction of the reference image in each of the multiple arithmetic processing areas are set, Evaluation function calculation that calculates the value of the evaluation function representing the degree of suitability of each candidate position with respect to the position of the actual edge projection line for each arithmetic processing region using the reference image and the reference image and the determined plane parameter Means,
The combined adaptability obtained by combining the estimated edge projection line, which is a line obtained by estimating the actual edge projected line, with the adaptability of the position of the estimated edge projected line in each of the plurality of arithmetic processing regions is the highest. An estimated edge projection line determination means for determining based on the calculated evaluation function,
As data for recognizing the spatial arrangement position of the stepped portion, at least data representing the spatial position and direction of the tip side edge of the upper tread of the stepped portion is used as the determined estimated edge projection line and the A stepped portion space arrangement determining means for determining based on the determined plane parameter;
The evaluation function calculating means calculates each candidate position in each calculation processing area in order to calculate a value of an evaluation function representing the degree of suitability of each candidate position with respect to the position of the actual edge projection line for each calculation processing area. A process for setting a plurality of projection conversion target areas for edge estimation including at least two projection conversion target areas adjacent as boundaries according to each candidate position, and a plane parameter for projection conversion corresponding to each projection conversion target area for edge estimation Processing according to the plane parameters determined by the plane projection area extraction means, and for each set of calculation processing areas and each candidate position, pixel value distribution of the image of each edge estimation projective transformation target area, The image of the region in the reference image corresponding to the projection conversion target region for edge estimation is changed in accordance with the plane parameter for projection conversion corresponding to the projection conversion target region for edge estimation. A process of calculating an error function value representing an error from the pixel value distribution of the projective transformation image obtained in the case, and a plurality of sets set in each calculation processing area for each set of each calculation processing area and each candidate position A process of calculating, as a value of the evaluation function, a value obtained by linearly combining the error function values calculated corresponding to each of the projection conversion target regions for edge estimation (first) invention).
かかる第1発明によれば、前記段差部が前記ステレオカメラにより撮像されている状態において、前記平面投影領域抽出手段の処理が実行される。この処理では、前記基準画像から、該段差部の上段側踏面及び下段側踏面にそれぞれ対応する2つの平面部分を少なくとも含む複数の平面投影領域が抽出される。さらに、各平面投影領域に対応する平面部分を包含する平面の空間的な位置及び姿勢を表す平面パラメータが決定される。 According to the first aspect of the invention, the process of the planar projection area extraction unit is executed in a state where the step portion is imaged by the stereo camera. In this process, a plurality of planar projection areas including at least two planar portions respectively corresponding to the upper step surface and the lower step surface of the step portion are extracted from the reference image. Furthermore, plane parameters representing the spatial position and orientation of the plane including the plane portion corresponding to each plane projection area are determined.
補足すると、第1発明における平面投影領域抽出手段の処理は、平面投影領域の抽出とそれに対応する平面パラメータの決定とを行い得るものであれば、どのような手法を用いるものであってもよい。その手法は、公知の手法であってもよい。例えば、移動体に搭載したレーザ測距装置等の公知の測距装置を用いて、段差部の各部の距離(移動体からの距離)を測定し、その測定データを基に、平面投影領域の抽出とそれに対応する平面パラメータの決定とを行うようにしてもよい。 Supplementally, the processing of the planar projection area extracting means in the first invention may use any method as long as it can perform the extraction of the planar projection area and the determination of the plane parameters corresponding thereto. . The method may be a known method. For example, using a known distance measuring device such as a laser distance measuring device mounted on a moving body, the distance (distance from the moving body) of each stepped portion is measured, and based on the measurement data, the plane projection area You may make it perform extraction and determination of the plane parameter corresponding to it.
あるいは、後述する射影変換(平面射影変換)を利用した手法によって、平面投影領域の抽出とそれに対応する平面パラメータの決定とを行なうことも可能である。 Alternatively, it is also possible to extract a plane projection region and determine a plane parameter corresponding to it by a method using projection transformation (planar projection transformation) described later.
また、平面投影領域抽出手段により抽出する各平面投影領域は、それぞれに対応する平面部分(段差部の各踏面等)の全体の投影領域である必要はなく、該平面部分の一部分の投影領域であってもよい。例えば、段差部の上段側踏面に対応して抽出される平面投影領域には、該上段側踏面の先端側エッジを基準画像に投影した線が含まれている必要なない。 Further, each plane projection area extracted by the plane projection area extraction unit does not have to be the entire projection area of the corresponding plane portion (such as each tread of the step portion), and is a projection area of a part of the plane portion. There may be. For example, the plane projection area extracted corresponding to the upper step surface of the stepped portion does not need to include a line obtained by projecting the leading edge of the upper step surface on the reference image.
また、平面投影領域抽出手段により抽出する平面投影領域は、段差部の各踏面に対応する平面投影領域に限らず、例えば階段の蹴り込み面や階段の段鼻の先端面に対応する平面投影領域が含まれていてもよい。ただし、段差部の各踏面以外の平面部分に対応する平面投影領域を抽出対象から除外するようにしてもよい。その場合、例えば平面部分の法線方向の向きに基づいて、段差部の各踏面以外の平面部分に対応する平面投影領域を抽出対象から除外するようにすることが可能である。 Further, the planar projection area extracted by the planar projection area extracting means is not limited to the planar projection area corresponding to each tread of the step portion, but for example, there is a planar projection area corresponding to the stair kicking surface or the stair nosing tip surface. It may be included. However, you may make it exclude the planar projection area | region corresponding to planar parts other than each tread of a level | step difference part from extraction object. In that case, for example, based on the direction of the normal direction of the planar portion, it is possible to exclude the planar projection region corresponding to the planar portion other than each tread of the stepped portion from the extraction target.
第1発明では、次に、前記評価関数算出手段の処理が実行される。この処理では、評価関数算出手段は、前記段差部の上段側踏面の先端側エッジを前記基準画像に投影してなる実エッジ投影線をそれぞれ含み、且つ、前記基準画像の縦方向に細長い形状を有して該基準画像の横方向に並列する複数条の演算処理領域を該基準画像に設定する。 In the first invention, next, the process of the evaluation function calculation means is executed. In this process, the evaluation function calculation means includes an actual edge projection line obtained by projecting the leading edge of the upper tread surface of the stepped portion onto the reference image, and has an elongated shape in the vertical direction of the reference image. A plurality of arithmetic processing areas that are arranged in parallel in the horizontal direction of the reference image are set in the reference image.
この場合、前記実エッジ投影線は、段差部の上段側踏面に対応する平面投影領域と、下段側踏面に対応する平面投影領域との間に存在するので、該実エッジ投影線をそれぞれ内部に含むような複数条の演算処理領域を、前記平面投影領域抽出手段の処理により得られた平面投影領域及び平面パラメータに基づいて設定することが可能である。なお、各演算処理領域は、基準画像の縦方向に細長い形状を有するので、基準画像の横方向での幅が微小なもの(例えば1画素分の幅)となるような領域である。 In this case, since the actual edge projection line exists between the planar projection area corresponding to the upper step surface of the stepped portion and the planar projection area corresponding to the lower step surface, the actual edge projection line is respectively set inside. It is possible to set a plurality of calculation processing areas including the number based on the plane projection area and plane parameters obtained by the process of the plane projection area extracting means. Each calculation processing area has an elongated shape in the vertical direction of the reference image, and thus is an area in which the width in the horizontal direction of the reference image is very small (for example, one pixel width).
さらに、評価関数算出手段は、複数条の演算処理領域のそれぞれにおける前記基準画像の縦方向での前記実エッジ投影線の複数の候補位置を設定し、各演算処理領域毎に、各候補位置の実エッジ投影線の位置に対する適合度を表す評価関数の値を、前記基準画像及び参照画像と、前記決定された平面パラメータとを用いて算出する。 Further, the evaluation function calculating means sets a plurality of candidate positions of the actual edge projection line in the vertical direction of the reference image in each of a plurality of calculation processing areas, and sets each candidate position for each calculation processing area. A value of the evaluation function representing the degree of conformity with respect to the position of the actual edge projection line is calculated using the standard image and the reference image and the determined plane parameter.
この評価関数は次のように算出される。すなわち、評価関数算出手段は、各演算処理領域内に各候補位置を境界として隣接する2つの射影変換対象領域を少なくとも含む複数のエッジ推定用射影変換対象領域を各候補位置に応じて設定する。 This evaluation function is calculated as follows. In other words, the evaluation function calculation means sets a plurality of edge estimation projection transformation target regions including at least two projection transformation target regions adjacent to each other with each candidate position as a boundary in each computation processing region according to each candidate position.
この場合、各演算処理領域において、任意の1つの候補位置が、実エッジ投影線の位置に一致していると仮定すると、該候補位置を境界として隣接して設定される2つのエッジ推定用射影変換対象領域のうち、該候補位置の上側の領域は、段差部の上段側踏面の投影領域に相当するものとなる。また、候補位置の下側の領域は、段差部の上段側踏面の先端側エッジから下方に起立する面部(階段の段鼻又は蹴り込み面に対応する面部)の投影領域に相当するものとなる。 In this case, assuming that any one candidate position matches the position of the actual edge projection line in each calculation processing region, two edge estimation projections set adjacent to each other with the candidate position as a boundary Of the conversion target area, the area above the candidate position corresponds to the projection area of the upper tread surface of the stepped portion. The lower region of the candidate position corresponds to a projection region of a surface portion (a surface portion corresponding to a stair nosing or kicking surface) that rises downward from the tip side edge of the upper step surface of the step portion.
さらに、評価関数算出手段は、各エッジ推定用射影変換対象領域に対応する射影変換用平面パラメータを前記平面投影領域抽出手段により決定された平面パラメータに応じて設定する。例えば、各候補位置を境界として隣接して設定される2つのエッジ推定用射影変換対象領域のうち、該候補位置の上側の領域に対応する射影変換用平面パラメータは、段差部の上段側踏面に対応して平面投影領域抽出手段により決定された平面パラメータに一致するものとされる。 Further, the evaluation function calculation means sets the projection conversion plane parameters corresponding to each of the edge estimation projection conversion target areas in accordance with the plane parameters determined by the plane projection area extraction means. For example, the projection conversion plane parameter corresponding to the area above the candidate position, out of the two edge estimation projection conversion target areas set adjacently with each candidate position as a boundary, is displayed on the upper tread of the step portion. Correspondingly, the plane parameter determined by the plane projection area extracting means coincides with the plane parameter.
また、各候補位置を境界として隣接して設定される2つのエッジ推定用射影変換対象領域のうち、該候補位置の下側の領域に対応する射影変換用平面パラメータは、例えば、段差部の上段側踏面と下段側踏面との間でこれらに対して起立する面に対応して平面投影領域抽出手段により決定された平面パラメータに一致するものとされる。 The projection transformation plane parameter corresponding to the lower region of the candidate position among the two edge estimation projection transformation target regions set adjacently with each candidate position as a boundary is, for example, the upper part of the stepped portion. It corresponds to the plane parameter determined by the plane projection area extracting means corresponding to the surface standing between the side tread surface and the lower side tread surface.
あるいは、当該射影変換用平面パラメータは、例えば段差部の上段側踏面に対してあらかじめ定められた角度(例えば90degまたはそれに近い角度)で起立し、且つ、候補位置に対応する仮想的な先端側エッジ(該先端側エッジを基準画像に投影した線の位置(基準画像の縦方向での位置)が該候補位置に一致するような仮想的な先端側エッジ)の直線を含む平面の位置及び姿勢を表す平面パラメータ(これは上段側踏面に対応して平面投影領域抽出手段により決定された平面パラメータと候補位置とから算出することができる)に一致するものとされる。 Alternatively, the projective transformation plane parameter rises at a predetermined angle (for example, 90 degrees or an angle close thereto) with respect to the upper step surface of the stepped portion, for example, and the virtual tip side edge corresponding to the candidate position The position and orientation of a plane including a straight line (virtual front end edge such that the position of the line on which the front end edge is projected onto the reference image (the vertical position of the reference image) matches the candidate position) It corresponds to the plane parameter to be expressed (this can be calculated from the plane parameter determined by the plane projection area extraction unit corresponding to the upper tread surface and the candidate position).
さらに、評価関数算出手段は、各演算処理領域及び各候補位置の組毎に、各エッジ推定用射影変換対象領域の画像の画素値分布と、該エッジ推定用射影変換対象領域に対応する前記参照画像中の領域の画像を該エッジ推定用射影変換対象領域に対応する射影変換用平面パラメータに応じて射影変換した場合に得られる射影変換画像の画素値分布との誤差を表す誤差関数の値を算出する。 Further, the evaluation function calculation means, for each set of the calculation processing area and each candidate position, the pixel value distribution of the image of each edge estimation projection conversion target area and the reference corresponding to the edge estimation projection conversion target area A value of an error function representing an error from the pixel value distribution of the projective transformation image obtained when the image of the region in the image is subject to projective transformation according to the plane parameter for projective transformation corresponding to the projective transformation target region for edge estimation. calculate.
なお、エッジ推定用射影変換対象領域に対応する参照画像中の領域というのは、基準画像のエッジ推定用射影変換対象領域に投影されている実空間の部分が該エッジ推定用射影変換対象領域に対応する射影変換用平面パラメータにより規定される平面上の部分であると仮定して、該部分を参照画像中に投影した場合に得られる領域を意味する。 Note that the region in the reference image corresponding to the edge estimation projective transformation target region means that the portion of the real space projected on the edge estimation projective transformation target region of the standard image is the edge estimation projective transformation target region. It means an area obtained when a portion on a plane defined by the corresponding projective transformation plane parameter is projected on the reference image.
この場合、各演算処理領域において、ある候補位置が、実エッジ投影線の位置に一致しておれば、各エッジ推定用射影変換対象領域の画像の画素値分布と上記射影変換画像の画素値分布とは互いに一致(もしくはほぼ一致)する。一方、該候補位置が、実エッジ投影線の位置に一致しない場合には、各エッジ推定用射影変換対象領域の画像の画素値分布と上記射影変換画像の画素値分布とは互いに異なるものとなる。 In this case, if a certain candidate position matches the position of the actual edge projection line in each calculation processing area, the pixel value distribution of the image of the projection conversion target area for each edge estimation and the pixel value distribution of the projection conversion image And match (or nearly match) each other. On the other hand, when the candidate position does not coincide with the position of the actual edge projection line, the pixel value distribution of the image for each edge estimation projective transformation target area and the pixel value distribution of the projective transformation image are different from each other. .
そして、評価関数算出手段は、各演算処理領域及び各候補位置の組毎に、各演算処理領域内に設定した複数のエッジ推定用射影変換対象領域のそれぞれに対応して算出した前記誤差関数の値を線形結合してなる値を、前記評価関数の値として算出する。 Then, the evaluation function calculating means calculates the error function calculated for each of the plurality of edge estimation projective transformation target regions set in each arithmetic processing region for each arithmetic processing region and each candidate position set. A value obtained by linearly combining the values is calculated as the value of the evaluation function.
これにより、基準画像の縦方向に細長い(基準画像の横方向での幅が微小な)各演算処理領域毎に、基準画像の縦方向での実エッジ投影線の候補位置と、該候補位置の実エッジ投影線の位置に対する適合度との相関関係を表すデータが得られることとなる。このデータは、換言すれば、各演算処理領域において、基準画像の縦方向でのどの位置が、実エッジ投影線の位置として妥当であるか(適合度が高いか)を示すものとなる。 As a result, for each calculation processing region that is elongated in the vertical direction of the reference image (the width in the horizontal direction of the reference image is small), the candidate position of the actual edge projection line in the vertical direction of the reference image and the candidate position Data representing the correlation with the degree of conformity to the position of the actual edge projection line is obtained. In other words, this data indicates which position in the vertical direction of the reference image is appropriate as the position of the actual edge projection line (having a high degree of matching) in each arithmetic processing region.
次いで、推定エッジ投影線決定手段の処理が実行される。この処理では、推定エッジ投影線決定手段は、前記実エッジ投影線を推定してなる線である推定エッジ投影線を、前記複数条の演算処理領域のそれぞれにおける該推定エッジ投影線の位置の適合度を合成してなる合成適合度が最も高くなるように、前記算出された評価関数(各演算処理領域及び各候補位置の組毎に算出された評価関数の値)に基づいて決定する。 Next, the process of the estimated edge projection line determination unit is executed. In this processing, the estimated edge projection line determination means adapts the estimated edge projection line, which is a line obtained by estimating the actual edge projection line, to the position of the estimated edge projection line in each of the plurality of arithmetic processing regions. It is determined based on the calculated evaluation function (the value of the evaluation function calculated for each set of calculation processing regions and candidate positions) so that the combined fitness obtained by combining the degrees becomes the highest.
この場合、前記評価関数算出手段の処理によって、各演算処理領域及び各候補位置の組毎に算出された評価関数の値によって、各演算処理領域毎に、基準画像の縦方向での実エッジ投影線の候補位置と、上記評価関数の値との相関関係を表すデータが得られている。従って、ある推定エッジ投影線を仮定した場合、その推定エッジ投影線の、各演算処理領域における位置(基準画像の縦方向での位置)の、実エッジ投影線の実際に位置に対する適合度(妥当性の度合い)が判ることとなる。 In this case, the actual edge projection in the vertical direction of the reference image is performed for each calculation processing region by the value of the evaluation function calculated for each set of each processing processing region and each candidate position by the processing of the evaluation function calculating unit. Data representing the correlation between the candidate line position and the value of the evaluation function is obtained. Therefore, when a certain estimated edge projection line is assumed, the degree of suitability (validity) of the position of the estimated edge projection line in each calculation processing region (position in the vertical direction of the reference image) to the actual position of the actual edge projection line The degree of sex) will be understood.
そして、推定エッジ投影線が実エッジ投影線に一致していれば、その推定エッジ投影線の、各演算処理領域における位置の適合度は、原理的には、該演算処理領域において最も高くなる。 If the estimated edge projection line coincides with the actual edge projection line, the matching degree of the position of the estimated edge projection line in each calculation processing region is, in principle, the highest in the calculation processing region.
そこで、推定エッジ投影線決定手段は、前記複数条の演算処理領域のそれぞれにおける推定エッジ投影線の位置の適合度を合成してなる合成適合度が最も高くなるように該推定エッジ投影線を決定する。これにより、複数条の演算処理領域のそれぞれにおける実エッジ投影線に対する適合度が極力高いものとなるような推定エッジ投影線、すなわち、実エッジ投影線を推定したものとしての妥当性が高い推定エッジ投影線が決定される。 Therefore, the estimated edge projection line determining means determines the estimated edge projection line so that the combined fitness obtained by combining the fitness of the positions of the estimated edge projection lines in each of the plurality of arithmetic processing regions is the highest. To do. As a result, an estimated edge projection line that has the highest degree of fitness for the actual edge projection line in each of the plurality of arithmetic processing regions, that is, an estimated edge that is highly valid as an estimation of the actual edge projection line. A projection line is determined.
なお、推定エッジ投影線決定手段の処理で決定する推定エッジ投影線は、その合成適合度が厳密に最も高いものである必要はなく、該推定エッジ投影線と基準画像での位置及び方向の一方又は両方が若干異なるような複数の線に比して、該合成適合度が相対的に高くなるようなものでよい。従って、基準画像での位置及び方向の一方又は両方が互いに異なる複数の推定エッジ投影線の候補の中で、最も、前記合成適合度が高いものを、推定エッジ投影線として決定してもよい。 Note that the estimated edge projection line determined by the processing of the estimated edge projection line determination means does not need to have the highest combined fitness, and one of the position and direction in the estimated edge projection line and the reference image. Alternatively, it may be such that the composite fitness is relatively higher than a plurality of lines that are slightly different from each other. Accordingly, among the plurality of estimated edge projection line candidates whose positions and / or directions in the reference image are different from each other, the one having the highest combined fitness may be determined as the estimated edge projection line.
次いで、前記段差部空間配置決定手段の処理が実行される。この処理では、段差部空間配置決定手段は、ステレオカメラの撮像領域に存在する段差部の空間的な配置位置を認識するためのデータとして、少なくとも該段差部の上段側踏面の先端側エッジの空間的な位置及び方向を表すデータを前記決定された推定エッジ投影線と前記決定された平面パラメータとに基づいて決定する。 Next, the processing of the stepped portion space arrangement determining means is executed. In this process, the step portion space arrangement determining means uses at least the space of the front edge of the stepped portion on the upper step as the data for recognizing the spatial arrangement position of the step portion existing in the imaging area of the stereo camera. Data representing a specific position and direction is determined based on the determined estimated edge projection line and the determined plane parameter.
この場合、段差部の上段側踏面の先端側エッジは、上段側踏面に対応して前記平面投影領域抽出手段により決定された平面パラメータにより空間的な位置及び姿勢が規定される平面上の線であり、この線を光学的に基準画像に投影してなる線が、上記推定エッジ投影線となる。従って、この推定エッジ投影線と、平面投影領域抽出手段により決定された平面パラメータ(上段側踏面に対応する平面部分の平面パラメータ)とに基づいて、先端側エッジの空間的な位置及び方向を表すデータを決定できることとなる。 In this case, the leading edge of the upper step surface of the stepped portion is a line on a plane whose spatial position and orientation are defined by the plane parameters determined by the plane projection area extraction means corresponding to the upper step surface. A line obtained by optically projecting this line onto the reference image is the estimated edge projection line. Therefore, based on this estimated edge projection line and the plane parameter determined by the plane projection area extraction means (the plane parameter of the plane portion corresponding to the upper tread surface), the spatial position and direction of the tip side edge are represented. Data can be determined.
該データとしては、例えば、先端側エッジ上の2つの点の空間的な位置、あるいは、先端側エッジ上の1つの点の空間的な位置と該先端側エッジの方向ベクトルとの組等を用いることができる。 As the data, for example, a spatial position of two points on the leading edge, or a set of a spatial position of one point on the leading edge and the direction vector of the leading edge is used. be able to.
以上説明した第1発明によれば、前記評価関数算出手段の処理によって、各演算処理領域及び各候補位置の組毎に算出される評価関数の値は、基準画像の縦方向に細長い各演算処理領域毎に、基準画像の縦方向での実エッジ投影線の候補位置と、該候補位置の実エッジ投影線の位置に対する適合度との相関関係を表すものとなる。 According to the first invention described above, the value of the evaluation function calculated for each set of each calculation processing region and each candidate position by the processing of the evaluation function calculation means is long and narrow in the vertical direction of the reference image. For each region, the correlation between the candidate position of the actual edge projection line in the vertical direction of the reference image and the degree of suitability of the candidate position with respect to the position of the actual edge projection line is represented.
従って、この評価関数の値に基づいて、前記推定エッジ投影線を決定することにより、基準画像の横方向に並ぶ複数条の演算処理領域のそれぞれにおいて適合度が極力高くなるような推定エッジ投影線を決定できる。このため、実エッジ投影線に対する一致度合いの高い推定エッジ投影線を決定できることとなる。 Therefore, by determining the estimated edge projection line based on the value of the evaluation function, the estimated edge projection line that has the highest possible fitness in each of the plurality of arithmetic processing regions arranged in the horizontal direction of the reference image is obtained. Can be determined. For this reason, it is possible to determine an estimated edge projection line having a high degree of coincidence with the actual edge projection line.
よって、第1発明によれば、階段等の段差部の踏面の先端側エッジの空間的な位置及び方向を精度よく認識することができる。 Therefore, according to the first aspect, it is possible to accurately recognize the spatial position and direction of the leading edge of the tread surface of a stepped portion such as a staircase.
上記第1発明においては、前記平面投影領域抽出手段は、レーザ測距装置等を使用することなく、前記ステレオ画像(基準画像及び参照画像)を用いて平面投影領域の抽出と平面パラメータの決定とを行なうようにすることも可能である。 In the first aspect of the invention, the plane projection area extracting means extracts the plane projection area and determines the plane parameters using the stereo image (standard image and reference image) without using a laser distance measuring device or the like. It is also possible to perform.
具体的には、前記平面投影領域抽出手段は、前記基準画像における位置が互いに相違する複数の平面投影領域抽出用局所領域を該基準画像に設定する処理と、各平面投影領域抽出用局所領域の画像と該平面投影領域抽出用局所領域に対応する前記参照画像中の領域の画像との間の射影変換を規定する平面パラメータである平面投影領域抽出用平面パラメータを、該平面投影領域抽出用局所領域の画像の画素値分布と、該平面投影領域抽出用局所領域に対応する前記参照画像中の領域の画像を該平面投影領域抽出用平面パラメータに応じて射影変換した場合に得られる画像の画素値分布との誤差を最小化するように決定する処理とを実行し、各平面投影領域に含まれる前記平面投影領域抽出用局所領域のそれぞれに対応する平面投影領域抽出用平面パラメータにより規定される平面が互いに一致するように前記基準画像から各平面投影領域を抽出する(第2発明)。 Specifically, the planar projection area extracting means sets a plurality of planar projection area extraction local areas whose positions in the reference image are different from each other in the reference image, and each of the planar projection area extraction local areas A plane parameter for extracting a plane projection area, which is a plane parameter that defines projective transformation between an image and an image of an area in the reference image corresponding to the area for extracting a plane projection area, Pixel value distribution of image of region and pixel of image obtained when projective transformation is performed on region image in reference image corresponding to local region for plane projection region extraction according to plane parameter for plane projection region extraction Processing for determining to minimize an error from the value distribution, and for extracting a planar projection area corresponding to each of the planar projection area extracting local areas included in each planar projection area Plane defined by a surface parameter extracts each planar projection area from the reference image so as to match with each other (second invention).
この第2発明によれば、前記平面投影領域抽出手段は、前記基準画像における位置が互いに相違する複数の平面投影領域抽出用局所領域を該基準画像に設定する。該平面投影領域抽出用局所領域は、基準画像の全体に比して十分に小さい面積の領域である。 According to this second aspect, the planar projection area extracting means sets a plurality of planar projection area extracting local areas whose positions in the reference image are different from each other in the reference image. The local region for planar projection region extraction is a region having a sufficiently small area as compared with the entire reference image.
ここで、ある1つの平面投影領域抽出用局所領域の画像が平面部分の画像である場合には、その画像と、基準画像の該平面投影領域抽出用局所領域に投影されている実空間の部分(ここでは平面部分のうちの局所部分)を参照画像中に投影してなる部分の画像とは、当該平面部分を包含する平面の位置及び姿勢を表す平面パラメータに応じた射影変換(平面射影変換)によって対応付けられる。 Here, when an image of a certain plane projection region extraction local region is an image of a plane portion, the image and a portion of the real space projected on the plane projection region extraction local region of the reference image An image of a portion formed by projecting a local portion (here, a local portion) into a reference image is a projective transformation (a planar projective transformation) corresponding to a plane parameter representing a position and orientation of a plane including the plane portion. ).
すなわち、原理的には、平面投影領域抽出用局所領域に対応する参照画像中の画像に、該平面投影領域抽出用局所領域に投影されている平面部分の平面パラメータに応じた射影変換を施すことによって、基準画像の平面投影領域抽出用局所領域の画像と同じ画素値分布を有する画像が得られる。 That is, in principle, projective transformation is performed on the image in the reference image corresponding to the local area for extracting the planar projection area according to the plane parameter of the plane portion projected on the local area for extracting the planar projection area. Thus, an image having the same pixel value distribution as the image of the local region for extracting the planar projection region of the reference image is obtained.
一方、平面投影領域抽出用局所領域の画像が平面部分の画像であっても、実際の平面部分に対応する平面パラメータと異なる平面パラメータを使用して、平面投影領域抽出用局所領域に対応する参照画像中の画像に射影変換を施した場合に得られる画像は、基準画像の平面投影領域抽出用局所領域の画像と異なる画素値分布を有する画像となる。 On the other hand, even if the image of the local area for extracting the planar projection area is an image of the planar part, the reference corresponding to the local area for extracting the planar projection area is used by using different plane parameters from those corresponding to the actual planar part. An image obtained when projective transformation is performed on an image in the image is an image having a different pixel value distribution from the image of the local area for planar projection area extraction of the reference image.
そこで、第2発明では、平面投影領域抽出手段は、次に、各平面投影領域抽出用局所領域の画像と該平面投影領域抽出用局所領域に対応する前記参照画像中の領域の画像との間の射影変換を規定する平面パラメータである平面投影領域抽出用平面パラメータを、該平面投影領域抽出用局所領域の画像の画素値分布と、該平面投影領域抽出用局所領域に対応する前記参照画像中の領域の画像を該平面投影領域抽出用平面パラメータに応じて射影変換した場合に得られる画像の画素値分布との誤差を最小化するように決定する。 Therefore, in the second invention, the plane projection area extracting means next performs a step between each plane projection area extraction local area image and an area image in the reference image corresponding to the plane projection area extraction local area. A plane parameter for extracting a plane projection area, which is a plane parameter that defines the projective transformation of the image, a pixel value distribution of the image of the local area for extracting the plane projection area, and the reference image corresponding to the local area for extracting the plane projection area Is determined so as to minimize an error with respect to the pixel value distribution of the image obtained when projective transformation is performed on the image of the area in accordance with the plane parameter for plane projection area extraction.
これにより、段差部の踏面等の平面部分が投影されている平面投影領域抽出用局所領域にあっては、その平面部分を包含する平面の位置及び姿勢を表す平面投影領域抽出用平面パラメータが適正に決定されることとなる。 As a result, in the planar projection region extraction local region where the planar portion such as the tread of the step portion is projected, the planar parameter for extracting the planar projection region indicating the position and orientation of the plane including the planar portion is appropriate. Will be determined.
なお、平面投影領域抽出用局所領域に単一の平面部分とそれ以外の部分とが含まれている場合には、決定される平面投影領域抽出用平面パラメータにより規定される平面は、一般には、該平面投影領域抽出用局所領域に含まれる平面部分を包含する平面とは異なるものとなる。 In addition, when a single plane part and other parts are included in the local area for plane projection area extraction, the plane defined by the plane parameter for plane projection area extraction to be determined is generally The plane is different from the plane including the plane portion included in the local area for plane projection area extraction.
上記の如く各平面投影領域抽出用局所領域に対応する平面投影領域抽出用平面パラメータを決定した場合、同一の平面上に存在する平面投影領域抽出用局所領域に対応する平面投影領域抽出用平面パラメータは、互いに同一(もしくはほぼ同一)となる。 When the plane projection area extraction plane parameter corresponding to each plane projection area extraction local area is determined as described above, the plane projection area extraction plane parameter corresponding to the plane projection area extraction local area existing on the same plane is determined. Are identical (or nearly identical) to each other.
そこで、平面投影領域抽出手段は、次に、各平面投影領域に含まれる前記平面投影領域抽出用局所領域のそれぞれに対応する平面投影領域抽出用平面パラメータにより規定される平面が互いに一致するように前記基準画像から各平面投影領域を抽出する。なお、ここで、平面投影領域抽出用平面パラメータが互いに同一というのは、厳密に互いに同一であることだけを意味するものではなく、平面投影領域抽出用平面パラメータにより規定される平面の位置及び姿勢がある既定の範囲内でほぼ同一となるような場合も含まれる。 Therefore, the plane projection area extraction means next causes the planes defined by the plane projection area extraction plane parameters corresponding to the respective plane projection area extraction local areas included in each plane projection area to coincide with each other. Each planar projection area is extracted from the reference image. Here, the fact that the plane parameters for extracting the plane projection area are the same does not mean that they are strictly the same, but the position and orientation of the plane defined by the plane parameters for extracting the plane projection area It is also included when they are almost identical within a certain predetermined range.
これにより、第2発明によれば、レーザ測距装置等の測距装置をステレオカメラとは別に移動体に搭載したりすることなく、ステレオ画像と射影変換(平面射影変換)とを利用した手法によって、基準画像から平面投影領域を抽出することができる。 Thus, according to the second invention, a method using a stereo image and projective transformation (planar projective transformation) without mounting a distance measuring device such as a laser distance measuring device on a moving body separately from the stereo camera. Thus, a planar projection area can be extracted from the reference image.
前記第1発明又は第2発明においては、前記評価関数算出手段が各演算処理領域に設定する複数の候補位置は、全ての演算処理領域について共通のN3a個(N3a:2以上の整数)の候補位置であり、前記評価関数算出手段は、第k1番目(k1:1からN3aまでの整数のうちの任意の1つの整数)の候補位置と各演算処理領域とに対応する前記誤差関数の値を算出するために、前記射影変換用平面パラメータが互いに同一となる各演算処理領域のエッジ推定用射影変換対象領域を合成してなる合成射影変換対象領域における画像と、該合成射影変換対象領域に対応する前記参照画像中の領域の画像を該合成射影変換対象領域に対応する射影変換用平面パラメータに応じて射影変換した場合に得られる画像との誤差画像を求める処理を実行し、その誤差画像を用いて、第k1番目の候補位置と各演算処理領域とに対応する前記誤差関数の値を算出することが好ましい(第3発明)。 In the first invention or the second invention, the plurality of candidate positions set in each calculation processing area by the evaluation function calculation means are N3a (N3a: integer greater than or equal to 2) candidates common to all calculation processing areas. And the evaluation function calculation means calculates the value of the error function corresponding to the k1th candidate position (arbitrary one of integers from k1: 1 to N3a) and each calculation processing area. In order to calculate, an image in the combined projective transformation target area formed by combining the projection conversion target areas for edge estimation of the respective computation processing areas in which the plane parameters for the projective conversion are the same with each other, and the composite projective conversion target area A process of obtaining an error image from an image obtained by performing projective transformation on an image of an area in the reference image according to a projective transformation plane parameter corresponding to the synthetic projective transformation target area; Using the difference image, it is preferable to calculate the value of the error function corresponding to the first k1-th candidate location and each processing region (third invention).
この第3発明によれば、前記評価関数算出手段は、前記複数の候補位置の任意の1つである第k1番目の候補位置と各演算処理領域とに対応する前記誤差関数を算出する前に事前に、前記射影変換用平面パラメータが互いに同一となる各演算処理領域のエッジ推定用射影変換対象領域を合成してなる合成射影変換対象領域に係わる前記誤差画像を求めておく。そして、前記評価関数算出手段は、この誤差画像を用いて第k1番目の候補位置と各演算処理領域とに対応する前記誤差関数の値を算出する。これにより、各候補位置及び各演算処理領域の各組毎に個別に前記誤差関数の値を算出する場合に比して、各候補位置及び各演算処理領域の各組毎の誤差関数の値の算出を効率よく行なうことができる。 According to the third invention, the evaluation function calculating means calculates the error function corresponding to the k1th candidate position, which is any one of the plurality of candidate positions, and each calculation processing area. The error image relating to the combined projective transformation target area obtained by synthesizing the edge estimation projective transformation target areas of the respective computation processing areas having the same projective transformation plane parameters is obtained in advance. Then, the evaluation function calculation means calculates the value of the error function corresponding to the k1th candidate position and each calculation processing region using the error image. As a result, the error function value of each candidate position and each set of calculation processing regions is compared with the case where the value of the error function is calculated individually for each set of each candidate position and each calculation processing region. Calculation can be performed efficiently.
前記第1〜第3発明では、前記ステレオカメラの撮像領域に段差部が存在しているか否かを検知する段差部存在検知手段をさらに備えている場合には、前記平面投影領域抽出手段、評価関数算出手段及び段差部配置決定手段の処理は、前記段差部存在検知手段によって前記ステレオカメラの撮像領域に段差部が存在していることが検知されることを必要条件として実行される処理とされる。 In the first to third aspects of the invention, in the case of further comprising a stepped portion presence detecting means for detecting whether or not a stepped portion is present in the imaging region of the stereo camera, the planar projection region extracting means and the evaluation The processing of the function calculating means and the step portion arrangement determining means is processing executed on the condition that the step portion presence detecting means detects that a step portion is present in the imaging area of the stereo camera. The
この場合、前記段差部存在検知手段は、外部から与えられる情報に基づいて段差部が存在しているか否かを検知するようにすることも可能であるが、前記基準画像及び参照画像を用いて当該検知を行なうこともできる。 In this case, the stepped portion presence detecting means can detect whether or not a stepped portion is present based on information given from the outside, but using the reference image and the reference image The detection can also be performed.
具体的には、前記段差部存在検知手段は、前記ステレオカメラの撮像領域に段差部が存在しているか否かを検知するための段差部存在検知用領域を前記基準画像に設定する処理と、該段差部存在検知用領域の画像と該段差部存在検知用領域に対応する前記参照画像中の領域の画像との間の射影変換を規定する平面パラメータである段差部存在検知用平面パラメータを、前記段差部存在検知用領域の画像の画素値分布と該段差部存在検知用領域に対応する領域の画像を該段差部存在検知用平面パラメータに応じて射影変換した場合に得られる画像の画素値分布との誤差を最小化するように決定する処理とを実行し、決定した該段差部存在検知用平面パラメータにより示される平面の法線方向の向きに基づいて前記ステレオカメラの撮像領域に段差部が存在しているか否かを検知する(第4発明)。 Specifically, the stepped portion presence detection means sets a stepped portion presence detection region for detecting whether or not a stepped portion is present in the imaging region of the stereo camera in the reference image; Step parameter presence detection plane parameter, which is a plane parameter that defines projective transformation between the image of the level difference presence detection region and the image of the region in the reference image corresponding to the level difference presence detection region, Pixel value distribution of an image of the stepped portion presence detection region and a pixel value of an image obtained by performing projective transformation on the image of the region corresponding to the stepped portion presence detecting region according to the stepped portion presence detection plane parameter Processing to determine an error with the distribution is minimized, and a step is set in the imaging area of the stereo camera based on the direction of the normal direction of the plane indicated by the determined step parameter for detecting the presence of the stepped portion. Whether to detect the part is present (fourth invention).
この第4発明によれば、段差部存在検知手段の処理によって決定される前記段差部存在検知用平面パラメータにより規定される平面の法線方向の向きは、前記ステレオカメラの撮像領域に段差部が存在している場合には、該撮像領域が平坦な床面である場合の法線方向の向きよりも傾いたものとなる。このため、前記段差部存在検知用平面パラメータにより規定される平面の法線方向の向きに基づいて、前記ステレオカメラの撮像領域に段差部が存在しているか否かを検知することができる。 According to the fourth aspect of the invention, the direction of the normal direction of the plane defined by the step parameter presence detection plane parameter determined by the processing of the level difference presence detection means is such that the level difference is in the imaging area of the stereo camera. If present, the image pickup area is inclined with respect to the normal direction when the imaging area is a flat floor surface. Therefore, it is possible to detect whether or not there is a stepped portion in the imaging region of the stereo camera based on the direction of the normal direction of the plane defined by the stepped portion presence detection plane parameter.
前記第1〜第4発明においては、前記段差部が前記ステレオカメラにより撮像されている状態において、該段差部が昇りの段差部であるか、降りの段差部であるかを判断する段差部種別判断手段をさらに備えており、
前記評価関数算出手段は、
前記段差部種別判断手段によって前記段差部が昇り段差部であると判断された場合には、前記基準画像に前記複数条の演算処理領域を設定する処理において、各演算処理領域の上端が該段差部の上段側踏面に対応する前記平面投影領域に位置し、且つ、各演算処理領域の下端が該段差部の下段側踏面に対応する前記平面投影領域に位置するように前記複数条の演算処理領域を設定し、前記各演算処理領域内に前記複数のエッジ推定用射影変換対象領域を設定する処理において、各候補位置を境界として隣接する第1及び第2のエッジ推定用射影変換対象領域を該演算処理領域の上部側に設定すると共に、該第1及び第2のエッジ推定用射影変換対象領域のうちの下側の領域である第2のエッジ推定用射影変換対象領域との間に該候補位置に応じた間隔を有する第3のエッジ推定用射影変換対象領域を該演算処理領域の下部側に設定し、
前記段差部種別判断手段によって前記段差部が降り段差部であると判断された場合には、前記基準画像に前記複数条の演算処理領域を設定する処理において、各演算処理領域の上端が下段側踏面に対応する前記平面投影領域に位置し、且つ、各演算処理領域の下端が上段側踏面に対応する前記平面投影領域に位置するように前記複数条の演算処理領域を設定し、前記各演算処理領域内に前記複数のエッジ推定用射影変換対象領域を設定する処理において、各候補位置を境界として隣接する第4及び第5のエッジ推定用射影変換対象領域を該演算処理領域内に設定することが好ましい(第5発明)。
In the first to fourth aspects of the invention, a step portion type for determining whether the step portion is an ascending step portion or a descending step portion when the step portion is imaged by the stereo camera. A judgment means,
The evaluation function calculating means includes
When the stepped portion type determining means determines that the stepped portion is an ascending stepped portion, in the process of setting the plurality of calculation processing regions in the reference image, the upper end of each calculation processing region is the stepped portion. The plurality of lines of arithmetic processing are positioned in the planar projection area corresponding to the upper stage tread of the section and the lower end of each computation processing area is positioned in the plane projection area corresponding to the lower stage tread of the step In the process of setting a region and setting the plurality of edge estimation projection transformation target regions in each of the calculation processing regions, the first and second edge estimation projection transformation target regions adjacent to each other with the candidate positions as boundaries Set on the upper side of the arithmetic processing region, and between the first and second edge estimation projective transformation target regions, the second edge estimation projective transformation target region is the lower region. Depending on the candidate position The third projective transformation target area for edge estimation with interval set on the lower side of the processing area,
When the stepped portion type determining means determines that the stepped portion is a descending stepped portion, in the processing for setting the plurality of calculation processing regions in the reference image, the upper end of each calculation processing region is on the lower side. The plurality of calculation processing areas are set so that the lower end of each calculation processing area is located in the planar projection area corresponding to the tread, and the lower end of each calculation processing area is positioned in the flat projection area corresponding to the upper tread. In the process of setting the plurality of edge estimation projective transformation target regions in the processing region, the fourth and fifth edge estimation projective transformation target regions adjacent to each other at the candidate positions are set in the calculation processing region. It is preferable (5th invention).
この第5発明によれば、前記段差部種別判断手段によって前記段差部が昇り段差部であると判断された場合にあっては、前記評価関数算出手段は、前記基準画像に前記複数条の演算処理領域を設定する処理において、各演算処理領域の上端が該段差部の上段側踏面に対応する前記平面投影領域に位置し、且つ、各演算処理領域の下端が該段差部の下段側踏面に対応する前記平面投影領域に位置するように前記複数条の演算処理領域を設定する。これにより、前記複数条の演算処理領域のそれぞれに、前記実エッジ投影線が含まれるように該複数条の演算処理領域を基準画像に設定することができる。 According to this fifth aspect, when the stepped portion type determining means determines that the stepped portion is an ascending stepped portion, the evaluation function calculating means calculates the plurality of items on the reference image. In the process of setting the processing area, the upper end of each calculation processing area is positioned in the planar projection area corresponding to the upper step surface of the stepped portion, and the lower end of each calculation processing area is positioned on the lower step surface of the stepped portion. The plurality of calculation processing areas are set so as to be positioned in the corresponding planar projection areas. Accordingly, the plurality of calculation processing areas can be set as the reference image so that each of the plurality of calculation processing areas includes the actual edge projection line.
さらに、前記評価関数算出手段は、前記各演算処理領域内に前記複数のエッジ推定用射影変換対象領域を設定する処理において、各候補位置を境界として隣接する第1及び第2のエッジ推定用射影変換対象領域を該演算処理領域の上部側に設定すると共に、該第1及び第2のエッジ推定用射影変換対象領域のうちの下側の領域である第2のエッジ推定用射影変換対象領域との間に該候補位置に応じた間隔を有する第3のエッジ推定用射影変換対象領域を該演算処理領域の下部側に設定する。 Further, the evaluation function calculating means is configured to set the plurality of edge estimation projection transformation target areas in the calculation processing areas, and the first and second edge estimation projections adjacent to each other with the candidate positions as boundaries. A conversion target area is set on the upper side of the arithmetic processing area, and a second edge estimation projective transformation target area which is a lower area of the first and second edge estimation projective transformation target areas; A third edge estimation projective transformation target area having an interval according to the candidate position is set to the lower side of the arithmetic processing area.
この場合、各演算処理領域及び各候補位置の任意の1つの組において、該演算処理領域に設定される第1〜第3のエッジ推定用射影変換対象領域は、それぞれ、当該候補位置が、実エッジ投影線の位置に一致する場合に、段差部の上段側踏面が投影される領域、該上段側踏面に対して起立する面(段鼻の先端面や蹴り込み面)が投影される領域、段差部の下段側踏面が投影される領域に相当するものとして設定される領域である。そして、これらの第1〜第3のエッジ推定用射影変換対象領域は、候補位置に応じて変化することとなる。 In this case, in any one set of each calculation processing region and each candidate position, the first to third edge estimation projective transformation target regions set in the calculation processing region are respectively the actual candidate positions. A region where the upper step surface of the step portion is projected when it coincides with the position of the edge projection line, a region where a surface standing up with respect to the upper step surface (a tip surface of the nose or a kick surface) is projected, a step This is an area that is set to correspond to the area on which the lower tread surface is projected. And these 1st-3rd edge estimation projection conversion object area | regions will change according to a candidate position.
従って、ステレオカメラの撮像領域に昇りの段差部が存在する場合には、各演算処理領域及び各候補位置の各組に対応して前記評価関数算出手段により算出される評価関数の値には、該候補位置で隣接する第1及び第2のエッジ推定用射影変換対象領域の画像に加えて、これらと平面パラメータベクトルが異なる第3のエッジ推定用射影変換対象領域の画像の画素値が反映されることとなる。そのため、各演算処理領域の各候補位置の、実エッジ投影線の位置に対する適合度を表すものとしての前記評価関数の値の信頼性を高めることができる。 Therefore, when there is an ascending step in the imaging area of the stereo camera, the evaluation function value calculated by the evaluation function calculation unit corresponding to each set of each calculation processing area and each candidate position includes: In addition to the images of the first and second edge estimation projection transformation target areas adjacent to each other at the candidate position, the pixel values of the third edge estimation projection transformation target area images having different plane parameter vectors are reflected. The Rukoto. Therefore, it is possible to increase the reliability of the value of the evaluation function as representing the degree of fitness of each candidate position in each calculation processing region with respect to the position of the actual edge projection line.
一方、前記段差部種別判断手段によって前記段差部が降り段差部であると判断された場合にあっては、前記評価関数算出手段は、前記基準画像に前記複数条の演算処理領域を設定する処理において、各演算処理領域の上端が下段側踏面に対応する前記平面投影領域に位置し、且つ、各演算処理領域の下端が上段側踏面に対応する前記平面投影領域に位置するように前記複数条の演算処理領域を設定する。 On the other hand, when it is determined that the stepped portion is a descending stepped portion by the stepped portion type determining means, the evaluation function calculating means is a process for setting the plurality of calculation processing regions in the reference image. The plurality of lines are arranged such that the upper end of each calculation processing area is located in the planar projection area corresponding to the lower tread, and the lower end of each calculation processing area is located in the planar projection area corresponding to the upper tread. Set the calculation processing area.
これにより、前記複数条の演算処理領域のそれぞれに、前記実エッジ投影線が含まれるように該複数条の演算処理領域を基準画像に設定することができる。 Accordingly, the plurality of calculation processing areas can be set as the reference image so that each of the plurality of calculation processing areas includes the actual edge projection line.
さらに、前記評価関数算出手段は、前記各演算処理領域内に前記複数のエッジ推定用射影変換対象領域を設定する処理において、各候補位置を境界として隣接する第4及び第5のエッジ推定用射影変換対象領域を該演算処理領域内に設定する。 Further, the evaluation function calculating means is configured to set the plurality of edge estimation projection transformation target areas in the calculation processing areas, and the fourth and fifth edge estimation projections adjacent to each other with the candidate positions as boundaries. A conversion target area is set in the calculation processing area.
ここで、ステレオカメラの撮像流域に存在する段差部が降りの段差部である場合には、基準画像には、段鼻の先端面や蹴り込み面のように、上段側透明に対して起立する姿勢の面は写らない。従って、評価関数算出手段は、上記第4及び第5のエッジ推定用射影変換対象領域を演算処理領域内に設定する。これらの第4及び第5のエッジ推定用射影変換対象領域は、それぞれ、当該候補位置が、実エッジ投影線の位置に一致する場合に、段差部の上段側踏面が投影される領域、段差部の下段側踏面が投影される領域に相当するものとして設定される領域である。そして、これらの第4及び第5のエッジ推定用射影変換対象領域は、候補位置に応じて変化することとなる。 Here, when the stepped portion present in the imaging basin of the stereo camera is a stepped portion that descends, the reference image has an attitude that stands up with respect to the upper transparent side, such as the tip surface of the nose or the kicked surface. The face of is not reflected. Therefore, the evaluation function calculation means sets the fourth and fifth edge estimation projection transformation target areas in the calculation processing area. These fourth and fifth edge estimation projective transformation target regions are regions where the upper step side tread is projected when the candidate position matches the position of the actual edge projection line, and the step portion. This is an area set to correspond to the area where the lower tread is projected. Then, these fourth and fifth edge estimation projective transformation target regions change in accordance with the candidate positions.
従って、ステレオカメラの撮像領域に存在する段差部が降りの段差部である場合には、各演算処理領域及び各候補位置の各組に対応して前記評価関数算出手段により算出される評価関数の値には、該候補位置で隣接する第4及び第5のエッジ推定用射影変換対象領域の画像の画素値が適切に反映されることとなる。そのため、各演算処理領域の各候補位置の、実エッジ投影線の位置に対する適合度を表すものとしての前記評価関数の値の信頼性を適切に確保することとができる。 Therefore, when the stepped portion present in the imaging region of the stereo camera is a stepped stepped portion, the evaluation function calculated by the evaluation function calculating unit corresponding to each set of each calculation processing region and each candidate position The value appropriately reflects the pixel values of the images of the fourth and fifth edge estimation projection transformation target areas adjacent to each other at the candidate position. Therefore, it is possible to appropriately ensure the reliability of the value of the evaluation function as representing the degree of fitness of each candidate position in each arithmetic processing region with respect to the position of the actual edge projection line.
よって、第5発明によれば、ステレオカメラの撮像領域に存在する段差部が昇りの段差部と降りの段差部とのといずれであっても、実エッジ投影線に相当するものとして推定エッジ投影線を適切な信頼性で決定することができる。 Therefore, according to the fifth invention, the estimated edge projection is assumed to correspond to the actual edge projection line regardless of whether the stepped portion present in the imaging area of the stereo camera is an ascending stepped portion or a descending stepped portion. The line can be determined with appropriate reliability.
上記第5発明においては、前記ステレオカメラの撮像領域に存在する段差部が昇りの段差部である場合において、前記平面投影領域抽出手段により、段鼻の先端面や蹴り込み面のように上段側踏面に対して起立した姿勢の平面部分の平面投影領域を抽出するようにした場合には、前記第2のエッジ推定用射影変換対象領域に対応する射影変換用平面パラメータとして、当該起立した姿勢の平面部分の平面投影領域に対応する平面パラメータを使用することができる。 In the fifth aspect of the present invention, when the stepped portion present in the imaging region of the stereo camera is an ascending stepped portion, an upper stepped tread like a nose tip or kick surface is obtained by the planar projection region extracting means. When the plane projection area of the plane portion in the standing posture is extracted, the plane in the standing posture is used as the projection transformation plane parameter corresponding to the second edge estimation projection transformation target region. Planar parameters corresponding to the planar projection area of the part can be used.
ただし、段差部の段鼻の先端面や蹴り込み面のように上段側踏面に対して起立した姿勢の平面部分は、一般に、上段側踏面に対して一般に垂直もしくはそれに近い角度で起立する。そこで、前記第5発明においては、前記評価関数算出手段は、前記段差部種別判断手段によって前記段差部が昇りの段差部であると判断された場合に、各エッジ推定用射影変換対象領域に対応するエッジ推定用平面パラメータを設定する処理において、前記第1のエッジ推定用射影変換対象領域と前記第3のエッジ推定用射影変換対象領域とのそれぞれに対応する射影変換用平面パラメータとして、それぞれ、前記段差部の上段側踏面に対応する前記平面投影領域に関して決定された前記平面パラメータと、前記段差部の下段側踏面に対応する前記平面投影領域に関して決定された前記平面パラメータとを設定し、前記第2のエッジ推定用射影変換対象領域に対応する射影変換用平面パラメータとして、第1のエッジ推定用射影変換対象領域に対応する射影変換用平面パラメータにより規定される平面に対してあらかじめ定めた角度(例えば90deg又はそれに近い角度)で交差する平面の位置及び姿勢を表す平面パラメータを設定するようにしてもよい(第6発明)。 However, a flat portion in a posture standing with respect to the upper step surface, such as a step nose tip surface or a kick surface of the step portion, generally stands at an angle that is generally perpendicular to or close to the upper step surface. Therefore, in the fifth aspect of the invention, the evaluation function calculation means corresponds to each edge estimation projection transformation target area when the step difference type determination means determines that the step difference is an ascending step difference. In the process of setting the plane parameter for edge estimation to be performed, as the projection conversion plane parameter corresponding to each of the first edge estimation projection conversion target region and the third edge estimation projection conversion target region, Setting the plane parameter determined for the planar projection area corresponding to the upper step surface of the step portion and the plane parameter determined for the plane projection area corresponding to the lower step surface of the step portion, As the projection transformation plane parameter corresponding to the second edge estimation projection transformation target region, the first edge estimation projection transformation subject region. A plane parameter that represents the position and orientation of a plane that intersects the plane defined by the corresponding plane parameter for projective transformation at a predetermined angle (for example, 90 degrees or an angle close thereto) may be set (No. 6 invention).
この第6発明によれば、前記ステレオカメラの撮像領域に存在する段差部が昇りの段差部である場合に、前記平面領域抽出手段により、各踏面に対応する平面投影領域だけを抽出した場合であっても、第1〜第3のエッジ推定用射影変換対象領域に対応する射影変換用平面パラメータを適切に設定することができる。 According to the sixth invention, when the stepped portion present in the imaging region of the stereo camera is an ascending stepped portion, only the planar projection region corresponding to each tread is extracted by the planar region extracting means. Even if it exists, the plane parameter for projection transformation corresponding to the 1st-3rd edge estimation projection transformation object area | region can be set appropriately.
なお、前記段差部種別判断手段によって前記段差部が降りの段差部であると判断された場合にあっては、前記評価関数算出手段は、各エッジ推定用射影変換対象領域に対応するエッジ推定用平面パラメータを設定する処理において、前記第4のエッジ推定用射影変換対象領域と前記第5のエッジ推定用射影変換対象領域とのそれぞれに対応する射影変換用平面パラメータとして、それぞれ、前記段差部の下段側踏面に対応する前記平面投影領域に関して決定された前記平面パラメータと、前記段差部の上段側踏面に対応する前記平面投影領域に関して決定された前記平面パラメータとを設定するようにすればよい。 If the stepped portion type determining means determines that the stepped portion is a descending stepped portion, the evaluation function calculating means is for edge estimation corresponding to each edge estimation projective transformation target region. In the process of setting the plane parameter, the projection conversion plane parameter corresponding to each of the fourth edge estimation projective transformation target area and the fifth edge estimation projective transformation target area, The plane parameter determined for the planar projection area corresponding to the lower tread surface and the plane parameter determined for the plane projection area corresponding to the upper tread surface of the stepped portion may be set.
補足すると、前記第5発明又は第6発明において、前記第4発明の構成を組み込んだ場合には、前記段差部種別判断手段は、前記段差部存在検知手段により決定された段差部存在検知用平面パラメータにより示される平面の法線方向の向きに基づいて、前記段差部が昇りの段差部であるか、降りの段差部であるかを判断することができる。 Supplementally, in the fifth invention or the sixth invention, when the configuration of the fourth invention is incorporated, the stepped portion type determining means is the stepped portion presence detecting plane determined by the stepped portion presence detecting means. Based on the direction of the normal direction of the plane indicated by the parameter, it can be determined whether the stepped portion is an ascending stepped portion or a descending stepped portion.
これは、前記段差部が昇りの段差部であるか、降りの段差部であるかに依存して、前記段差部存在検知用平面パラメータにより示される平面の法線が、段差部が存在しない平坦な面の法線方向に対して傾く向きが異なるからである。 This is because, depending on whether the stepped portion is an ascending stepped portion or a descending stepped portion, the normal line of the plane indicated by the stepped portion presence detection plane parameter is flat without a stepped portion. This is because the direction of inclination with respect to the normal direction of the smooth surface is different.
このように前記段差部種別判断手段を構成することで、段差部存在検知手段により決定された段差部存在検知用平面パラメータを利用して容易に、前記段差部が昇りの段差部であるか、降りの段差部であるかを判断することができる。 By configuring the stepped portion type determining means in this way, the stepped portion is an ascending stepped portion easily using the stepped portion presence detecting plane parameter determined by the stepped portion presence detecting means, It can be judged whether it is a step part of descending.
本発明においては、さらに、前記段差部空間配置決定手段は、前記段差部の上段側踏面の先端側エッジを、該上段側踏面に対応する前記平面パラメータにより規定される平面に対してあらかじめ定めた角度で交差する方向で該段差部の下段側踏面に対応する前記平面パラメータにより規定される平面に投影した線を、該下段側踏面の基端側の境界線として決定する手段を含むことが好ましい(第7発明)。 In the present invention, the stepped portion space arrangement determining means predetermines a tip side edge of the upper stepped tread of the stepped portion with respect to a plane defined by the plane parameter corresponding to the upper stepped tread. It is preferable to include means for determining a line projected on a plane defined by the plane parameter corresponding to the lower step surface of the stepped portion in a direction intersecting with an angle as a boundary line on the base end side of the lower step surface. (Seventh invention).
この第8発明によれば、前記段差部の上段側踏面の先端側エッジの空間的な位置及び方向を表すデータに加えて、前記段差部空間配置決定手段により下段側踏面の基端側の境界線が決定される。このため、上段側踏面の一段下側の下段側踏面の奥行きを認識できることとなる。 According to the eighth aspect of the invention, in addition to the data representing the spatial position and direction of the leading edge of the upper tread surface of the stepped portion, the boundary of the base end side of the lower tread surface is determined by the stepped portion space arrangement determining means. A line is determined. For this reason, it becomes possible to recognize the depth of the lower step surface of the upper step side tread.
さらに本発明においては、前記移動体には、前記ステレオカメラのよる撮像時に該ステレオカメラの撮像領域にテクスチャを付与する投光器が搭載されていることが好ましい(第8発明)。 Further, in the present invention, it is preferable that the moving body is equipped with a projector that gives a texture to an imaging region of the stereo camera during imaging by the stereo camera (eighth invention).
この第8発明によれば、ある平面部分が投影されている基準画像の任意の領域の画像の画素値分布と、それに対応する参照画像の領域の画像を、適宜の平面パラメータに応じて射影変換した場合に得られる射影変換画像の画素値分布との差は、該平面パラメータが、実際の平面部分の平面パラメータに対して相違する場合に顕著なものとなりやすい。 According to the eighth aspect of the invention, the pixel value distribution of an image in an arbitrary area of a standard image on which a certain plane portion is projected and the corresponding image of the area of the reference image are projected and converted according to appropriate plane parameters. The difference from the pixel value distribution of the projective transformation image obtained in this case tends to become conspicuous when the plane parameter is different from the plane parameter of the actual plane portion.
このため、前記評価関数算出手段により算出される評価関数の値、あるいは、前記第2発明において平面投影領域抽出手段が決定する平面投影領域抽出用平面パラメータ(ひいては各平面投影領域の平面パラメータ)、あるいは、前記第4発明における段差部存在検知手段が決定する段差部存在検知用平面パラメータの信頼性を高めることができる。 For this reason, the value of the evaluation function calculated by the evaluation function calculation means, or the plane parameter for plane projection area extraction (and thus the plane parameter of each plane projection area) determined by the plane projection area extraction means in the second invention, Alternatively, the reliability of the stepped portion presence detection plane parameter determined by the stepped portion presence detecting means in the fourth invention can be enhanced.
本発明の一実施形態を図1〜図20を参照して以下に説明する。 An embodiment of the present invention will be described below with reference to FIGS.
図1(a),(b)を参照して、本実施形態では、移動体としての脚式移動ロボット1によって階段等の段差部の空間的な配置位置を認識する場合を例にとって説明する。図示例の脚式移動ロボット1(以下、単にロボット1という)は、左右一対の2つの脚体を備える2足歩行ロボットである。
With reference to FIGS. 1A and 1B, in the present embodiment, a case where a spatial arrangement position of a stepped portion such as a staircase is recognized by a legged
このロボット1には、ステレオカメラを構成する左右一対のカメラ3R,3Lと、カメラ3R,3Lの撮像領域に投光する投光器4とが搭載されている。
The
カメラ3Rは、撮像領域に向って右側のカメラ、カメラ3Lは、撮像領域に向って左側のカメラであり、それぞれCCDカメラ等により構成されている。なお、カメラ3R,3Lの撮像画像は、モノトーン画像及びカラー画像のいずれの画像であってもよい。また、図1(a),(b)では、カメラ3R,3Lは、ロボット1の頭部に搭載されているが、ロボット1の胸部等、他の部位に搭載されていてもよい。
The
ロボット1は、これらのカメラ3R,3Lによって、ロボット1の周辺の移動環境(主に、ロボット1の進行方向前方の環境)を撮像することにより、カメラ3Rの撮像画像とカメラ3Lの撮像画像とから構成されるステレオ画像を随時、取得することが可能となっている。
The
また、本実施形態では、ロボット1は、カメラ3R,3Lによる撮像時に、その撮像領域にテクスチャを付与するための補助光SLを投光器4から投光する。この投光器4は、本実施形態では、図2に示す如く、撮像領域の面(図2では平面)に、互いに平行に並ぶ複数の斜行輝線SLaと、この斜行輝線SLaに対して交差する方向で互いに平行に並ぶ複数の斜行輝線SLbとから構成されるテクスチャを形成する所定色(例えば赤色)のレーザ光を上記補助光SLとして出力する。
Further, in the present embodiment, the
なお、投光器4により形成するテクスチャは、上記のパターンに限らず、ランダムドットなど、一様でない他のパターンの模様であってもよい。
Note that the texture formed by the
そして、ロボット1は、カメラ3R,3Lによって取得したステレオ画像等を基に、周辺の移動環境の床形状や設置物等を認識しつつ移動する。
Then, the
例えば、図1(a),(b)に示すように、ロボット1の進行方向前方に段差部としての階段50(図1(a)では昇り階段、図1(b)では降り階段)が存在している状況において、ロボット1は、カメラ3R,3Lによって取得した進行方向前方の環境のステレオ画像を基に、カメラ3R,3Lの撮像領域に階段50が存在することや、その階段50の空間的な配置位置を認識する。
For example, as shown in FIGS. 1 (a) and 1 (b), there is a staircase 50 (ascending staircase in FIG. 1 (a), descending staircase in FIG. 1 (b)) in front of the
この場合、本実施形態におけるロボット1では、階段50の空間的な配置位置を認識するために、階段50の各段の踏面51の先端側エッジ52及び基端側エッジ53のそれぞれの空間的な配置位置と、各踏面51を包含する平面の空間的な姿勢(法線方向)とが推定される。
In this case, in the
ここで、ロボット1が認識する階段50の各踏面51の先端側エッジ52及び基端側エッジ53について補足すると、図1(a)に示すロボット1の如く、階段50をその下段側踏面51が手前側、該下段側踏面51の一段上側の上段側踏面51が奥側となる視線で見た場合においては、各踏面51の先端側エッジ52は、該踏面51の外形の境界線のうち、手前側で横方向(階段50の幅方向)に直線状に延在する境界線である。また、この場合において、各踏面51の基端側エッジ53は、該踏面51の外形の境界線のうち、該踏面51の奥側で横方向に直線状に延在する境界線である。
Here, supplementing the leading
また、図1(b)に示すロボット1の如く、階段50をその上段側踏面51が手前側、該上段側踏面51の一段下側の下段側踏面51が奥側となる視線で見た場合にいては、各踏面51の先端側エッジ52は、上該踏面51の外形の境界線のうち、奥側で横方向(階段50の幅方向)に直線状に延在する境界線である。また、この場合において、各踏面51の基端側エッジ53は、該踏面51の外形の境界線のうち、該踏面51の手前側で横方向に直線状に延在する境界線である。
Further, as in the
また、段差部としての階段の構造に関して図3を参照して補足すると、階段の各段の踏面の先端部は、一般に段鼻と言われる部分である。従って、階段の踏面の先端側エッジというのは、換言すれば、階段の各段の段鼻の上面の先端側境界線を意味する。また、階段の上段側踏面の先端側と、その一段下側の下段側踏面の基端側との間での部分は、一般に蹴込みと言われる。そして、階段の各段の踏面の先端部(段鼻)は、多くの場合、図3に示す如く、その先端面が、上記蹴込みの箇所に起立した姿勢で形成される面部(以降、蹴込み面という)よりも若干突き出るように形成される。 Further, supplementing the structure of the staircase as the step portion with reference to FIG. 3, the tip portion of the tread surface of each step of the staircase is a portion generally referred to as a nose. Accordingly, the leading edge of the tread surface of the staircase means, in other words, the front boundary line of the upper surface of the nose of each step of the staircase. In addition, a portion between the distal end side of the upper step surface of the stairs and the proximal end side of the lower step surface of the lower step is generally referred to as kicking. In many cases, the tip (step nose) of the tread surface of each step of the staircase is a surface portion (hereinafter referred to as a kick-in) formed with the tip surface standing upright at the above-mentioned kick-in location as shown in FIG. It is formed so as to protrude slightly from the surface).
但し、本実施形態で、段差部の例として主に説明する階段では、段鼻の先端面が、蹴込み面よりも若干突き出ている必要はない。例えば、図1(a),(b)に簡略的に記載した階段50のように、段鼻の先端面と蹴込み面とが面一もしくはほぼ面一に形成されていてもよい。
However, in the present embodiment, in the staircase that is mainly described as an example of the stepped portion, it is not necessary that the tip end surface of the stair nose protrudes slightly from the kicked surface. For example, like the
また、本実施形態で、段差部の例として主に説明する階段は、蹴込みの箇所に、蹴込み面を形成する板部材が設けられていない(蹴込み面が存在しない)構造のものであってもよい。 In the present embodiment, the staircase that is mainly described as an example of the stepped portion has a structure in which the plate member that forms the kick surface is not provided at the place of the kick (the kick surface does not exist). There may be.
図4を参照して、ロボット1には、CPU、RAM、ROMを含む電子回路ユニットにより構成された演算処理装置10が搭載されている。そして、この演算処理装置10にカメラ3R,3L及び投光器4が接続されている。
Referring to FIG. 4, the
この演算処理装置10は、カメラ3R,3L及び投光器4の動作制御を行なう機能を有しており、カメラ3R,3Lの撮像動作と、投光器4の補助光SLの出力動作とを互いに同期した所要のタイミング(所定の制御処理周期のタイミング)で行なわせるように制御する。そして、演算処理装置10は、カメラ3R,3Lによりそれぞれ取得される撮像画像の画素値データ(撮像画像を構成する画素毎の輝度、彩度、色相等を表すデータ)を取り込み、この画素値データを、図示しない画像メモリに逐次更新しつつ、記憶保持する。
This
なお、カメラ3R,3Lに入射する光の波長を制限するバンドパスフィルタを備えておき、補助光SLの波長に一致もしくはほぼ一致する波長の光だけをカメラ3R,3Lで撮像するようにしてもよい。
It should be noted that a band-pass filter that limits the wavelength of light incident on the
さらに、演算処理装置10は、実装されたプログラムによって実現される機能として、カメラ3R,3Lの撮像領域に段差部が存在しているか否かを検知する段差部存在検知部11と、該撮像領域に存在する実際の段差部の平面部分をステレオ画像のうちの基準画像に投影してなる平面投影領域を抽出すると共に各平面投影領域に対応する平面部分の平面パラメータを決定(推定)する平面投影領域抽出部12と、撮像領域に存在する実際の段差部の踏面の先端側エッジを基準画像に投影してなる実エッジ投影線を推定(特定)するための処理を実行するエッジ投影線推定処理部13と、段差部の空間的な配置位置を特定する段差部空間配置決定部14とを備えている。そして、演算処理装置10は、これらの機能部11〜14の処理によって、本発明の段差部認識装置の一実施形態としての機能を実現する。
Furthermore, the
この場合、本実施形態では、カメラ3Rの撮像画像とカメラ3Lの撮像画像とのうちの一方、例えばカメラ3Rの撮像画像を基準画像、他方のカメラ3Lの撮像画像を参照画像として使用する。なお、演算処理装置10は、ロボット1の動作制御を行なう機能を備えていてもよい。
In this case, in the present embodiment, one of the captured image of the
以下に、上記段差部存在検知部11、平面投影領域抽出部12、エッジ投影線推定処理部13、段差部空間配置決定部14の処理を詳細に説明する。
Hereinafter, the processes of the stepped portion
カメラ3R,3Lによって取得されたロボット1の進行方向前方の撮像画像(ステレオ画像)の画素値データが段差部存在検知部11に与えられる。そして、段差部存在検知部11は、与えられたステレオ画像を使用して、図5のフローチャートに示す処理を実行する。
Pixel value data of a captured image (stereo image) ahead of the
段差部存在検知部11は、まず、STEP1の処理を実行する。このSTEP1では、段差部存在検知部11は、与えられたステレオ画像のうちの基準画像内に、図6に例示する如く、段差部の存在の有無を検知するための領域である段差部存在検知用領域R1を設定する。
The step difference
図6に示す基準画像は、カメラ3R,3Lの撮像領域に階段50(図示例では昇り階段)が存在する場合の基準画像を概略的に例示したものである。この場合、階段50の表面には前記投光器4から出力された補助光SLによって、テクスチャとしての輝線SLa,SLbが付与される。この輝線SLa,SLbも基準画像に投影される。なお、図6では基準画像に投影される輝線SLa,SLbの一部を代表的に示している。
The reference image shown in FIG. 6 schematically illustrates the reference image in the case where the staircase 50 (ascending staircase in the illustrated example) exists in the imaging regions of the
STEP1で段差部存在検知部11が設定する段差部存在検知用領域R1は、本実施形態では、その大きさ(基準画像の横方向及び縦方向での幅)があらかじめ定められた方形状の領域である。この段差部存在検知用領域R1の横方向の幅は、階段等の段差部が基準画像に投影されている場合に、該基準画像における段差部の横方向の幅内に十分に収まる程度の大きさに設定されている。
In this embodiment, the step portion presence detection region R1 set by the step portion
また、段差部存在検知用領域R1の縦方向の幅は、階段等の段差部が基準画像に投影されている場合に、段差部存在検知用領域R1内に複数段の踏面の画像が含まれるような大きさに設定されている。 Further, the vertical width of the stepped portion presence detection region R1 includes images of a plurality of steps on the stepped portion presence detection region R1 when a stepped portion such as a staircase is projected onto the reference image. It is set to such a size.
そして、段差部存在検知用領域R1は、基準画像内で、ロボット1の進行予定領域(ロボット1を目標とする進行方向に移動させた場合に該ロボット1が通過する領域)に存在するような位置に配置される。
Then, the stepped portion presence detection region R1 exists in the planned travel region of the robot 1 (the region through which the
次いで、段差部存在検知部11は、STEP2の処理を実行する。このSTEP2では、段差部存在検知部11は、基準画像内に設定した段差部存在検知用領域R1の画像が、ある平面上の部分の投影画像であると仮定し、この仮定にできるだけ適合するような当該平面の空間的な位置及び姿勢を表す平面パラメータを、射影変換(詳しくは平面射影変換)を利用した手法によって決定する。
Next, the stepped portion
本実施形態では、上記平面パラメータとして、平面の法線方向の単位ベクトル↑nを、基準画像を撮像するカメラ3R(以降、基準カメラ3ということがある)の光学中心Cから該平面までの距離dにより除算してなるベクトル↑m(≡↑n/d)を使用する。
In the present embodiment, the unit vector ↑ n in the normal direction of the plane is used as the plane parameter, and the distance from the optical center C of the
例えば、図7(a)又は図7(b)に二点鎖線で示す平面(図では仮想平面)の位置及び姿勢を表す平面パラメータは、図中に参照符号↑m1を付した矢印で示すように、該平面に垂直で、且つ大きさが1/dのベクトルとして表現される。 For example, a plane parameter representing the position and orientation of a plane (a virtual plane in the figure) indicated by a two-dot chain line in FIG. 7 (a) or FIG. 7 (b) is indicated by an arrow with a reference symbol ↑ m1 in the figure. The vector is expressed as a vector perpendicular to the plane and having a size of 1 / d.
以降、このように定義されるベクトル↑mを平面パラメータベクトルという。なお、本明細書では、“↑”は、ベクトル(縦ベクトル)を表現する記号として用いる。 Hereinafter, the vector ↑ m defined in this way is referred to as a plane parameter vector. In this specification, “↑” is used as a symbol representing a vector (vertical vector).
ここで、上記射影変換は、一般的に言えば、ステレオ画像を構成する2つの撮像画像に、階段の踏面等の平面部分を投影した場合に、一方の撮像画像中における平面部分の画像を、他方の撮像画像における当該平面部分の画像に変換するものである。その変換を行なう射影変換行列Pは、カメラ3R,3Lの2つの撮像画像のそれぞれの画像座標(各撮像画像における各画素の位置を表す二次元座標)を同次座標で表現した場合に、公知のように次式(1−1)により表される行列である。
Here, generally speaking, the projective transformation, when projecting a planar portion such as a tread of a staircase on two captured images constituting a stereo image, converts an image of the planar portion in one captured image, The image is converted into an image of the plane portion in the other captured image. The projective transformation matrix P for performing the conversion is known when the image coordinates (two-dimensional coordinates representing the position of each pixel in each captured image) of the two captured images of the
P=R+↑t・↑mT ……(1−1)
P = R + ↑ t · ↑ m T (1-1)
式(1−1)におけるRは、カメラ3R,3Lのそれぞれのカメラ座標系の間の回転行列、↑tはそれらのカメラ座標系の間の並進移動ベクトル、↑mTは上記平面パラメータベクトル↑mを転置したベクトルである。
In Expression (1-1), R is a rotation matrix between the camera coordinate systems of the
この場合、カメラ3Rのカメラ座標系は、図7(a),(b)に示す如く、カメラ3Rに対して固定された座標系である。このカメラ座標系は、例えば、カメラ3Rの光学中心Cを原点として、光軸Lcの方向をz軸方向、カメラ3Rの撮像面の上下方向(縦方向)をy軸方向、該撮像面の横方向をx軸方向とする3軸座標系である。左カメラ3Lのカメラ座標系についても同様である。
In this case, the camera coordinate system of the
上記回転行列R及び並進移動ベクトル↑tは、カメラ3R,3Lの相互の相対的な位置関係及び姿勢関係に依存して定まるものであり、本実施形態ではあらかじめ特定されている。従って、射影変換行列Pは、平面パラメータベクトル↑mによって規定されるものである。
The rotation matrix R and the translation vector ↑ t are determined depending on the relative positional relationship and posture relationship between the
補足すると、基準画像から参照画像への射影変換行列と、これの逆変換の射影変換行列(参照画像から基準画像への射影変換行列)とは、いずれも、式(1−1)の右辺の形で表現される。ただし、上記R,↑t,↑mの値は、それぞれの射影変換行列で異なる。 Supplementally, the projection transformation matrix from the standard image to the reference image and the projection transformation matrix of the inverse transformation thereof (projection transformation matrix from the reference image to the standard image) are both on the right side of Expression (1-1). Expressed in shape. However, the values of R, ↑ t, and ↑ m are different for each projection transformation matrix.
具体的には、式(1−1)により表現される射影変換行列Pを基準画像及び参照画像のうちの一方から他方へのへの射影変換行列とした場合、その逆変換の射影変換行列(以降、これをP-1と表記する)は、次式(1−2)の但し書きの式(1−2a)〜(1−2d)により定義されるR’、↑t’、↑m’、↑d’を用いて、上記式(1−1)と同様の形の式(1−2)により表される。なお、RT 、(↑m’)Tはそれぞれ、Rの転値行列、(↑m’)の転値ベクトルである。 Specifically, when the projective transformation matrix P expressed by the expression (1-1) is a projective transformation matrix from one of the standard image and the reference image to the other, the inverse transformation of the projective transformation matrix ( Hereinafter, this is expressed as P −1 ) is defined by R ′, ↑ t ′, ↑ m ′, ↑ m ′, defined by the proviso expressions (1-2a) to (1-2d) of the following expression (1-2): Using ↑ d ′, it is expressed by Expression (1-2) having the same form as Expression (1-1) above. Note that R T and (↑ m ′) T are an R transpose matrix and an (↑ m ′) transpose vector, respectively.
P-1=R'+↑t’・(↑m’)T ……(1−2)
但し、
R’≡RT ……(1−2a)
↑t’≡−RT・↑t ……(1−2b)
↑m’≡R・↑m/d’ ……(1−2c)
↑d’≡d・(1+↑mT・RT・↑t) ……(1−2d)
P −1 = R ′ + ↑ t ′ · (↑ m ′) T (1-2)
However,
R′≡R T (1-2a)
↑ t'≡-R T・ ↑ t ...... (1-2b)
↑ m'≡R ・ ↑ m / d '(1-2c)
↑ d'≡d ・ (1 + ↑ m T・ R T・ ↑ t) ...... (1-2d)
以降の本実施形態の説明では、便宜上、基準画像から参照画像への射影変換行列を式(1−1)により表される射影変換行列Pとし、参照画像から基準画像への射影変換行列を式(1−2)により表される射影変換行列P-1とする。また、平面パラメータベクトル↑mは、便宜上、基準カメラ3(本実施形態ではカメラ3R)のカメラ座標系で見たベクトルとして表記されるものとする。
In the following description of the present embodiment, for the sake of convenience, the projection transformation matrix from the base image to the reference image is referred to as a projection transformation matrix P represented by Equation (1-1), and the projection transformation matrix from the reference image to the base image is represented by Equation (1-1). Let it be a projective transformation matrix P −1 represented by (1-2). Further, the plane parameter vector ↑ m is expressed as a vector viewed in the camera coordinate system of the reference camera 3 (
基準画像における段差部存在検知用領域R1の画像が、ある平面上の部分(平面部分)の投影画像である場合には、その段差部存在検知用領域R1の画像と、該段差部存在検知用領域R1に対応する参照画像中の領域(詳しくは、基準画像の段差部存在検知用領域R1に投影されている実空間(実際の空間)の平面部分を、参照画像に投影してなる領域)の画像との間の関係は、上記射影変換によって対応づけられる。 When the image of the stepped portion presence detection region R1 in the reference image is a projection image of a portion on a certain plane (planar portion), the image of the stepped portion presence detection region R1 and the stepped portion presence detection A region in the reference image corresponding to the region R1 (specifically, a region obtained by projecting a planar portion of the real space (actual space) projected onto the stepped portion presence detection region R1 of the standard image onto the reference image) The relationship between these images is correlated by the projective transformation.
より詳しくは、基準画像の段差部存在検知用領域R1に対応する参照画像中の領域の画像を、当該平面部分の平面パラメータベクトル↑mに応じて上記式(1−2)に規定される射影変換行列P-1により射影変換した場合に得られる射影変換画像の画素値分布は、基準画像の段差部存在検知用領域R1の画像の画素値分布に一致もしくはほぼ一致することとなる。 More specifically, an image of a region in the reference image corresponding to the stepped portion presence detection region R1 of the standard image is projected according to the above formula (1-2) according to the plane parameter vector ↑ m of the plane portion. The pixel value distribution of the projective transformation image obtained when the projective transformation is performed using the transformation matrix P −1 matches or substantially matches the pixel value distribution of the image of the stepped portion presence detection region R1 of the reference image.
なお、上記射影変換画像の各画素位置(基準画像の画像座標系で見た位置)での画素値は、その画素位置を、当該平面部分の平面パラメータベクトル↑mに応じて上記式(1−1)により規定される射影変換行列Pによって変換してなる参照画像内の画素位置(参照画像の画像座標系で見た位置)の画素値に一致する。従って、上記射影変換画像は、換言すれば、基準画像の段差部存在検知用領域R1の全ての画素位置での画素値を、射影変換行列Pにより該段差部存在検知用領域R1の各画素位置に対応付けられる参照画像内の画素位置の画素値で置き換えてなる画像に一致する。 It should be noted that the pixel value at each pixel position of the projective transformation image (position seen in the image coordinate system of the reference image) is expressed by the above equation (1-) according to the plane parameter vector ↑ m of the plane portion. It coincides with the pixel value of the pixel position in the reference image (position viewed in the image coordinate system of the reference image) converted by the projective transformation matrix P defined in 1). Therefore, in other words, the projective transformation image is obtained by converting the pixel values at all pixel positions of the stepped portion presence detection region R1 of the reference image into the pixel positions of the stepped portion presence detecting region R1 using the projective transformation matrix P. Matches the image that is replaced with the pixel value at the pixel position in the reference image associated with.
STEP2の処理では、段差部存在検知部11は、基準画像内に設定した段差部存在検知用領域R1に平面部分が投影されていると仮定した場合の当該仮想的な平面(仮想平面)の平面パラメータベクトル↑mを、以下に説明する処理によって決定する。
In the processing of
すなわち、段差部存在検知部11は、平面パラメータベクトル↑mの暫定値(候補値)を設定する処理、基準画像の段差部存在検知用領域R1の画像の画素値分布と、設定した↑mの暫定値により規定される射影変換によって、段差部存在検知用領域R1に対応する参照画像中の領域の画像を射影変換した場合に得られる射影変換画像の画素値分布との誤差を表す誤差関数D1の値を算出する処理、並びに、この誤差関数D1の値に応じて平面パラメータベクトル↑mの暫定値を更新する処理を、既定の所定条件が満たされるまで繰り返す。
That is, the stepped portion
そして、段差部存在検知部11は、上記所定条件が満たされたときの↑mの暫定値を、基準画像の段差部存在検知用領域R1に投影されている仮想平面の平面パラメータベクトル↑mとして決定する。以降、このように段差部存在検知部11が決定する平面パラメータベクトル↑mを段差部存在検知用平面パラメータベクトル↑m1という。
Then, the stepped portion
ここで、基準画像の段差部存在検知用領域R1内の任意の画素位置Qでの画素値をI1(Q)、基準画像上の画素位置Qを平面パラメータベクトル↑mの暫定値により規定される前記式(1−1)の射影変換行列Pにより射影変換してなる参照画像上の画素位置をf(Q)、この画素位置f(Q)での参照画像の画素値をI2(f(Q))、段差部存在検知用領域R1内のトータルの画素数をN1とする。このとき、上記誤差関数D1は、例えば次式(2−1)により与えられる関数である。 Here, the pixel value at an arbitrary pixel position Q in the stepped portion presence detection region R1 of the reference image is defined by I1 (Q), and the pixel position Q on the reference image is defined by the provisional value of the plane parameter vector ↑ m. The pixel position on the reference image obtained by projective transformation by the projective transformation matrix P of the equation (1-1) is f (Q), and the pixel value of the reference image at this pixel position f (Q) is I2 (f (Q )), And the total number of pixels in the step portion presence detection region R1 is N1. At this time, the error function D1 is a function given by the following equation (2-1), for example.
なお、撮像画像(基準画像又は参照画像)の各画素の画素値は、本実施形態では、該画素における撮像画像の輝度値である。ただし、撮像画像がカラー画像である場合には、撮像画像の色相又は彩度を画素値として使用してもよい。 In the present embodiment, the pixel value of each pixel of the captured image (base image or reference image) is the luminance value of the captured image at the pixel. However, when the captured image is a color image, the hue or saturation of the captured image may be used as the pixel value.
D1=(1/N1)・Σ(I1(Q)−I2(f(Q)))2 ……(2−1)
D1 = (1 / N1) · Σ (I1 (Q) −I2 (f (Q))) 2 (2-1)
式(2−1)のΣは、段差部存在検知用領域R1内の全ての画素についての総和を意味する。従って、式(2−1)により定義される誤差関数D1は、基準画像の段差部存在検知用領域R1での、画素値I1(Q)と、これに対応する参照画像の射影変換画像の画素値I2(f(Q))との差の二乗値の平均値を、段差部存在検知用領域R1における基準画像の画素値分布と、これに対応する参照画像の射影変換画像の画素値分布との誤差として表現する関数である。 In the equation (2-1), Σ means the sum of all the pixels in the stepped portion presence detection region R1. Therefore, the error function D1 defined by the equation (2-1) is the pixel value I1 (Q) in the stepped portion presence detection region R1 of the standard image and the corresponding pixel of the projective transformation image of the reference image. The average value of the square values of the difference from the value I2 (f (Q)) is obtained by calculating the pixel value distribution of the reference image in the stepped portion presence detection region R1 and the pixel value distribution of the corresponding projected image of the reference image. It is a function expressed as an error.
なお、式(2−1)により与えられる誤差関数Dの代わりに、例えば次式(2−2)により与えられる誤差関数D1を使用してもよい。 Instead of the error function D given by the equation (2-1), for example, an error function D1 given by the following equation (2-2) may be used.
D1=(1/N1)・Σ|(I1(Q)−I2(f(Q))| ……(2−2)
D1 = (1 / N1) · Σ | (I1 (Q) −I2 (f (Q)) | (2-2)
この式(2−2)により表される誤差関数D1は、基準画像の段差部存在検知用領域R1での、I1(Q)とI2(f(Q))との差の絶対値の平均値を、段差部存在検知用領域R1における基準画像の画素値分布と、これに対応する参照画像の射影変換画像の画素値分布との誤差として表現する関数である。 The error function D1 represented by the equation (2-2) is an average value of absolute values of differences between I1 (Q) and I2 (f (Q)) in the stepped portion presence detection region R1 of the reference image. Is expressed as an error between the pixel value distribution of the base image in the stepped portion presence detection region R1 and the pixel value distribution of the projection conversion image of the reference image corresponding thereto.
上記の如く算出される誤差関数D1の値は、↑mの暫定値に依存して変化する。そして、段差部存在検知用領域R1に投影されている部分が、実際の平面部分である場合には、↑mの暫定値が該平面部分を包含する平面の平面パラメータベクトルに一致する場合に、誤差関数D1の値は最小(ほぼゼロ)になる。 The value of the error function D1 calculated as described above changes depending on the provisional value of ↑ m. When the portion projected on the stepped portion presence detection region R1 is an actual plane portion, when the provisional value of ↑ m matches the plane parameter vector of the plane including the plane portion, The value of the error function D1 is minimum (almost zero).
従って、誤差関数D1の値が最小(もしくはほぼ最小)となるような↑mの暫定値が、段差部存在検知用領域R1に投影されている仮想的な平面部分を包含する仮想平面の位置及び姿勢を表す平面パラメータベクトルとしての適合度が高いものとなる。 Accordingly, the provisional value of ↑ m that minimizes (or almost minimizes) the value of the error function D1 is the position of the virtual plane including the virtual plane portion projected on the stepped portion presence detection region R1 and The goodness of fit as a plane parameter vector representing the posture is high.
そこで、段差部存在検知部11は、この誤差関数D1に応じて↑mの暫定値を更新する処理では、公知の収束演算処理手法によって、この誤差関数D1の値を、その最小値により近づけ得るように↑mの暫定値を更新する。そして、段差部存在検知部11は、このような↑mの暫定値の更新を所定条件が成立するまで実行することで、最終的に、上記誤差関数D1の値を最小化(もしくはほぼ最小化)し得るような前記段差部検知用平面パラメータベクトル↑m1を決定する。
Therefore, in the process of updating the provisional value of ↑ m according to the error function D1, the stepped portion
この場合、上記所定条件は、その条件が成立する場合に、更新後の↑mが、誤差関数Dを最小化し得る値に一致もしくはほぼ一致するとみなし得るものとして、あらかじめ定められた条件である。該所定条件は、例えば、更新前の↑mに応じて算出される誤差関数D1の値と、更新後の↑mに応じて算出される誤差関数D1の値との差の絶対値が、あらかじめ定められた所定の閾値(“0”に近い閾値)以下となるという条件、あるいは、↑mの暫定値の更新回数が所定回数を超えるという条件等の条件である。 In this case, the predetermined condition is a predetermined condition that assumes that the updated ↑ m matches or substantially matches the value that can minimize the error function D when the condition is satisfied. The predetermined condition is, for example, that the absolute value of the difference between the value of the error function D1 calculated according to ↑ m before update and the value of the error function D1 calculated according to ↑ m after update is There are conditions such as a condition that the value is equal to or less than a predetermined threshold value (threshold value close to “0”), or a condition that the number of updates of the provisional value of ↑ m exceeds a predetermined value.
なお、↑mの暫定値の初期値としては、例えば、ロボット1が現在接地している面(床面等)の平面パラメータベクトルを使用することができる。ただし、該初期値は、あらかじめ定めた固定値であってもよい。また、該初期値は、ロボット1の現在の接地面に対して傾いた平面の平面パラメータベクトルであってもよい。
As an initial value of the temporary value of ↑ m, for example, a plane parameter vector of a surface (floor surface or the like) on which the
次いで、段差部存在検知部11は、STEP3の処理を実行する。このSTEP3では、段差部存在検知部11は、STEP2で決定した段差部存在検知用平面パラメータベクトル↑m1の向きに基づいて、カメラ3R,3Lの撮像領域内に段差部が存在しているか否かを判断する。
Next, the stepped portion
ここで、カメラ3R,3Lの撮像領域に段差部が存在せず、該撮像領域がほぼ平坦な床面である場合には、STEP2において上記の如く決定された段差部存在検知用平面パラメータベクトル↑m1の向きは、ロボット1の現在の接地面の法線方向とほぼ同方向になる。
Here, when there is no step portion in the imaging regions of the
一方、カメラ3R,3Lの撮像領域に階段等の段差部が存在している場合には、STEP2で決定した段差部存在検知用平面パラメータベクトル↑m1の向きは、ロボット1の現在の接地面の法線方向に対して比較的大きく傾いたものとなる。
On the other hand, when a stepped portion such as a staircase is present in the imaging areas of the
例えば図7(a)に示すように、カメラ3R,3Lの撮像領域に昇り階段50が存在する場合、あるいは、図7(b)に示すように、カメラ3R,3Lの撮像領域に降り階段50が存在する場合には、段差部存在検知部11が決定する段差部存在検知用平面パラメータベクトル↑m1の向きは、ピッチ方向(ロボット1の進行方向を横切る方向(ロボット1の左右方向)の軸周り方向)において、ロボット1の現在の接地面の法線方向に対して比較的大きく傾くものとなる。
For example, as shown in FIG. 7A, when the ascending
そこで、段差部存在検知部11は、STEP3では、決定した段差部存在検知用平面パラメータベクトル↑m1が、ロボット1の現在の接地面の法線方向に対してピッチ方向に所定角度以上、傾いているか否かによって、カメラ3R,3Lの撮像領域に階段等の段差部が存在しているか否かを判断する。
Therefore, in
具体的には、段差部存在検知部11は、ロボット1の現在の接地面の法線方向に対する↑m1の傾き角度(ピッチ方向での傾き角度)の大きさが、既定の所定角度以上である場合には、カメラ3R,3Lの撮像領域に階段等の段差部が存在していると判断する。また、段差部存在検知部11は、ロボット1の現在の接地面の法線方向に対する↑m1の傾き角度(ピッチ方向での傾き角度)が所定角度未満である場合には、カメラ3R,3Lの撮像領域に階段等の段差部が存在していないと判断する。
Specifically, in the stepped portion
なお、ロボット1の現在の接地面と、カメラ3R,3Lとの間の相対的な位置及び姿勢関係は、ロボット1の各関節の変位量(詳しくは、ロボット1の接地している脚とカメラ3R,3Lとの間に存在する各関節の変位量)に応じて定まる。従って、ロボット1の現在の接地面の法線方向に対する↑m1の傾き角度は、基準カメラ3(カメラ3R)のカメラ座標系で見た↑m1の値と、ロボット1の各関節の変位量の計測値(又は該変位量を追従させる目標値)とから算出することができる。
Note that the relative position and posture relationship between the current grounding surface of the
そして、段差部存在検知部11は、STEP3の判断結果が肯定的である場合(段差部が存在していると判断した場合)には、さらにSTEP4の処理を実行する。このSTEP4では、カメラ3R,3Lの撮像領域に存在する段差部の種別(昇りの段差部であるか降りの段差部であるかの種別)を判断する。
Then, when the determination result of
ここで、カメラ3R,3Lの撮像領域に、図7(a)に示す如く、昇りの段差部(図では昇り階段50)が存在する場合には、段差部存在検知部11が決定する段差部存在検知用平面パラメータベクトル↑m1は、ロボット1から見て、昇り勾配斜面の平面パラメータベクトルとなる。また、カメラ3R,3Lの撮像領域に、図7(b)に示す如く、降りの段差部(図では降り階段50)が存在する場合には、段差部存在検知部11が決定する段差部存在検知用平面パラメータベクトル↑m1は、ロボット1から見て、降り勾配斜面の平面パラメータベクトルとなる。
Here, when an ascending step portion (ascending
そこで、STEP4では、段差部存在検知部11は、↑m1が、ロボット1の現在の接地面の法線方向に対して、ピッチ方向で正負のいずれの向きに傾いているかによって、該段差部が昇りの段差部であるか、降りの段差部であるかを判断する。
Therefore, in STEP4, the stepped portion
以上が、段差部存在検知部11の処理の詳細である。
The above is the details of the processing of the stepped portion
段差部存在検知部11により、カメラ3R,3Lの撮像領域に段差部が存在することが検知された場合には、演算処理装置10は、次に、平面投影領域抽出部12の処理を実行する。
When the stepped portion
この平面投影領域抽出部12は、カメラ3R,3Lによって取得された撮像画像(ステレオ画像)を用いて、図8のフローチャートに示す処理を実行する。
The planar projection
平面投影領域抽出部12は、まず、STEP11の処理を実行する。このSTEP11では、平面投影領域抽出部12は、与えられたステレオ画像のうちの基準画像内の複数の(N2個の)位置(u1,v(i))(i=1,2,…,N2)に、微小な面積の領域である局所領域R2(i)を設定する。
The planar projection
各局所領域R2(i)は、図9に示す如く例えば方形状の領域である。そして、各局所領域R2(i)のサイズ(縦方向及び横方向の幅)は、基準画像に段差部の画像が投影されている場合に、該段差部の各段の踏面内に収まり得るようなサイズにあらかじめ設定されている。 Each local region R2 (i) is, for example, a rectangular region as shown in FIG. The size (width in the vertical and horizontal directions) of each local region R2 (i) is such that it can fit within the tread of each step of the step when the step image is projected on the reference image. Is set in advance.
なお、図9では、前記投光器4から出力される補助光SLによる斜行輝線SLa,SLbの図示は省略している。このことは、後述する図13、図19においても同様である。
In FIG. 9, illustration of the oblique bright lines SLa and SLb by the auxiliary light SL output from the
補足すると、各局所領域R2(i)の形状は、方形状でなくともよく、例えば、平行四辺形や台形等の形状であってもよい。 Supplementally, the shape of each local region R2 (i) may not be a square shape, and may be a shape such as a parallelogram or a trapezoid.
各局所領域R2(i)の配置位置(u1,v(i))は、基準画像の横方向をu軸、縦方向(上下方向)をv軸とする画像座標系で表した、各局所領域R2(i)の代表点の位置である。その代表点は、図9に示す例では、各局所領域R2(i)の左上隅の点である。ただし、該代表点は、各局所領域R2(i)の他の点、例えば各局所領域R2(i)の中央点、右上隅の点、左下隅の点、右下隅の点等であってもよい。 The arrangement position (u1, v (i)) of each local region R2 (i) is represented by an image coordinate system in which the horizontal direction of the reference image is the u axis and the vertical direction (vertical direction) is the v axis. This is the position of the representative point of R2 (i). The representative point is the upper left corner point of each local region R2 (i) in the example shown in FIG. However, the representative point may be another point of each local region R2 (i), for example, the center point, the upper right corner point, the lower left corner point, the lower right corner point, or the like of each local region R2 (i). Good.
本実施形態では、各局所領域R2(i)の配置位置(u1,v(i))のうち、基準画像の横方向(u軸方向)での位置u1は互いに同一の位置である。その位置u1は、基準画像におけるロボット1の通過予定領域上に各局所領域R2(i)が配置されるように設定される。例えば、位置u1は、ロボット1の通過予定領域の幅方向中央付近の位置に設定される。
In the present embodiment, among the arrangement positions (u1, v (i)) of the local regions R2 (i), the position u1 in the horizontal direction (u-axis direction) of the reference image is the same position. The position u1 is set so that each local region R2 (i) is disposed on the planned passage region of the
また、各局所領域R2(i)の配置位置(u1,v(i))のうち、基準画像の縦方向(v軸方向)の位置v(i)(i=1,2,…,N2)は、基準画像の下部から上部まで、所定の微小間隔(例えば1画素分の間隔)を存して並ぶようにあらかじめ設定された位置である。 Also, among the arrangement positions (u1, v (i)) of the local regions R2 (i), the position v (i) (i = 1, 2,..., N2) in the vertical direction (v-axis direction) of the reference image. Is a position set in advance so as to line up with a predetermined minute interval (for example, an interval of one pixel) from the lower part to the upper part of the reference image.
そして、STEP11では、平面投影領域抽出部12は、上記の如く配置位置が決定された各局所領域R2(i)のそれぞれに対して、基準画像の各局所領域R2(i)に投影されている部分が平面部分であると仮定した場合の当該平面部分の平面パラメータベクトル↑mを算出する。以降の説明では、各局所領域R2(i)(i=1,2,…,N2)のそれぞれに対応して算出される平面パラメータベクトル↑mを参照符号↑m_r2(i)を用いて表記する。
In
この場合、各局所領域R2(i)(i=1,2,…,N2)のそれぞれに対応する平面パラメータベクトル↑m_r2(i)の算出は、前記段差部存在検知部11によるSTEP2の処理と同様の処理によって行なわれる。この場合、↑m_r2(i)の算出処理は、前記段差部存在検知用領域R1の代わりに、局所領域R2(i)を使用する(前記誤差関数D1の値を算出するための領域としてR2(i)を使用する)こと以外は、STEP2の処理と同じでよい。 In this case, the calculation of the plane parameter vector ↑ m_r2 (i) corresponding to each of the local regions R2 (i) (i = 1, 2,..., N2) The same process is performed. In this case, the calculation process of ↑ m_r2 (i) uses the local region R2 (i) instead of the stepped portion presence detection region R1 (R2 (as a region for calculating the value of the error function D1). The process of STEP2 may be the same except that i) is used.
次いで、平面投影領域抽出部12は、STEP12の処理を実行する。このSTEP12では、平面投影領域抽出部12は、上記の如く算出した各局所領域R2(i)(i=1,2,…,N2)に対応する平面パラメータベクトル↑m_r2(i)から、この↑m_r2(i)により位置及び姿勢が規定される平面(R2(i)に投影されているとみなす仮想的な平面)の法線方向の単位ベクトルである単位法線ベクトル↑n_r2(i)を算出する。
Next, the planar projection
この単位法線ベクトル↑n_r2(i)は、平面パラメータベクトル↑m_r2(i)と同じ向きを有する単位長のベクトルであるから、↑m_r2(i)を、その大きさ(=|↑m_r2(i)|)により除算することによって算出される。 Since this unit normal vector ↑ n_r2 (i) is a unit length vector having the same direction as the plane parameter vector ↑ m_r2 (i), ↑ m_r2 (i) is set to its magnitude (= | ↑ m_r2 (i Calculated by dividing by) |).
次いで、平面投影領域抽出部12は、STEP13の処理を実行する。このSTEP13では、平面投影領域抽出部12は、各局所領域R2(i)における単位法線ベクトル↑n_r2(i)と、現在のロボット座標系のZ軸方向の単位ベクトル↑nzとの内積(スカラー積)を算出する。
Next, the planar projection
上記ロボット座標系というのは、図7(a)又は図7(b)に示す如く、ロボット1の現在の接地面に対して固定された座標系であって、該接地面の法線方向をZ軸方向、ロボット1の進行方向をX軸方向、これらのZ軸及びX軸に直交する方向(ロボット1の左右方向)をY軸方向とする座標系である。従って、現在のロボット座標系のZ軸方向の単位ベクトル↑nzというのは、ロボット1の現在の接地面の法線方向の単位ベクトルを意味する。
The robot coordinate system is a coordinate system fixed with respect to the current ground plane of the
そして、この単位ベクトル↑nzと、単位法線ベクトル↑n_r2(i)との内積を算出する場合、基準カメラ3のカメラ座標系で見たベクトルとしての単位法線ベクトル↑n_r2(i)が、ロボット1の各関節の変位量の計測値(又は目標値)に応じて、現在のロボット座標系で見たベクトルに座標変換される。そして、この座標変換後の単位法線ベクトル↑n_r2(i)と、ロボット1の現在の接地面の法線方向(現在のロボット座標系のZ軸方向)の単位ベクトル↑nzとの内積が算出される。
When calculating the inner product of the unit vector ↑ nz and the unit normal vector ↑ n_r2 (i), the unit normal vector ↑ n_r2 (i) as a vector viewed in the camera coordinate system of the
なお、カメラ座標系で見た単位法線ベクトル↑n_r2(i)と、ロボット1の現在の接地面の法線方向の単位ベクトル↑nzをロボット座標系からカメラ座標系に座標変換したベクトルとの内積を算出するようにしてもよい。
The unit normal vector ↑ n_r2 (i) viewed in the camera coordinate system and the vector obtained by coordinate conversion of the unit vector ↑ nz in the normal direction of the current ground plane of the
これにより、図10に例示する如く、基準画像の縦方向での各局所領域R2(i)の位置v(i)と、上記内積の値との間の関係を表すデータが得られることとなる。 As a result, as illustrated in FIG. 10, data representing the relationship between the position v (i) of each local region R2 (i) in the vertical direction of the reference image and the value of the inner product is obtained. .
ここで、カメラ3R,3Lの撮像領域に段差部が存在する場合、その段差部の各踏面は、一般に、ロボット1の現在の接地面とほぼ平行な平面部分となる。従って、基準画像における段差部の踏面の投影領域内に含まれる各局所領域R2(i)(例えば、図9に示すR2(1),R2(ib),R2(N2))に対応して上記の如く算出される内積の値は、“1”またはそれに近い値となる。
Here, when there are step portions in the imaging regions of the
一方、段差部の踏面の投影領域に含まれない各局所領域R2(i)、又は、段差部の踏面の投影領域が一部しか含まれないような各局所領域R2(i)(例えば、図9に示すR2(ia))に対応する内積の値は、“1”から乖離した値となる。 On the other hand, each local region R2 (i) that is not included in the projection area of the stepped surface or each local region R2 (i) that includes only a part of the projected area of the stepped surface (for example, FIG. The value of the inner product corresponding to R2 (ia)) shown in 9 is a value deviating from “1”.
従って、上記内積の値は、各局所領域R2(i)に投影されている部分が、段差部の踏面の部分であるか否かを示す指標となるものである。 Therefore, the value of the inner product is an index indicating whether or not the portion projected on each local region R2 (i) is a stepped portion of the stepped portion.
次いで、平面投影領域抽出部12は、STEP14の処理を実行する。このSTEP14では、平面投影領域抽出部12は、N2個の局所領域R2(i)(i=1,2,…,N2)のうち、STEP13で算出した内積の値が、あらかじめ定めれた所定の閾値Th2以上となる各局所領域R2(i)について、該局所領域R2(i)に投影されている部分の、ロボット座標系で見たZ軸座標位置(すなわち、ロボット1の現在の接地面に対する当該投影部分の高さ)を、該局所領域R2(i)に対応する平面パラメータベクトル↑m_r2(i)を基に算出する。
Next, the planar projection
ここで、上記所定の閾値Th2は、“1”よりも若干小さい値、例えば0.999である。従って、内積の値が、この閾値Th2以上となる各局所領域R2(i)は、それに投影されている部分が、ロボット1の現在の接地面とほぼ平行になっているような部分である。
Here, the predetermined threshold Th2 is a value slightly smaller than “1”, for example, 0.999. Therefore, each local region R2 (i) where the value of the inner product is equal to or greater than the threshold value Th2 is such that the portion projected onto the local region R2 (i) is substantially parallel to the current contact surface of the
そして、閾値Th2以上となる各局所領域R2(i)に対応する平面パラメータベクトル↑m_r2(i)により規定される平面と、ロボット1の現在の接地面を含む平面との間の間隔(詳しくは、ロボット座標系のZ軸方向での間隔)を算出することによって、該局所領域R2(i)に投影されている部分のZ軸座標位置(ロボット1の現在の接地面に対する高さ)が決定される。
The distance between the plane defined by the plane parameter vector ↑ m_r2 (i) corresponding to each local region R2 (i) that is equal to or greater than the threshold Th2 and the plane including the current grounding surface of the robot 1 (in detail) , The distance in the Z-axis direction of the robot coordinate system) is calculated to determine the Z-axis coordinate position (the height of the
次いで、平面投影領域抽出部12は、STEP15の処理を実行する。このSTEP15では、平面投影領域抽出部12は、前記STEP14で得られたデータを基に、基準画像における段差部の踏面に対応する平面投影領域を抽出(特定)する。
Next, the planar projection
具体的には、平面投影領域抽出部12は、内積の値が前記閾値Th2以上となるv軸方向の区間であって、その区間内の各位置の局所領域R2(i)に投影されている部分の高さ(ロボット1の接地面からの高さ)がほぼ一定となる(各投影部分の相互の高さの差の大きさがあらかじめ定めた所定の閾値以下となる)区間を決定する。なお、各投影部分の高さの相互の差の大きさ(絶対値)に対する閾値は、“0”に近い微小値、例えば10[mm]である。
Specifically, the planar projection
図10に示すΔv1、Δv2、Δv3は、このようにして決定される区間の例を示すものである。このようにして決定される各区間は、STEP11で設定したN2個の局所領域R2(i)(i=1,2,…,N2)のうち、ロボット1の現在の接地面とほぼ平行な単一の平面部分(段差部の各踏面に相当する平面部分)の投影領域となっている局所領域R2(i)の代表点の位置(v軸方向の位置)の範囲に相当するものである。以降、このようにして決定される各区間を同一平面投影区間という。
Δv1, Δv2, and Δv3 shown in FIG. 10 show examples of sections determined in this way. Each section determined in this way is a single area substantially parallel to the current ground contact surface of the
そして、平面投影領域抽出部12は、上記の如く決定した各同一平面投影区間毎に、それに対応する平面投影領域を決定する。この場合、本実施形態では、各平面投影領域は、基準画像の横方向(u軸方向)に局所領域R2(i)(i=1,2,…,N2)と同じ幅を有し、且つ、その横方向の範囲(各平面投影領域の左端と右端との間の範囲)が局所領域R2(i)の横方向の範囲に一致するようにして、基準画像に配置される方形状の領域である。
Then, the plane projection
そして、基準画像の縦方向(v軸方向)での各平面投影領域の範囲(各平面投影領域の上端と下端との間の範囲)は、該平面投影領域に対応する同一平面投影区間内に代表点の位置を有する全ての局所領域R2(i)を合成した領域の縦方向の範囲と一致するように決定される。 The range of each plane projection area (the range between the upper end and the lower end of each plane projection area) in the vertical direction (v-axis direction) of the reference image is within the same plane projection section corresponding to the plane projection area. It is determined so as to coincide with the range in the vertical direction of the combined region of all the local regions R2 (i) having the positions of the representative points.
例えば、基準画像のv軸方向の位置がv(ic)からv(ic+n)までの区間が、ある1つの同一平面投影区間であるとしたとき、その同一平面投影区間に対応する平面投影領域の縦方向(v軸方向)の範囲は、該同一平面投影区間内に代表点の位置を有するn+1個の局所領域R2(ic)〜R2(ic+n)のうち、最も下側の局所領域R2(ic)の下端位置と、最も上側の局所領域R2(ic+n)の上端位置との間の範囲として決定される。 For example, when a section from the position of the reference image in the v-axis direction from v (ic) to v (ic + n) is one same plane projection section, the plane projection corresponding to the same plane projection section The range in the vertical direction (v-axis direction) of the region is the lowest local region among n + 1 local regions R2 (ic) to R2 (ic + n) having the position of the representative point in the same plane projection section. It is determined as a range between the lower end position of the region R2 (ic) and the upper end position of the uppermost local region R2 (ic + n).
以上のSTEP15の処理によって、段差部の各踏面に対応する平面投影領域が、基準画像から抽出されることとなる。例えば、図9に破線枠で示す方形状の領域AR2が、平面投影領域として基準画像から抽出される。 Through the processing of STEP 15 described above, a planar projection area corresponding to each tread of the stepped portion is extracted from the reference image. For example, a rectangular area AR2 indicated by a broken line frame in FIG. 9 is extracted from the reference image as a planar projection area.
次いで、平面投影領域抽出部12は、STEP16の処理を実行する。このSTEP16では、平面投影領域抽出部12は、STEP15の処理によって2つ以上の平面投影領域AR2が抽出されたか否かを判断する。そして、この判断結果が否定的である場合には、基準画像に段差部が写っていない可能性があるので、図8の処理(今回の演算処理周期での処理)を終了する。
Next, the planar projection
一方、STEP16の判断結果が肯定的である場合には、平面投影領域抽出部12は、STEP17の処理を実行した後、図8の処理を終了する。このSTEP17では、平面投影領域抽出部12は、各平面投影領域AR2に投影されている平面部分を包含する平面の平面パラメータベクトル↑m2を決定する。
On the other hand, if the determination result in STEP 16 is affirmative, the planar projection
この場合、平面投影領域抽出部12は、例えば、前記局所領域R2(i)(i=1,2,…,N2)のうち、各平面投影領域AR2に含まれる局所領域R2(i)のそれぞれに対応する平面パラメータベクトル↑m_r2(i)のそれぞれの方位角(基準カメラ3のカメラ座標系で見た方位角)の平均の方位角を有する単位ベクトルを、該平面投影領域AR2に対応する平面の単位法線ベクトル↑n2として決定する。
In this case, the planar projection
さらに、平面投影領域抽出部12は、各平面投影領域AR2に含まれる局所領域R2(i)のそれぞれに対応して、前記STEP11で推定した平面パラメータベクトル↑m_r2(i)の大きさ(絶対値)の逆数値(=1/|↑m(i)|)の平均値を、該平面投影領域AR2に対応する平面の、基準カメラ3の光学中心Cからの距離d2として決定する。
Further, the plane projection
そして、各平面投影領域AR2に対応する平面の単位法線ベクトル↑n2を距離d2で除算してなるベクトル(=↑n2/d2)を該平面投影領域AR2に対応する平面パラメータベクトル↑m2として決定する。 A vector (= ↑ n2 / d2) obtained by dividing the unit normal vector ↑ n2 of the plane corresponding to each plane projection area AR2 by the distance d2 is determined as the plane parameter vector ↑ m2 corresponding to the plane projection area AR2. To do.
なお、各局所領域R2(i)に対応する平面パラメータベクトル↑m_r2(i)を推定する場合と同様の処理(射影変換を利用した収束演算処理)によって、各平面投影領域AR2に対応する平面パラメータベクトル↑m2を改めて推定するようにしてもよい。 The plane parameter corresponding to each planar projection area AR2 is processed by the same process (convergence calculation process using projective transformation) as in the case of estimating the plane parameter vector ↑ m_r2 (i) corresponding to each local area R2 (i). The vector ↑ m2 may be estimated again.
以上が平面投影領域抽出部12の処理の詳細である。
The details of the processing of the planar projection
補足すると、本実施形態では、STEP15の処理で前記同一平面投影区間を決定する場合に、各局所領域R2(i)(i=1,2,…,N2)毎の前記内積の値に加えて、各局所領域R2(i)に投影されている部分の高さを参照するようにしたが、内積の値だけから、同一平面投影区間を決定するようにしてもよい。 Supplementally, in the present embodiment, when the same plane projection section is determined by the processing of STEP 15, in addition to the value of the inner product for each local region R2 (i) (i = 1, 2,..., N2). Although the height of the portion projected on each local region R2 (i) is referred to, the same plane projection section may be determined only from the inner product value.
例えば、内積の値が、基準画像の縦方向(v軸方向)で連続的に所定の閾値Th2以上となる区間(その区間内に代表点の位置を有して、縦方向に並ぶ全ての局所領域R2(i)のそれぞれに対応する内積の値が閾値Th2以上となる区間)を同一平面投影区間として決定してもよい。このようにした場合には、STEP14の処理は不要である。 For example, a section in which the inner product value is continuously greater than or equal to a predetermined threshold Th2 in the vertical direction (v-axis direction) of the reference image (all local areas arranged in the vertical direction with representative point positions in the section) A section in which the inner product value corresponding to each of the regions R2 (i) is equal to or greater than the threshold value Th2 may be determined as the same plane projection section. In such a case, the processing of STEP14 is unnecessary.
また、カメラ3R,3Lの撮像領域に存在する段差部の踏面に対応する平面投影領域だけでなく、段鼻の先端面又は蹴り込み面のように、踏面に対して起立する平面部分に対応する平面投影領域を抽出するようにしてもよい。
Further, not only a plane projection area corresponding to the stepped surface of the stepped portion existing in the imaging areas of the
この場合、例えば各局所領域R2(i)(i=1,2,…,N2)毎の平面パラメータベクトル↑m_r2(i)(又は単位法線ベクトル↑n_r2(i))の向きに着目し、その向きが連続的にほぼ一定に保たれる(ロボット1の現在の接地面の法線方向と同方向の向きでなくてもよい)ような区間を同一平面投影区間として決定する。そして、その決定した各同一平面投影区間に応じて上記と同様に平面投影領域を決定する。これにより、段差部の踏面に対応する平面投影領域だけでなく、段鼻の先端面や段差部の蹴り込み面の如く、踏面に対して起立する平面部分に対応する平面投影領域を抽出することもできる。 In this case, for example, paying attention to the direction of the plane parameter vector ↑ m_r2 (i) (or unit normal vector ↑ n_r2 (i)) for each local region R2 (i) (i = 1, 2,..., N2), A section whose direction is continuously kept substantially constant (it does not have to be the same direction as the normal direction of the current ground plane of the robot 1) is determined as the same plane projection section. Then, a plane projection area is determined in the same manner as described above according to each determined same plane projection section. As a result, not only a planar projection area corresponding to the stepped surface of the stepped portion but also a planar projected region corresponding to a planar portion standing up with respect to the treaded surface, such as the tip surface of the nose or the kicked surface of the stepped portion, can be extracted. it can.
以上説明した平面投影領域抽出部12によって、段差部の踏面に対応する2つ以上の平面投影領域AR2が抽出された場合には、演算処理装置10は、次に、エッジ投影線推定処理部13の処理を実行する。
When two or more plane projection areas AR2 corresponding to the tread of the stepped portion are extracted by the plane projection
このエッジ投影線推定処理部13は、カメラ3R,3Lによって取得された撮像画像(ステレオ画像)と、平面投影領域抽出部12で決定された各平面投影領域AR2に対応する平面パラメータベクトル↑m2とを用いて、図11及び図12のフローチャートに示す処理を実行することで、上段側踏面の先端側エッジを基準画像に投影してなる実エッジ投影線を推定したものとしての推定エッジ投影線を特定する。
The edge projection line
なお、基準画像における実エッジ投影線を推定するということは、基準画像における実エッジ投影線の位置及び方向(又はこれらを規定するパラメータ)を決定することを意味する。 Note that estimating the actual edge projection line in the reference image means determining the position and direction (or parameters defining these) of the actual edge projection line in the reference image.
エッジ投影線推定処理部13は、まず、STEP21の処理を実行する。このSTEP21では、エッジ投影線推定処理部13は、図5のSTEP4の処理によって前記段差部存在検知部11が特定した段差部(カメラ3R,3Lの撮像領域に存在する段差部)の種別が、ロボット1から見て、昇りの段差部であるか降りの段差部であるかを確認する。
The edge projection line
エッジ投影線推定処理部13は、カメラ3R,3Lの撮像領域に存在する段差部が、昇りの段差部である場合には、図11に示すSTEP22〜36の処理を実行し、降りの段差部である場合には、図12に示すSTEP37〜51の処理を実行する。
The edge projection line
段差部が昇りの段差部である場合には、エッジ投影線推定処理部13は、まず、STEP22において、基準画像内に、実エッジ投影線の推定用の画像処理領域であるエッジ推定用領域R3uを設定する。
In the case where the stepped portion is an ascending stepped portion, the edge projection line
ここで、以降の説明では、説明の便宜上、カメラ3R,3Lの撮像領域に存在する昇りの段差部が、一例として、図1(a)に示した如き昇り階段50であるとする。そして、この昇り階段50が、図13に示す如く基準画像に写っているものとする。
Here, in the following description, for convenience of explanation, it is assumed that the ascending step portion present in the imaging regions of the
さらに、この昇り階段50の任意の1つの下段側踏面51(例えばロボット1から見て最も手前側の下段側踏面)の一段上側の上段側踏面51の先端側エッジ52を基準画像に投影してなる実エッジ投影線L52rを推定する処理をエッジ投影線推定処理部13により実行するものとする。
Further, the
そして、推定しようとする実エッジ投影線L52rに対応する先端側エッジ52を先端に有する上段側踏面51と、その一段下側の下段側踏面51とを、それぞれ参照符号51p,51qを使用して表記する。
Then, an
また、前記平面投影領域抽出部12によって、上段側踏面51pに対応して抽出された平面投影領域AR2を、以降、参照符号AR2pを使用して上段側踏面投影領域AR2pと称する。そして、この上段側踏面投影領域AR2pに対応して決定された平面パラメータベクトル↑m2を参照符号↑m2pを使用して表記する。
The planar projection area AR2 extracted by the planar projection
また、前記平面投影領域抽出部12によって、下段側踏面51qに対応して抽出された平面投影領域AR2を、以降、参照符号AR2qを使用して下段側踏面投影領域AR2qと称する。そして、この下段側踏面投影領域AR2qに対応して決定された平面パラメータベクトル↑m2を参照符号↑m2qを使用して表記する。
The planar projection area AR2 extracted by the planar projection
STEP22において基準画像に設定するエッジ推定用領域R3uは、本実施形態では、図13に示す如く設定される方形状の領域である。具体的には、エッジ推定用領域R3uは、その下端の位置が下段側踏面投影領域AR2qの縦方向の幅内の位置(例えば下段側踏面投影領域AR2qの上端から既定の所定量だけ下側の位置)となり、且つ、R3uの上端の位置が上段側踏面投影領域AR2pの縦方向の幅内の位置(例えば上段側踏面投影領域AR2pの下端から所定量だけ上側の位置)になるように配置される。この場合、エッジ推定用領域R3uの縦方向の幅は、下段側踏面投影領域AR2qと上段側踏面投影領域AR2pとの間の縦方向の間隔に応じて決定される。 In STEP 22, the edge estimation region R3u set in the reference image in STEP 22 is a rectangular region set as shown in FIG. Specifically, the edge estimation region R3u has a lower end position within a vertical width of the lower tread projection area AR2q (for example, a predetermined predetermined amount below the upper end of the lower tread projection area AR2q). And the position of the upper end of R3u is a position within the vertical width of the upper stage tread projection area AR2p (for example, a position above the lower end of the upper stage tread projection area AR2p by a predetermined amount). The In this case, the vertical width of the edge estimation region R3u is determined in accordance with the vertical interval between the lower stage tread projection area AR2q and the upper stage tread projection area AR2p.
また、エッジ推定用領域R3uは、その横方向の範囲(左端と右端との間の範囲)が、下段側踏面投影領域AR2q及び上段側踏面投影領域AR2pの横方向の範囲に一致するように配置される。この場合、エッジ推定用領域R3uの横方向の幅は、下段側踏面投影領域AR2q及び上段側踏面投影領域AR2pの横方向の幅と同じ幅(既定の幅)に決定される。 Further, the edge estimation region R3u is arranged such that its horizontal range (the range between the left end and the right end) matches the horizontal range of the lower tread projection area AR2q and the upper tread projection area AR2p. Is done. In this case, the lateral width of the edge estimation region R3u is determined to be the same width (default width) as the lateral width of the lower tread projection area AR2q and the upper tread projection area AR2p.
なお、エッジ推定用領域R3uの横方向の幅は、下段側踏面投影領域AR2q及び上段側踏面投影領域AR2pの横方向の幅よりも若干小さくてもよい。その場合は、エッジ推定用領域R3uは、その横方向の範囲が、下段側踏面投影領域AR2q及び上段側踏面投影領域AR2pの横方向の範囲内に収まるように配置すればよい。 The lateral width of the edge estimation region R3u may be slightly smaller than the lateral width of the lower stage tread projection area AR2q and the upper stage tread projection area AR2p. In this case, the edge estimation region R3u may be arranged so that the lateral range thereof falls within the lateral range of the lower stage tread projection area AR2q and the upper stage tread projection area AR2p.
以上のSTEP22の処理によって、エッジ推定用領域R3uは、その内部に(上端の辺と下端の辺との間)に推定しようとする単一の実エッジ投影線L52rが存在し、且つ、該エッジ推定用領域R3uの上端の辺及び下端の辺がそれぞれ、上段側踏面投影領域AR2p、下段側踏面投影領域AR2qに含まれるようにして、基準画像内に設定されることとなる。 Through the processing of STEP 22 described above, the edge estimation region R3u has a single actual edge projection line L52r to be estimated (between the upper end side and the lower end side) in the inside thereof, and the edge The upper edge and the lower edge of the estimation area R3u are set in the reference image so as to be included in the upper tread projection area AR2p and the lower tread projection area AR2q, respectively.
エッジ投影線推定処理部13は、次にSTEP23の処理を実行する。このSTEP23では、エッジ投影線推定処理部13は、実エッジ投影線L52rが基準画像の横方向(u軸方向)に延在するものと仮定して、図14に示す如く、基準画像の縦方向(v軸方向)における実エッジ投影線L52rの位置の候補としての複数(N3a個)の候補位置v(k1)(k1=1,2,…,N3a)を決定する。
Next, the edge projection line
この場合、N3a個の候補位置v(k1)(k1=1,2,…,N3a)は、エッジ推定用領域R3uの縦方向の範囲(上端と下端との間の範囲)内で、あらかじめ定められた所定の刻み間隔ずつ(例えば1画素分の間隔ずつ)、基準画像の縦方向に異なる位置とされる。また、これらの候補位置v(k1)のうち、最も上側の候補位置としての第1番目の候補位置v(1)は、エッジ推定用領域R3uの上端から所定間隔(例えば1画素分の間隔)だけ下側の位置に決定される。 In this case, N3a candidate positions v (k1) (k1 = 1, 2,..., N3a) are determined in advance within the vertical range (range between the upper end and the lower end) of the edge estimation region R3u. The positions are set to different positions in the vertical direction of the reference image by predetermined intervals (for example, by one pixel). Of these candidate positions v (k1), the first candidate position v (1) as the uppermost candidate position is a predetermined interval (for example, an interval of one pixel) from the upper end of the edge estimation region R3u. Only the lower position is determined.
さらに、最も下側の候補位置としての第N3a番目の候補位置v(N3a)は、本実施形態では、この候補位置v(N3a)に応じて後述する射影変換領域R3u3の上端位置を設定したときに、該射影変換領域R3u3の上端位置が、エッジ推定用領域R3uの下端から、該エッジ推定用領域R3u3の縦方向の所定の最小幅(例えば1画素分の幅)だけ上側の位置になるように、該エッジ推定用領域R3u3の縦方向の最小幅での上端位置に応じて決定される。 Further, in this embodiment, the N3a-th candidate position v (N3a) as the lowermost candidate position is set when an upper end position of a projection transformation region R3u3 described later is set according to the candidate position v (N3a). Further, the upper end position of the projective transformation area R3u3 is positioned above the lower end of the edge estimation area R3u by a predetermined minimum width (for example, one pixel width) in the vertical direction of the edge estimation area R3u3. The edge estimation region R3u3 is determined in accordance with the upper end position in the minimum vertical width.
次に、エッジ投影線推定処理部13は、STEP24の処理を実行する。この処理では、各候補位置v(k1)に対応する処理を順番に実行するために、k1の初期値として“1”が設定される。
Next, the edge projection line
次いで、エッジ投影線推定処理部13は、STEP25の処理を実行する。このSTEP25では、エッジ投影線推定処理部13は、基準画像の縦方向での実エッジ投影線L52rの位置が第k1番目の候補位置v(k1)(k1は現在設定されている値)に一致するものと仮定して、エッジ推定用領域R3u内に、図14に例示する如く、3つの射影変換対象領域R3u1、R3u2、R3u3を設定する。
Next, the edge projection line
射影変換対象領域R3u1〜R3u3のうち、射影変換対象領域R3u1,R3u2は、第k1番目の候補位置v(k1)で横方向に延在する仮想的なエッジ投影線L52(k1)を境界線として上下に隣接するように設定される領域である。この場合、上側の射影変換対象領域R3u1は、その上端側の辺と下端側の辺とがそれぞれエッジ推定用領域R3uの上端側の辺、仮想的なエッジ投影線L52(k1)に一致し、且つ、横方向の範囲が、エッジ推定用領域R3uの横方向の範囲と一致する領域である。 Among the projection transformation target regions R3u1 to R3u3, the projection transformation target regions R3u1 and R3u2 use the virtual edge projection line L52 (k1) extending in the horizontal direction at the k1th candidate position v (k1) as a boundary line. It is an area set to be adjacent vertically. In this case, the upper projection conversion target area R3u1 has an upper end side and a lower end side corresponding to the upper end side of the edge estimation area R3u, the virtual edge projection line L52 (k1), In addition, the horizontal range is a region that matches the horizontal range of the edge estimation region R3u.
従って、射影変換対象領域R3u1は、その縦方向の幅と下端側の辺の位置(縦方向での位置)とが、仮想的なエッジ投影線L52(k1)の位置(=v(k1))に応じて変化するように設定される領域である。この射影変換対象領域R3u1は、仮想的なエッジ投影線L52(k1)が、実エッジ投影線L52rに合致する場合には、上段側踏面投影領域AR2pに含まれる領域である。 Accordingly, in the projection transformation target region R3u1, the vertical width and the position of the lower side edge (the vertical position) are the position of the virtual edge projection line L52 (k1) (= v (k1)). It is an area set so as to change according to. This projective transformation target area R3u1 is an area included in the upper tread projection area AR2p when the virtual edge projection line L52 (k1) matches the actual edge projection line L52r.
また、下側の射影変換対象領域R3u2は、その上端側の辺が仮想的なエッジ投影線L52(k1)に一致すると共に、下端側の辺が仮想的なエッジ投影線L52(k1)とあらかじめ定められた所定間隔Δvu2(例えば15画素分の間隔)を有して該エッジ投影線L52(k1)に平行な線に一致し、且つ、横方向の範囲が、エッジ推定用領域R3uの横方向の範囲と一致する領域である。 Further, the lower projection transformation target area R3u2 has an upper end side that coincides with the virtual edge projection line L52 (k1) and a lower end side that coincides with the virtual edge projection line L52 (k1) in advance. It has a predetermined interval Δvu2 (for example, an interval of 15 pixels) and coincides with a line parallel to the edge projection line L52 (k1), and the horizontal range is the horizontal direction of the edge estimation region R3u It is an area that matches the range of.
従って、射影変換対象領域R3u2は、その上端側の辺の位置と下端側の辺の位置とが、それらの間の間隔(すなわちR3u2の縦方向の幅)を一定の間隔Δvu2に保持しつつ、仮想的なエッジ投影線L52(k1)の位置(=v(k1))に応じて変化するように設定される領域である。この射影変換対象領域R3u2は、仮想的なエッジ投影線L52(k1)が、実エッジ投影線L52rに合致する場合には、段鼻の先端面や蹴り込み面のように、昇り階段50の上段側踏面51pの先端側で該上段側踏面51pに対して起立した姿勢で形成される平面部分が投影される領域である。
Accordingly, in the projective transformation target region R3u2, the position of the upper edge side and the position of the lower edge side hold the distance between them (that is, the vertical width of R3u2) at a constant distance Δvu2, This is an area set so as to change in accordance with the position (= v (k1)) of the virtual edge projection line L52 (k1). This projective transformation target region R3u2 is located on the upper side of the ascending
また、射影変換対象領域R3u3は、上記射影変換領域R3u2よりも下側で、エッジ推定用領域R3uの下部に設定される方形状の領域である。この射影変換領域R3u3は、その下端側の辺がエッジ推定用領域R3uの下端側の辺に一致し、且つ、横方向の範囲が、エッジ推定用領域R3uの横方向の範囲と一致する領域である。 The projective transformation target region R3u3 is a rectangular region set below the edge transformation region R3u and below the projective transformation region R3u2. This projective transformation area R3u3 is an area in which the lower edge side coincides with the lower edge side of the edge estimation area R3u and the horizontal range coincides with the horizontal range of the edge estimation area R3u. is there.
そして、射影変換対象領域R3u3の上端側の辺の位置は、本実施形態では、仮想的なエッジ投影線L52(k1)の位置(=v(k1))に応じて次のように設定される。 In the present embodiment, the position of the upper edge side of the projection transformation target region R3u3 is set as follows according to the position of the virtual edge projection line L52 (k1) (= v (k1)). .
すなわち、エッジ投影線推定処理部13は、まず、上段側踏面投影領域AR2pに対応する平面パラメータベクトル↑m2pを用いて、仮想的なエッジ投影線L52(k1)に対応する上段側踏面51pの先端側エッジ線(先端側エッジ52を包含する空間的な直線)を求める。この先端側エッジ線は、基準カメラ3の光学中心Cと基準画像の撮像面上の仮想的なエッジ投影線L52(k1)とを包含する平面と、上段側踏面投影領域AR2pに対応する平面パラメータベクトル↑m2pにより規定される平面(上段側踏面51pを包含する平面)との交線として算出される。
That is, the edge projection line
そして、エッジ投影線推定処理部13は、上記の如く求めた先端側エッジ線を含み、且つ、上段側踏面投影領域AR2pに対応する平面パラメータベクトル↑m2pにより規定される平面に対して直交する平面(あるいは↑m2pにより規定される平面に対して、90度に近い既定の角度で交差する平面)を決定する。この平面は、階段の段鼻の先端面又は蹴り込み面に相当する仮想的な平面(以降、起立平面ということがある)である。
Then, the edge projection line
さらに、エッジ投影線推定処理部13は、上記の如く決定した起立平面と、下段側踏面投影領域AR2qに対応する平面パラメータベクトル↑m2qにより規定される平面との交線を、基準画像に投影してなる線に、射影変換対象領域R3u3の上端側の辺が合致するように該上端側の辺の位置を設定する。
Further, the edge projection line
従って、射影変換対象領域R3u3の上端側の辺は、下段側踏面51qの基端側エッジ53が、上段側踏面51pの先端側エッジ52のほぼ直下に存在するものと仮定した場合における該基端側エッジ53を基準画像に投影してなる線に相当するものとなる。この射影変換対象領域R3u3は、仮想的なエッジ投影線L52(k1)が、実エッジ投影線L52rに合致する場合には、下段側踏面投影領域AR2qに含まれる領域である。
Therefore, the upper end side of the projective transformation target region R3u3 is the base end when it is assumed that the base
なお、前記平面投影領域抽出部12の処理によって、階段の段鼻の先端面又は蹴り込み面に相当する段差部の平面部分に対応する平面投影領域を抽出するようにした場合には、その平面投影領域に対応する平面パラメータベクトルにより規定される平面を上記起立平面として使用して、射影変換対象領域R3u3の上端の辺の位置を決定するようにしてもよい。
When the plane projection
補足すると、段差部の上段側踏面の先端側で該上段側踏面に対して起立する姿勢となる平面部分は、蹴り込みの箇所に板部材が設けられていないような段差部にあっては、段鼻の先端面に相当するものとなる。従って、該平面部分の上下方向の幅は、上段側踏面と下段側踏面との間隔に比して小さなものとなる。さらに、この場合には、段差部の蹴り込みの箇所には、平面部分が存在しないこととなる。 Supplementally, the flat surface portion that is in a posture of standing on the upper tread surface at the front end side of the upper tread surface of the step portion is in a step portion where no plate member is provided at the location of kicking, It corresponds to the tip of the nose. Accordingly, the vertical width of the flat portion is smaller than the distance between the upper step surface and the lower step surface. Further, in this case, there is no plane portion at the stepped portion of the stepped portion.
そこで、本実施形態では、前記射影変換対象領域R3u2の縦方向の幅Δvu2を比較的小さな幅とし、射影変換対象領域R3u2の下端の辺と、その下側の射影変換対象領域R3u3の上端の辺との間に間隔を設けるようにしている。 Therefore, in the present embodiment, the vertical width Δvu2 of the projection transformation target region R3u2 is set to a relatively small width, and the lower end side of the projection transformation target region R3u2 and the upper end side of the lower projection transformation target region R3u3. An interval is provided between the two.
なお、基準画像に段鼻の先端面に相当する部分が投影されている場合、該基準画像における段鼻の画像の縦方向の幅は、基準カメラ3の光学中心Cから段鼻までの距離や、基準カメラ3の光軸Lcに対する段鼻の方位角(基準画像の縦方向での方位角)に応じて変化する。従って、前記射影変換対象領域R3u2の縦方向の幅Δvu2は、基準カメラ3の光学中心Cから段鼻の近辺に存在する部分(例えば上段側踏面投影領域AR2pの下端に対応する上段側踏面51上の点)までの距離や、基準カメラ3の光軸Lcに対する該部分の方位角等に応じて可変的に設定するようにしてもよい。また、カメラ3R,3Lの解像度や撮像画像の拡縮の倍率等に応じて射影変換対象領域R3u2の縦方向の幅Δvu2を異ならせるようにしてもよい。
When a portion corresponding to the front end surface of the nose is projected on the reference image, the vertical width of the nose image in the reference image is the distance from the optical center C of the
以上の如くSTEP25の処理を実行した後、次に、エッジ投影線推定処理部13は、STEP26の処理を実行する。このSTEP26では、エッジ推定用領域R3uに設定した3つの射影変換対象領域R3u1,R3u2,R3u3のそれぞれが平面部分の投影領域であると仮定して、射影変換対象領域R3u1,R3u2,R3u3のそれぞれに対応する平面部分を包含する平面についての平面パラメータベクトル↑mu1,↑mu2,↑mu3を決定する。
After executing the processing of STEP25 as described above, the edge projection line
この場合、射影変換対象領域R3u1,R3u3にそれぞれ対応する平面パラメータベクトル↑mu1,↑mu3は、それぞれ、上段側踏面投影領域AR2pに対応する平面パラメータベクトル↑m2p、下段側踏面投影領域AR2qに対応する平面パラメータベクトル↑m2qに一致するベクトルに決定される。 In this case, the plane parameter vectors ↑ mu1 and ↑ mu3 corresponding to the projective transformation target areas R3u1 and R3u3 respectively correspond to the plane parameter vector ↑ m2p and the lower stage tread projection area AR2q corresponding to the upper tread projection area AR2p. It is determined to be a vector that matches the plane parameter vector ↑ m2q.
また、射影変換対象領域R3u2に対応する平面パラメータベクトル↑mu2は、前記STEP25の処理に関して説明した起立平面(仮想的なエッジ投影線L52(k1)に対応する先端側エッジ線を含み、上段側踏面51pを包含する平面に対して直交又はほぼ直交する平面)の平面パラメータベクトル↑mに一致するベクトルに決定される。 Further, the plane parameter vector ↑ mu2 corresponding to the projective transformation target region R3u2 includes the standing plane described with respect to the processing of STEP 25 (including the tip side edge line corresponding to the virtual edge projection line L52 (k1), and the upper tread surface To a plane parameter vector ↑ m that is orthogonal or nearly orthogonal to the plane including 51p.
なお、前記平面投影領域抽出部12の処理によって、階段の段鼻の先端面又は蹴り込み面に相当する段差部の平面部分に対応する平面投影領域を抽出するようにした場合には、その平面投影領域に対応する平面パラメータベクトル↑mに、↑mu2を一致させるようにしてもよい。
When the plane projection
次いで、エッジ投影線推定処理部13は、STEP27の処理を実行する。このSTEP27では、エッジ投影線推定処理部13は、各射影変換対象領域R3u1,R3u2,R3u3について、各射影変換対象領域R3u1,R3u2,R3u3の画像(基準画像)と、これに対応する参照画像中の領域の画像を射影変換した場合に得られる射影変換画像との誤差を表す誤差画像を作成する。
Next, the edge projection line
各射影変換対象領域R3u1,R3u2,R3u3に対応する誤差画像は次のように作成される。例えば射影変換対象領域R3u1に対応す誤差画像の作成処理を代表的に説明すると、基準画像の射影変換対象領域R3u1内の任意の位置Qでの画素値をI1(Q)、基準画像内の位置Qを射影変換対象領域R3u1に対応する平面パラメータベクトル↑mu1により規定される前記式(1−1)の射影変換行列Pにより射影変換してなる参照画像内の位置をf(Q)、参照画像内の位置f(Q)での画素値をI2(f(Q))とおく。 Error images corresponding to the respective projection transformation target areas R3u1, R3u2, and R3u3 are created as follows. For example, the error image creation process corresponding to the projection transformation target region R3u1 will be described as a representative example. The pixel value at an arbitrary position Q in the projection transformation target region R3u1 of the reference image is I1 (Q), and the position in the reference image. The position in the reference image obtained by performing the projective transformation by Q using the projective transformation matrix P of the equation (1-1) defined by the plane parameter vector ↑ mu1 corresponding to the projection transformation target region R3u1 is f (Q), and the reference image. The pixel value at the position f (Q) is I2 (f (Q)).
このとき、射影変換対象領域R3u1に対応する誤差画像は、射影変換対象領域R3u1の各位置Qの画素値を、I1(Q)とI2(f(Q))との差の二乗値(=(I1(Q)−I2(f(Q)))2)又は絶対値(=|I1(Q)−I2(f(Q))|)に置き換えた画像として作成される。 At this time, the error image corresponding to the projective transformation target region R3u1 has the pixel value at each position Q in the projective transformation target region R3u1 as the square value of the difference between I1 (Q) and I2 (f (Q)) (= ( I1 (Q) -I2 (f (Q))) 2 ) or an absolute value (= | I1 (Q) -I2 (f (Q)) |).
射影変換対象領域R3u2,R3u3のそれぞれに対応する誤差画像についても同様である。ただし、この場合、参照画像中の位置f(Q)を求めるための射影変換に使用する平面パラメータベクトルは、↑mu1の代わりに、それぞれの領域に対応して決定された平面パラメータベクトル↑mu2,↑mu3が使用される。 The same applies to the error images corresponding to the projective transformation target regions R3u2 and R3u3. However, in this case, the plane parameter vector used for the projective transformation for obtaining the position f (Q) in the reference image is a plane parameter vector ↑ mu2 determined for each region instead of ↑ mu1. ↑ mu3 is used.
次いで、エッジ投影線推定処理部13は、STEP28,29の処理を実行する。STEP28では、エッジ投影線推定処理部13は、処理に用いる候補位置v(k1)の番数k1を“1”だけ増加させる。そして、STEP29では、エッジ投影線推定処理部13は、増加後のk1の値が候補位置v(k1)の総個数であるN3aを超えたか否かを判断する。
Next, the edge projection line
このSTEP29の判断結果が否定的である場合には、エッジ投影線推定処理部13は、増加後の第k1番目の候補位置v(k1)を用いて、前記STEP25〜27の処理を実行する。
If the determination result in STEP 29 is negative, the edge projection line
以上のようにして、N3a個の候補位置v(k1)(k1=1,2,…,N3a)のそれぞれに対応して、上記の誤差画像が作成される。 As described above, the above error image is created corresponding to each of N3a candidate positions v (k1) (k1 = 1, 2,..., N3a).
STEP29の判断結果が肯定的となった場合には、エッジ投影線推定処理部13は、次に、STEP30の処理を実行する。このSTEP30では、エッジ投影線推定処理部13は、図15に示す如く、エッジ推定用領域R3u内に、縦方向に細長い複数(N3b個)の演算処理領域R3min(k2)(k2=1,2,…,N3b)を設定する。各演算処理領域R3min(k2)は、基準画像の横方向の幅があらかじめ定められた所定の微小幅(例えば1画素分の幅)を有し、且つ、縦方向の範囲が、エッジ推定用領域R3uの縦方向の範囲に一致する細長方形状(短冊状)の領域である。
If the determination result in STEP 29 is affirmative, the edge projection line
そして、これらの演算処理領域R3min(k2)は、本実施形態では、基準画像の横方向に順番に隣接して並ぶように配置され、その全体の領域がエッジ推定用領域R3uに合致するものとされる。 In this embodiment, these arithmetic processing regions R3min (k2) are arranged so as to be adjacent to each other in order in the horizontal direction of the reference image, and the entire region thereof coincides with the edge estimation region R3u. Is done.
なお、演算処理領域R3min(k2)は、隣合う演算処理領域の間に若干の間隔を有するように設定してもよい。また、各演算処理領域R3min(k2)の横方向の幅は1画素分の幅よりも多少大きい幅(例えば2画素分の幅、3画素分の幅等)であってもよい。 Note that the arithmetic processing region R3min (k2) may be set to have a slight interval between adjacent arithmetic processing regions. Further, the width in the horizontal direction of each arithmetic processing region R3min (k2) may be slightly larger than the width of one pixel (for example, the width of two pixels, the width of three pixels, etc.).
補足すると、演算処理領域R3min(k2)(k2=1,2,…,N3b)の全てを合成したものが、エッジ推定用領域R3uに合致するので、前記STEP23において、N3a個の候補位置v(k1)(k1=1,2,…,N3a)を設定する処理は、換言すれば、各演算処理領域R3min(k2)に対してN3a個の候補位置v(k1)(k1=1,2,…,N3a)を設定する処理であると言える。 Supplementally, a combination of all of the calculation processing region R3min (k2) (k2 = 1, 2,..., N3b) matches the edge estimation region R3u. Therefore, in STEP 23, N3a candidate positions v ( In other words, the process of setting k1) (k1 = 1, 2,..., N3a) is N3a candidate positions v (k1) (k1 = 1,2, N2) for each arithmetic processing region R3min (k2). .., N3a).
また、前記STEP25において、v(k1)に応じて射影変換対象領域R3u1,R3u2,R3u3を設定する処理は、換言すれば、各演算処理領域R3min(k2)に対して射影変換対象領域R3u1,R3u2,R3u3を設定する処理であると言える。 In STEP 25, the process of setting the projective transformation target areas R3u1, R3u2, and R3u3 according to v (k1), in other words, the projective transformation target areas R3u1, R3u2 for each arithmetic processing area R3min (k2). , R3u3.
演算処理領域R3min(k2)を設定するSTEP30の処理は、STEP23やSTEP25よりも後で行なう必要はなく、例えば、STPE22において、演算処理領域R3min(k2)の設定処理を行ってもよい。 The processing of STEP 30 for setting the arithmetic processing region R3min (k2) does not need to be performed after STEP23 or STEP25. For example, the processing for setting the arithmetic processing region R3min (k2) may be performed in STPE22.
次いで、エッジ投影線推定処理部13は、STEP31の処理を実行する。この処理では、各演算処理領域R3min(k2)に対応する処理を順番に実行するために、k2の初期値として“1”が設定される。
Next, the edge projection line
次いで、エッジ投影線推定処理部13は、STEP32の処理を実行する。このSTEP32では、エッジ投影線推定処理部13は、第k2番目(k2は現在設定されている番数)の演算処理領域R3min(k2)におけるN3a個の前記候補位置v(k1)(k1=1,2,…,N3a)のそれぞれについて、実エッジ投影線L52rの位置(縦方向での位置)に対する各候補位置v(k1)の適合度を表す評価関数Eu(k2)の値を算出する。
Next, the edge projection line
以降、第k2番目の演算処理領域R3min(k2)における第k1番目の候補位置v(k1)の適合度を表す評価関数Eu(k2)をEu(k2)_k1と表記する。 Hereinafter, the evaluation function Eu (k2) representing the fitness of the k1th candidate position v (k1) in the k2th arithmetic processing region R3min (k2) is expressed as Eu (k2) _k1.
演算処理領域R3min(k2)における各候補位置v(k1)に対応する評価関数Eu(k2)_k1の値は、v(k1)に応じて設定された射影変換対象領域R3u1(以降、これをR3u1(k1)と表記する)に対応する前記誤差画像のうちの演算処理領域R3min(k2)に含まれる部分の画像から算出される誤差関数Du1(k2)_k1の値と、v(k1)に応じて設定された射影変換対象領域R3u2(以降、これをR3u2(k1)と表記する)に対応する誤差画像のうちの演算処理領域R3min(k2)に含まれる部分の画像から算出される誤差関数Du2(k2)_k1の値と、v(k1)に応じて設定された射影変換対象領域R3u3(以降、これをR3u3(k1)と表記する)に対応する誤差画像のうちの演算処理領域R3min(k2)に含まれる部分の画像から算出される誤差関数Du3(k2)_k1の値とを線形結合(本実施形態では加算)してなる値として算出される。 The value of the evaluation function Eu (k2) _k1 corresponding to each candidate position v (k1) in the arithmetic processing region R3min (k2) is the projection transformation target region R3u1 (hereinafter referred to as R3u1) set according to v (k1). in accordance with the value of the error function Du1 (k2) _k1 calculated from the image of the portion included in the calculation processing region R3min (k2) of the error image corresponding to (k1)) and v (k1) The error function Du2 calculated from the image of the portion included in the calculation processing region R3min (k2) in the error image corresponding to the projection transformation target region R3u2 set in the above (hereinafter referred to as R3u2 (k1)). The calculation processing region R3min (k2) in the error image corresponding to the value of (k2) _k1 and the projection transformation target region R3u3 set in accordance with v (k1) (hereinafter referred to as R3u3 (k1)) ) Is linearly combined (added in this embodiment) with the value of the error function Du3 (k2) _k1 calculated from the image of the portion included in Calculated as a value.
より具体的には、v(k1)に応じて設定された射影変換対象領域R3u1,R3u2,R3u3のそれぞれに対応する誤差画像の各画素位置Qでの画素値をそれぞれI1uerr(Q),I2uerr(Q),I3uerr(Q)とする。また、演算処理領域R3min(k2)における射影変換対象領域R3u1(k1),R3u2(k1),R3u3(k1)のそれぞれのトータルの画素数をNu1(k2)_k1,Nu2(k2)_k1,Nu3(k3)_k1とする。このとき、誤差関数Du1(k2)_k1,Du2(k2)_k1,Du3(k2)_k1はそれぞれ、次式(3−1),(3−2),(3−3)により算出される。そして、これらのDu1(k2)_k1,Du2(k2)_k1,Du3(k2)_k1の値から次式(4)によって、評価関数Eu(k2)_k1が算出される。 More specifically, the pixel values at each pixel position Q of the error image corresponding to each of the projection transformation target areas R3u1, R3u2, and R3u3 set according to v (k1) are respectively set as I1uerr (Q) and I2uerr ( Q) and I3uerr (Q). Further, the total number of pixels in the projection transformation target areas R3u1 (k1), R3u2 (k1), and R3u3 (k1) in the arithmetic processing area R3min (k2) is expressed as Nu1 (k2) _k1, Nu2 (k2) _k1, Nu3 ( k3) _k1. At this time, the error functions Du1 (k2) _k1, Du2 (k2) _k1, and Du3 (k2) _k1 are calculated by the following equations (3-1), (3-2), and (3-3), respectively. Then, the evaluation function Eu (k2) _k1 is calculated from the values of Du1 (k2) _k1, Du2 (k2) _k1, and Du3 (k2) _k1 by the following equation (4).
Du1(k2)_k1=(1/Nu1(k2)_k1)・ΣI1uerr(Q) ……(3−1)
Du2(k2)_k1=(1/Nu2(k2)_k1)・ΣI2uerr(Q) ……(3−2)
Du3(k2)_k1=(1/Nu3(k2)_k1)・ΣI3uerr(Q) ……(3−3)
Eu(k2)_k1=Du1(k2)_k1+Du2(k2)_k1+Du3(k2)_k1 ……(4)
Du1 (k2) _k1 = (1 / Nu1 (k2) _k1) · ΣI1uerr (Q) (3-1)
Du2 (k2) _k1 = (1 / Nu2 (k2) _k1) · ΣI2uerr (Q) (3-2)
Du3 (k2) _k1 = (1 / Nu3 (k2) _k1) · ΣI3uerr (Q) (3-3)
Eu (k2) _k1 = Du1 (k2) _k1 + Du2 (k2) _k1 + Du3 (k2) _k1 (4)
この場合、式(3−1)におけるΣI1uerr(Q)は、演算処理領域R3min(k2)における射影変換対象領域R3u1(k1)(演算処理領域R3min(k2)と射影変換対象領域R3u1(k1)との重なり領域)での誤差画像の画素値I1uerr(Q)の総和である。 In this case, ΣI1uerr (Q) in equation (3-1) is the projection transformation target region R3u1 (k1) (calculation processing region R3min (k2) and projection transformation target region R3u1 (k1) in the computation processing region R3min (k2). The sum of the pixel values I1uerr (Q) of the error image in the overlapping region).
また、式(3−2)におけるΣI2uerr(Q)は、演算処理領域R3min(k2)における射影変換対象領域R3u2(k1)(演算処理領域R3min(k2)と射影変換対象領域R3u2(k1)との重なり領域)での誤差画像の画素値I2uerr(Q)の総和である。 In addition, ΣI2uerr (Q) in Expression (3-2) is the projection transformation target region R3u2 (k1) (calculation processing region R3min (k2) and projection transformation target region R3u2 (k1) in the computation processing region R3min (k2). This is the sum of the pixel values I2uerr (Q) of the error image in the overlap region.
また、式(3−3)におけるΣI3uerr(Q)は、演算処理領域R3min(k2)における射影変換対象領域R3u3(k1)(演算処理領域R3min(k2)と射影変換対象領域R3u3(k1)との重なり領域)での誤差画像の画素値I3uerr(Q)の総和である。 In addition, ΣI3uerr (Q) in Expression (3-3) is the projection transformation target region R3u3 (k1) (calculation processing region R3min (k2) and projection transformation target region R3u3 (k1) in the computation processing region R3min (k2). This is the sum of the pixel values I3uerr (Q) of the error image in the overlapping region.
STEP32では、以上のようにして、第k2番目の演算処理領域R3min(k2)において、N3a個の候補位置v(k1)(k1=1,2,…,N3a)のそれぞれの適合度(実エッジ投影線L52rの位置としての妥当性の度合い)をそれぞれ表すN3a個の評価関数Eu(k2)_k1(k1=1,2,…,N3a)の値が算出される。これらの評価関数Eu(k2)_k1(k1=1,2,…,N3a)は、第k2番目の演算処理領域R3min(k2)において、基準画像の縦方向での位置と、その位置の適合度(第k2番目の演算処理領域R3min(k2)での実エッジ投影線L52rの位置に対する適合度)との間の関係を表すデータとしての意味を持つ。 In STEP 32, the fitness (actual edge) of each of the N3a candidate positions v (k1) (k1 = 1, 2,..., N3a) in the k2th arithmetic processing region R3min (k2) as described above. The values of N3a evaluation functions Eu (k2) _k1 (k1 = 1, 2,..., N3a) representing the degree of validity as the position of the projection line L52r are calculated. These evaluation functions Eu (k2) _k1 (k1 = 1, 2,..., N3a) are the position in the vertical direction of the reference image in the k2th arithmetic processing region R3min (k2) and the degree of fitness of the position. It has a meaning as data representing the relationship with (the degree of fitness for the position of the actual edge projection line L52r in the k2th arithmetic processing region R3min (k2)).
次いで、エッジ投影線推定処理部13は、STEP33,34の処理を実行する。STEP33では、エッジ投影線推定処理部13は、処理対象とする演算処理領域R3min(k2)の番数k2を“1”だけ増加させる。そして、STEP34では、エッジ投影線推定処理部13は、増加後のk2の値が演算処理領域R3min(k2)の総個数であるN3bを超えたか否かを判断する。
Next, the edge projection line
このSTEP34の判断結果が否定的である場合には、エッジ投影線推定処理部13は、増加後の第k2番目の演算処理領域R3min(k2)に関して、前記STEP32の処理を実行する。
If the determination result in STEP 34 is negative, the edge projection line
以上のようにして、N3a個の候補位置v(k1)(k1=1,2,…,N3a)のそれぞれと、N3b個の演算処理領域R3min(k2)(k2=1,2,…,N3b)のそれぞれとの各組に対応して、総計N3a×N3b個の評価関数Eu(k2)_k1の値が算出される。 As described above, each of N3a candidate positions v (k1) (k1 = 1, 2,..., N3a) and N3b operation processing regions R3min (k2) (k2 = 1, 2,..., N3b). ), A total of N3a × N3b evaluation function Eu (k2) _k1 values are calculated.
これにより、図16(a),(b)に例示する如く、各演算処理領域R3min(k2)毎に、基準画像の縦方向(v軸方向)での所定の刻み間隔毎の複数の候補位置v(k1)(k1=1,2,…,N3a)と、その各候補位置v(k1)の適合度(第k2番目の演算処理領域R3min(k2)での実エッジ投影線L52rの位置に対する適合度)を表す評価関数Eu(k2)_k1の値との間の関係を表すデータが得られることとなる。 Thereby, as illustrated in FIGS. 16A and 16B, a plurality of candidate positions for each predetermined interval in the vertical direction (v-axis direction) of the reference image for each arithmetic processing region R3min (k2). v (k1) (k1 = 1, 2,..., N3a) and the fitness of each candidate position v (k1) (relative to the position of the actual edge projection line L52r in the k2th arithmetic processing region R3min (k2)) Data representing the relationship between the value of the evaluation function Eu (k2) _k1 representing the degree of fitness) is obtained.
なお、図16(a),(b)は、それぞれ、第1番目の演算処理領域R3min(1)に関する評価関数Eu(1)のグラフ、第N3b番目の演算処理領域R3min(N3b)に関する評価関数Eu(N3b)のグラフを代表的に示している。 16A and 16B are graphs of the evaluation function Eu (1) relating to the first arithmetic processing region R3min (1), and the evaluation function relating to the N3bth arithmetic processing region R3min (N3b), respectively. A graph of Eu (N3b) is representatively shown.
STEP34の判断結果が肯定的となった場合には、エッジ投影線推定処理部13は、次に、STEP35の処理を実行する。このSTEP35では、エッジ投影線推定処理部13は、エッジ推定用領域R3uに推定エッジ投影線の複数の候補(以降、エッジ投影線候補という)を仮想的に設定する。そして、エッジ投影線推定処理部13は、その各エッジ投影線候補毎に、N3b個の演算処理領域R3min(k2)(k2=1,2,…,N3b)のそれぞれにおける評価関数Eu(k2)の値の総和TEu(以降、総合評価関数TEuという)を求める。
If the determination result in STEP 34 is affirmative, the edge projection line
このSTEP35の処理でエッジ投影線推定処理部13が仮想的に設定する複数のエッジ投影線候補は、複数種類の位置及び方向を有するエッジ投影線である。これらのエッジ投影線候補は、具体的には、例えば次のように設定される。
The plurality of edge projection line candidates virtually set by the edge projection line
すなわち、図17を参照して、エッジ投影線推定処理部13は、N3b個の演算処理領域R3min(k2)を合成した領域としてエッジ推定用領域R3uの左端の辺と右端の辺とにそれぞれ同数ずつ、複数個の点を設定する。例えば、前記N3a個の候補位置v(k1)(k1=1,2,…,N3a)、エッジ推定用領域R3uの左端の辺と右端の辺とにそれぞれ、N3a個の点を等間隔で設定する。
That is, referring to FIG. 17, the edge projection line
そして、エッジ投影線推定処理部13は、エッジ推定用領域R3uの左端の各設定点と、右端の各設定点とを結ぶ、総計N3a×N3a個の直線をエッジ投影線候補として設定する。
Then, the edge projection line
図17に示すエッジ投影線候補は、このようにして設定されるエッジ投影線候補のうちの一部を代表的に示したものである。 The edge projection line candidates shown in FIG. 17 representatively show a part of the edge projection line candidates set in this way.
補足すると、エッジ推定用領域R3uの左端の辺と右端の辺とにそれぞれ設定する点の個数は、候補位置v(k1)の個数N3aと同じでなくてもよく、例えばN3aよりも少ない個数であってもよい。また、エッジ推定用領域R3uの左端の辺と右端の辺とにそれぞれ設定する点の位置(縦方向での位置)は、v(1)とv(N3a)との間の範囲内の位置であれば、候補位置v(k1)と異なる位置であってもよい。 Supplementally, the number of points set on the left and right sides of the edge estimation region R3u may not be the same as the number N3a of candidate positions v (k1), for example, a number smaller than N3a. There may be. The positions of the points set in the left and right edges of the edge estimation region R3u (positions in the vertical direction) are positions within the range between v (1) and v (N3a). If present, the position may be different from the candidate position v (k1).
また、エッジ投影線候補が通る基準画像上の1つの点の位置と、該エッジ投影線候補の方向(傾斜角度)との組み合わせによって、複数のエッジ投影線候補を設定するようにしてもよい。 Further, a plurality of edge projection line candidates may be set by a combination of the position of one point on the reference image through which the edge projection line candidate passes and the direction (tilt angle) of the edge projection line candidate.
上記の如く設定される各エッジ投影線候補に対応する総合評価関数TEuの値は、次のように算出される。 The value of the comprehensive evaluation function TEu corresponding to each edge projection line candidate set as described above is calculated as follows.
すなわち、エッジ投影線推定処理部13は、まず、エッジ投影線候補のそれぞれについて、該エッジ投影線候補がN3b個の演算処理領域R3min(k2)(k2=1,2,…,N3b)のそれぞれと交差する点の、基準画像の縦方向での位置(各演算処理領域R3min(k2)での該エッジ投影線候補の位置)を算出する。
That is, the edge projection line
そして、エッジ投影線推定処理部13は、エッジ投影線候補のそれぞれについて、各演算処理領域R3min(k2)での評価関数Eu(k2)の値を、上記の如く算出した該演算処理領域R3min(k2)でのエッジ候補線候補の位置と、該演算処理領域R3min(k2)において前記STEP32の処理により算出したN3a個の評価関数Eu(k2)_1〜Eu(k2)_N3aとに基づいて決定する。
Then, the edge projection line
具体的には、任意の1つのエッジ投影線候補に関し、例えば第k2番目の演算処理領域R3min(k2)における該エッジ投影線候補の位置(v軸方向での位置)がvxであり、N3a個の前記候補位置v(1)〜v(N3a)のうちのvxに一致する候補位置がv(k1x)であるとする。この場合、第k2番目の演算処理領域R3min(k2)と候補位置v(k1x)とに対応して算出された評価関数Eu(k2)_k1xの値が、第k2番目の演算処理領域R3min(k2)での該エッジ投影線候補の評価関数Eu(k2)の値として決定される。 Specifically, for any one edge projection line candidate, for example, the position (position in the v-axis direction) of the edge projection line candidate in the k2th computation processing region R3min (k2) is vx, and N3a pieces Of the candidate positions v (1) to v (N3a) is v (k1x). In this case, the value of the evaluation function Eu (k2) _k1x calculated corresponding to the k2th arithmetic processing region R3min (k2) and the candidate position v (k1x) is the k2th arithmetic processing region R3min (k2). ) At the edge projection line candidate evaluation function Eu (k2).
なお、vxに一致する候補位置が存在しない場合には、例えばvxに最も近い候補位置を上記v(k1x)として、第k2番目の演算処理領域R3min(k2)での該エッジ投影線候補の評価関数Eu(k2)の値が決定される。 If there is no candidate position matching vx, for example, the candidate position closest to vx is defined as v (k1x), and the edge projection line candidate is evaluated in the k2th arithmetic processing region R3min (k2). The value of the function Eu (k2) is determined.
あるいは、vxの前後の2つ以上の候補位置のそれぞれに対応する評価関数Eu(k2)の値から、線形補間等の補間処理によって、vxに対応する評価関数Eu(k2)の値を算出するようにしてもよい。このようにした場合には、その算出した評価関数Eu(k2)の値を、第k2番目の演算処理領域R3min(k2)での該エッジ投影線候補の評価関数Eu(k2)の値として決定するようにすればよい。 Alternatively, the value of the evaluation function Eu (k2) corresponding to vx is calculated from the value of the evaluation function Eu (k2) corresponding to each of two or more candidate positions before and after vx by interpolation processing such as linear interpolation. You may do it. In this case, the value of the calculated evaluation function Eu (k2) is determined as the value of the evaluation function Eu (k2) of the edge projection line candidate in the k2th arithmetic processing region R3min (k2). You just have to do it.
次いで、エッジ投影線推定処理部13は、各エッジ投影線候補毎に、N3b個の演算処理領域R3min(k2)(k2=1,2,…,N3b)のそれぞれにおける該エッジ投影線候補の位置に関する評価関数Eu(1)〜Eu(N3b)の値を加え合わせることによって、該エッジ投影線候補に対応する総合評価関数TEuの値を算出する。
Next, the edge projection line
以上の如くSTEP35の処理を実行した後、次に、エッジ投影線推定処理部13は、STEP36の処理を実行する。このSTEP36では、エッジ投影線推定処理部13は、STEP35で算出した各エッジ投影線候補毎の総合評価関数TEuに基づいて、実エッジ投影線L52rを推定した線としての推定エッジ投影線を決定する。
After executing the processing of STEP 35 as described above, the edge projection line
ここで、ある1つのエッジ投影線候補が、実エッジ投影線L52rに合致する場合、原理的には、各演算処理領域R3min(k2)での該エッジ投影線候補の位置に関する評価関数Eu(k2)の値は最小(最も“0”に近い値)となる。従って、該エッジ投影線候補に対応する総合評価関数TEuの値は、他のエッジ投影線候補に対応する総合評価関数TEuの値よりも小さくなる。 Here, when one edge projection line candidate matches the actual edge projection line L52r, in principle, an evaluation function Eu (k2) relating to the position of the edge projection line candidate in each arithmetic processing region R3min (k2). ) Is the minimum (the value closest to “0”). Therefore, the value of the comprehensive evaluation function TEu corresponding to the edge projection line candidate is smaller than the value of the comprehensive evaluation function TEu corresponding to other edge projection line candidates.
そこで、STEP36では、エッジ投影線推定処理部13は、STEP35で設定した全てのエッジ投影線候補のうち、対応する総合評価関数TEuの値が最小となるエッジ投影線候補を、推定エッジ投影線として決定する。
Therefore, in STEP 36, the edge projection line
これにより例えば、図18に例示する如く、エッジ推定用領域R3uの左端の辺上の位置v(k1a)の点と、右端の辺上の位置v(k1b)(図示例ではv(k1b)=v(k1a))の点とを結ぶエッジ投影線候補が、推定エッジ投影線として決定される。 Thus, for example, as illustrated in FIG. 18, the point at the position v (k1a) on the left end side of the edge estimation region R3u and the position v (k1b) on the right end side (in the example shown, v (k1b) = Edge projection line candidates connecting the points of v (k1a)) are determined as estimated edge projection lines.
以上が、カメラ3R,3Lの撮像領域に昇りの段差部(昇り階段50)が存在する場合に実行されるエッジ投影線推定処理部13の処理である。
The above is the processing of the edge projection line
次に、カメラ3R,3Lの撮像領域に降りの段差部(例えば降り階段50)が存在する場合に実行されるエッジ投影線推定処理部13の処理(図12のSTEP37〜51の処理)を説明する。
Next, the processing of the edge projection line estimation processing unit 13 (the processing of STEPs 37 to 51 in FIG. 12) executed when there is a stepped portion (for example, the descending staircase 50) in the imaging region of the
段差部が降りの段差部である場合には、エッジ投影線推定処理部13は、まず、STEP37において、基準画像内に、STEP22と同様に、実エッジ投影線の推定用の画像処理領域であるエッジ推定用領域R3dを設定する。
When the stepped portion is a descending stepped portion, the edge projection line
ここで、以降の説明では、説明の便宜上、カメラ3R,3Lの撮像領域に存在する降りの段差部が、図1(b)に示した如き降り階段50であるとする。さらに、この降り階段50の任意の1つの上段側踏面51(例えばロボット1から見て最も手前側の上段側踏面)の先端側エッジ52を基準画像に投影してなる実エッジ投影線L52rを推定する処理をエッジ投影線推定処理部13により実行するものとする。
Here, in the following description, for the sake of convenience of explanation, it is assumed that the descending step portion present in the imaging regions of the
そして、昇りの段差部に関する説明と同様に、推定しようとする実エッジ投影線L52rに対応する先端側エッジ52を先端に有する上段側踏面51と、その一段下側の下段側踏面51とを、それぞれ参照符号51p,51qを使用して表記する。
Then, similarly to the description of the ascending stepped portion, an
STEP37において基準画像に設定するエッジ推定用領域R3dは、図19に示す如く設定される方形状の領域である。このエッジ推定用領域R3dは、その下端の位置が上段側踏面投影領域AR2pの縦方向の幅内の位置(例えば上段側踏面投影領域AR2pの上端から既定の所定量だけ下側の位置)となり、且つ、R3dの上端の位置が下段側踏面投影領域AR2qの縦方向の幅内の位置(例えば下段側踏面投影領域AR2qの下端から所定量だけ上側の位置)になるように配置される。この場合、エッジ推定用領域R3dの縦方向の幅は、下段側踏面投影領域ARqと上段側踏面投影領域ARpとの間の縦方向の間隔に応じて決定される。 The edge estimation region R3d set as the reference image in STEP 37 is a rectangular region set as shown in FIG. The edge estimation region R3d has a lower end position within a vertical width of the upper stage tread projection area AR2p (for example, a position below the upper end of the upper stage tread projection area AR2p by a predetermined amount), Further, the position of the upper end of R3d is arranged so as to be a position within the vertical width of the lower stage tread projection area AR2q (for example, a position above the lower end of the lower stage tread projection area AR2q by a predetermined amount). In this case, the vertical width of the edge estimation region R3d is determined in accordance with the vertical interval between the lower stage tread projection area ARq and the upper stage tread projection area ARp.
また、エッジ推定用領域R3dは、その横方向の範囲(左端と右端との間の範囲)が、下段側踏面投影領域AR2q及び上段側踏面投影領域AR2pの横方向の範囲に一致するように配置される。この場合、エッジ推定用領域R3dの横方向の幅は、下段側踏面投影領域AR2q及び上段側踏面投影領域AR2pの横方向の幅と同じ幅(既定の幅)に決定される。 In addition, the edge estimation region R3d is arranged such that its horizontal range (the range between the left end and the right end) coincides with the horizontal range of the lower-stage tread projection area AR2q and the upper-stage tread projection area AR2p. Is done. In this case, the lateral width of the edge estimation region R3d is determined to be the same width (predetermined width) as the lateral width of the lower tread projection area AR2q and the upper tread projection area AR2p.
なお、エッジ推定用領域R3dの横方向の幅は、下段側踏面投影領域AR2q及び上段側踏面投影領域AR2pの横方向の幅よりも若干小さくてもよい。その場合は、エッジ推定用領域R3dは、その横方向の範囲が、下段側踏面投影領域AR2q及び上段側踏面投影領域AR2pの横方向の範囲内に収まるように配置すればよい。 The lateral width of the edge estimation region R3d may be slightly smaller than the lateral width of the lower stage tread projection area AR2q and the upper stage tread projection area AR2p. In that case, the edge estimation region R3d may be arranged so that the lateral range thereof falls within the lateral range of the lower stage tread projection area AR2q and the upper stage tread projection area AR2p.
以上のSTEP37の処理によって、エッジ推定用領域R3dは、その内部に(上端の辺と下端の辺との間)に推定しようとする単一の実エッジ投影線L52rが存在し、且つ、該エッジ推定用領域R3dの上端の辺及び下端の辺がそれぞれ、下段側踏面投影領域AR2q、上段側踏面投影領域AR2pに含まれるようにして、基準画像内に設定されることとなる。 Through the processing of STEP 37 described above, the edge estimation region R3d has a single actual edge projection line L52r to be estimated (between the upper end side and the lower end side) inside the edge estimation region R3d, and the edge The upper edge and the lower edge of the estimation area R3d are set in the reference image so as to be included in the lower tread projection area AR2q and the upper tread projection area AR2p, respectively.
エッジ投影線推定処理部13は、STEP37の次にSTEP38の処理を実行する。このSTEP38では、エッジ投影線推定処理部13は、前記STEP23と同様に処理によって、図20に示す如く、基準画像の縦方向(v軸方向)における実エッジ投影線L52rの位置の候補としての複数(N3a個)の候補位置v(k1)(k1=1,2,…,N3a)を決定する。
The edge projection line
なお、この場合、候補位置v(k1)の個数N3aは、前記STEP23の処理における個数N3aと一般には異なる。 In this case, the number N3a of candidate positions v (k1) is generally different from the number N3a in the processing of STEP23.
また、この場合、N3a個の候補位置v(k1)(k1=1,2,…,N3a)は、エッジ推定用領域R3dの縦方向の範囲(上端と下端との間の範囲)内で、あらかじめ定められた所定の刻み間隔ずつ(例えば1画素分の間隔ずつ)、基準画像の縦方向に異なる位置とされる。そして、これらの候補位置v(k1)のうち、最も上側の候補位置としての第1番目の候補位置v(1)は、エッジ推定用領域R3dの上端から所定間隔(例えば1画素分の間隔)だけ下側の位置、最も下側の候補位置としての第N3a番目の候補位置v(N3a)は、エッジ推定用領域R3dの下端から所定間隔(例えば1画素分の間隔)だけ上側の位置に決定される。 In this case, N3a candidate positions v (k1) (k1 = 1, 2,..., N3a) are within the vertical range (range between the upper end and the lower end) of the edge estimation region R3d. The positions are different in the vertical direction of the reference image by predetermined intervals (for example, by one pixel). Of these candidate positions v (k1), the first candidate position v (1) as the uppermost candidate position is a predetermined interval (for example, one pixel interval) from the upper end of the edge estimation region R3d. And the N3a-th candidate position v (N3a) as the lowermost candidate position is determined to be an upper position by a predetermined interval (for example, an interval of one pixel) from the lower end of the edge estimation region R3d. Is done.
次に、エッジ投影線推定処理部13は、STEP39の処理を実行する。この処理は、前記STEP24の処理と同じであり、k1の初期値として“1”が設定される。
Next, the edge projection line
次いで、エッジ投影線推定処理部13は、STEP40の処理を実行する。このSTEP40では、エッジ投影線推定処理部13は、基準画像の縦方向での実エッジ投影線L52rの位置が第k1番目の候補位置v(k1)(k1は現在設定されている値)に一致するものと仮定して、エッジ推定用領域R3d内に、図20に例示する如く、2つの射影変換対象領域R3d1,R3d2を設定する。
Next, the edge projection line
カメラ3R,3Lの撮像領域に存在する段差部が降りの段差部(ここでは降り階段50)である場合には、該段差部の段鼻の先端面や蹴り込み面は、基準画像及び参照画像には写らない。このため、この場合にエッジ推定用領域R3dに設定する射影変換対象領域は、R3d1,R3d2の2つである。
When the stepped portion present in the imaging regions of the
これらの2つの射影変換対象領域R3d1,R3d2は、より詳しくは、第k1番目の候補位置v(k1)で横方向に延在する仮想的なエッジ投影線L52(k1)を境界線として上下に隣接するように設定される領域である。この場合、上側の射影変換対象領域R3d1は、その上端側の辺と下端側の辺とがそれぞれエッジ推定用領域R3dの上端側の辺、仮想的なエッジ投影線L52(k1)に一致し、且つ、横方向の範囲が、エッジ推定用領域R3dの横方向の範囲と一致する領域である。 More specifically, these two projective transformation target regions R3d1 and R3d2 are vertically arranged with a virtual edge projection line L52 (k1) extending in the horizontal direction at the k1th candidate position v (k1) as a boundary line. This is an area set to be adjacent. In this case, the upper projection conversion target region R3d1 has an upper end side and a lower end side that coincide with the upper end side of the edge estimation region R3d, the virtual edge projection line L52 (k1), In addition, the horizontal range is a region that matches the horizontal range of the edge estimation region R3d.
従って、射影変換対象領域R3d1は、その縦方向の幅と下端側の辺の位置(縦方向での位置)とが、仮想的なエッジ投影線L52(k1)の位置(=v(k1))に応じて変化するように設定される領域である。この射影変換対象領域R3d1は、仮想的なエッジ投影線L52(k1)が、実エッジ投影線L52rに合致する場合には、下段側踏面投影領域AR2qに含まれる領域である。 Therefore, in the projection transformation target region R3d1, the vertical width and the position of the lower side edge (the vertical position) are the positions of the virtual edge projection line L52 (k1) (= v (k1)). It is an area set so as to change according to. This projection transformation target area R3d1 is an area included in the lower tread projection area AR2q when the virtual edge projection line L52 (k1) matches the actual edge projection line L52r.
また、下側の射影変換対象領域R3d2は、その上端側の辺と下端側の辺とがそれぞれ仮想的なエッジ投影線L52(k1)、エッジ推定用領域R3dの下端側の辺に一致し、且つ、横方向の範囲が、エッジ推定用領域R3dの横方向の範囲と一致する領域である。 The lower projection transformation target area R3d2 has an upper edge side and a lower edge side that correspond to the virtual edge projection line L52 (k1) and the lower edge side of the edge estimation area R3d, respectively. In addition, the horizontal range is a region that matches the horizontal range of the edge estimation region R3d.
従って、射影変換対象領域R3d2は、その縦方向の幅と上端側の辺の位置(縦方向での位置)とが、仮想的なエッジ投影線L52(k1)の位置(=v(k1))に応じて変化するように設定される領域である。この射影変換対象領域R3d2は、仮想的なエッジ投影線L52(k1)が、実エッジ投影線L52rに合致する場合には、上段側踏面投影領域AR2pに含まれる領域である。 Accordingly, in the projection transformation target area R3d2, the vertical width and the position of the upper side edge (the vertical position) are the positions of the virtual edge projection line L52 (k1) (= v (k1)). It is an area set so as to change according to. This projective transformation target area R3d2 is an area included in the upper tread projection area AR2p when the virtual edge projection line L52 (k1) matches the actual edge projection line L52r.
以上の如くSTEP40の処理を実行した後、次に、エッジ投影線推定処理部13は、STEP41の処理を実行する。このSTEP41では、エッジ推定用領域R3dに設定した2つの射影変換対象領域R3d1,R3d2のそれぞれが平面部分の投影領域であると仮定して、射影変換対象領域R3d1,R3d2のそれぞれに対応する平面部分を包含する平面についての平面パラメータベクトル↑md1,↑md2を決定する。
After executing the processing of STEP 40 as described above, the edge projection line
この場合、射影変換対象領域R3d1,R3d2にそれぞれ対応する平面パラメータベクトル↑md1,↑md2は、それぞれ、下段側踏面投影領域AR2qに対応する平面パラメータベクトル↑m2q、上段側踏面投影領域AR2pに対応する平面パラメータベクトル↑m2pに一致するベクトルに決定される。 In this case, the plane parameter vectors ↑ md1 and ↑ md2 respectively corresponding to the projective transformation target areas R3d1 and R3d2 correspond to the plane parameter vector ↑ m2q and the upper stage tread projection area AR2p corresponding to the lower tread projection area AR2q, respectively. The plane parameter vector is determined to be a vector matching the m2p.
次いで、エッジ投影線推定処理部13は、STEP42の処理を実行する。このSTEP42では、エッジ投影線推定処理部13は、各射影変換対象領域R3d1,R3d2について、各射影変換対象領域R3d1,R3d2の画像(基準画像)と、これに対応する参照画像中の領域の画像を射影変換した場合に得られる射影変換画像との誤差を表す誤差画像を作成する。
Next, the edge projection line
この場合、各射影変換対象領域R3d1,R3d2に対応する誤差画像は、それぞれに対応する平面パラメータベクトル↑md1,↑md2を使用して、前記STEP27での誤差画像の作成処理と同様の処理によって作成される。 In this case, the error image corresponding to each of the projection transformation target regions R3d1, R3d2 is created by the same process as the error image creation process in STEP 27, using the corresponding plane parameter vectors ↑ md1, ↑ md2. Is done.
次いで、エッジ投影線推定処理部13は、STEP43,44の処理を実行する。STEP43では、エッジ投影線推定処理部13は、処理に用いる候補位置v(k1)の番数k1を“1”だけ増加させる。そして、STEP44では、エッジ投影線推定処理部13は、増加後のk1の値が候補位置v(k1)の総個数であるN3aを超えたか否かを判断する。
Next, the edge projection line
このSTEP44の判断結果が否定的である場合には、エッジ投影線推定処理部13は、増加後の第k1番目の候補位置v(k1)を用いて、前記STEP40〜42の処理を実行する。
If the determination result in STEP 44 is negative, the edge projection line
以上のようにして、N3a個の候補位置v(k1)(k1=1,2,…,N3a)のそれぞれに対応して、上記の誤差画像が作成される。 As described above, the above error image is created corresponding to each of N3a candidate positions v (k1) (k1 = 1, 2,..., N3a).
STEP44の判断結果が肯定的となった場合には、エッジ投影線推定処理部13は、次に、STEP45の処理を実行する。このSTEP45では、エッジ投影線推定処理部13は、図21に示す如く、エッジ推定用領域R3d内に、縦方向に細長い複数(N3b個)の演算処理領域R3min(k2)(k2=1,2,…,N3b)を設定する。各演算処理領域R3min(k2)(k2=1,2,…,N3b)は、前記STEP30の処理に関して説明したものと同様の細長方形状(短冊状)の領域である。そして、その設定の仕方は、STEP30の処理と同じである。
If the determination result in STEP 44 is affirmative, the edge projection line
なお、演算処理領域R3min(k2)の個数N3bは、前記STEP30で設定する演算処理領域R3min(k2)の個数と同じでなくてもよい。 Note that the number N3b of the arithmetic processing areas R3min (k2) may not be the same as the number of arithmetic processing areas R3min (k2) set in STEP 30.
補足すると、前記STEP30に関して説明したことと同様に、前記STEP38において、N3a個の候補位置v(k1)(k1=1,2,…,N3a)を設定する処理は、換言すれば、各演算処理領域R3min(k2)に対してN3a個の候補位置v(k1)(k1=1,2,…,N3a)を設定する処理であると言える。 Supplementally, the processing for setting N3a candidate positions v (k1) (k1 = 1, 2,..., N3a) in STEP38 is the same as that described for STEP30. It can be said that this is a process of setting N3a candidate positions v (k1) (k1 = 1, 2,..., N3a) for the region R3min (k2).
また、前記STEP40において、v(k1)に応じて射影変換対象領域R3d1,R3d2を設定する処理は、換言すれば、各演算処理領域R3min(k2)に対して射影変換対象領域R3d1,R3d2を設定する処理であると言える。 In STEP 40, the process of setting the projective transformation target areas R3d1 and R3d2 according to v (k1), in other words, the projective transformation target areas R3d1 and R3d2 are set for each arithmetic processing area R3min (k2). It can be said that it is processing to do.
STEP45の処理は、STEP38やSTEP40よりも後で行なう必要はなく、例えば、STEP37において、演算処理領域R3min(k2)の設定処理を行ってもよい。 The processing of STEP 45 does not need to be performed after STEP 38 or STEP 40. For example, in STEP 37, setting processing of the arithmetic processing region R3min (k2) may be performed.
次いで、エッジ投影線推定処理部13は、STEP46の処理を実行する。この処理では、k2の初期値として“1”が設定される。
Next, the edge projection line
次いで、エッジ投影線推定処理部13は、STEP47の処理を実行する。このSTEP47では、エッジ投影線推定処理部13は、第k2番目(k2は現在設定されている番数)の演算処理領域R3min(k2)におけるN3a個の前記候補位置v(k1)(k1=1,2,…,N3a)のそれぞれについて、実エッジ投影線L52rの位置(縦方向での位置)に対する各候補位置v(k1)の適合度を表す評価関数Ed(k2)の値を、前記STEP32の処理の場合と同様の処理によって算出する。
Next, the edge projection line
ただし、この場合、エッジ推定用領域R3dに設定される射影変換対象領域はR3d1,R3d2の2つであるので、演算処理領域R3min(k2)における各候補位置v(k1)に対応する評価関数Ed(k2)_k1の値は、次のように算出される。 However, in this case, since there are two projection transformation target areas R3d1 and R3d2 set in the edge estimation area R3d, the evaluation function Ed corresponding to each candidate position v (k1) in the arithmetic processing area R3min (k2). The value of (k2) _k1 is calculated as follows.
すなわち、演算処理領域R3min(k2)における各候補位置v(k1)に対応する評価関数Ed(k2)_k1の値は、v(k1)に応じて設定された射影変換対象領域R3d1(以降、これをR3d1(k1)と表記する)に対応する前記誤差画像のうちの演算処理領域R3min(k2)に含まれる部分の画像から算出される誤差関数Dd1(k2)_k1の値と、v(k1)に応じて設定された射影変換対象領域R3d2(以降、これをR3d2(k1)と表記する)に対応する誤差画像のうちの演算処理領域R3min(k2)に含まれる部分の画像から算出される誤差関数Dd2(k2)_k1の値とを線形結合(本実施形態では加算)してなる値として算出される。 That is, the value of the evaluation function Ed (k2) _k1 corresponding to each candidate position v (k1) in the arithmetic processing region R3min (k2) is the projection transformation target region R3d1 (hereinafter referred to as this) set according to v (k1). Of the error image corresponding to R3d1 (k1)), the value of the error function Dd1 (k2) _k1 calculated from the image of the portion included in the calculation processing region R3min (k2), and v (k1) The error calculated from the image of the portion included in the calculation processing region R3min (k2) in the error image corresponding to the projection transformation target region R3d2 (hereinafter referred to as R3d2 (k1)) set according to It is calculated as a value obtained by linearly combining (adding in this embodiment) the value of the function Dd2 (k2) _k1.
さらに詳細には、v(k1)に応じて設定された射影変換対象領域R3d1,R3d2のそれぞれに対応する誤差画像の各画素位置Qでの画素値をそれぞれI1derr(Q),I2derr(Q),I3derr(Q)とする。また、演算処理領域R3min(k2)における射影変換対象領域R3d1(k1),R3d2(k1)のそれぞれのトータルの画素数をNd1(k2)_k1,Nd2(k2)_k1とする。このとき、誤差関数Dd1(k2)_k1,Dd2(k2)_k1はそれぞれ、次式(5−1),(5−2)により算出される。そして、これらのDd1(k2)_k1,Dd2(k2)_k1の値から次式(6)によって、評価関数Ed(k2)_k1が算出される。 More specifically, the pixel values at the respective pixel positions Q of the error image corresponding to each of the projection transformation target areas R3d1 and R3d2 set according to v (k1) are respectively set as I1derr (Q), I2derr (Q), I3derr (Q). Further, the total number of pixels in the projection transformation target areas R3d1 (k1) and R3d2 (k1) in the arithmetic processing area R3min (k2) is Nd1 (k2) _k1 and Nd2 (k2) _k1. At this time, error functions Dd1 (k2) _k1 and Dd2 (k2) _k1 are calculated by the following equations (5-1) and (5-2), respectively. Then, the evaluation function Ed (k2) _k1 is calculated from the values of Dd1 (k2) _k1 and Dd2 (k2) _k1 by the following equation (6).
Dd1(k2)_k1=(1/Nd1(k2)_k1)・ΣI1derr(Q) ……(5−1)
Dd2(k2)_k1=(1/Nd2(k2)_k1)・ΣI2derr(Q) ……(5−2)
Ed(k2)_k1=Dd1(k2)_k1+Dd2(k2)_k1 ……(6)
Dd1 (k2) _k1 = (1 / Nd1 (k2) _k1) · ΣI1derr (Q) (5-1)
Dd2 (k2) _k1 = (1 / Nd2 (k2) _k1) · ΣI2derr (Q) (5-2)
Ed (k2) _k1 = Dd1 (k2) _k1 + Dd2 (k2) _k1 (6)
この場合、式(5−1)におけるΣI1derr(Q)は、演算処理領域R3min(k2)における射影変換対象領域R3d1(k1)(演算処理領域R3min(k2)と射影変換対象領域R3d1(k1)との重なり領域)での誤差画像の画素値I1derr(Q)の総和である。 In this case, ΣI1derr (Q) in equation (5-1) is the projection transformation target region R3d1 (k1) (calculation processing region R3min (k2) and projection transformation target region R3d1 (k1) in the computation processing region R3min (k2). The sum of the pixel values I1derr (Q) of the error image in the overlapping region).
また、式(3−2)におけるΣI2derr(Q)は、演算処理領域R3min(k2)における射影変換対象領域R3u2(k1)(演算処理領域R3min(k2)と射影変換対象領域R3u2(k1)との重なり領域)での誤差画像の画素値I2derr(Q)の総和である。 In addition, ΣI2derr (Q) in Expression (3-2) is the projection transformation target region R3u2 (k1) (the computation processing region R3min (k2) and the projection transformation target region R3u2 (k1) in the computation processing region R3min (k2). The sum of the pixel values I2derr (Q) of the error image in the overlapping region).
STEP47では、以上のようにして、第k2番目の演算処理領域R3min(k2)において、N3a個の候補位置v(k1)(k1=1,2,…,N3a)のそれぞれの適合度(実エッジ投影線L52rの位置としての妥当性の度合い)をそれぞれ表すN3a個の評価関数Ed(k2)_k1(k1=1,2,…,N3a)の値が算出される。 In STEP 47, as described above, the fitness (actual edge) of each of the N3a candidate positions v (k1) (k1 = 1, 2,..., N3a) in the k2th arithmetic processing region R3min (k2). The values of N3a evaluation functions Ed (k2) _k1 (k1 = 1, 2,..., N3a) each representing the degree of validity as the position of the projection line L52r are calculated.
次いで、エッジ投影線推定処理部13は、STEP48,49の処理を実行する。STEP48では、エッジ投影線推定処理部13は、処理対象とする演算処理領域R3min(k2)の番数k2を“1”だけ増加させる。そして、STEP49では、エッジ投影線推定処理部13は、増加後のk2の値が演算処理領域R3min(k2)の総個数であるN3bを超えたか否かを判断する。
Next, the edge projection line
このSTEP49の判断結果が否定的である場合には、エッジ投影線推定処理部13は、増加後の第k2番目の演算処理領域R3min(k2)に関して、前記STEP47の処理を実行する。
If the determination result in STEP 49 is negative, the edge projection line
以上のようにして、N3a個の候補位置v(k1)(k1=1,2,…,N3a)のそれぞれと、N3b個の演算処理領域R3min(k2)(k2=1,2,…,N3b)のそれぞれとの各組に対応して、総計N3a×N3b個の評価関数Ed(k2)_k1の値が算出される。 As described above, each of N3a candidate positions v (k1) (k1 = 1, 2,..., N3a) and N3b operation processing regions R3min (k2) (k2 = 1, 2,..., N3b). ), A total of N3a × N3b evaluation function Ed (k2) _k1 values are calculated.
これにより、各演算処理領域R3min(k2)毎に、基準画像の縦方向(v軸方向)での所定の刻み間隔毎の複数の候補位置v(k1)(k1=1,2,…,N3a)と、その各候補位置v(k1)の適合度(第k2番目の演算処理領域R3min(k2)での実エッジ投影線L52rの位置に対する適合度)を表す評価関数Ed(k2)_k1の値との間の関係を表すデータが得られることとなる。 Thus, for each arithmetic processing region R3min (k2), a plurality of candidate positions v (k1) (k1 = 1, 2,..., N3a at predetermined intervals in the vertical direction (v-axis direction) of the reference image. ) And the value of the evaluation function Ed (k2) _k1 representing the fitness of each candidate position v (k1) (the fitness of the actual edge projection line L52r in the k2th arithmetic processing region R3min (k2)) Data representing the relationship between the two will be obtained.
STEP49の判断結果が肯定的となった場合には、エッジ投影線推定処理部13は、次に、STEP50の処理を実行する。このSTEP50では、エッジ投影線推定処理部13は、前記STEP35の処理と同様に、エッジ推定用領域R3dに複数のエッジ投影線候補を仮想的に設定する。そして、エッジ投影線推定処理部13は、その各エッジ投影線候補毎に、N3b個の演算処理領域R3min(k2)(k2=1,2,…,N3b)のそれぞれにおける評価関数Ed(k2)の値の総和である総合評価関数TEdを求める。
If the determination result in STEP 49 is affirmative, the edge projection line
このSTEP50における複数のエッジ投影線候補の設定処理と、各エッジ投影線候補に対応する総合評価関数TEdの値の算出処理とは、前記STEP35の処理と同様の処理によって行われる。
The processing for setting a plurality of edge projection line candidates in
次に、エッジ投影線推定処理部13は、STEP51の処理を実行する。このSTEP51の処理は、前記STEP36の処理と同様に行なわれる。すなわち、エッジ投影線推定処理部13は、STEP50で設定した全てのエッジ投影線候補のうち、対応する総合評価関数TEdの値が最小となるエッジ投影線候補を、推定エッジ投影線として決定する。
Next, the edge projection line
以上が、カメラ3R,3Lの撮像領域に降りの段差部(降り階段50)が存在する場合に実行されるエッジ投影線推定処理部13の処理である。
The above is the processing of the edge projection line
以上説明したエッジ投影線推定処理部13の処理によって、カメラ3R,3Lの撮像領域に段差部が存在する場合に、その段差部が、ロボット1から見て、昇りの段差部、降りの段差部のいずれであっても、該段差部の上段側踏面の先端側エッジを基準画像に投影してなる実エッジ投影線が推定される。
When there is a stepped portion in the imaging area of the
なお、以上のエッジ投影線推定処理部13の処理の説明では、STEP22〜36の処理、又は、STEP37〜51の処理によって、任意の1つの先端側エッジ52に対応する推定エッジ投影線を求める場合について説明したが、基準画像に投影されている各上段側踏面51の先端側エッジ52毎に、STEP22〜36の処理、又は、STEP37〜51の処理を繰り返すことで、基準画像に写っている各先端側エッジ52に対応する推定エッジ投影線をそれぞれ求めることができる。
In the description of the processing of the edge projection line
このエッジ投影線推定処理部13の処理が終了すると、演算処理装置10は次に、段差部空間配置決定部14の処理を実行する。
When the processing of the edge projection line
この段差部空間配置決定部14は、平面投影領域抽出部12の処理によって抽出された各平面投影領域AR2の平面パラメータベクトル↑m2と、エッジ投影線推定処理部13の処理によって求められた推定エッジ投影線とを用いて、カメラ3R,3Lにより撮像された段差部の空間的な配置位置(ロボット座標系で見た配置位置)を決定する。
The stepped portion space
この場合、本実施形態では、段差部空間配置決定部14は、段差部の空間的な配置を示すデータとして、例えば、ロボット1の空間的な進行予定領域での段差部の各上段側踏面の先端側エッジ及び各下段側踏面の基端側エッジの空間的な配置位置、並びに、各踏面の空間的な姿勢(法線方向)を決定する。
In this case, in this embodiment, the stepped portion space
これらのデータは、基準画像上で決定した推定エッジ投影線と、この推定エッジ投影線に対応する先端側エッジを有する上段側踏面の平面パラメータベクトル↑m2(↑m2p)と、該上段側踏面の一段下側の下段側踏面の平面パラメータベクトル↑m2(↑m2q)とを使用して決定される。 These data are the estimated edge projection line determined on the reference image, the plane parameter vector ↑ m2 (↑ m2p) of the upper tread surface having the leading edge corresponding to the estimated edge projection line, and the upper tread surface It is determined using the plane parameter vector ↑ m2 (↑ m2q) of the lower tread on the lower stage.
具体的には、段差部空間配置決定部14は、基準画像における推定エッジ投影線を、推定エッジ投影線に対応する先端側エッジを有する上段側踏面の平面パラメータベクトル↑m2pにより規定される平面に逆投影してなる線と、該先端側エッジに合致する線として決定する。その線は、基準画像の撮像面における推定エッジ投影線と基準カメラ3の光学中心Cとを含む平面と、上記平面パラメータベクトル↑m2pにより規定される平面との交線上の線として決定される。
Specifically, the stepped portion space
また、段差部空間配置決定部14は、上記の如く空間的な配置を決定した先端側エッジを、下段側踏面の平面パラメータベクトル↑m2qにより規定される平面に所定の方向で投影してなる線を該下段側踏面の基端側エッジとして決定する。この場合、上記所定の方向は、具体的には、先端側エッジを有する上段側踏面の平面パラメータベクトル↑m2pにより規定される平面に直交する方向、あるいは↑m2pにより規定される平面に対して、90度に近い既定の角度で交差する方向である。
Further, the stepped portion space
なお、前記平面投影領域抽出部12の処理によって、階段の段鼻の先端面又は蹴り込み面に相当する段差部の平面部分に対応する平面投影領域を抽出するようにした場合には、その平面投影領域に対応する平面パラメータベクトルにより規定される平面の法線方向に、先端側エッジと基端側エッジとを含む平面の法線方向が一致もしくはほぼ一致するように、上記所定の方向を決定してもよい。
When the plane projection
また、段差部空間配置決定部14は、段差部の上段側踏面及び下段側踏面の姿勢(法線方向)を、それぞれに対応する平面パラメータベクトル↑m2p、↑m2qの方向と一致する方向(これは一般には、鉛直方向とは限らない)に決定する。
In addition, the step space
以上により、段差部の各上段側踏面の先端側エッジ及び各下段側踏面の基端側エッジの空間的な配置位置、並びに、各踏面の空間的な姿勢(法線方向)が決定される。 As described above, the spatial arrangement positions of the leading edge of each upper stage tread and the base end edge of each lower stage tread of the stepped portion, and the spatial posture (normal direction) of each tread are determined.
そして、ロボット1は、これらのデータによりロボット1に対する段差部の配置位置やその形状を認識しつつ、該段差部を昇降する等の動作を行なう。
The
以上説明した本実施形態によれば、横方向の幅が微小で、且つ縦方向に細長い複数の演算処理領域R3min(k2)(k2=1,2,…,N3b)が基準画像に横方向に並ぶようにして設定される。そして、その各演算処理領域毎に、基準画像の縦方向の複数の候補位置v(k1)(k1=1,2,…,N3a)のそれぞれの適合度(実エッジ投影線L52rの位置に対する適合度)を表す評価関数Eu(k2)_k1又はEd(k2)_k1が、射影変換を利用した演算処理によって算出される。 According to the present embodiment described above, a plurality of arithmetic processing regions R3min (k2) (k2 = 1, 2,..., N3b) having a small width in the horizontal direction and elongated in the vertical direction are formed in the reference image in the horizontal direction. It is set to line up. Then, for each arithmetic processing area, each of the plurality of candidate positions v (k1) (k1 = 1, 2,..., N3a) in the vertical direction of the reference image is matched to the position of the actual edge projection line L52r. The evaluation function Eu (k2) _k1 or Ed (k2) _k1 representing the degree) is calculated by an arithmetic process using projective transformation.
これにより、横方向に並ぶ複数の演算処理領域R3min(k2)(k2=1,2,…,N3b)のそれぞれにおいて、縦方向の位置と、評価関数Eu(k2)_k1又はEd(k2)_k1の値との関係を表すデータが得られることとなる。 Thereby, in each of the plurality of calculation processing regions R3min (k2) (k2 = 1, 2,..., N3b) arranged in the horizontal direction, the vertical position and the evaluation function Eu (k2) _k1 or Ed (k2) _k1 Data representing the relationship with the value of is obtained.
さらに、エッジ推定用領域R3u又はR3dに、位置や方向が互いに相違する複数のエッジ投影線候補を仮想的に設定され、それぞれのエッジ投影線候補に対して、各演算処理領域R3min(k2)での位置の評価関数Eu(k2)_k1又はEd(k2)_k1の値を合成してなる総合評価関数TEu又はTEdの値が算出される。この総合評価関数TEu又はTEdは、各演算処理領域R3min(k2)でのエッジ投影線候補の位置の適合度(実エッジ投影線L52rの位置に対する適合度)を合成してなる合成適合度の逆数値に相当するものである。 Further, a plurality of edge projection line candidates whose positions and directions are different from each other are virtually set in the edge estimation region R3u or R3d, and each of the edge projection line candidates is set in each calculation processing region R3min (k2). The value of the comprehensive evaluation function TEu or TEd obtained by synthesizing the value of the evaluation function Eu (k2) _k1 or Ed (k2) _k1 at the position of is calculated. This comprehensive evaluation function TEu or TEd is the inverse of the combined fitness obtained by synthesizing the fitness of the position of the edge projection line candidate in each arithmetic processing region R3min (k2) (the fitness of the actual edge projection line L52r). It corresponds to a numerical value.
そして、この総合評価関数TEu又はTEdの値が最小となるエッジ投影線候補(換言すれば、上記合成適合度が最大となるエッジ投影線候補)が、推定エッジ投影線として決定される。 Then, the edge projection line candidate that minimizes the value of the comprehensive evaluation function TEu or TEd (in other words, the edge projection line candidate that maximizes the combined fitness) is determined as the estimated edge projection line.
このようにして推定エッジ投影線を決定することにより、実エッジ投影線を推定したものとしての信頼性の高い推定エッジ投影線を決定できる。 By determining the estimated edge projection line in this way, it is possible to determine an estimated edge projection line with high reliability as an estimation of the actual edge projection line.
また、特に、カメラ3R,3Lの撮像領域に昇り階段50などの昇りの段差部が存在する場合に、候補位置v(k1)に依存する3つの射影変換対象領域R3u1,R3u2,R3u1をエッジ推定用領域R3uに前記した如く設定する(ひいては各演算処理領域R3min(k2)に設定する)ので、前記各評価関数Eu(k2)_k1の値に、候補位置v(k1)の位置を境界として隣接する射影変換対象領域R3u1,R3u2だけでなく、下段側踏面に対応する射影変換対象領域R3u3の画像の画素値を反映させることができる。すなわち、前記各評価関数Eu(k2)_k1の値を、各演算処理領域R3min(k2)に含まれる多くの画素の画素値を反映させて算出することができる。
In particular, when an ascending step portion such as ascending
そのため、各演算処理領域R3min(k2)における候補位置v(k1)の位置の適合度を表すものとしての各評価関数Eu(k2)_k1の値の信頼性を高めることができる。ひいては、推定エッジ投影線の信頼性を高めることができる。 Therefore, it is possible to improve the reliability of the value of each evaluation function Eu (k2) _k1 representing the degree of suitability of the position of the candidate position v (k1) in each arithmetic processing region R3min (k2). As a result, the reliability of the estimated edge projection line can be improved.
また、本実施形態では、段差部存在検知部11や、平面投影領域抽出部12は、ステレオ画像と射影変換とを利用した処理によって、レーザ測距装置等の測距装置をロボット1に備えることなく、段差部の存在を検知したり、平面投影領域の抽出を行なうことができる。このため、段差部の認識を安価な構成で行なうことができる。
In the present embodiment, the stepped portion
ここで、以上説明した実施形態と本発明との対応関係について補足しておく。 Here, the correspondence relationship between the embodiment described above and the present invention will be supplemented.
本実施形態では、前記段差部存在検知部11の処理によって、本発明における段差部存在検知手段が実現される。この場合、段差部存在検知部11は、本発明における段差部種別判断手段としての機能を含んでおり、前記STEP4の処理によって、段差部種別判断手段が実現される。
In the present embodiment, the stepped portion presence detecting means in the present invention is realized by the processing of the stepped portion
また、前記平面投影領域抽出部12の処理によって、本発明における平面投影領域抽出手段が実現される。この場合、前記局所領域R2(i)(i=1,2,…,N2)が、本発明における平面投影領域抽出用局所領域に相当する。
Further, the plane projection area extraction means in the present invention is realized by the processing of the plane projection
また、前記エッジ投影線推定処理部13の処理によって、本発明における評価関数算出手段と推定エッジ投影線決定手段とが実現される。より詳しくは、前記STEP22〜34の処理及びSTEP37〜49の処理によって、評価関数算出手段が実現され、前記STEP35,36並びにSTEP50,51の処理によって、推定エッジ投影線決定手段が実現される。
Further, the evaluation function calculation means and the estimated edge projection line determination means in the present invention are realized by the processing of the edge projection line
この場合、射影変換対象領域R3u1,R3u2,R3u3が、それぞれ、本発明における第1のエッジ推定用射影変換対象領域、第2のエッジ推定用射影変換対象領域、第3のエッジ推定用射影変換対象領域に相当し、射影変換対象領域R3d1,R3d2が、それぞれ、本発明における第4のエッジ推定用射影変換対象領域、第5のエッジ推定用射影変換対象領域に相当する。また、前記平面パラメータベクトル↑mu1,↑mu2,↑mu3,↑md1,↑md2がそれぞれ、本発明における射影変換用平面パラメータに相当する。 In this case, the projective transformation target regions R3u1, R3u2, and R3u3 are respectively the first edge estimation projective transformation target region, the second edge estimation projective transformation target region, and the third edge estimation projective transformation target. The projection conversion target areas R3d1 and R3d2 correspond to the fourth edge estimation projection conversion target area and the fifth edge estimation projection conversion target area, respectively. The plane parameter vectors ↑ mu1, ↑ mu2, ↑ mu3, ↑ md1, and ↑ md2 correspond to the projective transformation plane parameters in the present invention.
また、前記段差部空間配置決定部14の処理によって、本発明における段差部空間配置決定手段が実現される。
Further, the stepped portion space arrangement determining means in the present invention is realized by the processing of the stepped portion space
次に、以上説明した実施形態の変形態様をいくつか説明しておく。 Next, some modifications of the embodiment described above will be described.
前記実施形態では、移動体として2脚の脚式移動ロボット1を例示したが、移動体は、3脚以上の脚を有するロボット、あるいは、車輪やクローラを備える移動体であってもよい。
In the embodiment, the two-legged
また、前記実施形態では、カメラ3R,3Lのうちのカメラ3Rを基準カメラ3として使用したが、カメラ3Lを基準カメラとして使用してもよい。
In the embodiment, the
また、前記実施形態では、カメラ3R,3Lの撮像領域に昇りの段差部が存在する場合に、候補位置v(k1)に依存する3つの射影変換対象領域R3u1,R3u2,R3u3をエッジ推定用領域R3uに設定するようにしたが、射影変換対象領域R3u1,R3u2の2つの射影変換対象領域だけをエッジ推定用領域R3uに設定(ひいては各演算処理領域R3min(k2)に設定)するようにしてもよい。
Further, in the above embodiment, when there are ascending steps in the imaging areas of the
また、前記実施形態では、各演算処理領域R3min(k2)における複数の候補位置は、全ての演算処理領域R3min(k2)について同じであるが、各演算処理領域R3min(k2)毎の候補位置を異ならせるようにしてもよい。 In the embodiment, the plurality of candidate positions in each calculation processing region R3min (k2) are the same for all the calculation processing regions R3min (k2). However, the candidate positions for each calculation processing region R3min (k2) are determined. You may make it differ.
また、前記実施形態では、平面投影領域抽出部12の処理において、複数の局所領域R2(i)(i=1,2,…,N2)の、基準画像の横方向での位置を同じとしたが、さらに、基準画像の横方向での複数の位置のそれぞれおいて、複数の局所領域R2(i)を縦方向に並べるように配置してもよい。
In the embodiment, in the processing of the planar projection
このようにした場合には、縦方向での平面部分の分布の変化を、基準画像の横方向の複数位置において、把握することができる。このため、カメラ3R,3Lの撮像領域に存在する段差部の各踏面が、基準画像の横方向に対して比較的大きく傾いているような場合に、その傾きを反映させて、段差部の各踏面等の平面部分に対応する平面投影領域を抽出することができる。従って、該平面部分の傾きに合せて、上端及び下端の辺が基準画像の横方向に対して傾斜したような形状の平面投影領域を抽出するようにすることができる。
In such a case, the change in the distribution of the planar portion in the vertical direction can be grasped at a plurality of positions in the horizontal direction of the reference image. For this reason, when each tread of the stepped portion existing in the imaging area of the
1…脚式移動ロボット(移動体)、3R,3L…カメラ(ステレオカメラ)、4…投光器、11…段差部存在検知部(段差部存在検知手段、段差部種別判断手段)、12…平面投影領域抽出部(平面投影領域抽出手段)、13…エッジ投影線推定処理部(評価関数算出手段、推定エッジ投影線決定手段)、14…段差部空間配置決定部(段差部空間配置決定手段)、STEP4…段差部種別判断手段、STEP22〜34,STEP37〜49…評価関数算出手段、STEP35,36,50,51…推定エッジ投影線決定手段、50…階段(段差部)、51…踏面、52…先端側エッジ。
DESCRIPTION OF
Claims (8)
前記段差部が前記ステレオカメラにより撮像されている状態において、前記基準画像から、該段差部の上段側踏面及び下段側踏面にそれぞれ対応する2つの平面部分を少なくとも含む互いに異なる平面部分がそれぞれ投影された領域である複数の平面投影領域を抽出すると共に、各平面投影領域に対応する平面部分を包含する平面の空間的な位置及び姿勢を表す平面パラメータを決定する平面投影領域抽出手段と、
前記段差部の上段側踏面の先端側エッジを前記基準画像に投影してなる実エッジ投影線をそれぞれ含み、且つ、前記基準画像の縦方向に細長い形状を有して該基準画像の横方向に並列する複数条の演算処理領域を該基準画像に設定すると共に、該複数条の演算処理領域のそれぞれにおける前記基準画像の縦方向での前記実エッジ投影線の複数の候補位置を設定し、各演算処理領域毎に、各候補位置の実エッジ投影線の位置に対する適合度を表す評価関数の値を、前記基準画像及び参照画像と、前記決定された平面パラメータとを用いて算出する評価関数算出手段と、
前記実エッジ投影線を推定してなる線である推定エッジ投影線を、前記複数条の演算処理領域のそれぞれにおける該推定エッジ投影線の位置の適合度を合成してなる合成適合度が最も高くなるように、前記算出された評価関数に基づいて決定する推定エッジ投影線決定手段と、
該段差部の空間的な配置位置を認識するためのデータとして、少なくとも前記段差部の上段側踏面の先端側エッジの空間的な位置及び方向を表すデータを前記決定された推定エッジ投影線と前記決定された平面パラメータとに基づいて決定する段差部空間配置決定手段とを備え、
前記評価関数算出手段は、前記各演算処理領域毎に、各候補位置の実エッジ投影線の位置に対する適合度を表す評価関数の値を算出するために、各演算処理領域内に各候補位置を境界として隣接する2つの射影変換対象領域を少なくとも含む複数のエッジ推定用射影変換対象領域を各候補位置に応じて設定する処理と、各エッジ推定用射影変換対象領域に対応する射影変換用平面パラメータを前記平面投影領域抽出手段により決定された平面パラメータに応じて設定する処理と、各演算処理領域及び各候補位置の組毎に、各エッジ推定用射影変換対象領域の画像の画素値分布と、該エッジ推定用射影変換対象領域に対応する前記参照画像中の領域の画像を該エッジ推定用射影変換対象領域に対応する射影変換用平面パラメータに応じて射影変換した場合に得られる射影変換画像の画素値分布との誤差を表す誤差関数の値を算出する処理と、各演算処理領域及び各候補位置の組毎に、各演算処理領域内に設定した複数のエッジ推定用射影変換対象領域のそれぞれに対応して算出した前記誤差関数の値を線形結合してなる値を、前記評価関数の値として算出する処理とを実行することを特徴とする段差部認識装置。 It exists in the moving environment of a moving body equipped with a stereo camera, and the stereo camera acquires the spatial arrangement position of the stepped part that has one or more pairs of the lower tread and the upper tread above it A step difference recognition device that recognizes using a standard image and a reference image constituting a stereo image,
In a state where the stepped portion is imaged by the stereo camera, different plane portions including at least two plane portions respectively corresponding to the upper step surface and the lower step surface of the step portion are projected from the reference image. A plane projection area extracting means for extracting a plurality of plane projection areas, which are areas, and determining plane parameters representing a spatial position and orientation of a plane including a plane portion corresponding to each plane projection area;
Each of which includes an actual edge projection line formed by projecting the leading edge of the upper tread surface of the stepped portion onto the reference image, and has a shape that is elongated in the vertical direction of the reference image in the horizontal direction of the reference image. A plurality of parallel arithmetic processing areas are set in the reference image, and a plurality of candidate positions of the actual edge projection line in the vertical direction of the reference image in each of the multiple arithmetic processing areas are set, Evaluation function calculation that calculates the value of the evaluation function representing the degree of suitability of each candidate position with respect to the position of the actual edge projection line for each arithmetic processing region using the reference image and the reference image and the determined plane parameter Means,
The combined adaptability obtained by combining the estimated edge projection line, which is a line obtained by estimating the actual edge projected line, with the adaptability of the position of the estimated edge projected line in each of the plurality of arithmetic processing regions is the highest. An estimated edge projection line determination means for determining based on the calculated evaluation function,
As data for recognizing the spatial arrangement position of the stepped portion, at least data representing the spatial position and direction of the tip side edge of the upper tread of the stepped portion is used as the determined estimated edge projection line and the A stepped portion space arrangement determining means for determining based on the determined plane parameter;
The evaluation function calculating means calculates each candidate position in each calculation processing area in order to calculate a value of an evaluation function representing the degree of suitability of each candidate position with respect to the position of the actual edge projection line for each calculation processing area. A process for setting a plurality of projection conversion target areas for edge estimation including at least two projection conversion target areas adjacent as boundaries according to each candidate position, and a plane parameter for projection conversion corresponding to each projection conversion target area for edge estimation Processing according to the plane parameters determined by the plane projection area extraction means, and for each set of calculation processing areas and each candidate position, pixel value distribution of the image of each edge estimation projective transformation target area, The image of the region in the reference image corresponding to the projection conversion target region for edge estimation is changed in accordance with the plane parameter for projection conversion corresponding to the projection conversion target region for edge estimation. A process of calculating an error function value representing an error from the pixel value distribution of the projective transformation image obtained in the case, and a plurality of sets set in each calculation processing area for each set of each calculation processing area and each candidate position Stepped portion recognition characterized by executing a process of calculating a value obtained by linearly combining the error function values calculated corresponding to each of the projection conversion target areas for edge estimation as the value of the evaluation function apparatus.
前記平面投影領域抽出手段は、前記基準画像における位置が互いに相違する複数の平面投影領域抽出用局所領域を該基準画像に設定する処理と、各平面投影領域抽出用局所領域の画像と該平面投影領域抽出用局所領域に対応する前記参照画像中の領域の画像との間の射影変換を規定する平面パラメータである平面投影領域抽出用平面パラメータを、該平面投影領域抽出用局所領域の画像の画素値分布と、該平面投影領域抽出用局所領域に対応する前記参照画像中の領域の画像を該平面投影領域抽出用平面パラメータに応じて射影変換した場合に得られる画像の画素値分布との誤差を最小化するように決定する処理とを実行し、各平面投影領域に含まれる前記平面投影領域抽出用局所領域のそれぞれに対応する平面投影領域抽出用平面パラメータにより規定される平面が互いに一致するように前記基準画像から各平面投影領域を抽出することを特徴とする段差部認識装置。 The step difference recognition apparatus according to claim 1,
The plane projection area extracting means sets a plurality of plane projection area extraction local areas whose positions in the reference image are different from each other to the reference image, and images of the plane projection area extraction local areas and the plane projection A plane parameter for plane projection area extraction, which is a plane parameter that defines projective transformation with the image of the area in the reference image corresponding to the local area for area extraction, is a pixel of the image of the local area for plane projection area extraction. An error between the value distribution and the pixel value distribution of the image obtained when projective transformation is performed on the image of the area in the reference image corresponding to the local area for plane projection area extraction according to the plane parameter for plane projection area extraction The plane parameter for plane projection area extraction corresponding to each of the local areas for plane projection area extraction included in each plane projection area. It stepped portions recognition apparatus characterized by plane defined to extract the planar projection area from the reference image so as to match one another by.
前記評価関数算出手段が各演算処理領域に設定する複数の候補位置は、全ての演算処理領域について共通のN3a個(N3a:2以上の整数)の候補位置であり、前記評価関数算出手段は、第k1番目(k1:1からN3aまでの整数のうちの任意の1つの整数)の候補位置と各演算処理領域とに対応する前記誤差関数の値を算出するために、前記射影変換用平面パラメータが互いに同一となる各演算処理領域のエッジ推定用射影変換対象領域を合成してなる合成射影変換対象領域における画像と、該合成射影変換対象領域に対応する前記参照画像中の領域の画像を該合成射影変換対象領域に対応する射影変換用平面パラメータに応じて射影変換した場合に得られる画像との誤差画像を求める処理を実行し、その誤差画像を用いて、第k1番目の候補位置と各演算処理領域とに対応する前記誤差関数の値を算出することを特徴とする段差部認識装置。 In the step recognition apparatus according to claim 1 or 2,
The plurality of candidate positions set in each calculation processing area by the evaluation function calculation means are N3a (N3a: integer greater than or equal to 2) candidate positions common to all calculation processing areas, and the evaluation function calculation means includes: In order to calculate the value of the error function corresponding to the k1th candidate position (any one of the integers from k1: 1 to N3a) and each calculation processing area, the projection transformation plane parameter Images in the combined projective transformation target region obtained by synthesizing the projection conversion target regions for edge estimation of the calculation processing regions that are identical to each other, and an image of the region in the reference image corresponding to the composite projected transform target region A process for obtaining an error image with an image obtained by performing projective transformation according to the projective transformation plane parameter corresponding to the composite projective transformation target region is executed, and the k1th candidate position is obtained using the error image. Calculating the value of the error function corresponding to the respective processing area stepped portion recognition apparatus according to claim.
前記ステレオカメラの撮像領域に段差部が存在しているか否かを検知する段差部存在検知手段をさらに備えており、
前記平面投影領域抽出手段、評価関数算出手段及び段差部配置決定手段の処理は、前記段差部存在検知手段によって前記ステレオカメラの撮像領域に段差部が存在していることが検知されることを必要条件として実行される処理であり、
前記段差部存在検知手段は、前記ステレオカメラの撮像領域に段差部が存在しているか否かを検知するための段差部存在検知用領域を前記基準画像に設定する処理と、該段差部存在検知用領域の画像と該段差部存在検知用領域に対応する前記参照画像中の領域の画像との間の射影変換を規定する平面パラメータである段差部存在検知用平面パラメータを、前記段差部存在検知用領域の画像の画素値分布と該段差部存在検知用領域に対応する領域の画像を該段差部存在検知用平面パラメータに応じて射影変換した場合に得られる画像の画素値分布との誤差を最小化するように決定する処理とを実行し、決定した該段差部存在検知用平面パラメータにより示される平面の法線方向の向きに基づいて前記ステレオカメラの撮像領域に段差部が存在しているか否かを検知することを特徴とする段差部認識装置。 In the level difference part recognition device according to any one of claims 1 to 3,
It further comprises a stepped portion presence detecting means for detecting whether or not a stepped portion is present in the imaging area of the stereo camera,
The processing of the planar projection area extraction means, the evaluation function calculation means, and the step portion arrangement determination means needs to detect that a step portion is present in the imaging area of the stereo camera by the step portion presence detection means. It is a process executed as a condition,
The stepped portion presence detection means sets a stepped portion presence detection area for detecting whether or not a stepped portion is present in the imaging area of the stereo camera to the reference image, and the stepped portion presence detection A step portion presence detection plane parameter, which is a plane parameter that defines projective transformation between the image of the target region and the image of the region in the reference image corresponding to the step portion presence detection region. An error between the pixel value distribution of the image of the image area and the pixel value distribution of the image obtained when projective transforming the image of the area corresponding to the area for detecting the presence of the stepped portion according to the planar parameter for detecting the presence of the stepped portion A step portion is present in the imaging region of the stereo camera based on the direction of the normal direction of the plane indicated by the determined step portion presence detection plane parameter. Stepped portions recognition device and detecting whether dolphin not.
前記段差部が前記ステレオカメラにより撮像されている状態において、該段差部が昇りの段差部であるか、降りの段差部であるかを判断する段差部種別判断手段をさらに備えており、
前記評価関数算出手段は、
前記段差部種別判断手段によって前記段差部が昇り段差部であると判断された場合には、前記基準画像に前記複数条の演算処理領域を設定する処理において、各演算処理領域の上端が該段差部の上段側踏面に対応する前記平面投影領域に位置し、且つ、各演算処理領域の下端が該段差部の下段側踏面に対応する前記平面投影領域に位置するように前記複数条の演算処理領域を設定し、前記各演算処理領域内に前記複数のエッジ推定用射影変換対象領域を設定する処理において、各候補位置を境界として隣接する第1及び第2のエッジ推定用射影変換対象領域を該演算処理領域の上部側に設定すると共に、該第1及び第2のエッジ推定用射影変換対象領域のうちの下側の領域である第2のエッジ推定用射影変換対象領域との間に該候補位置に応じた間隔を有する第3のエッジ推定用射影変換対象領域を該演算処理領域の下部側に設定し、
前記段差部種別判断手段によって前記段差部が降り段差部であると判断された場合には、前記基準画像に前記複数条の演算処理領域を設定する処理において、各演算処理領域の上端が下段側踏面に対応する前記平面投影領域に位置し、且つ、各演算処理領域の下端が上段側踏面に対応する前記平面投影領域に位置するように前記複数条の演算処理領域を設定し、前記各演算処理領域内に前記複数のエッジ推定用射影変換対象領域を設定する処理において、各候補位置を境界として隣接する第4及び第5のエッジ推定用射影変換対象領域を該演算処理領域内に設定することを特徴とする段差部認識装置。 In the level | step difference recognition apparatus of any one of Claims 1-4,
In the state where the stepped portion is imaged by the stereo camera, further comprising a stepped portion type determining means for determining whether the stepped portion is an ascending stepped portion or a descending stepped portion,
The evaluation function calculating means includes
When the stepped portion type determining means determines that the stepped portion is an ascending stepped portion, in the process of setting the plurality of calculation processing regions in the reference image, the upper end of each calculation processing region is the stepped portion. The plurality of lines of arithmetic processing are positioned in the planar projection area corresponding to the upper stage tread of the section and the lower end of each computation processing area is positioned in the plane projection area corresponding to the lower stage tread of the step In the process of setting a region and setting the plurality of edge estimation projection transformation target regions in each of the calculation processing regions, the first and second edge estimation projection transformation target regions adjacent to each other with the candidate positions as boundaries Set on the upper side of the arithmetic processing region, and between the first and second edge estimation projective transformation target regions, the second edge estimation projective transformation target region is the lower region. Depending on the candidate position The third projective transformation target area for edge estimation with interval set on the lower side of the processing area,
When the stepped portion type determining means determines that the stepped portion is a descending stepped portion, in the processing for setting the plurality of calculation processing regions in the reference image, the upper end of each calculation processing region is on the lower side. The plurality of calculation processing areas are set so that the lower end of each calculation processing area is located in the planar projection area corresponding to the tread, and the lower end of each calculation processing area is positioned in the flat projection area corresponding to the upper tread. In the process of setting the plurality of edge estimation projective transformation target regions in the processing region, the fourth and fifth edge estimation projective transformation target regions adjacent to each other at the candidate positions are set in the calculation processing region. The step part recognition apparatus characterized by the above-mentioned.
前記評価関数算出手段は、前記段差部種別判断手段によって前記段差部が昇りの段差部であると判断された場合に、各エッジ推定用射影変換対象領域に対応するエッジ推定用平面パラメータを設定する処理において、前記第1のエッジ推定用射影変換対象領域と前記第3のエッジ推定用射影変換対象領域とのそれぞれに対応する射影変換用平面パラメータとして、それぞれ、前記段差部の上段側踏面に対応する前記平面投影領域に関して決定された前記平面パラメータと、前記段差部の下段側踏面に対応する前記平面投影領域に関して決定された前記平面パラメータとを設定し、前記第2のエッジ推定用射影変換対象領域に対応する射影変換用平面パラメータとして、第1のエッジ推定用射影変換対象領域に対応する射影変換用平面パラメータにより規定される平面に対してあらかじめ定めた角度で交差する平面の位置及び姿勢を表す平面パラメータを設定することを特徴とする段差部認識装置。 In the level | step-difference part recognition apparatus of Claim 5,
The evaluation function calculating means sets edge estimation plane parameters corresponding to each edge estimation projective transformation target area when the step difference type determining means determines that the step difference is an ascending step difference. In the processing, the projection conversion plane parameter corresponding to each of the first edge estimation projection conversion target area and the third edge estimation projection conversion target area respectively corresponds to the upper tread of the stepped portion. The plane parameter determined for the plane projection area to be set and the plane parameter determined for the plane projection area corresponding to the lower tread of the stepped portion are set, and the second edge estimation projective transformation target As the projection conversion plane parameter corresponding to the region, the projection conversion plane parameter corresponding to the first edge estimation projection conversion target region is used. Stepped portions recognition apparatus characterized by setting the plane parameters representing the position and orientation of the planes that intersect at predetermined angles relative to a plane defined by.
前記段差部空間配置決定手段は、前記段差部の上段側踏面の先端側エッジを、該上段側踏面に対応する前記平面パラメータにより規定される平面に対してあらかじめ定めた角度で交差する方向で該段差部の下段側踏面に対応する前記平面パラメータにより規定される平面に投影した線を、該下段側踏面の基端側の境界線として決定する手段を含むことを特徴とする段差部認識装置。 In the level difference recognition apparatus according to any one of claims 1 to 6,
The stepped portion space arrangement determining means is configured such that the tip side edge of the upper stepped tread of the stepped portion intersects the plane defined by the plane parameter corresponding to the upper stepped tread at a predetermined angle. A step recognition unit comprising: means for determining a line projected on a plane defined by the plane parameter corresponding to the lower step surface of the step portion as a boundary line on the base end side of the lower step surface.
前記移動体には、前記ステレオカメラのよる撮像時に該ステレオカメラの撮像領域にテクスチャを付与する投光器が搭載されていることを特徴とする段差部認識装置。 In the level | step difference recognition apparatus of any one of Claims 1-7,
The step recognition apparatus, wherein the moving body is equipped with a projector that gives a texture to an imaging region of the stereo camera during imaging by the stereo camera.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011213384A JP5623362B2 (en) | 2011-09-28 | 2011-09-28 | Step recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011213384A JP5623362B2 (en) | 2011-09-28 | 2011-09-28 | Step recognition device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013072813A true JP2013072813A (en) | 2013-04-22 |
JP5623362B2 JP5623362B2 (en) | 2014-11-12 |
Family
ID=48477418
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011213384A Expired - Fee Related JP5623362B2 (en) | 2011-09-28 | 2011-09-28 | Step recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5623362B2 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015080832A (en) * | 2013-10-22 | 2015-04-27 | 本田技研工業株式会社 | Control system for leg type mobile robot |
CN105513064A (en) * | 2015-12-03 | 2016-04-20 | 浙江万里学院 | Image segmentation and adaptive weighting-based stereo matching method |
WO2018066027A1 (en) * | 2016-10-03 | 2018-04-12 | オリンパス株式会社 | Image processing device, image capture system, image processing method, and image processing program |
CN108230320A (en) * | 2018-01-18 | 2018-06-29 | 上海爱优威软件开发有限公司 | Number of staircases statistical method and system |
WO2018151160A1 (en) * | 2017-02-15 | 2018-08-23 | オリンパス株式会社 | Method for specifying reinforcement bar arrangement angle, system for specifying reinforcement bar arrangement angle, and program for specifying reinforcement bar arrangement angle |
KR20190002900A (en) * | 2017-06-30 | 2019-01-09 | 현대자동차주식회사 | Walking control system of robot and method controlling the same |
US11123869B2 (en) | 2019-04-12 | 2021-09-21 | Boston Dynamics, Inc. | Robotically negotiating stairs |
CN115388777A (en) * | 2022-10-28 | 2022-11-25 | 成都睿芯行科技有限公司 | Method for testing precision of repeated position of mobile robot |
US11599128B2 (en) | 2020-04-22 | 2023-03-07 | Boston Dynamics, Inc. | Perception and fitting for a stair tracker |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05223549A (en) * | 1992-02-10 | 1993-08-31 | Honda Motor Co Ltd | Recognizing method of step or the like of moving body |
JP2000153476A (en) * | 1998-09-14 | 2000-06-06 | Honda Motor Co Ltd | Leg type movable robot |
JP2001266123A (en) * | 2000-03-22 | 2001-09-28 | Honda Motor Co Ltd | Picture processor, peculiar part detecting method and recording medium recording peculiar part detection program |
JP2004117078A (en) * | 2002-09-25 | 2004-04-15 | Toshiba Corp | Obstacle detection device and method |
JP2005182826A (en) * | 2003-12-23 | 2005-07-07 | Honda Motor Co Ltd | Polyhedron recognition device |
JP2006053890A (en) * | 2004-07-13 | 2006-02-23 | Toshiba Corp | Obstacle detection apparatus and method therefor |
JPWO2005087452A1 (en) * | 2004-03-17 | 2008-01-24 | ソニー株式会社 | Robot device, stair ascending / descending method, and moving device |
JP2008224380A (en) * | 2007-03-12 | 2008-09-25 | Univ Of Electro-Communications | Device and method for recognizing movement environment |
JP2008250516A (en) * | 2007-03-29 | 2008-10-16 | Honda Motor Co Ltd | Projective transformation convergence calculation method |
-
2011
- 2011-09-28 JP JP2011213384A patent/JP5623362B2/en not_active Expired - Fee Related
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05223549A (en) * | 1992-02-10 | 1993-08-31 | Honda Motor Co Ltd | Recognizing method of step or the like of moving body |
JP2000153476A (en) * | 1998-09-14 | 2000-06-06 | Honda Motor Co Ltd | Leg type movable robot |
JP2001266123A (en) * | 2000-03-22 | 2001-09-28 | Honda Motor Co Ltd | Picture processor, peculiar part detecting method and recording medium recording peculiar part detection program |
JP2004117078A (en) * | 2002-09-25 | 2004-04-15 | Toshiba Corp | Obstacle detection device and method |
JP2005182826A (en) * | 2003-12-23 | 2005-07-07 | Honda Motor Co Ltd | Polyhedron recognition device |
JPWO2005087452A1 (en) * | 2004-03-17 | 2008-01-24 | ソニー株式会社 | Robot device, stair ascending / descending method, and moving device |
JP2006053890A (en) * | 2004-07-13 | 2006-02-23 | Toshiba Corp | Obstacle detection apparatus and method therefor |
JP2008224380A (en) * | 2007-03-12 | 2008-09-25 | Univ Of Electro-Communications | Device and method for recognizing movement environment |
JP2008250516A (en) * | 2007-03-29 | 2008-10-16 | Honda Motor Co Ltd | Projective transformation convergence calculation method |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015080832A (en) * | 2013-10-22 | 2015-04-27 | 本田技研工業株式会社 | Control system for leg type mobile robot |
CN105513064A (en) * | 2015-12-03 | 2016-04-20 | 浙江万里学院 | Image segmentation and adaptive weighting-based stereo matching method |
JPWO2018066027A1 (en) * | 2016-10-03 | 2019-07-18 | オリンパス株式会社 | Image processing apparatus, imaging system, image processing method and image processing program |
WO2018066027A1 (en) * | 2016-10-03 | 2018-04-12 | オリンパス株式会社 | Image processing device, image capture system, image processing method, and image processing program |
US10715723B2 (en) | 2016-10-03 | 2020-07-14 | Olympus Corporation | Image processing apparatus, image acquisition system, image processing method, and image processing program |
WO2018151160A1 (en) * | 2017-02-15 | 2018-08-23 | オリンパス株式会社 | Method for specifying reinforcement bar arrangement angle, system for specifying reinforcement bar arrangement angle, and program for specifying reinforcement bar arrangement angle |
KR102324773B1 (en) * | 2017-06-30 | 2021-11-10 | 현대자동차주식회사 | Walking control system of robot and method controlling the same |
KR20190002900A (en) * | 2017-06-30 | 2019-01-09 | 현대자동차주식회사 | Walking control system of robot and method controlling the same |
CN108230320A (en) * | 2018-01-18 | 2018-06-29 | 上海爱优威软件开发有限公司 | Number of staircases statistical method and system |
US11123869B2 (en) | 2019-04-12 | 2021-09-21 | Boston Dynamics, Inc. | Robotically negotiating stairs |
US11548151B2 (en) | 2019-04-12 | 2023-01-10 | Boston Dynamics, Inc. | Robotically negotiating stairs |
US11660752B2 (en) | 2019-04-12 | 2023-05-30 | Boston Dynamics, Inc. | Perception and fitting for a stair tracker |
US11599128B2 (en) | 2020-04-22 | 2023-03-07 | Boston Dynamics, Inc. | Perception and fitting for a stair tracker |
CN115388777A (en) * | 2022-10-28 | 2022-11-25 | 成都睿芯行科技有限公司 | Method for testing precision of repeated position of mobile robot |
Also Published As
Publication number | Publication date |
---|---|
JP5623362B2 (en) | 2014-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5623362B2 (en) | Step recognition device | |
JP5588812B2 (en) | Image processing apparatus and imaging apparatus using the same | |
KR101776622B1 (en) | Apparatus for recognizing location mobile robot using edge based refinement and method thereof | |
JP4573977B2 (en) | Distance correction device for monitoring system and vanishing point correction device for monitoring system | |
JP4803927B2 (en) | Distance correction apparatus and distance correction method for monitoring system | |
EP1975046B1 (en) | Legged locomotion robot | |
JP5804185B2 (en) | Moving object position / orientation estimation apparatus and moving object position / orientation estimation method | |
JP2009041972A (en) | Image processing device and method therefor | |
JP5796947B2 (en) | Autonomous traveling control device and autonomous traveling vehicle equipped with the same | |
WO2015024407A1 (en) | Power robot based binocular vision navigation system and method based on | |
JP4032843B2 (en) | Monitoring system and monitoring method, distance correction device and distance correction method in the monitoring system | |
KR20130064167A (en) | Image generating method for around view of vehicl using improved polygon matching | |
KR101379787B1 (en) | An apparatus and a method for calibration of camera and laser range finder using a structure with a triangular hole | |
US20130021449A1 (en) | Three-dimensional measuring method | |
KR20100128919A (en) | System and method for automatic measuring of the stair dimensions using a single camera and a laser | |
US8675047B2 (en) | Detection device of planar area and stereo camera system | |
JP2003281552A (en) | Image processor and method | |
JP2013257244A (en) | Distance measurement device, distance measurement method, and distance measurement program | |
US10339394B2 (en) | Step detection device and step detection method | |
JPWO2008032376A1 (en) | Distance measuring apparatus and method, and computer program | |
JP5533323B2 (en) | Movement amount estimation apparatus and movement amount estimation method | |
CN112884845A (en) | Indoor robot obstacle positioning method based on single camera | |
JP2004069437A (en) | Test chart, and device and method for inspecting stereoscopic camera for positional deviation | |
Jordan et al. | Kinematic model based visual odometry for differential drive vehicles | |
JP4876676B2 (en) | POSITION MEASURING DEVICE, METHOD, AND PROGRAM, AND MOVEMENT DETECTION DETECTING DEVICE, METHOD, AND PROGRAM |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140415 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140416 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140612 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140902 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140924 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5623362 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |