JP2013072813A - Level difference part recognition device - Google Patents

Level difference part recognition device Download PDF

Info

Publication number
JP2013072813A
JP2013072813A JP2011213384A JP2011213384A JP2013072813A JP 2013072813 A JP2013072813 A JP 2013072813A JP 2011213384 A JP2011213384 A JP 2011213384A JP 2011213384 A JP2011213384 A JP 2011213384A JP 2013072813 A JP2013072813 A JP 2013072813A
Authority
JP
Japan
Prior art keywords
plane
projection
edge
area
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011213384A
Other languages
Japanese (ja)
Other versions
JP5623362B2 (en
Inventor
Itoshi Naramura
五十志 奈良村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2011213384A priority Critical patent/JP5623362B2/en
Publication of JP2013072813A publication Critical patent/JP2013072813A/en
Application granted granted Critical
Publication of JP5623362B2 publication Critical patent/JP5623362B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a device capable of accurately recognizing an arrangement position for a level difference part such as a stair including a spatial position and a direction of a front side edge of a tread of the level difference part by utilizing stereo images acquired by a stereo camera.SOLUTION: A plurality of lines of arithmetic processing areas R3 min(k2) are set to a reference image of cameras 3R and 3L, a plurality of candidate positions v(k1) of an actual edge projection line L52r in each of the plurality of lines of arithmetic processing areas R3 min(k2) are set, and in each arithmetic processing area, a value of an evaluation function indicating the adaptation to a position of the actual edge projection line (a projection line of the front side edge of the level difference part) of each candidate position is calculated utilizing projective transformation. An estimated edge projection line obtained by estimating the actual edge projection line is determined such that composite adaptation obtained by compositing the adaptations of the positions of the estimated edge projection lines in each of the plurality of lines of arithmetic processing areas R3 min(k2) becomes the highest. On the basis of the estimated edge projection line and a plane parameter of the tread of the level difference part, the spatial arrangement of the level difference part is recognized.

Description

本発明は、移動体の移動環境に存在する階段等の段差部の空間的な配置位置を、移動体に搭載されたステレオカメラによって取得されるステレオ画像を用いて認識する装置に関する。   The present invention relates to an apparatus for recognizing a spatial arrangement position of a stepped portion such as a stair existing in a moving environment of a moving body using a stereo image acquired by a stereo camera mounted on the moving body.

従来、例えば自律的に移動可能なロボットに階段の昇降動作を行なわせる場合に、該ロボットに階段を認識させる技術として、例えば特許文献1に見られる技術が提案されている。   Conventionally, for example, when a robot that can move autonomously moves up and down stairs, a technique found in, for example, Patent Document 1 has been proposed as a technique for causing the robot to recognize the stairs.

この技術では、ロボットに搭載したステレオビジョンシステムによってロボットの外界の距離データを取得し、この距離データを基に、階段の踏面に相当する平面部を検出する。そして、検出した平面部を包含する多角形をSklanskyのアルゴリズムや、Melkmanのアルゴリズムによって求め、その求めた多角形から、階段のフロントエッジ、バックエッジ、幅、長さを特定する。   In this technology, distance data of the outside world of the robot is acquired by a stereo vision system mounted on the robot, and a plane portion corresponding to the tread surface of the stairs is detected based on the distance data. Then, a polygon including the detected plane portion is obtained by Sklansky's algorithm or Melkman's algorithm, and the front edge, back edge, width, and length of the stairs are specified from the obtained polygon.

国際公開公報WO2005/087452International Publication No. WO2005 / 087452

ところで、2足移動ロボット等の脚式移動ロボットに階段等の段差部の昇降動作を行なわせる場合、ロボットの脚の足平部を、段差部の踏面の先端側エッジ(特許文献1で言うところのフロントエッジ)に載せて、該足平部の一部を段差部の踏面からはみ出させることが必要もしくは好ましい場合がある。   By the way, when a legged mobile robot such as a two-legged mobile robot performs a raising / lowering operation of a stepped portion such as a staircase, the foot portion of the leg of the robot is set to the tip side edge of the stepped surface of the stepped portion (referred to in Patent Document 1). It may be necessary or preferable to place a part of the foot part over the step surface of the step part.

例えば、階段の踏面の奥行き寸法が、ロボットの足平部の大きさに比して狭い場合には、該足平部の全体を踏面に載せることが不可能な場合がある。あるいは、ロボットの足平部の全体を踏面に載せることが可能であっても、該足平部を振り出すときに、該足平部が階段の蹴り込み等と干渉するのを避けるために、ロボットの足平部の一部を踏面からはみ出させることが好ましい場合もある。   For example, if the depth dimension of the tread surface of a staircase is narrower than the size of the foot portion of the robot, it may not be possible to place the entire foot portion on the tread surface. Alternatively, even if it is possible to place the entire foot portion of the robot on the tread surface, in order to avoid the foot portion from interfering with the kicking of the stairs and the like when swinging out the foot portion, In some cases, it is preferable that a part of the foot of the robot protrudes from the tread.

そして、このような場合には、ロボットの足平部の目標とする着地位置を適切に決定するために、階段等の段差部の先端側エッジの位置及びその方向を精度よく認識する必要がある。   In such a case, in order to appropriately determine the target landing position of the foot portion of the robot, it is necessary to accurately recognize the position and direction of the leading edge of the stepped portion such as the staircase. .

しかるに、前記特許文献1に見られる如き従来の手法では、階段などの段差部の踏面の先端側エッジを検出することができない場合が多々ある。   However, in the conventional technique as seen in Patent Document 1, the leading edge of the tread surface of a stepped portion such as a staircase cannot often be detected.

すなわち、ステレオビジョンシステムによって得られるステレオ画像から認識される距離データは、撮像画像のテクスチャ等の影響を受けやすいので、段差部の踏面の先端側エッジ付近での信頼性の高い距離データを得ることができない場合も多々ある。そして、このような場合には、段差部の踏面の先端側エッジ付近は、平面部分として認識できないか、もしくは、平面部分から除外されることとなる。その結果、前記多角形は、段差部の踏面の先端側エッジと異なる境界の形状を有するものとなり、該多角形から認識されるフロントエッジは、段差部の踏面の実際の先端側エッジとの誤差が大きなものとなりやすい。   That is, the distance data recognized from the stereo image obtained by the stereo vision system is easily affected by the texture of the captured image, etc., so that reliable distance data near the front edge of the tread of the stepped portion is obtained. There are many cases where this is not possible. In such a case, the vicinity of the tip side edge of the stepped surface of the stepped portion cannot be recognized as a plane portion or is excluded from the plane portion. As a result, the polygon has a different boundary shape from the leading edge of the stepped tread surface, and the front edge recognized from the polygon is an error from the actual leading edge of the stepped tread. Tends to be big.

従って、前記特許文献1に見られる如き従来の手法では、階段などの段差部の踏面の先端側エッジを検出することができない場合が多々ある。   Therefore, the conventional technique as seen in Patent Document 1 often cannot detect the leading edge of the tread surface of a stepped portion such as a staircase.

本発明は、かかる背景に鑑みてなされたものであり、ステレオカメラにより取得されるステレオ画像を利用して、階段等の段差部の踏面の先端側エッジの空間的な位置及び方向を含む該段差部の配置位置を精度良く認識することができる装置を提供することを目的とする。   The present invention has been made in view of such a background, and uses a stereo image acquired by a stereo camera, the step including the spatial position and direction of the tip side edge of the step surface of a step such as a staircase. It is an object of the present invention to provide an apparatus that can accurately recognize the position of a part.

ここで、本発明における用語について補足しておく。本発明においては、「段差部」は、下段側踏面とその一段上側の上段側踏面との組を一組以上(一組又は複数組)有するものである。この場合、「段差部」の各「踏面」は、ある仮想的な平面(無限平面)に包含される平坦な面とみなすことができるような面であるとする。そして、本発明における「段差部」は、その一形態として階段を含むものであるが、階段だけを意味するものではない。例えば、床面に設置される踏み台もしくは任意の設置物により構成される段差部も含まれる。   Here, the terms in the present invention will be supplemented. In the present invention, the “step portion” has one or more sets (one set or a plurality of sets) of a lower step surface and an upper step surface one step above. In this case, each “tread surface” of the “step portion” is a surface that can be regarded as a flat surface included in a certain virtual plane (infinite plane). The “step portion” in the present invention includes a staircase as one form thereof, but does not mean only a staircase. For example, the step part comprised by the step installed on a floor surface or arbitrary installation things is also contained.

また、段差部の上段側踏面の「先端側エッジ」というのは、段差部をその下段側踏面が手前側、上段側踏面が奥側となる視線で見た場合において、上段側踏面の外形の境界線のうち、手前側で横方向(水平方向もしくはそれに近い方向)に直線状に延在する境界線を意味する。   In addition, the `` tip edge '' of the upper step surface of the step portion means that the outer shape of the upper step surface is viewed when the step portion is viewed from the line of sight where the lower step surface is the front side and the upper step surface is the back side. Among the boundary lines, it means a boundary line extending linearly in the lateral direction (horizontal direction or a direction close thereto) on the front side.

換言すれば、段差部の上段側踏面の「先端側エッジ」というのは、段差部をその上段側踏面が手前側、下段側踏面が奥側となる視線で見た場合において、上段側踏面の外形の境界線のうち、奥側で横方向に直線状に延在する境界線を意味する。   In other words, the “tip edge” of the upper step surface of the step portion means that when the step portion is viewed from the line of sight where the upper step surface is the front side and the lower step surface is the back side, It means a boundary line extending linearly in the lateral direction on the back side among the outer boundary lines.

以上を前提として、本発明を以下に説明する。   Based on the above, the present invention will be described below.

本発明の段差部認識装置は、上記の目的を達成するために、ステレオカメラを搭載した移動体の移動環境に存在しており、下段側踏面とその一段上側の上段側踏面との組を一組以上有する段差部の空間的な配置位置を、前記ステレオカメラにより取得されるステレオ画像を構成する基準画像及び参照画像を用いて認識する段差部認識装置であって、
前記段差部が前記ステレオカメラにより撮像されている状態において、前記基準画像から、該段差部の上段側踏面及び下段側踏面にそれぞれ対応する2つの平面部分を少なくとも含む互いに異なる平面部分がそれぞれ投影された領域である複数の平面投影領域を抽出すると共に、各平面投影領域に対応する平面部分を包含する平面の空間的な位置及び姿勢を表す平面パラメータを決定する平面投影領域抽出手段と、
前記段差部の上段側踏面の先端側エッジを前記基準画像に投影してなる実エッジ投影線をそれぞれ含み、且つ、前記基準画像の縦方向に細長い形状を有して該基準画像の横方向に並列する複数条の演算処理領域を該基準画像に設定すると共に、該複数条の演算処理領域のそれぞれにおける前記基準画像の縦方向での前記実エッジ投影線の複数の候補位置を設定し、各演算処理領域毎に、各候補位置の実エッジ投影線の位置に対する適合度を表す評価関数の値を、前記基準画像及び参照画像と、前記決定された平面パラメータとを用いて算出する評価関数算出手段と、
前記実エッジ投影線を推定してなる線である推定エッジ投影線を、前記複数条の演算処理領域のそれぞれにおける該推定エッジ投影線の位置の適合度を合成してなる合成適合度が最も高くなるように、前記算出された評価関数に基づいて決定する推定エッジ投影線決定手段と、
該段差部の空間的な配置位置を認識するためのデータとして、少なくとも前記段差部の上段側踏面の先端側エッジの空間的な位置及び方向を表すデータを前記決定された推定エッジ投影線と前記決定された平面パラメータとに基づいて決定する段差部空間配置決定手段とを備え、
前記評価関数算出手段は、前記各演算処理領域毎に、各候補位置の実エッジ投影線の位置に対する適合度を表す評価関数の値を算出するために、各演算処理領域内に各候補位置を境界として隣接する2つの射影変換対象領域を少なくとも含む複数のエッジ推定用射影変換対象領域を各候補位置に応じて設定する処理と、各エッジ推定用射影変換対象領域に対応する射影変換用平面パラメータを前記平面投影領域抽出手段により決定された平面パラメータに応じて設定する処理と、各演算処理領域及び各候補位置の組毎に、各エッジ推定用射影変換対象領域の画像の画素値分布と、該エッジ推定用射影変換対象領域に対応する前記参照画像中の領域の画像を該エッジ推定用射影変換対象領域に対応する射影変換用平面パラメータに応じて射影変換した場合に得られる射影変換画像の画素値分布との誤差を表す誤差関数の値を算出する処理と、各演算処理領域及び各候補位置の組毎に、各演算処理領域内に設定した複数のエッジ推定用射影変換対象領域のそれぞれに対応して算出した前記誤差関数の値を線形結合してなる値を、前記評価関数の値として算出する処理とを実行することを特徴とする(第1発明)。
In order to achieve the above object, the step recognition apparatus of the present invention exists in the moving environment of a moving body equipped with a stereo camera, and one set of a lower step side tread and an upper step side tread that is one step above. A stepped portion recognition device for recognizing a spatial arrangement position of stepped portions having more than one set by using a standard image and a reference image constituting a stereo image acquired by the stereo camera,
In a state where the stepped portion is imaged by the stereo camera, different plane portions including at least two plane portions respectively corresponding to the upper step surface and the lower step surface of the step portion are projected from the reference image. A plane projection area extracting means for extracting a plurality of plane projection areas, which are areas, and determining plane parameters representing a spatial position and orientation of a plane including a plane portion corresponding to each plane projection area;
Each of which includes an actual edge projection line formed by projecting the leading edge of the upper tread surface of the stepped portion onto the reference image, and has a shape that is elongated in the vertical direction of the reference image in the horizontal direction of the reference image. A plurality of parallel arithmetic processing areas are set in the reference image, and a plurality of candidate positions of the actual edge projection line in the vertical direction of the reference image in each of the multiple arithmetic processing areas are set, Evaluation function calculation that calculates the value of the evaluation function representing the degree of suitability of each candidate position with respect to the position of the actual edge projection line for each arithmetic processing region using the reference image and the reference image and the determined plane parameter Means,
The combined adaptability obtained by combining the estimated edge projection line, which is a line obtained by estimating the actual edge projected line, with the adaptability of the position of the estimated edge projected line in each of the plurality of arithmetic processing regions is the highest. An estimated edge projection line determination means for determining based on the calculated evaluation function,
As data for recognizing the spatial arrangement position of the stepped portion, at least data representing the spatial position and direction of the tip side edge of the upper tread of the stepped portion is used as the determined estimated edge projection line and the A stepped portion space arrangement determining means for determining based on the determined plane parameter;
The evaluation function calculating means calculates each candidate position in each calculation processing area in order to calculate a value of an evaluation function representing the degree of suitability of each candidate position with respect to the position of the actual edge projection line for each calculation processing area. A process for setting a plurality of projection conversion target areas for edge estimation including at least two projection conversion target areas adjacent as boundaries according to each candidate position, and a plane parameter for projection conversion corresponding to each projection conversion target area for edge estimation Processing according to the plane parameters determined by the plane projection area extraction means, and for each set of calculation processing areas and each candidate position, pixel value distribution of the image of each edge estimation projective transformation target area, The image of the region in the reference image corresponding to the projection conversion target region for edge estimation is changed in accordance with the plane parameter for projection conversion corresponding to the projection conversion target region for edge estimation. A process of calculating an error function value representing an error from the pixel value distribution of the projective transformation image obtained in the case, and a plurality of sets set in each calculation processing area for each set of each calculation processing area and each candidate position A process of calculating, as a value of the evaluation function, a value obtained by linearly combining the error function values calculated corresponding to each of the projection conversion target regions for edge estimation (first) invention).

かかる第1発明によれば、前記段差部が前記ステレオカメラにより撮像されている状態において、前記平面投影領域抽出手段の処理が実行される。この処理では、前記基準画像から、該段差部の上段側踏面及び下段側踏面にそれぞれ対応する2つの平面部分を少なくとも含む複数の平面投影領域が抽出される。さらに、各平面投影領域に対応する平面部分を包含する平面の空間的な位置及び姿勢を表す平面パラメータが決定される。   According to the first aspect of the invention, the process of the planar projection area extraction unit is executed in a state where the step portion is imaged by the stereo camera. In this process, a plurality of planar projection areas including at least two planar portions respectively corresponding to the upper step surface and the lower step surface of the step portion are extracted from the reference image. Furthermore, plane parameters representing the spatial position and orientation of the plane including the plane portion corresponding to each plane projection area are determined.

補足すると、第1発明における平面投影領域抽出手段の処理は、平面投影領域の抽出とそれに対応する平面パラメータの決定とを行い得るものであれば、どのような手法を用いるものであってもよい。その手法は、公知の手法であってもよい。例えば、移動体に搭載したレーザ測距装置等の公知の測距装置を用いて、段差部の各部の距離(移動体からの距離)を測定し、その測定データを基に、平面投影領域の抽出とそれに対応する平面パラメータの決定とを行うようにしてもよい。   Supplementally, the processing of the planar projection area extracting means in the first invention may use any method as long as it can perform the extraction of the planar projection area and the determination of the plane parameters corresponding thereto. . The method may be a known method. For example, using a known distance measuring device such as a laser distance measuring device mounted on a moving body, the distance (distance from the moving body) of each stepped portion is measured, and based on the measurement data, the plane projection area You may make it perform extraction and determination of the plane parameter corresponding to it.

あるいは、後述する射影変換(平面射影変換)を利用した手法によって、平面投影領域の抽出とそれに対応する平面パラメータの決定とを行なうことも可能である。   Alternatively, it is also possible to extract a plane projection region and determine a plane parameter corresponding to it by a method using projection transformation (planar projection transformation) described later.

また、平面投影領域抽出手段により抽出する各平面投影領域は、それぞれに対応する平面部分(段差部の各踏面等)の全体の投影領域である必要はなく、該平面部分の一部分の投影領域であってもよい。例えば、段差部の上段側踏面に対応して抽出される平面投影領域には、該上段側踏面の先端側エッジを基準画像に投影した線が含まれている必要なない。   Further, each plane projection area extracted by the plane projection area extraction unit does not have to be the entire projection area of the corresponding plane portion (such as each tread of the step portion), and is a projection area of a part of the plane portion. There may be. For example, the plane projection area extracted corresponding to the upper step surface of the stepped portion does not need to include a line obtained by projecting the leading edge of the upper step surface on the reference image.

また、平面投影領域抽出手段により抽出する平面投影領域は、段差部の各踏面に対応する平面投影領域に限らず、例えば階段の蹴り込み面や階段の段鼻の先端面に対応する平面投影領域が含まれていてもよい。ただし、段差部の各踏面以外の平面部分に対応する平面投影領域を抽出対象から除外するようにしてもよい。その場合、例えば平面部分の法線方向の向きに基づいて、段差部の各踏面以外の平面部分に対応する平面投影領域を抽出対象から除外するようにすることが可能である。   Further, the planar projection area extracted by the planar projection area extracting means is not limited to the planar projection area corresponding to each tread of the step portion, but for example, there is a planar projection area corresponding to the stair kicking surface or the stair nosing tip surface. It may be included. However, you may make it exclude the planar projection area | region corresponding to planar parts other than each tread of a level | step difference part from extraction object. In that case, for example, based on the direction of the normal direction of the planar portion, it is possible to exclude the planar projection region corresponding to the planar portion other than each tread of the stepped portion from the extraction target.

第1発明では、次に、前記評価関数算出手段の処理が実行される。この処理では、評価関数算出手段は、前記段差部の上段側踏面の先端側エッジを前記基準画像に投影してなる実エッジ投影線をそれぞれ含み、且つ、前記基準画像の縦方向に細長い形状を有して該基準画像の横方向に並列する複数条の演算処理領域を該基準画像に設定する。   In the first invention, next, the process of the evaluation function calculation means is executed. In this process, the evaluation function calculation means includes an actual edge projection line obtained by projecting the leading edge of the upper tread surface of the stepped portion onto the reference image, and has an elongated shape in the vertical direction of the reference image. A plurality of arithmetic processing areas that are arranged in parallel in the horizontal direction of the reference image are set in the reference image.

この場合、前記実エッジ投影線は、段差部の上段側踏面に対応する平面投影領域と、下段側踏面に対応する平面投影領域との間に存在するので、該実エッジ投影線をそれぞれ内部に含むような複数条の演算処理領域を、前記平面投影領域抽出手段の処理により得られた平面投影領域及び平面パラメータに基づいて設定することが可能である。なお、各演算処理領域は、基準画像の縦方向に細長い形状を有するので、基準画像の横方向での幅が微小なもの(例えば1画素分の幅)となるような領域である。   In this case, since the actual edge projection line exists between the planar projection area corresponding to the upper step surface of the stepped portion and the planar projection area corresponding to the lower step surface, the actual edge projection line is respectively set inside. It is possible to set a plurality of calculation processing areas including the number based on the plane projection area and plane parameters obtained by the process of the plane projection area extracting means. Each calculation processing area has an elongated shape in the vertical direction of the reference image, and thus is an area in which the width in the horizontal direction of the reference image is very small (for example, one pixel width).

さらに、評価関数算出手段は、複数条の演算処理領域のそれぞれにおける前記基準画像の縦方向での前記実エッジ投影線の複数の候補位置を設定し、各演算処理領域毎に、各候補位置の実エッジ投影線の位置に対する適合度を表す評価関数の値を、前記基準画像及び参照画像と、前記決定された平面パラメータとを用いて算出する。   Further, the evaluation function calculating means sets a plurality of candidate positions of the actual edge projection line in the vertical direction of the reference image in each of a plurality of calculation processing areas, and sets each candidate position for each calculation processing area. A value of the evaluation function representing the degree of conformity with respect to the position of the actual edge projection line is calculated using the standard image and the reference image and the determined plane parameter.

この評価関数は次のように算出される。すなわち、評価関数算出手段は、各演算処理領域内に各候補位置を境界として隣接する2つの射影変換対象領域を少なくとも含む複数のエッジ推定用射影変換対象領域を各候補位置に応じて設定する。   This evaluation function is calculated as follows. In other words, the evaluation function calculation means sets a plurality of edge estimation projection transformation target regions including at least two projection transformation target regions adjacent to each other with each candidate position as a boundary in each computation processing region according to each candidate position.

この場合、各演算処理領域において、任意の1つの候補位置が、実エッジ投影線の位置に一致していると仮定すると、該候補位置を境界として隣接して設定される2つのエッジ推定用射影変換対象領域のうち、該候補位置の上側の領域は、段差部の上段側踏面の投影領域に相当するものとなる。また、候補位置の下側の領域は、段差部の上段側踏面の先端側エッジから下方に起立する面部(階段の段鼻又は蹴り込み面に対応する面部)の投影領域に相当するものとなる。   In this case, assuming that any one candidate position matches the position of the actual edge projection line in each calculation processing region, two edge estimation projections set adjacent to each other with the candidate position as a boundary Of the conversion target area, the area above the candidate position corresponds to the projection area of the upper tread surface of the stepped portion. The lower region of the candidate position corresponds to a projection region of a surface portion (a surface portion corresponding to a stair nosing or kicking surface) that rises downward from the tip side edge of the upper step surface of the step portion.

さらに、評価関数算出手段は、各エッジ推定用射影変換対象領域に対応する射影変換用平面パラメータを前記平面投影領域抽出手段により決定された平面パラメータに応じて設定する。例えば、各候補位置を境界として隣接して設定される2つのエッジ推定用射影変換対象領域のうち、該候補位置の上側の領域に対応する射影変換用平面パラメータは、段差部の上段側踏面に対応して平面投影領域抽出手段により決定された平面パラメータに一致するものとされる。   Further, the evaluation function calculation means sets the projection conversion plane parameters corresponding to each of the edge estimation projection conversion target areas in accordance with the plane parameters determined by the plane projection area extraction means. For example, the projection conversion plane parameter corresponding to the area above the candidate position, out of the two edge estimation projection conversion target areas set adjacently with each candidate position as a boundary, is displayed on the upper tread of the step portion. Correspondingly, the plane parameter determined by the plane projection area extracting means coincides with the plane parameter.

また、各候補位置を境界として隣接して設定される2つのエッジ推定用射影変換対象領域のうち、該候補位置の下側の領域に対応する射影変換用平面パラメータは、例えば、段差部の上段側踏面と下段側踏面との間でこれらに対して起立する面に対応して平面投影領域抽出手段により決定された平面パラメータに一致するものとされる。   The projection transformation plane parameter corresponding to the lower region of the candidate position among the two edge estimation projection transformation target regions set adjacently with each candidate position as a boundary is, for example, the upper part of the stepped portion. It corresponds to the plane parameter determined by the plane projection area extracting means corresponding to the surface standing between the side tread surface and the lower side tread surface.

あるいは、当該射影変換用平面パラメータは、例えば段差部の上段側踏面に対してあらかじめ定められた角度(例えば90degまたはそれに近い角度)で起立し、且つ、候補位置に対応する仮想的な先端側エッジ(該先端側エッジを基準画像に投影した線の位置(基準画像の縦方向での位置)が該候補位置に一致するような仮想的な先端側エッジ)の直線を含む平面の位置及び姿勢を表す平面パラメータ(これは上段側踏面に対応して平面投影領域抽出手段により決定された平面パラメータと候補位置とから算出することができる)に一致するものとされる。   Alternatively, the projective transformation plane parameter rises at a predetermined angle (for example, 90 degrees or an angle close thereto) with respect to the upper step surface of the stepped portion, for example, and the virtual tip side edge corresponding to the candidate position The position and orientation of a plane including a straight line (virtual front end edge such that the position of the line on which the front end edge is projected onto the reference image (the vertical position of the reference image) matches the candidate position) It corresponds to the plane parameter to be expressed (this can be calculated from the plane parameter determined by the plane projection area extraction unit corresponding to the upper tread surface and the candidate position).

さらに、評価関数算出手段は、各演算処理領域及び各候補位置の組毎に、各エッジ推定用射影変換対象領域の画像の画素値分布と、該エッジ推定用射影変換対象領域に対応する前記参照画像中の領域の画像を該エッジ推定用射影変換対象領域に対応する射影変換用平面パラメータに応じて射影変換した場合に得られる射影変換画像の画素値分布との誤差を表す誤差関数の値を算出する。   Further, the evaluation function calculation means, for each set of the calculation processing area and each candidate position, the pixel value distribution of the image of each edge estimation projection conversion target area and the reference corresponding to the edge estimation projection conversion target area A value of an error function representing an error from the pixel value distribution of the projective transformation image obtained when the image of the region in the image is subject to projective transformation according to the plane parameter for projective transformation corresponding to the projective transformation target region for edge estimation. calculate.

なお、エッジ推定用射影変換対象領域に対応する参照画像中の領域というのは、基準画像のエッジ推定用射影変換対象領域に投影されている実空間の部分が該エッジ推定用射影変換対象領域に対応する射影変換用平面パラメータにより規定される平面上の部分であると仮定して、該部分を参照画像中に投影した場合に得られる領域を意味する。   Note that the region in the reference image corresponding to the edge estimation projective transformation target region means that the portion of the real space projected on the edge estimation projective transformation target region of the standard image is the edge estimation projective transformation target region. It means an area obtained when a portion on a plane defined by the corresponding projective transformation plane parameter is projected on the reference image.

この場合、各演算処理領域において、ある候補位置が、実エッジ投影線の位置に一致しておれば、各エッジ推定用射影変換対象領域の画像の画素値分布と上記射影変換画像の画素値分布とは互いに一致(もしくはほぼ一致)する。一方、該候補位置が、実エッジ投影線の位置に一致しない場合には、各エッジ推定用射影変換対象領域の画像の画素値分布と上記射影変換画像の画素値分布とは互いに異なるものとなる。   In this case, if a certain candidate position matches the position of the actual edge projection line in each calculation processing area, the pixel value distribution of the image of the projection conversion target area for each edge estimation and the pixel value distribution of the projection conversion image And match (or nearly match) each other. On the other hand, when the candidate position does not coincide with the position of the actual edge projection line, the pixel value distribution of the image for each edge estimation projective transformation target area and the pixel value distribution of the projective transformation image are different from each other. .

そして、評価関数算出手段は、各演算処理領域及び各候補位置の組毎に、各演算処理領域内に設定した複数のエッジ推定用射影変換対象領域のそれぞれに対応して算出した前記誤差関数の値を線形結合してなる値を、前記評価関数の値として算出する。   Then, the evaluation function calculating means calculates the error function calculated for each of the plurality of edge estimation projective transformation target regions set in each arithmetic processing region for each arithmetic processing region and each candidate position set. A value obtained by linearly combining the values is calculated as the value of the evaluation function.

これにより、基準画像の縦方向に細長い(基準画像の横方向での幅が微小な)各演算処理領域毎に、基準画像の縦方向での実エッジ投影線の候補位置と、該候補位置の実エッジ投影線の位置に対する適合度との相関関係を表すデータが得られることとなる。このデータは、換言すれば、各演算処理領域において、基準画像の縦方向でのどの位置が、実エッジ投影線の位置として妥当であるか(適合度が高いか)を示すものとなる。   As a result, for each calculation processing region that is elongated in the vertical direction of the reference image (the width in the horizontal direction of the reference image is small), the candidate position of the actual edge projection line in the vertical direction of the reference image and the candidate position Data representing the correlation with the degree of conformity to the position of the actual edge projection line is obtained. In other words, this data indicates which position in the vertical direction of the reference image is appropriate as the position of the actual edge projection line (having a high degree of matching) in each arithmetic processing region.

次いで、推定エッジ投影線決定手段の処理が実行される。この処理では、推定エッジ投影線決定手段は、前記実エッジ投影線を推定してなる線である推定エッジ投影線を、前記複数条の演算処理領域のそれぞれにおける該推定エッジ投影線の位置の適合度を合成してなる合成適合度が最も高くなるように、前記算出された評価関数(各演算処理領域及び各候補位置の組毎に算出された評価関数の値)に基づいて決定する。   Next, the process of the estimated edge projection line determination unit is executed. In this processing, the estimated edge projection line determination means adapts the estimated edge projection line, which is a line obtained by estimating the actual edge projection line, to the position of the estimated edge projection line in each of the plurality of arithmetic processing regions. It is determined based on the calculated evaluation function (the value of the evaluation function calculated for each set of calculation processing regions and candidate positions) so that the combined fitness obtained by combining the degrees becomes the highest.

この場合、前記評価関数算出手段の処理によって、各演算処理領域及び各候補位置の組毎に算出された評価関数の値によって、各演算処理領域毎に、基準画像の縦方向での実エッジ投影線の候補位置と、上記評価関数の値との相関関係を表すデータが得られている。従って、ある推定エッジ投影線を仮定した場合、その推定エッジ投影線の、各演算処理領域における位置(基準画像の縦方向での位置)の、実エッジ投影線の実際に位置に対する適合度(妥当性の度合い)が判ることとなる。   In this case, the actual edge projection in the vertical direction of the reference image is performed for each calculation processing region by the value of the evaluation function calculated for each set of each processing processing region and each candidate position by the processing of the evaluation function calculating unit. Data representing the correlation between the candidate line position and the value of the evaluation function is obtained. Therefore, when a certain estimated edge projection line is assumed, the degree of suitability (validity) of the position of the estimated edge projection line in each calculation processing region (position in the vertical direction of the reference image) to the actual position of the actual edge projection line The degree of sex) will be understood.

そして、推定エッジ投影線が実エッジ投影線に一致していれば、その推定エッジ投影線の、各演算処理領域における位置の適合度は、原理的には、該演算処理領域において最も高くなる。   If the estimated edge projection line coincides with the actual edge projection line, the matching degree of the position of the estimated edge projection line in each calculation processing region is, in principle, the highest in the calculation processing region.

そこで、推定エッジ投影線決定手段は、前記複数条の演算処理領域のそれぞれにおける推定エッジ投影線の位置の適合度を合成してなる合成適合度が最も高くなるように該推定エッジ投影線を決定する。これにより、複数条の演算処理領域のそれぞれにおける実エッジ投影線に対する適合度が極力高いものとなるような推定エッジ投影線、すなわち、実エッジ投影線を推定したものとしての妥当性が高い推定エッジ投影線が決定される。   Therefore, the estimated edge projection line determining means determines the estimated edge projection line so that the combined fitness obtained by combining the fitness of the positions of the estimated edge projection lines in each of the plurality of arithmetic processing regions is the highest. To do. As a result, an estimated edge projection line that has the highest degree of fitness for the actual edge projection line in each of the plurality of arithmetic processing regions, that is, an estimated edge that is highly valid as an estimation of the actual edge projection line. A projection line is determined.

なお、推定エッジ投影線決定手段の処理で決定する推定エッジ投影線は、その合成適合度が厳密に最も高いものである必要はなく、該推定エッジ投影線と基準画像での位置及び方向の一方又は両方が若干異なるような複数の線に比して、該合成適合度が相対的に高くなるようなものでよい。従って、基準画像での位置及び方向の一方又は両方が互いに異なる複数の推定エッジ投影線の候補の中で、最も、前記合成適合度が高いものを、推定エッジ投影線として決定してもよい。   Note that the estimated edge projection line determined by the processing of the estimated edge projection line determination means does not need to have the highest combined fitness, and one of the position and direction in the estimated edge projection line and the reference image. Alternatively, it may be such that the composite fitness is relatively higher than a plurality of lines that are slightly different from each other. Accordingly, among the plurality of estimated edge projection line candidates whose positions and / or directions in the reference image are different from each other, the one having the highest combined fitness may be determined as the estimated edge projection line.

次いで、前記段差部空間配置決定手段の処理が実行される。この処理では、段差部空間配置決定手段は、ステレオカメラの撮像領域に存在する段差部の空間的な配置位置を認識するためのデータとして、少なくとも該段差部の上段側踏面の先端側エッジの空間的な位置及び方向を表すデータを前記決定された推定エッジ投影線と前記決定された平面パラメータとに基づいて決定する。   Next, the processing of the stepped portion space arrangement determining means is executed. In this process, the step portion space arrangement determining means uses at least the space of the front edge of the stepped portion on the upper step as the data for recognizing the spatial arrangement position of the step portion existing in the imaging area of the stereo camera. Data representing a specific position and direction is determined based on the determined estimated edge projection line and the determined plane parameter.

この場合、段差部の上段側踏面の先端側エッジは、上段側踏面に対応して前記平面投影領域抽出手段により決定された平面パラメータにより空間的な位置及び姿勢が規定される平面上の線であり、この線を光学的に基準画像に投影してなる線が、上記推定エッジ投影線となる。従って、この推定エッジ投影線と、平面投影領域抽出手段により決定された平面パラメータ(上段側踏面に対応する平面部分の平面パラメータ)とに基づいて、先端側エッジの空間的な位置及び方向を表すデータを決定できることとなる。   In this case, the leading edge of the upper step surface of the stepped portion is a line on a plane whose spatial position and orientation are defined by the plane parameters determined by the plane projection area extraction means corresponding to the upper step surface. A line obtained by optically projecting this line onto the reference image is the estimated edge projection line. Therefore, based on this estimated edge projection line and the plane parameter determined by the plane projection area extraction means (the plane parameter of the plane portion corresponding to the upper tread surface), the spatial position and direction of the tip side edge are represented. Data can be determined.

該データとしては、例えば、先端側エッジ上の2つの点の空間的な位置、あるいは、先端側エッジ上の1つの点の空間的な位置と該先端側エッジの方向ベクトルとの組等を用いることができる。   As the data, for example, a spatial position of two points on the leading edge, or a set of a spatial position of one point on the leading edge and the direction vector of the leading edge is used. be able to.

以上説明した第1発明によれば、前記評価関数算出手段の処理によって、各演算処理領域及び各候補位置の組毎に算出される評価関数の値は、基準画像の縦方向に細長い各演算処理領域毎に、基準画像の縦方向での実エッジ投影線の候補位置と、該候補位置の実エッジ投影線の位置に対する適合度との相関関係を表すものとなる。   According to the first invention described above, the value of the evaluation function calculated for each set of each calculation processing region and each candidate position by the processing of the evaluation function calculation means is long and narrow in the vertical direction of the reference image. For each region, the correlation between the candidate position of the actual edge projection line in the vertical direction of the reference image and the degree of suitability of the candidate position with respect to the position of the actual edge projection line is represented.

従って、この評価関数の値に基づいて、前記推定エッジ投影線を決定することにより、基準画像の横方向に並ぶ複数条の演算処理領域のそれぞれにおいて適合度が極力高くなるような推定エッジ投影線を決定できる。このため、実エッジ投影線に対する一致度合いの高い推定エッジ投影線を決定できることとなる。   Therefore, by determining the estimated edge projection line based on the value of the evaluation function, the estimated edge projection line that has the highest possible fitness in each of the plurality of arithmetic processing regions arranged in the horizontal direction of the reference image is obtained. Can be determined. For this reason, it is possible to determine an estimated edge projection line having a high degree of coincidence with the actual edge projection line.

よって、第1発明によれば、階段等の段差部の踏面の先端側エッジの空間的な位置及び方向を精度よく認識することができる。   Therefore, according to the first aspect, it is possible to accurately recognize the spatial position and direction of the leading edge of the tread surface of a stepped portion such as a staircase.

上記第1発明においては、前記平面投影領域抽出手段は、レーザ測距装置等を使用することなく、前記ステレオ画像(基準画像及び参照画像)を用いて平面投影領域の抽出と平面パラメータの決定とを行なうようにすることも可能である。   In the first aspect of the invention, the plane projection area extracting means extracts the plane projection area and determines the plane parameters using the stereo image (standard image and reference image) without using a laser distance measuring device or the like. It is also possible to perform.

具体的には、前記平面投影領域抽出手段は、前記基準画像における位置が互いに相違する複数の平面投影領域抽出用局所領域を該基準画像に設定する処理と、各平面投影領域抽出用局所領域の画像と該平面投影領域抽出用局所領域に対応する前記参照画像中の領域の画像との間の射影変換を規定する平面パラメータである平面投影領域抽出用平面パラメータを、該平面投影領域抽出用局所領域の画像の画素値分布と、該平面投影領域抽出用局所領域に対応する前記参照画像中の領域の画像を該平面投影領域抽出用平面パラメータに応じて射影変換した場合に得られる画像の画素値分布との誤差を最小化するように決定する処理とを実行し、各平面投影領域に含まれる前記平面投影領域抽出用局所領域のそれぞれに対応する平面投影領域抽出用平面パラメータにより規定される平面が互いに一致するように前記基準画像から各平面投影領域を抽出する(第2発明)。   Specifically, the planar projection area extracting means sets a plurality of planar projection area extraction local areas whose positions in the reference image are different from each other in the reference image, and each of the planar projection area extraction local areas A plane parameter for extracting a plane projection area, which is a plane parameter that defines projective transformation between an image and an image of an area in the reference image corresponding to the area for extracting a plane projection area, Pixel value distribution of image of region and pixel of image obtained when projective transformation is performed on region image in reference image corresponding to local region for plane projection region extraction according to plane parameter for plane projection region extraction Processing for determining to minimize an error from the value distribution, and for extracting a planar projection area corresponding to each of the planar projection area extracting local areas included in each planar projection area Plane defined by a surface parameter extracts each planar projection area from the reference image so as to match with each other (second invention).

この第2発明によれば、前記平面投影領域抽出手段は、前記基準画像における位置が互いに相違する複数の平面投影領域抽出用局所領域を該基準画像に設定する。該平面投影領域抽出用局所領域は、基準画像の全体に比して十分に小さい面積の領域である。   According to this second aspect, the planar projection area extracting means sets a plurality of planar projection area extracting local areas whose positions in the reference image are different from each other in the reference image. The local region for planar projection region extraction is a region having a sufficiently small area as compared with the entire reference image.

ここで、ある1つの平面投影領域抽出用局所領域の画像が平面部分の画像である場合には、その画像と、基準画像の該平面投影領域抽出用局所領域に投影されている実空間の部分(ここでは平面部分のうちの局所部分)を参照画像中に投影してなる部分の画像とは、当該平面部分を包含する平面の位置及び姿勢を表す平面パラメータに応じた射影変換(平面射影変換)によって対応付けられる。   Here, when an image of a certain plane projection region extraction local region is an image of a plane portion, the image and a portion of the real space projected on the plane projection region extraction local region of the reference image An image of a portion formed by projecting a local portion (here, a local portion) into a reference image is a projective transformation (a planar projective transformation) corresponding to a plane parameter representing a position and orientation of a plane including the plane portion. ).

すなわち、原理的には、平面投影領域抽出用局所領域に対応する参照画像中の画像に、該平面投影領域抽出用局所領域に投影されている平面部分の平面パラメータに応じた射影変換を施すことによって、基準画像の平面投影領域抽出用局所領域の画像と同じ画素値分布を有する画像が得られる。   That is, in principle, projective transformation is performed on the image in the reference image corresponding to the local area for extracting the planar projection area according to the plane parameter of the plane portion projected on the local area for extracting the planar projection area. Thus, an image having the same pixel value distribution as the image of the local region for extracting the planar projection region of the reference image is obtained.

一方、平面投影領域抽出用局所領域の画像が平面部分の画像であっても、実際の平面部分に対応する平面パラメータと異なる平面パラメータを使用して、平面投影領域抽出用局所領域に対応する参照画像中の画像に射影変換を施した場合に得られる画像は、基準画像の平面投影領域抽出用局所領域の画像と異なる画素値分布を有する画像となる。   On the other hand, even if the image of the local area for extracting the planar projection area is an image of the planar part, the reference corresponding to the local area for extracting the planar projection area is used by using different plane parameters from those corresponding to the actual planar part. An image obtained when projective transformation is performed on an image in the image is an image having a different pixel value distribution from the image of the local area for planar projection area extraction of the reference image.

そこで、第2発明では、平面投影領域抽出手段は、次に、各平面投影領域抽出用局所領域の画像と該平面投影領域抽出用局所領域に対応する前記参照画像中の領域の画像との間の射影変換を規定する平面パラメータである平面投影領域抽出用平面パラメータを、該平面投影領域抽出用局所領域の画像の画素値分布と、該平面投影領域抽出用局所領域に対応する前記参照画像中の領域の画像を該平面投影領域抽出用平面パラメータに応じて射影変換した場合に得られる画像の画素値分布との誤差を最小化するように決定する。   Therefore, in the second invention, the plane projection area extracting means next performs a step between each plane projection area extraction local area image and an area image in the reference image corresponding to the plane projection area extraction local area. A plane parameter for extracting a plane projection area, which is a plane parameter that defines the projective transformation of the image, a pixel value distribution of the image of the local area for extracting the plane projection area, and the reference image corresponding to the local area for extracting the plane projection area Is determined so as to minimize an error with respect to the pixel value distribution of the image obtained when projective transformation is performed on the image of the area in accordance with the plane parameter for plane projection area extraction.

これにより、段差部の踏面等の平面部分が投影されている平面投影領域抽出用局所領域にあっては、その平面部分を包含する平面の位置及び姿勢を表す平面投影領域抽出用平面パラメータが適正に決定されることとなる。   As a result, in the planar projection region extraction local region where the planar portion such as the tread of the step portion is projected, the planar parameter for extracting the planar projection region indicating the position and orientation of the plane including the planar portion is appropriate. Will be determined.

なお、平面投影領域抽出用局所領域に単一の平面部分とそれ以外の部分とが含まれている場合には、決定される平面投影領域抽出用平面パラメータにより規定される平面は、一般には、該平面投影領域抽出用局所領域に含まれる平面部分を包含する平面とは異なるものとなる。   In addition, when a single plane part and other parts are included in the local area for plane projection area extraction, the plane defined by the plane parameter for plane projection area extraction to be determined is generally The plane is different from the plane including the plane portion included in the local area for plane projection area extraction.

上記の如く各平面投影領域抽出用局所領域に対応する平面投影領域抽出用平面パラメータを決定した場合、同一の平面上に存在する平面投影領域抽出用局所領域に対応する平面投影領域抽出用平面パラメータは、互いに同一(もしくはほぼ同一)となる。   When the plane projection area extraction plane parameter corresponding to each plane projection area extraction local area is determined as described above, the plane projection area extraction plane parameter corresponding to the plane projection area extraction local area existing on the same plane is determined. Are identical (or nearly identical) to each other.

そこで、平面投影領域抽出手段は、次に、各平面投影領域に含まれる前記平面投影領域抽出用局所領域のそれぞれに対応する平面投影領域抽出用平面パラメータにより規定される平面が互いに一致するように前記基準画像から各平面投影領域を抽出する。なお、ここで、平面投影領域抽出用平面パラメータが互いに同一というのは、厳密に互いに同一であることだけを意味するものではなく、平面投影領域抽出用平面パラメータにより規定される平面の位置及び姿勢がある既定の範囲内でほぼ同一となるような場合も含まれる。   Therefore, the plane projection area extraction means next causes the planes defined by the plane projection area extraction plane parameters corresponding to the respective plane projection area extraction local areas included in each plane projection area to coincide with each other. Each planar projection area is extracted from the reference image. Here, the fact that the plane parameters for extracting the plane projection area are the same does not mean that they are strictly the same, but the position and orientation of the plane defined by the plane parameters for extracting the plane projection area It is also included when they are almost identical within a certain predetermined range.

これにより、第2発明によれば、レーザ測距装置等の測距装置をステレオカメラとは別に移動体に搭載したりすることなく、ステレオ画像と射影変換(平面射影変換)とを利用した手法によって、基準画像から平面投影領域を抽出することができる。   Thus, according to the second invention, a method using a stereo image and projective transformation (planar projective transformation) without mounting a distance measuring device such as a laser distance measuring device on a moving body separately from the stereo camera. Thus, a planar projection area can be extracted from the reference image.

前記第1発明又は第2発明においては、前記評価関数算出手段が各演算処理領域に設定する複数の候補位置は、全ての演算処理領域について共通のN3a個(N3a:2以上の整数)の候補位置であり、前記評価関数算出手段は、第k1番目(k1:1からN3aまでの整数のうちの任意の1つの整数)の候補位置と各演算処理領域とに対応する前記誤差関数の値を算出するために、前記射影変換用平面パラメータが互いに同一となる各演算処理領域のエッジ推定用射影変換対象領域を合成してなる合成射影変換対象領域における画像と、該合成射影変換対象領域に対応する前記参照画像中の領域の画像を該合成射影変換対象領域に対応する射影変換用平面パラメータに応じて射影変換した場合に得られる画像との誤差画像を求める処理を実行し、その誤差画像を用いて、第k1番目の候補位置と各演算処理領域とに対応する前記誤差関数の値を算出することが好ましい(第3発明)。   In the first invention or the second invention, the plurality of candidate positions set in each calculation processing area by the evaluation function calculation means are N3a (N3a: integer greater than or equal to 2) candidates common to all calculation processing areas. And the evaluation function calculation means calculates the value of the error function corresponding to the k1th candidate position (arbitrary one of integers from k1: 1 to N3a) and each calculation processing area. In order to calculate, an image in the combined projective transformation target area formed by combining the projection conversion target areas for edge estimation of the respective computation processing areas in which the plane parameters for the projective conversion are the same with each other, and the composite projective conversion target area A process of obtaining an error image from an image obtained by performing projective transformation on an image of an area in the reference image according to a projective transformation plane parameter corresponding to the synthetic projective transformation target area; Using the difference image, it is preferable to calculate the value of the error function corresponding to the first k1-th candidate location and each processing region (third invention).

この第3発明によれば、前記評価関数算出手段は、前記複数の候補位置の任意の1つである第k1番目の候補位置と各演算処理領域とに対応する前記誤差関数を算出する前に事前に、前記射影変換用平面パラメータが互いに同一となる各演算処理領域のエッジ推定用射影変換対象領域を合成してなる合成射影変換対象領域に係わる前記誤差画像を求めておく。そして、前記評価関数算出手段は、この誤差画像を用いて第k1番目の候補位置と各演算処理領域とに対応する前記誤差関数の値を算出する。これにより、各候補位置及び各演算処理領域の各組毎に個別に前記誤差関数の値を算出する場合に比して、各候補位置及び各演算処理領域の各組毎の誤差関数の値の算出を効率よく行なうことができる。   According to the third invention, the evaluation function calculating means calculates the error function corresponding to the k1th candidate position, which is any one of the plurality of candidate positions, and each calculation processing area. The error image relating to the combined projective transformation target area obtained by synthesizing the edge estimation projective transformation target areas of the respective computation processing areas having the same projective transformation plane parameters is obtained in advance. Then, the evaluation function calculation means calculates the value of the error function corresponding to the k1th candidate position and each calculation processing region using the error image. As a result, the error function value of each candidate position and each set of calculation processing regions is compared with the case where the value of the error function is calculated individually for each set of each candidate position and each calculation processing region. Calculation can be performed efficiently.

前記第1〜第3発明では、前記ステレオカメラの撮像領域に段差部が存在しているか否かを検知する段差部存在検知手段をさらに備えている場合には、前記平面投影領域抽出手段、評価関数算出手段及び段差部配置決定手段の処理は、前記段差部存在検知手段によって前記ステレオカメラの撮像領域に段差部が存在していることが検知されることを必要条件として実行される処理とされる。   In the first to third aspects of the invention, in the case of further comprising a stepped portion presence detecting means for detecting whether or not a stepped portion is present in the imaging region of the stereo camera, the planar projection region extracting means and the evaluation The processing of the function calculating means and the step portion arrangement determining means is processing executed on the condition that the step portion presence detecting means detects that a step portion is present in the imaging area of the stereo camera. The

この場合、前記段差部存在検知手段は、外部から与えられる情報に基づいて段差部が存在しているか否かを検知するようにすることも可能であるが、前記基準画像及び参照画像を用いて当該検知を行なうこともできる。   In this case, the stepped portion presence detecting means can detect whether or not a stepped portion is present based on information given from the outside, but using the reference image and the reference image The detection can also be performed.

具体的には、前記段差部存在検知手段は、前記ステレオカメラの撮像領域に段差部が存在しているか否かを検知するための段差部存在検知用領域を前記基準画像に設定する処理と、該段差部存在検知用領域の画像と該段差部存在検知用領域に対応する前記参照画像中の領域の画像との間の射影変換を規定する平面パラメータである段差部存在検知用平面パラメータを、前記段差部存在検知用領域の画像の画素値分布と該段差部存在検知用領域に対応する領域の画像を該段差部存在検知用平面パラメータに応じて射影変換した場合に得られる画像の画素値分布との誤差を最小化するように決定する処理とを実行し、決定した該段差部存在検知用平面パラメータにより示される平面の法線方向の向きに基づいて前記ステレオカメラの撮像領域に段差部が存在しているか否かを検知する(第4発明)。   Specifically, the stepped portion presence detection means sets a stepped portion presence detection region for detecting whether or not a stepped portion is present in the imaging region of the stereo camera in the reference image; Step parameter presence detection plane parameter, which is a plane parameter that defines projective transformation between the image of the level difference presence detection region and the image of the region in the reference image corresponding to the level difference presence detection region, Pixel value distribution of an image of the stepped portion presence detection region and a pixel value of an image obtained by performing projective transformation on the image of the region corresponding to the stepped portion presence detecting region according to the stepped portion presence detection plane parameter Processing to determine an error with the distribution is minimized, and a step is set in the imaging area of the stereo camera based on the direction of the normal direction of the plane indicated by the determined step parameter for detecting the presence of the stepped portion. Whether to detect the part is present (fourth invention).

この第4発明によれば、段差部存在検知手段の処理によって決定される前記段差部存在検知用平面パラメータにより規定される平面の法線方向の向きは、前記ステレオカメラの撮像領域に段差部が存在している場合には、該撮像領域が平坦な床面である場合の法線方向の向きよりも傾いたものとなる。このため、前記段差部存在検知用平面パラメータにより規定される平面の法線方向の向きに基づいて、前記ステレオカメラの撮像領域に段差部が存在しているか否かを検知することができる。   According to the fourth aspect of the invention, the direction of the normal direction of the plane defined by the step parameter presence detection plane parameter determined by the processing of the level difference presence detection means is such that the level difference is in the imaging area of the stereo camera. If present, the image pickup area is inclined with respect to the normal direction when the imaging area is a flat floor surface. Therefore, it is possible to detect whether or not there is a stepped portion in the imaging region of the stereo camera based on the direction of the normal direction of the plane defined by the stepped portion presence detection plane parameter.

前記第1〜第4発明においては、前記段差部が前記ステレオカメラにより撮像されている状態において、該段差部が昇りの段差部であるか、降りの段差部であるかを判断する段差部種別判断手段をさらに備えており、
前記評価関数算出手段は、
前記段差部種別判断手段によって前記段差部が昇り段差部であると判断された場合には、前記基準画像に前記複数条の演算処理領域を設定する処理において、各演算処理領域の上端が該段差部の上段側踏面に対応する前記平面投影領域に位置し、且つ、各演算処理領域の下端が該段差部の下段側踏面に対応する前記平面投影領域に位置するように前記複数条の演算処理領域を設定し、前記各演算処理領域内に前記複数のエッジ推定用射影変換対象領域を設定する処理において、各候補位置を境界として隣接する第1及び第2のエッジ推定用射影変換対象領域を該演算処理領域の上部側に設定すると共に、該第1及び第2のエッジ推定用射影変換対象領域のうちの下側の領域である第2のエッジ推定用射影変換対象領域との間に該候補位置に応じた間隔を有する第3のエッジ推定用射影変換対象領域を該演算処理領域の下部側に設定し、
前記段差部種別判断手段によって前記段差部が降り段差部であると判断された場合には、前記基準画像に前記複数条の演算処理領域を設定する処理において、各演算処理領域の上端が下段側踏面に対応する前記平面投影領域に位置し、且つ、各演算処理領域の下端が上段側踏面に対応する前記平面投影領域に位置するように前記複数条の演算処理領域を設定し、前記各演算処理領域内に前記複数のエッジ推定用射影変換対象領域を設定する処理において、各候補位置を境界として隣接する第4及び第5のエッジ推定用射影変換対象領域を該演算処理領域内に設定することが好ましい(第5発明)。
In the first to fourth aspects of the invention, a step portion type for determining whether the step portion is an ascending step portion or a descending step portion when the step portion is imaged by the stereo camera. A judgment means,
The evaluation function calculating means includes
When the stepped portion type determining means determines that the stepped portion is an ascending stepped portion, in the process of setting the plurality of calculation processing regions in the reference image, the upper end of each calculation processing region is the stepped portion. The plurality of lines of arithmetic processing are positioned in the planar projection area corresponding to the upper stage tread of the section and the lower end of each computation processing area is positioned in the plane projection area corresponding to the lower stage tread of the step In the process of setting a region and setting the plurality of edge estimation projection transformation target regions in each of the calculation processing regions, the first and second edge estimation projection transformation target regions adjacent to each other with the candidate positions as boundaries Set on the upper side of the arithmetic processing region, and between the first and second edge estimation projective transformation target regions, the second edge estimation projective transformation target region is the lower region. Depending on the candidate position The third projective transformation target area for edge estimation with interval set on the lower side of the processing area,
When the stepped portion type determining means determines that the stepped portion is a descending stepped portion, in the processing for setting the plurality of calculation processing regions in the reference image, the upper end of each calculation processing region is on the lower side. The plurality of calculation processing areas are set so that the lower end of each calculation processing area is located in the planar projection area corresponding to the tread, and the lower end of each calculation processing area is positioned in the flat projection area corresponding to the upper tread. In the process of setting the plurality of edge estimation projective transformation target regions in the processing region, the fourth and fifth edge estimation projective transformation target regions adjacent to each other at the candidate positions are set in the calculation processing region. It is preferable (5th invention).

この第5発明によれば、前記段差部種別判断手段によって前記段差部が昇り段差部であると判断された場合にあっては、前記評価関数算出手段は、前記基準画像に前記複数条の演算処理領域を設定する処理において、各演算処理領域の上端が該段差部の上段側踏面に対応する前記平面投影領域に位置し、且つ、各演算処理領域の下端が該段差部の下段側踏面に対応する前記平面投影領域に位置するように前記複数条の演算処理領域を設定する。これにより、前記複数条の演算処理領域のそれぞれに、前記実エッジ投影線が含まれるように該複数条の演算処理領域を基準画像に設定することができる。   According to this fifth aspect, when the stepped portion type determining means determines that the stepped portion is an ascending stepped portion, the evaluation function calculating means calculates the plurality of items on the reference image. In the process of setting the processing area, the upper end of each calculation processing area is positioned in the planar projection area corresponding to the upper step surface of the stepped portion, and the lower end of each calculation processing area is positioned on the lower step surface of the stepped portion. The plurality of calculation processing areas are set so as to be positioned in the corresponding planar projection areas. Accordingly, the plurality of calculation processing areas can be set as the reference image so that each of the plurality of calculation processing areas includes the actual edge projection line.

さらに、前記評価関数算出手段は、前記各演算処理領域内に前記複数のエッジ推定用射影変換対象領域を設定する処理において、各候補位置を境界として隣接する第1及び第2のエッジ推定用射影変換対象領域を該演算処理領域の上部側に設定すると共に、該第1及び第2のエッジ推定用射影変換対象領域のうちの下側の領域である第2のエッジ推定用射影変換対象領域との間に該候補位置に応じた間隔を有する第3のエッジ推定用射影変換対象領域を該演算処理領域の下部側に設定する。   Further, the evaluation function calculating means is configured to set the plurality of edge estimation projection transformation target areas in the calculation processing areas, and the first and second edge estimation projections adjacent to each other with the candidate positions as boundaries. A conversion target area is set on the upper side of the arithmetic processing area, and a second edge estimation projective transformation target area which is a lower area of the first and second edge estimation projective transformation target areas; A third edge estimation projective transformation target area having an interval according to the candidate position is set to the lower side of the arithmetic processing area.

この場合、各演算処理領域及び各候補位置の任意の1つの組において、該演算処理領域に設定される第1〜第3のエッジ推定用射影変換対象領域は、それぞれ、当該候補位置が、実エッジ投影線の位置に一致する場合に、段差部の上段側踏面が投影される領域、該上段側踏面に対して起立する面(段鼻の先端面や蹴り込み面)が投影される領域、段差部の下段側踏面が投影される領域に相当するものとして設定される領域である。そして、これらの第1〜第3のエッジ推定用射影変換対象領域は、候補位置に応じて変化することとなる。   In this case, in any one set of each calculation processing region and each candidate position, the first to third edge estimation projective transformation target regions set in the calculation processing region are respectively the actual candidate positions. A region where the upper step surface of the step portion is projected when it coincides with the position of the edge projection line, a region where a surface standing up with respect to the upper step surface (a tip surface of the nose or a kick surface) is projected, a step This is an area that is set to correspond to the area on which the lower tread surface is projected. And these 1st-3rd edge estimation projection conversion object area | regions will change according to a candidate position.

従って、ステレオカメラの撮像領域に昇りの段差部が存在する場合には、各演算処理領域及び各候補位置の各組に対応して前記評価関数算出手段により算出される評価関数の値には、該候補位置で隣接する第1及び第2のエッジ推定用射影変換対象領域の画像に加えて、これらと平面パラメータベクトルが異なる第3のエッジ推定用射影変換対象領域の画像の画素値が反映されることとなる。そのため、各演算処理領域の各候補位置の、実エッジ投影線の位置に対する適合度を表すものとしての前記評価関数の値の信頼性を高めることができる。   Therefore, when there is an ascending step in the imaging area of the stereo camera, the evaluation function value calculated by the evaluation function calculation unit corresponding to each set of each calculation processing area and each candidate position includes: In addition to the images of the first and second edge estimation projection transformation target areas adjacent to each other at the candidate position, the pixel values of the third edge estimation projection transformation target area images having different plane parameter vectors are reflected. The Rukoto. Therefore, it is possible to increase the reliability of the value of the evaluation function as representing the degree of fitness of each candidate position in each calculation processing region with respect to the position of the actual edge projection line.

一方、前記段差部種別判断手段によって前記段差部が降り段差部であると判断された場合にあっては、前記評価関数算出手段は、前記基準画像に前記複数条の演算処理領域を設定する処理において、各演算処理領域の上端が下段側踏面に対応する前記平面投影領域に位置し、且つ、各演算処理領域の下端が上段側踏面に対応する前記平面投影領域に位置するように前記複数条の演算処理領域を設定する。   On the other hand, when it is determined that the stepped portion is a descending stepped portion by the stepped portion type determining means, the evaluation function calculating means is a process for setting the plurality of calculation processing regions in the reference image. The plurality of lines are arranged such that the upper end of each calculation processing area is located in the planar projection area corresponding to the lower tread, and the lower end of each calculation processing area is located in the planar projection area corresponding to the upper tread. Set the calculation processing area.

これにより、前記複数条の演算処理領域のそれぞれに、前記実エッジ投影線が含まれるように該複数条の演算処理領域を基準画像に設定することができる。   Accordingly, the plurality of calculation processing areas can be set as the reference image so that each of the plurality of calculation processing areas includes the actual edge projection line.

さらに、前記評価関数算出手段は、前記各演算処理領域内に前記複数のエッジ推定用射影変換対象領域を設定する処理において、各候補位置を境界として隣接する第4及び第5のエッジ推定用射影変換対象領域を該演算処理領域内に設定する。   Further, the evaluation function calculating means is configured to set the plurality of edge estimation projection transformation target areas in the calculation processing areas, and the fourth and fifth edge estimation projections adjacent to each other with the candidate positions as boundaries. A conversion target area is set in the calculation processing area.

ここで、ステレオカメラの撮像流域に存在する段差部が降りの段差部である場合には、基準画像には、段鼻の先端面や蹴り込み面のように、上段側透明に対して起立する姿勢の面は写らない。従って、評価関数算出手段は、上記第4及び第5のエッジ推定用射影変換対象領域を演算処理領域内に設定する。これらの第4及び第5のエッジ推定用射影変換対象領域は、それぞれ、当該候補位置が、実エッジ投影線の位置に一致する場合に、段差部の上段側踏面が投影される領域、段差部の下段側踏面が投影される領域に相当するものとして設定される領域である。そして、これらの第4及び第5のエッジ推定用射影変換対象領域は、候補位置に応じて変化することとなる。   Here, when the stepped portion present in the imaging basin of the stereo camera is a stepped portion that descends, the reference image has an attitude that stands up with respect to the upper transparent side, such as the tip surface of the nose or the kicked surface. The face of is not reflected. Therefore, the evaluation function calculation means sets the fourth and fifth edge estimation projection transformation target areas in the calculation processing area. These fourth and fifth edge estimation projective transformation target regions are regions where the upper step side tread is projected when the candidate position matches the position of the actual edge projection line, and the step portion. This is an area set to correspond to the area where the lower tread is projected. Then, these fourth and fifth edge estimation projective transformation target regions change in accordance with the candidate positions.

従って、ステレオカメラの撮像領域に存在する段差部が降りの段差部である場合には、各演算処理領域及び各候補位置の各組に対応して前記評価関数算出手段により算出される評価関数の値には、該候補位置で隣接する第4及び第5のエッジ推定用射影変換対象領域の画像の画素値が適切に反映されることとなる。そのため、各演算処理領域の各候補位置の、実エッジ投影線の位置に対する適合度を表すものとしての前記評価関数の値の信頼性を適切に確保することとができる。   Therefore, when the stepped portion present in the imaging region of the stereo camera is a stepped stepped portion, the evaluation function calculated by the evaluation function calculating unit corresponding to each set of each calculation processing region and each candidate position The value appropriately reflects the pixel values of the images of the fourth and fifth edge estimation projection transformation target areas adjacent to each other at the candidate position. Therefore, it is possible to appropriately ensure the reliability of the value of the evaluation function as representing the degree of fitness of each candidate position in each arithmetic processing region with respect to the position of the actual edge projection line.

よって、第5発明によれば、ステレオカメラの撮像領域に存在する段差部が昇りの段差部と降りの段差部とのといずれであっても、実エッジ投影線に相当するものとして推定エッジ投影線を適切な信頼性で決定することができる。   Therefore, according to the fifth invention, the estimated edge projection is assumed to correspond to the actual edge projection line regardless of whether the stepped portion present in the imaging area of the stereo camera is an ascending stepped portion or a descending stepped portion. The line can be determined with appropriate reliability.

上記第5発明においては、前記ステレオカメラの撮像領域に存在する段差部が昇りの段差部である場合において、前記平面投影領域抽出手段により、段鼻の先端面や蹴り込み面のように上段側踏面に対して起立した姿勢の平面部分の平面投影領域を抽出するようにした場合には、前記第2のエッジ推定用射影変換対象領域に対応する射影変換用平面パラメータとして、当該起立した姿勢の平面部分の平面投影領域に対応する平面パラメータを使用することができる。   In the fifth aspect of the present invention, when the stepped portion present in the imaging region of the stereo camera is an ascending stepped portion, an upper stepped tread like a nose tip or kick surface is obtained by the planar projection region extracting means. When the plane projection area of the plane portion in the standing posture is extracted, the plane in the standing posture is used as the projection transformation plane parameter corresponding to the second edge estimation projection transformation target region. Planar parameters corresponding to the planar projection area of the part can be used.

ただし、段差部の段鼻の先端面や蹴り込み面のように上段側踏面に対して起立した姿勢の平面部分は、一般に、上段側踏面に対して一般に垂直もしくはそれに近い角度で起立する。そこで、前記第5発明においては、前記評価関数算出手段は、前記段差部種別判断手段によって前記段差部が昇りの段差部であると判断された場合に、各エッジ推定用射影変換対象領域に対応するエッジ推定用平面パラメータを設定する処理において、前記第1のエッジ推定用射影変換対象領域と前記第3のエッジ推定用射影変換対象領域とのそれぞれに対応する射影変換用平面パラメータとして、それぞれ、前記段差部の上段側踏面に対応する前記平面投影領域に関して決定された前記平面パラメータと、前記段差部の下段側踏面に対応する前記平面投影領域に関して決定された前記平面パラメータとを設定し、前記第2のエッジ推定用射影変換対象領域に対応する射影変換用平面パラメータとして、第1のエッジ推定用射影変換対象領域に対応する射影変換用平面パラメータにより規定される平面に対してあらかじめ定めた角度(例えば90deg又はそれに近い角度)で交差する平面の位置及び姿勢を表す平面パラメータを設定するようにしてもよい(第6発明)。   However, a flat portion in a posture standing with respect to the upper step surface, such as a step nose tip surface or a kick surface of the step portion, generally stands at an angle that is generally perpendicular to or close to the upper step surface. Therefore, in the fifth aspect of the invention, the evaluation function calculation means corresponds to each edge estimation projection transformation target area when the step difference type determination means determines that the step difference is an ascending step difference. In the process of setting the plane parameter for edge estimation to be performed, as the projection conversion plane parameter corresponding to each of the first edge estimation projection conversion target region and the third edge estimation projection conversion target region, Setting the plane parameter determined for the planar projection area corresponding to the upper step surface of the step portion and the plane parameter determined for the plane projection area corresponding to the lower step surface of the step portion, As the projection transformation plane parameter corresponding to the second edge estimation projection transformation target region, the first edge estimation projection transformation subject region. A plane parameter that represents the position and orientation of a plane that intersects the plane defined by the corresponding plane parameter for projective transformation at a predetermined angle (for example, 90 degrees or an angle close thereto) may be set (No. 6 invention).

この第6発明によれば、前記ステレオカメラの撮像領域に存在する段差部が昇りの段差部である場合に、前記平面領域抽出手段により、各踏面に対応する平面投影領域だけを抽出した場合であっても、第1〜第3のエッジ推定用射影変換対象領域に対応する射影変換用平面パラメータを適切に設定することができる。   According to the sixth invention, when the stepped portion present in the imaging region of the stereo camera is an ascending stepped portion, only the planar projection region corresponding to each tread is extracted by the planar region extracting means. Even if it exists, the plane parameter for projection transformation corresponding to the 1st-3rd edge estimation projection transformation object area | region can be set appropriately.

なお、前記段差部種別判断手段によって前記段差部が降りの段差部であると判断された場合にあっては、前記評価関数算出手段は、各エッジ推定用射影変換対象領域に対応するエッジ推定用平面パラメータを設定する処理において、前記第4のエッジ推定用射影変換対象領域と前記第5のエッジ推定用射影変換対象領域とのそれぞれに対応する射影変換用平面パラメータとして、それぞれ、前記段差部の下段側踏面に対応する前記平面投影領域に関して決定された前記平面パラメータと、前記段差部の上段側踏面に対応する前記平面投影領域に関して決定された前記平面パラメータとを設定するようにすればよい。   If the stepped portion type determining means determines that the stepped portion is a descending stepped portion, the evaluation function calculating means is for edge estimation corresponding to each edge estimation projective transformation target region. In the process of setting the plane parameter, the projection conversion plane parameter corresponding to each of the fourth edge estimation projective transformation target area and the fifth edge estimation projective transformation target area, The plane parameter determined for the planar projection area corresponding to the lower tread surface and the plane parameter determined for the plane projection area corresponding to the upper tread surface of the stepped portion may be set.

補足すると、前記第5発明又は第6発明において、前記第4発明の構成を組み込んだ場合には、前記段差部種別判断手段は、前記段差部存在検知手段により決定された段差部存在検知用平面パラメータにより示される平面の法線方向の向きに基づいて、前記段差部が昇りの段差部であるか、降りの段差部であるかを判断することができる。   Supplementally, in the fifth invention or the sixth invention, when the configuration of the fourth invention is incorporated, the stepped portion type determining means is the stepped portion presence detecting plane determined by the stepped portion presence detecting means. Based on the direction of the normal direction of the plane indicated by the parameter, it can be determined whether the stepped portion is an ascending stepped portion or a descending stepped portion.

これは、前記段差部が昇りの段差部であるか、降りの段差部であるかに依存して、前記段差部存在検知用平面パラメータにより示される平面の法線が、段差部が存在しない平坦な面の法線方向に対して傾く向きが異なるからである。   This is because, depending on whether the stepped portion is an ascending stepped portion or a descending stepped portion, the normal line of the plane indicated by the stepped portion presence detection plane parameter is flat without a stepped portion. This is because the direction of inclination with respect to the normal direction of the smooth surface is different.

このように前記段差部種別判断手段を構成することで、段差部存在検知手段により決定された段差部存在検知用平面パラメータを利用して容易に、前記段差部が昇りの段差部であるか、降りの段差部であるかを判断することができる。   By configuring the stepped portion type determining means in this way, the stepped portion is an ascending stepped portion easily using the stepped portion presence detecting plane parameter determined by the stepped portion presence detecting means, It can be judged whether it is a step part of descending.

本発明においては、さらに、前記段差部空間配置決定手段は、前記段差部の上段側踏面の先端側エッジを、該上段側踏面に対応する前記平面パラメータにより規定される平面に対してあらかじめ定めた角度で交差する方向で該段差部の下段側踏面に対応する前記平面パラメータにより規定される平面に投影した線を、該下段側踏面の基端側の境界線として決定する手段を含むことが好ましい(第7発明)。   In the present invention, the stepped portion space arrangement determining means predetermines a tip side edge of the upper stepped tread of the stepped portion with respect to a plane defined by the plane parameter corresponding to the upper stepped tread. It is preferable to include means for determining a line projected on a plane defined by the plane parameter corresponding to the lower step surface of the stepped portion in a direction intersecting with an angle as a boundary line on the base end side of the lower step surface. (Seventh invention).

この第8発明によれば、前記段差部の上段側踏面の先端側エッジの空間的な位置及び方向を表すデータに加えて、前記段差部空間配置決定手段により下段側踏面の基端側の境界線が決定される。このため、上段側踏面の一段下側の下段側踏面の奥行きを認識できることとなる。   According to the eighth aspect of the invention, in addition to the data representing the spatial position and direction of the leading edge of the upper tread surface of the stepped portion, the boundary of the base end side of the lower tread surface is determined by the stepped portion space arrangement determining means. A line is determined. For this reason, it becomes possible to recognize the depth of the lower step surface of the upper step side tread.

さらに本発明においては、前記移動体には、前記ステレオカメラのよる撮像時に該ステレオカメラの撮像領域にテクスチャを付与する投光器が搭載されていることが好ましい(第8発明)。   Further, in the present invention, it is preferable that the moving body is equipped with a projector that gives a texture to an imaging region of the stereo camera during imaging by the stereo camera (eighth invention).

この第8発明によれば、ある平面部分が投影されている基準画像の任意の領域の画像の画素値分布と、それに対応する参照画像の領域の画像を、適宜の平面パラメータに応じて射影変換した場合に得られる射影変換画像の画素値分布との差は、該平面パラメータが、実際の平面部分の平面パラメータに対して相違する場合に顕著なものとなりやすい。   According to the eighth aspect of the invention, the pixel value distribution of an image in an arbitrary area of a standard image on which a certain plane portion is projected and the corresponding image of the area of the reference image are projected and converted according to appropriate plane parameters. The difference from the pixel value distribution of the projective transformation image obtained in this case tends to become conspicuous when the plane parameter is different from the plane parameter of the actual plane portion.

このため、前記評価関数算出手段により算出される評価関数の値、あるいは、前記第2発明において平面投影領域抽出手段が決定する平面投影領域抽出用平面パラメータ(ひいては各平面投影領域の平面パラメータ)、あるいは、前記第4発明における段差部存在検知手段が決定する段差部存在検知用平面パラメータの信頼性を高めることができる。   For this reason, the value of the evaluation function calculated by the evaluation function calculation means, or the plane parameter for plane projection area extraction (and thus the plane parameter of each plane projection area) determined by the plane projection area extraction means in the second invention, Alternatively, the reliability of the stepped portion presence detection plane parameter determined by the stepped portion presence detecting means in the fourth invention can be enhanced.

図1(a),(b)はそれぞれ、本発明の一実施形態におけるロボット(移動体)が階段を昇ろうとしている状況、降ろうとしている状況を示す斜視図。FIGS. 1A and 1B are perspective views showing a situation in which a robot (moving body) according to an embodiment of the present invention is going up and down. 実施形態のロボットに搭載した投光器によってステレオカメラの撮像領域に付与されるテクスチャを例示する図。The figure which illustrates the texture provided to the imaging region of a stereo camera by the light projector mounted in the robot of embodiment. 代表的な階段の構造を説明するための図。The figure for demonstrating the structure of a typical staircase. 図1に示すロボットに備えた演算処理装置の機能的構成を示すブロック図。The block diagram which shows the functional structure of the arithmetic processing unit with which the robot shown in FIG. 1 was equipped. 図4に示す段差部存在検知部の処理を示すフローチャート。The flowchart which shows the process of the level | step-difference part presence detection part shown in FIG. 図5のSTEP1の処理を説明するための図。The figure for demonstrating the process of STEP1 of FIG. 図7(a),(b)は、図5のSTEP2の処理を説明するための図。7A and 7B are diagrams for explaining the processing of STEP2 in FIG. 図4に示す平面投影領域抽出部の処理を示すフローチャート。The flowchart which shows the process of the plane projection area | region extraction part shown in FIG. 図8のSTEP11,15の処理を説明するための図。The figure for demonstrating the process of STEP11,15 of FIG. 図8のSTEP13の処理により得られるデータを示すグラフ。The graph which shows the data obtained by the process of STEP13 of FIG. 図4に示すエッジ投影線推定処理部の処理を示すフローチャート。5 is a flowchart showing processing of an edge projection line estimation processing unit shown in FIG. 図4に示すエッジ投影線推定処理部の処理を示すフローチャート。5 is a flowchart showing processing of an edge projection line estimation processing unit shown in FIG. 図11のSTEP22の処理を説明するための図。The figure for demonstrating the process of STEP22 of FIG. 図11のSTEP23の処理を説明するための図。The figure for demonstrating the process of STEP23 of FIG. 図11のSTEP30の処理を説明するための図。The figure for demonstrating the process of STEP30 of FIG. 図16(a),(b)は、図11のSTEP32の処理により得られるデータを例示するグラフ。16A and 16B are graphs illustrating data obtained by the processing of STEP 32 in FIG. 図11のSTEP35の処理を説明するための図。The figure for demonstrating the process of STEP35 of FIG. 図11のSTEP36の処理を説明するための図。The figure for demonstrating the process of STEP36 of FIG. 図12のSTEP37の処理を説明するための図。The figure for demonstrating the process of STEP37 of FIG. 図12のSTEP38の処理を説明するための図。The figure for demonstrating the process of STEP38 of FIG. 図12のSTEP45の処理を説明するための図。The figure for demonstrating the process of STEP45 of FIG.

本発明の一実施形態を図1〜図20を参照して以下に説明する。   An embodiment of the present invention will be described below with reference to FIGS.

図1(a),(b)を参照して、本実施形態では、移動体としての脚式移動ロボット1によって階段等の段差部の空間的な配置位置を認識する場合を例にとって説明する。図示例の脚式移動ロボット1(以下、単にロボット1という)は、左右一対の2つの脚体を備える2足歩行ロボットである。   With reference to FIGS. 1A and 1B, in the present embodiment, a case where a spatial arrangement position of a stepped portion such as a staircase is recognized by a legged mobile robot 1 as a moving body will be described as an example. An illustrated legged mobile robot 1 (hereinafter simply referred to as a robot 1) is a biped walking robot including a pair of left and right legs.

このロボット1には、ステレオカメラを構成する左右一対のカメラ3R,3Lと、カメラ3R,3Lの撮像領域に投光する投光器4とが搭載されている。   The robot 1 is equipped with a pair of left and right cameras 3R and 3L that constitute a stereo camera, and a projector 4 that projects light onto the imaging areas of the cameras 3R and 3L.

カメラ3Rは、撮像領域に向って右側のカメラ、カメラ3Lは、撮像領域に向って左側のカメラであり、それぞれCCDカメラ等により構成されている。なお、カメラ3R,3Lの撮像画像は、モノトーン画像及びカラー画像のいずれの画像であってもよい。また、図1(a),(b)では、カメラ3R,3Lは、ロボット1の頭部に搭載されているが、ロボット1の胸部等、他の部位に搭載されていてもよい。   The camera 3R is a camera on the right side facing the imaging area, and the camera 3L is a camera on the left side facing the imaging area, and each is constituted by a CCD camera or the like. Note that images captured by the cameras 3R and 3L may be either monotone images or color images. 1A and 1B, the cameras 3R and 3L are mounted on the head of the robot 1, but may be mounted on other parts such as the chest of the robot 1.

ロボット1は、これらのカメラ3R,3Lによって、ロボット1の周辺の移動環境(主に、ロボット1の進行方向前方の環境)を撮像することにより、カメラ3Rの撮像画像とカメラ3Lの撮像画像とから構成されるステレオ画像を随時、取得することが可能となっている。   The robot 1 captures a moving environment around the robot 1 (mainly, an environment ahead of the direction of travel of the robot 1) with these cameras 3R and 3L, so that the captured image of the camera 3R and the captured image of the camera 3L It is possible to acquire a stereo image composed of

また、本実施形態では、ロボット1は、カメラ3R,3Lによる撮像時に、その撮像領域にテクスチャを付与するための補助光SLを投光器4から投光する。この投光器4は、本実施形態では、図2に示す如く、撮像領域の面(図2では平面)に、互いに平行に並ぶ複数の斜行輝線SLaと、この斜行輝線SLaに対して交差する方向で互いに平行に並ぶ複数の斜行輝線SLbとから構成されるテクスチャを形成する所定色(例えば赤色)のレーザ光を上記補助光SLとして出力する。   Further, in the present embodiment, the robot 1 projects the auxiliary light SL from the projector 4 for applying a texture to the imaging area during imaging by the cameras 3R and 3L. In the present embodiment, as shown in FIG. 2, the projector 4 intersects a plurality of oblique bright lines SLa arranged in parallel with each other on the surface of the imaging region (a plane in FIG. 2) and the oblique bright lines SLa. Laser light of a predetermined color (for example, red) that forms a texture composed of a plurality of oblique bright lines SLb arranged in parallel with each other in the direction is output as the auxiliary light SL.

なお、投光器4により形成するテクスチャは、上記のパターンに限らず、ランダムドットなど、一様でない他のパターンの模様であってもよい。   Note that the texture formed by the projector 4 is not limited to the above pattern, but may be a pattern with another pattern such as random dots.

そして、ロボット1は、カメラ3R,3Lによって取得したステレオ画像等を基に、周辺の移動環境の床形状や設置物等を認識しつつ移動する。   Then, the robot 1 moves while recognizing the floor shape, the installed object, and the like of the surrounding moving environment based on the stereo images acquired by the cameras 3R and 3L.

例えば、図1(a),(b)に示すように、ロボット1の進行方向前方に段差部としての階段50(図1(a)では昇り階段、図1(b)では降り階段)が存在している状況において、ロボット1は、カメラ3R,3Lによって取得した進行方向前方の環境のステレオ画像を基に、カメラ3R,3Lの撮像領域に階段50が存在することや、その階段50の空間的な配置位置を認識する。   For example, as shown in FIGS. 1 (a) and 1 (b), there is a staircase 50 (ascending staircase in FIG. 1 (a), descending staircase in FIG. 1 (b)) in front of the robot 1 in the direction of travel. In the situation, the robot 1 has the staircase 50 in the imaging area of the cameras 3R and 3L based on the stereo image of the environment ahead in the traveling direction acquired by the cameras 3R and 3L, and the space of the staircase 50. Recognizing specific placement positions.

この場合、本実施形態におけるロボット1では、階段50の空間的な配置位置を認識するために、階段50の各段の踏面51の先端側エッジ52及び基端側エッジ53のそれぞれの空間的な配置位置と、各踏面51を包含する平面の空間的な姿勢(法線方向)とが推定される。   In this case, in the robot 1 according to the present embodiment, in order to recognize the spatial arrangement position of the staircase 50, the spatial positions of the leading edge 52 and the proximal edge 53 of the tread surface 51 of each step of the staircase 50 are determined. An arrangement position and a spatial posture (normal direction) of a plane including each tread surface 51 are estimated.

ここで、ロボット1が認識する階段50の各踏面51の先端側エッジ52及び基端側エッジ53について補足すると、図1(a)に示すロボット1の如く、階段50をその下段側踏面51が手前側、該下段側踏面51の一段上側の上段側踏面51が奥側となる視線で見た場合においては、各踏面51の先端側エッジ52は、該踏面51の外形の境界線のうち、手前側で横方向(階段50の幅方向)に直線状に延在する境界線である。また、この場合において、各踏面51の基端側エッジ53は、該踏面51の外形の境界線のうち、該踏面51の奥側で横方向に直線状に延在する境界線である。   Here, supplementing the leading edge 52 and the proximal edge 53 of each tread 51 of the staircase 50 recognized by the robot 1, the lower tread 51 of the staircase 50 is moved to the staircase 50 as in the robot 1 shown in FIG. When viewed from a line of sight where the upper tread surface 51 on the near side and the upper step side tread 51 is on the back side, the leading edge 52 of each tread surface 51 is the boundary line of the outer shape of the tread surface 51. This is a boundary line extending linearly in the lateral direction (the width direction of the stairs 50) on the front side. Further, in this case, the base end side edge 53 of each tread surface 51 is a boundary line extending linearly in the lateral direction on the back side of the tread surface 51 among the boundary lines of the outer shape of the tread surface 51.

また、図1(b)に示すロボット1の如く、階段50をその上段側踏面51が手前側、該上段側踏面51の一段下側の下段側踏面51が奥側となる視線で見た場合にいては、各踏面51の先端側エッジ52は、上該踏面51の外形の境界線のうち、奥側で横方向(階段50の幅方向)に直線状に延在する境界線である。また、この場合において、各踏面51の基端側エッジ53は、該踏面51の外形の境界線のうち、該踏面51の手前側で横方向に直線状に延在する境界線である。   Further, as in the robot 1 shown in FIG. 1B, when the staircase 50 is viewed with a line of sight where the upper tread surface 51 is on the near side and the lower tread surface 51 on the upper step side tread 51 is on the back side. In this case, the leading edge 52 of each tread surface 51 is a boundary line extending linearly in the lateral direction (the width direction of the stairs 50) on the back side among the boundary lines of the outer shape of the upper tread surface 51. Further, in this case, the base end side edge 53 of each tread surface 51 is a boundary line extending linearly in the lateral direction on the front side of the tread surface 51 among the outer boundary lines of the tread surface 51.

また、段差部としての階段の構造に関して図3を参照して補足すると、階段の各段の踏面の先端部は、一般に段鼻と言われる部分である。従って、階段の踏面の先端側エッジというのは、換言すれば、階段の各段の段鼻の上面の先端側境界線を意味する。また、階段の上段側踏面の先端側と、その一段下側の下段側踏面の基端側との間での部分は、一般に蹴込みと言われる。そして、階段の各段の踏面の先端部(段鼻)は、多くの場合、図3に示す如く、その先端面が、上記蹴込みの箇所に起立した姿勢で形成される面部(以降、蹴込み面という)よりも若干突き出るように形成される。   Further, supplementing the structure of the staircase as the step portion with reference to FIG. 3, the tip portion of the tread surface of each step of the staircase is a portion generally referred to as a nose. Accordingly, the leading edge of the tread surface of the staircase means, in other words, the front boundary line of the upper surface of the nose of each step of the staircase. In addition, a portion between the distal end side of the upper step surface of the stairs and the proximal end side of the lower step surface of the lower step is generally referred to as kicking. In many cases, the tip (step nose) of the tread surface of each step of the staircase is a surface portion (hereinafter referred to as a kick-in) formed with the tip surface standing upright at the above-mentioned kick-in location as shown in FIG. It is formed so as to protrude slightly from the surface).

但し、本実施形態で、段差部の例として主に説明する階段では、段鼻の先端面が、蹴込み面よりも若干突き出ている必要はない。例えば、図1(a),(b)に簡略的に記載した階段50のように、段鼻の先端面と蹴込み面とが面一もしくはほぼ面一に形成されていてもよい。   However, in the present embodiment, in the staircase that is mainly described as an example of the stepped portion, it is not necessary that the tip end surface of the stair nose protrudes slightly from the kicked surface. For example, like the staircase 50 described briefly in FIGS. 1A and 1B, the front end surface of the step nose and the kicking surface may be formed flush or substantially flush.

また、本実施形態で、段差部の例として主に説明する階段は、蹴込みの箇所に、蹴込み面を形成する板部材が設けられていない(蹴込み面が存在しない)構造のものであってもよい。   In the present embodiment, the staircase that is mainly described as an example of the stepped portion has a structure in which the plate member that forms the kick surface is not provided at the place of the kick (the kick surface does not exist). There may be.

図4を参照して、ロボット1には、CPU、RAM、ROMを含む電子回路ユニットにより構成された演算処理装置10が搭載されている。そして、この演算処理装置10にカメラ3R,3L及び投光器4が接続されている。   Referring to FIG. 4, the robot 1 is equipped with an arithmetic processing unit 10 configured by an electronic circuit unit including a CPU, a RAM, and a ROM. The cameras 3R and 3L and the projector 4 are connected to the arithmetic processing unit 10.

この演算処理装置10は、カメラ3R,3L及び投光器4の動作制御を行なう機能を有しており、カメラ3R,3Lの撮像動作と、投光器4の補助光SLの出力動作とを互いに同期した所要のタイミング(所定の制御処理周期のタイミング)で行なわせるように制御する。そして、演算処理装置10は、カメラ3R,3Lによりそれぞれ取得される撮像画像の画素値データ(撮像画像を構成する画素毎の輝度、彩度、色相等を表すデータ)を取り込み、この画素値データを、図示しない画像メモリに逐次更新しつつ、記憶保持する。   This arithmetic processing unit 10 has a function of controlling the operations of the cameras 3R and 3L and the projector 4, and the imaging operation of the cameras 3R and 3L and the output operation of the auxiliary light SL of the projector 4 are synchronized with each other. Is controlled so as to be performed at the timing of (a timing of a predetermined control processing cycle). Then, the arithmetic processing device 10 takes in pixel value data (data representing luminance, saturation, hue, and the like for each pixel constituting the captured image) of the captured images respectively acquired by the cameras 3R and 3L, and this pixel value data Are stored and held while being sequentially updated in an image memory (not shown).

なお、カメラ3R,3Lに入射する光の波長を制限するバンドパスフィルタを備えておき、補助光SLの波長に一致もしくはほぼ一致する波長の光だけをカメラ3R,3Lで撮像するようにしてもよい。   It should be noted that a band-pass filter that limits the wavelength of light incident on the cameras 3R and 3L is provided, and only the light having a wavelength that matches or substantially matches the wavelength of the auxiliary light SL may be captured by the cameras 3R and 3L. Good.

さらに、演算処理装置10は、実装されたプログラムによって実現される機能として、カメラ3R,3Lの撮像領域に段差部が存在しているか否かを検知する段差部存在検知部11と、該撮像領域に存在する実際の段差部の平面部分をステレオ画像のうちの基準画像に投影してなる平面投影領域を抽出すると共に各平面投影領域に対応する平面部分の平面パラメータを決定(推定)する平面投影領域抽出部12と、撮像領域に存在する実際の段差部の踏面の先端側エッジを基準画像に投影してなる実エッジ投影線を推定(特定)するための処理を実行するエッジ投影線推定処理部13と、段差部の空間的な配置位置を特定する段差部空間配置決定部14とを備えている。そして、演算処理装置10は、これらの機能部11〜14の処理によって、本発明の段差部認識装置の一実施形態としての機能を実現する。   Furthermore, the arithmetic processing device 10 includes a stepped portion presence detection unit 11 that detects whether or not a stepped portion is present in the imaging regions of the cameras 3R and 3L, and the imaging region as functions realized by the installed program. A plane projection that extracts a plane projection area formed by projecting a plane portion of an actual stepped portion present in a reference image among stereo images and determines (estimates) plane parameters of the plane portion corresponding to each plane projection area An edge projection line estimation process that executes processing for estimating (specifying) an actual edge projection line that is obtained by projecting the leading edge of the tread of the actual stepped portion existing in the imaging region onto the reference image Part 13 and a step part space arrangement determining part 14 for specifying a spatial arrangement position of the step part. And the arithmetic processing apparatus 10 implement | achieves the function as one Embodiment of the level | step difference recognition apparatus of this invention by the process of these function parts 11-14.

この場合、本実施形態では、カメラ3Rの撮像画像とカメラ3Lの撮像画像とのうちの一方、例えばカメラ3Rの撮像画像を基準画像、他方のカメラ3Lの撮像画像を参照画像として使用する。なお、演算処理装置10は、ロボット1の動作制御を行なう機能を備えていてもよい。   In this case, in the present embodiment, one of the captured image of the camera 3R and the captured image of the camera 3L, for example, the captured image of the camera 3R is used as the reference image, and the captured image of the other camera 3L is used as the reference image. Note that the arithmetic processing device 10 may have a function of controlling the operation of the robot 1.

以下に、上記段差部存在検知部11、平面投影領域抽出部12、エッジ投影線推定処理部13、段差部空間配置決定部14の処理を詳細に説明する。   Hereinafter, the processes of the stepped portion presence detecting unit 11, the planar projection region extracting unit 12, the edge projected line estimation processing unit 13, and the stepped portion space arrangement determining unit 14 will be described in detail.

カメラ3R,3Lによって取得されたロボット1の進行方向前方の撮像画像(ステレオ画像)の画素値データが段差部存在検知部11に与えられる。そして、段差部存在検知部11は、与えられたステレオ画像を使用して、図5のフローチャートに示す処理を実行する。   Pixel value data of a captured image (stereo image) ahead of the robot 1 in the traveling direction acquired by the cameras 3R and 3L is provided to the stepped portion presence detecting unit 11. And the level | step-difference part presence detection part 11 performs the process shown to the flowchart of FIG. 5 using the given stereo image.

段差部存在検知部11は、まず、STEP1の処理を実行する。このSTEP1では、段差部存在検知部11は、与えられたステレオ画像のうちの基準画像内に、図6に例示する如く、段差部の存在の有無を検知するための領域である段差部存在検知用領域R1を設定する。   The step difference presence detection unit 11 first executes the processing of STEP1. In STEP 1, the stepped portion presence detection unit 11 detects a stepped portion presence detection that is a region for detecting the presence or absence of a stepped portion in a reference image of a given stereo image as illustrated in FIG. 6. A use area R1 is set.

図6に示す基準画像は、カメラ3R,3Lの撮像領域に階段50(図示例では昇り階段)が存在する場合の基準画像を概略的に例示したものである。この場合、階段50の表面には前記投光器4から出力された補助光SLによって、テクスチャとしての輝線SLa,SLbが付与される。この輝線SLa,SLbも基準画像に投影される。なお、図6では基準画像に投影される輝線SLa,SLbの一部を代表的に示している。   The reference image shown in FIG. 6 schematically illustrates the reference image in the case where the staircase 50 (ascending staircase in the illustrated example) exists in the imaging regions of the cameras 3R and 3L. In this case, bright lines SLa and SLb as textures are given to the surface of the staircase 50 by the auxiliary light SL output from the projector 4. The bright lines SLa and SLb are also projected on the reference image. FIG. 6 representatively shows a part of the bright lines SLa and SLb projected on the reference image.

STEP1で段差部存在検知部11が設定する段差部存在検知用領域R1は、本実施形態では、その大きさ(基準画像の横方向及び縦方向での幅)があらかじめ定められた方形状の領域である。この段差部存在検知用領域R1の横方向の幅は、階段等の段差部が基準画像に投影されている場合に、該基準画像における段差部の横方向の幅内に十分に収まる程度の大きさに設定されている。   In this embodiment, the step portion presence detection region R1 set by the step portion presence detection unit 11 in STEP 1 is a rectangular region whose size (width in the horizontal direction and vertical direction of the reference image) is predetermined. It is. The width in the horizontal direction of the stepped portion presence detection region R1 is large enough to fit within the width in the horizontal direction of the stepped portion in the reference image when a stepped portion such as a staircase is projected onto the reference image. Is set.

また、段差部存在検知用領域R1の縦方向の幅は、階段等の段差部が基準画像に投影されている場合に、段差部存在検知用領域R1内に複数段の踏面の画像が含まれるような大きさに設定されている。   Further, the vertical width of the stepped portion presence detection region R1 includes images of a plurality of steps on the stepped portion presence detection region R1 when a stepped portion such as a staircase is projected onto the reference image. It is set to such a size.

そして、段差部存在検知用領域R1は、基準画像内で、ロボット1の進行予定領域(ロボット1を目標とする進行方向に移動させた場合に該ロボット1が通過する領域)に存在するような位置に配置される。   Then, the stepped portion presence detection region R1 exists in the planned travel region of the robot 1 (the region through which the robot 1 passes when the robot 1 is moved in the target travel direction) in the reference image. Placed in position.

次いで、段差部存在検知部11は、STEP2の処理を実行する。このSTEP2では、段差部存在検知部11は、基準画像内に設定した段差部存在検知用領域R1の画像が、ある平面上の部分の投影画像であると仮定し、この仮定にできるだけ適合するような当該平面の空間的な位置及び姿勢を表す平面パラメータを、射影変換(詳しくは平面射影変換)を利用した手法によって決定する。   Next, the stepped portion presence detection unit 11 performs the processing of STEP2. In STEP 2, the stepped portion presence detection unit 11 assumes that the image of the stepped portion presence detection region R 1 set in the reference image is a projection image of a portion on a certain plane, and fits this assumption as much as possible. A plane parameter representing the spatial position and orientation of the plane is determined by a method using projective transformation (specifically, plane projective transformation).

本実施形態では、上記平面パラメータとして、平面の法線方向の単位ベクトル↑nを、基準画像を撮像するカメラ3R(以降、基準カメラ3ということがある)の光学中心Cから該平面までの距離dにより除算してなるベクトル↑m(≡↑n/d)を使用する。   In the present embodiment, the unit vector ↑ n in the normal direction of the plane is used as the plane parameter, and the distance from the optical center C of the camera 3R that captures the reference image (hereinafter also referred to as the reference camera 3) to the plane. A vector ↑ m (≡ ↑ n / d) obtained by dividing by d is used.

例えば、図7(a)又は図7(b)に二点鎖線で示す平面(図では仮想平面)の位置及び姿勢を表す平面パラメータは、図中に参照符号↑m1を付した矢印で示すように、該平面に垂直で、且つ大きさが1/dのベクトルとして表現される。   For example, a plane parameter representing the position and orientation of a plane (a virtual plane in the figure) indicated by a two-dot chain line in FIG. 7 (a) or FIG. 7 (b) is indicated by an arrow with a reference symbol ↑ m1 in the figure. The vector is expressed as a vector perpendicular to the plane and having a size of 1 / d.

以降、このように定義されるベクトル↑mを平面パラメータベクトルという。なお、本明細書では、“↑”は、ベクトル(縦ベクトル)を表現する記号として用いる。   Hereinafter, the vector ↑ m defined in this way is referred to as a plane parameter vector. In this specification, “↑” is used as a symbol representing a vector (vertical vector).

ここで、上記射影変換は、一般的に言えば、ステレオ画像を構成する2つの撮像画像に、階段の踏面等の平面部分を投影した場合に、一方の撮像画像中における平面部分の画像を、他方の撮像画像における当該平面部分の画像に変換するものである。その変換を行なう射影変換行列Pは、カメラ3R,3Lの2つの撮像画像のそれぞれの画像座標(各撮像画像における各画素の位置を表す二次元座標)を同次座標で表現した場合に、公知のように次式(1−1)により表される行列である。   Here, generally speaking, the projective transformation, when projecting a planar portion such as a tread of a staircase on two captured images constituting a stereo image, converts an image of the planar portion in one captured image, The image is converted into an image of the plane portion in the other captured image. The projective transformation matrix P for performing the conversion is known when the image coordinates (two-dimensional coordinates representing the position of each pixel in each captured image) of the two captured images of the cameras 3R and 3L are expressed in homogeneous coordinates. This is a matrix represented by the following equation (1-1).


P=R+↑t・↑mT ……(1−1)

P = R + ↑ t · ↑ m T (1-1)

式(1−1)におけるRは、カメラ3R,3Lのそれぞれのカメラ座標系の間の回転行列、↑tはそれらのカメラ座標系の間の並進移動ベクトル、↑mTは上記平面パラメータベクトル↑mを転置したベクトルである。 In Expression (1-1), R is a rotation matrix between the camera coordinate systems of the cameras 3R and 3L, ↑ t is a translation vector between the camera coordinate systems, and ↑ m T is the plane parameter vector ↑ This is a transposed vector of m.

この場合、カメラ3Rのカメラ座標系は、図7(a),(b)に示す如く、カメラ3Rに対して固定された座標系である。このカメラ座標系は、例えば、カメラ3Rの光学中心Cを原点として、光軸Lcの方向をz軸方向、カメラ3Rの撮像面の上下方向(縦方向)をy軸方向、該撮像面の横方向をx軸方向とする3軸座標系である。左カメラ3Lのカメラ座標系についても同様である。   In this case, the camera coordinate system of the camera 3R is a coordinate system fixed with respect to the camera 3R, as shown in FIGS. In this camera coordinate system, for example, with the optical center C of the camera 3R as the origin, the direction of the optical axis Lc is the z-axis direction, the vertical direction (vertical direction) of the imaging surface of the camera 3R is the y-axis direction, and the horizontal direction of the imaging surface It is a triaxial coordinate system in which the direction is the x-axis direction. The same applies to the camera coordinate system of the left camera 3L.

上記回転行列R及び並進移動ベクトル↑tは、カメラ3R,3Lの相互の相対的な位置関係及び姿勢関係に依存して定まるものであり、本実施形態ではあらかじめ特定されている。従って、射影変換行列Pは、平面パラメータベクトル↑mによって規定されるものである。   The rotation matrix R and the translation vector ↑ t are determined depending on the relative positional relationship and posture relationship between the cameras 3R and 3L, and are specified in advance in this embodiment. Accordingly, the projective transformation matrix P is defined by the plane parameter vector ↑ m.

補足すると、基準画像から参照画像への射影変換行列と、これの逆変換の射影変換行列(参照画像から基準画像への射影変換行列)とは、いずれも、式(1−1)の右辺の形で表現される。ただし、上記R,↑t,↑mの値は、それぞれの射影変換行列で異なる。   Supplementally, the projection transformation matrix from the standard image to the reference image and the projection transformation matrix of the inverse transformation thereof (projection transformation matrix from the reference image to the standard image) are both on the right side of Expression (1-1). Expressed in shape. However, the values of R, ↑ t, and ↑ m are different for each projection transformation matrix.

具体的には、式(1−1)により表現される射影変換行列Pを基準画像及び参照画像のうちの一方から他方へのへの射影変換行列とした場合、その逆変換の射影変換行列(以降、これをP-1と表記する)は、次式(1−2)の但し書きの式(1−2a)〜(1−2d)により定義されるR’、↑t’、↑m’、↑d’を用いて、上記式(1−1)と同様の形の式(1−2)により表される。なお、RT (↑m’)Tはそれぞれ、Rの転値行列、(↑m’)の転値ベクトルである。 Specifically, when the projective transformation matrix P expressed by the expression (1-1) is a projective transformation matrix from one of the standard image and the reference image to the other, the inverse transformation of the projective transformation matrix ( Hereinafter, this is expressed as P −1 ) is defined by R ′, ↑ t ′, ↑ m ′, ↑ m ′, defined by the proviso expressions (1-2a) to (1-2d) of the following expression (1-2): Using ↑ d ′, it is expressed by Expression (1-2) having the same form as Expression (1-1) above. Note that R T and (↑ m ′) T are an R transpose matrix and an (↑ m ′) transpose vector, respectively.


-1=R'+↑t’・(↑m’)T ……(1−2)
但し、
R’≡RT ……(1−2a)
↑t’≡−RT・↑t ……(1−2b)
↑m’≡R・↑m/d’ ……(1−2c)
↑d’≡d・(1+↑mT・RT・↑t) ……(1−2d)

P −1 = R ′ + ↑ t ′ · (↑ m ′) T (1-2)
However,
R′≡R T (1-2a)
↑ t'≡-R T・ ↑ t ...... (1-2b)
↑ m'≡R ・ ↑ m / d '(1-2c)
↑ d'≡d ・ (1 + ↑ m T・ R T・ ↑ t) ...... (1-2d)

以降の本実施形態の説明では、便宜上、基準画像から参照画像への射影変換行列を式(1−1)により表される射影変換行列Pとし、参照画像から基準画像への射影変換行列を式(1−2)により表される射影変換行列P-1とする。また、平面パラメータベクトル↑mは、便宜上、基準カメラ3(本実施形態ではカメラ3R)のカメラ座標系で見たベクトルとして表記されるものとする。 In the following description of the present embodiment, for the sake of convenience, the projection transformation matrix from the base image to the reference image is referred to as a projection transformation matrix P represented by Equation (1-1), and the projection transformation matrix from the reference image to the base image is represented by Equation (1-1). Let it be a projective transformation matrix P −1 represented by (1-2). Further, the plane parameter vector ↑ m is expressed as a vector viewed in the camera coordinate system of the reference camera 3 (camera 3R in the present embodiment) for convenience.

基準画像における段差部存在検知用領域R1の画像が、ある平面上の部分(平面部分)の投影画像である場合には、その段差部存在検知用領域R1の画像と、該段差部存在検知用領域R1に対応する参照画像中の領域(詳しくは、基準画像の段差部存在検知用領域R1に投影されている実空間(実際の空間)の平面部分を、参照画像に投影してなる領域)の画像との間の関係は、上記射影変換によって対応づけられる。   When the image of the stepped portion presence detection region R1 in the reference image is a projection image of a portion on a certain plane (planar portion), the image of the stepped portion presence detection region R1 and the stepped portion presence detection A region in the reference image corresponding to the region R1 (specifically, a region obtained by projecting a planar portion of the real space (actual space) projected onto the stepped portion presence detection region R1 of the standard image onto the reference image) The relationship between these images is correlated by the projective transformation.

より詳しくは、基準画像の段差部存在検知用領域R1に対応する参照画像中の領域の画像を、当該平面部分の平面パラメータベクトル↑mに応じて上記式(1−2)に規定される射影変換行列P-1により射影変換した場合に得られる射影変換画像の画素値分布は、基準画像の段差部存在検知用領域R1の画像の画素値分布に一致もしくはほぼ一致することとなる。 More specifically, an image of a region in the reference image corresponding to the stepped portion presence detection region R1 of the standard image is projected according to the above formula (1-2) according to the plane parameter vector ↑ m of the plane portion. The pixel value distribution of the projective transformation image obtained when the projective transformation is performed using the transformation matrix P −1 matches or substantially matches the pixel value distribution of the image of the stepped portion presence detection region R1 of the reference image.

なお、上記射影変換画像の各画素位置(基準画像の画像座標系で見た位置)での画素値は、その画素位置を、当該平面部分の平面パラメータベクトル↑mに応じて上記式(1−1)により規定される射影変換行列Pによって変換してなる参照画像内の画素位置(参照画像の画像座標系で見た位置)の画素値に一致する。従って、上記射影変換画像は、換言すれば、基準画像の段差部存在検知用領域R1の全ての画素位置での画素値を、射影変換行列Pにより該段差部存在検知用領域R1の各画素位置に対応付けられる参照画像内の画素位置の画素値で置き換えてなる画像に一致する。   It should be noted that the pixel value at each pixel position of the projective transformation image (position seen in the image coordinate system of the reference image) is expressed by the above equation (1-) according to the plane parameter vector ↑ m of the plane portion. It coincides with the pixel value of the pixel position in the reference image (position viewed in the image coordinate system of the reference image) converted by the projective transformation matrix P defined in 1). Therefore, in other words, the projective transformation image is obtained by converting the pixel values at all pixel positions of the stepped portion presence detection region R1 of the reference image into the pixel positions of the stepped portion presence detecting region R1 using the projective transformation matrix P. Matches the image that is replaced with the pixel value at the pixel position in the reference image associated with.

STEP2の処理では、段差部存在検知部11は、基準画像内に設定した段差部存在検知用領域R1に平面部分が投影されていると仮定した場合の当該仮想的な平面(仮想平面)の平面パラメータベクトル↑mを、以下に説明する処理によって決定する。   In the processing of STEP 2, the stepped portion presence detecting unit 11 is a plane of the virtual plane (virtual plane) when it is assumed that a planar portion is projected on the stepped portion presence detecting region R <b> 1 set in the reference image. The parameter vector ↑ m is determined by the process described below.

すなわち、段差部存在検知部11は、平面パラメータベクトル↑mの暫定値(候補値)を設定する処理、基準画像の段差部存在検知用領域R1の画像の画素値分布と、設定した↑mの暫定値により規定される射影変換によって、段差部存在検知用領域R1に対応する参照画像中の領域の画像を射影変換した場合に得られる射影変換画像の画素値分布との誤差を表す誤差関数D1の値を算出する処理、並びに、この誤差関数D1の値に応じて平面パラメータベクトル↑mの暫定値を更新する処理を、既定の所定条件が満たされるまで繰り返す。   That is, the stepped portion presence detecting unit 11 sets the provisional value (candidate value) of the planar parameter vector ↑ m, the pixel value distribution of the image of the stepped portion presence detection region R1 of the reference image, and the set ↑ m An error function D1 representing an error from the pixel value distribution of the projective transformation image obtained when the image of the region in the reference image corresponding to the stepped portion presence detection region R1 is subject to the projective transformation defined by the provisional value. And the process of updating the provisional value of the plane parameter vector ↑ m in accordance with the value of the error function D1 are repeated until a predetermined predetermined condition is satisfied.

そして、段差部存在検知部11は、上記所定条件が満たされたときの↑mの暫定値を、基準画像の段差部存在検知用領域R1に投影されている仮想平面の平面パラメータベクトル↑mとして決定する。以降、このように段差部存在検知部11が決定する平面パラメータベクトル↑mを段差部存在検知用平面パラメータベクトル↑m1という。   Then, the stepped portion presence detection unit 11 uses the provisional value of ↑ m when the predetermined condition is satisfied as a plane parameter vector ↑ m of the virtual plane projected on the stepped portion presence detection region R1 of the reference image. decide. Hereinafter, the plane parameter vector ↑ m determined by the step portion presence detection unit 11 in this way is referred to as a step portion presence detection plane parameter vector ↑ m1.

ここで、基準画像の段差部存在検知用領域R1内の任意の画素位置Qでの画素値をI1(Q)、基準画像上の画素位置Qを平面パラメータベクトル↑mの暫定値により規定される前記式(1−1)の射影変換行列Pにより射影変換してなる参照画像上の画素位置をf(Q)、この画素位置f(Q)での参照画像の画素値をI2(f(Q))、段差部存在検知用領域R1内のトータルの画素数をN1とする。このとき、上記誤差関数D1は、例えば次式(2−1)により与えられる関数である。   Here, the pixel value at an arbitrary pixel position Q in the stepped portion presence detection region R1 of the reference image is defined by I1 (Q), and the pixel position Q on the reference image is defined by the provisional value of the plane parameter vector ↑ m. The pixel position on the reference image obtained by projective transformation by the projective transformation matrix P of the equation (1-1) is f (Q), and the pixel value of the reference image at this pixel position f (Q) is I2 (f (Q )), And the total number of pixels in the step portion presence detection region R1 is N1. At this time, the error function D1 is a function given by the following equation (2-1), for example.

なお、撮像画像(基準画像又は参照画像)の各画素の画素値は、本実施形態では、該画素における撮像画像の輝度値である。ただし、撮像画像がカラー画像である場合には、撮像画像の色相又は彩度を画素値として使用してもよい。   In the present embodiment, the pixel value of each pixel of the captured image (base image or reference image) is the luminance value of the captured image at the pixel. However, when the captured image is a color image, the hue or saturation of the captured image may be used as the pixel value.


D1=(1/N1)・Σ(I1(Q)−I2(f(Q)))2 ……(2−1)

D1 = (1 / N1) · Σ (I1 (Q) −I2 (f (Q))) 2 (2-1)

式(2−1)のΣは、段差部存在検知用領域R1内の全ての画素についての総和を意味する。従って、式(2−1)により定義される誤差関数D1は、基準画像の段差部存在検知用領域R1での、画素値I1(Q)と、これに対応する参照画像の射影変換画像の画素値I2(f(Q))との差の二乗値の平均値を、段差部存在検知用領域R1における基準画像の画素値分布と、これに対応する参照画像の射影変換画像の画素値分布との誤差として表現する関数である。   In the equation (2-1), Σ means the sum of all the pixels in the stepped portion presence detection region R1. Therefore, the error function D1 defined by the equation (2-1) is the pixel value I1 (Q) in the stepped portion presence detection region R1 of the standard image and the corresponding pixel of the projective transformation image of the reference image. The average value of the square values of the difference from the value I2 (f (Q)) is obtained by calculating the pixel value distribution of the reference image in the stepped portion presence detection region R1 and the pixel value distribution of the corresponding projected image of the reference image. It is a function expressed as an error.

なお、式(2−1)により与えられる誤差関数Dの代わりに、例えば次式(2−2)により与えられる誤差関数D1を使用してもよい。   Instead of the error function D given by the equation (2-1), for example, an error function D1 given by the following equation (2-2) may be used.


D1=(1/N1)・Σ|(I1(Q)−I2(f(Q))| ……(2−2)

D1 = (1 / N1) · Σ | (I1 (Q) −I2 (f (Q)) | (2-2)

この式(2−2)により表される誤差関数D1は、基準画像の段差部存在検知用領域R1での、I1(Q)とI2(f(Q))との差の絶対値の平均値を、段差部存在検知用領域R1における基準画像の画素値分布と、これに対応する参照画像の射影変換画像の画素値分布との誤差として表現する関数である。   The error function D1 represented by the equation (2-2) is an average value of absolute values of differences between I1 (Q) and I2 (f (Q)) in the stepped portion presence detection region R1 of the reference image. Is expressed as an error between the pixel value distribution of the base image in the stepped portion presence detection region R1 and the pixel value distribution of the projection conversion image of the reference image corresponding thereto.

上記の如く算出される誤差関数D1の値は、↑mの暫定値に依存して変化する。そして、段差部存在検知用領域R1に投影されている部分が、実際の平面部分である場合には、↑mの暫定値が該平面部分を包含する平面の平面パラメータベクトルに一致する場合に、誤差関数D1の値は最小(ほぼゼロ)になる。   The value of the error function D1 calculated as described above changes depending on the provisional value of ↑ m. When the portion projected on the stepped portion presence detection region R1 is an actual plane portion, when the provisional value of ↑ m matches the plane parameter vector of the plane including the plane portion, The value of the error function D1 is minimum (almost zero).

従って、誤差関数D1の値が最小(もしくはほぼ最小)となるような↑mの暫定値が、段差部存在検知用領域R1に投影されている仮想的な平面部分を包含する仮想平面の位置及び姿勢を表す平面パラメータベクトルとしての適合度が高いものとなる。   Accordingly, the provisional value of ↑ m that minimizes (or almost minimizes) the value of the error function D1 is the position of the virtual plane including the virtual plane portion projected on the stepped portion presence detection region R1 and The goodness of fit as a plane parameter vector representing the posture is high.

そこで、段差部存在検知部11は、この誤差関数D1に応じて↑mの暫定値を更新する処理では、公知の収束演算処理手法によって、この誤差関数D1の値を、その最小値により近づけ得るように↑mの暫定値を更新する。そして、段差部存在検知部11は、このような↑mの暫定値の更新を所定条件が成立するまで実行することで、最終的に、上記誤差関数D1の値を最小化(もしくはほぼ最小化)し得るような前記段差部検知用平面パラメータベクトル↑m1を決定する。   Therefore, in the process of updating the provisional value of ↑ m according to the error function D1, the stepped portion presence detection unit 11 can bring the value of the error function D1 closer to the minimum value by a known convergence calculation processing method. Update the provisional value of ↑ m. Then, the stepped portion presence detection unit 11 executes the update of the provisional value of ↑ m until a predetermined condition is satisfied, so that the value of the error function D1 is finally minimized (or substantially minimized). The step parameter detecting plane parameter vector ↑ m1 is determined.

この場合、上記所定条件は、その条件が成立する場合に、更新後の↑mが、誤差関数Dを最小化し得る値に一致もしくはほぼ一致するとみなし得るものとして、あらかじめ定められた条件である。該所定条件は、例えば、更新前の↑mに応じて算出される誤差関数D1の値と、更新後の↑mに応じて算出される誤差関数D1の値との差の絶対値が、あらかじめ定められた所定の閾値(“0”に近い閾値)以下となるという条件、あるいは、↑mの暫定値の更新回数が所定回数を超えるという条件等の条件である。   In this case, the predetermined condition is a predetermined condition that assumes that the updated ↑ m matches or substantially matches the value that can minimize the error function D when the condition is satisfied. The predetermined condition is, for example, that the absolute value of the difference between the value of the error function D1 calculated according to ↑ m before update and the value of the error function D1 calculated according to ↑ m after update is There are conditions such as a condition that the value is equal to or less than a predetermined threshold value (threshold value close to “0”), or a condition that the number of updates of the provisional value of ↑ m exceeds a predetermined value.

なお、↑mの暫定値の初期値としては、例えば、ロボット1が現在接地している面(床面等)の平面パラメータベクトルを使用することができる。ただし、該初期値は、あらかじめ定めた固定値であってもよい。また、該初期値は、ロボット1の現在の接地面に対して傾いた平面の平面パラメータベクトルであってもよい。   As an initial value of the temporary value of ↑ m, for example, a plane parameter vector of a surface (floor surface or the like) on which the robot 1 is currently grounded can be used. However, the initial value may be a predetermined fixed value. The initial value may be a plane parameter vector of a plane inclined with respect to the current grounding surface of the robot 1.

次いで、段差部存在検知部11は、STEP3の処理を実行する。このSTEP3では、段差部存在検知部11は、STEP2で決定した段差部存在検知用平面パラメータベクトル↑m1の向きに基づいて、カメラ3R,3Lの撮像領域内に段差部が存在しているか否かを判断する。   Next, the stepped portion presence detection unit 11 performs the process of STEP3. In STEP 3, the step portion presence detection unit 11 determines whether or not a step portion exists in the imaging region of the cameras 3 R and 3 L based on the direction of the step portion presence detection plane parameter vector ↑ m 1 determined in STEP 2. Judging.

ここで、カメラ3R,3Lの撮像領域に段差部が存在せず、該撮像領域がほぼ平坦な床面である場合には、STEP2において上記の如く決定された段差部存在検知用平面パラメータベクトル↑m1の向きは、ロボット1の現在の接地面の法線方向とほぼ同方向になる。   Here, when there is no step portion in the imaging regions of the cameras 3R and 3L and the imaging region is a substantially flat floor surface, the step parameter presence detection plane parameter vector determined in STEP 2 as described above ↑ The direction of m1 is substantially the same as the normal direction of the current grounding surface of the robot 1.

一方、カメラ3R,3Lの撮像領域に階段等の段差部が存在している場合には、STEP2で決定した段差部存在検知用平面パラメータベクトル↑m1の向きは、ロボット1の現在の接地面の法線方向に対して比較的大きく傾いたものとなる。   On the other hand, when a stepped portion such as a staircase is present in the imaging areas of the cameras 3R and 3L, the direction of the stepped portion presence detection plane parameter vector ↑ m1 determined in STEP2 is the current ground plane of the robot 1 The inclination is relatively large with respect to the normal direction.

例えば図7(a)に示すように、カメラ3R,3Lの撮像領域に昇り階段50が存在する場合、あるいは、図7(b)に示すように、カメラ3R,3Lの撮像領域に降り階段50が存在する場合には、段差部存在検知部11が決定する段差部存在検知用平面パラメータベクトル↑m1の向きは、ピッチ方向(ロボット1の進行方向を横切る方向(ロボット1の左右方向)の軸周り方向)において、ロボット1の現在の接地面の法線方向に対して比較的大きく傾くものとなる。   For example, as shown in FIG. 7A, when the ascending staircase 50 exists in the imaging regions of the cameras 3R and 3L, or as shown in FIG. 7B, the staircase 50 descends into the imaging regions of the cameras 3R and 3L. Is present, the direction of the stepped portion presence detection plane parameter vector ↑ m1 determined by the stepped portion presence detecting unit 11 is the axis in the pitch direction (the direction crossing the traveling direction of the robot 1 (the left-right direction of the robot 1)). In the direction of the surroundings), the robot 1 is relatively inclined with respect to the normal direction of the current grounding surface of the robot 1.

そこで、段差部存在検知部11は、STEP3では、決定した段差部存在検知用平面パラメータベクトル↑m1が、ロボット1の現在の接地面の法線方向に対してピッチ方向に所定角度以上、傾いているか否かによって、カメラ3R,3Lの撮像領域に階段等の段差部が存在しているか否かを判断する。   Therefore, in STEP 3, the step portion presence detection unit 11 tilts the determined step portion presence detection plane parameter vector ↑ m 1 by a predetermined angle or more in the pitch direction with respect to the normal direction of the current ground plane of the robot 1. It is determined whether or not there is a stepped portion such as a staircase in the imaging area of the cameras 3R and 3L depending on whether or not it exists.

具体的には、段差部存在検知部11は、ロボット1の現在の接地面の法線方向に対する↑m1の傾き角度(ピッチ方向での傾き角度)の大きさが、既定の所定角度以上である場合には、カメラ3R,3Lの撮像領域に階段等の段差部が存在していると判断する。また、段差部存在検知部11は、ロボット1の現在の接地面の法線方向に対する↑m1の傾き角度(ピッチ方向での傾き角度)が所定角度未満である場合には、カメラ3R,3Lの撮像領域に階段等の段差部が存在していないと判断する。   Specifically, in the stepped portion presence detection unit 11, the magnitude of the inclination angle of ↑ m1 (inclination angle in the pitch direction) with respect to the normal direction of the current ground plane of the robot 1 is equal to or greater than a predetermined predetermined angle. In this case, it is determined that there is a stepped portion such as a staircase in the imaging area of the cameras 3R and 3L. Further, when the inclination angle of ↑ m1 (inclination angle in the pitch direction) with respect to the normal direction of the current grounding surface of the robot 1 is less than a predetermined angle, the stepped portion presence detection unit 11 detects that the cameras 3R and 3L It is determined that there is no stepped portion such as a staircase in the imaging area.

なお、ロボット1の現在の接地面と、カメラ3R,3Lとの間の相対的な位置及び姿勢関係は、ロボット1の各関節の変位量(詳しくは、ロボット1の接地している脚とカメラ3R,3Lとの間に存在する各関節の変位量)に応じて定まる。従って、ロボット1の現在の接地面の法線方向に対する↑m1の傾き角度は、基準カメラ3(カメラ3R)のカメラ座標系で見た↑m1の値と、ロボット1の各関節の変位量の計測値(又は該変位量を追従させる目標値)とから算出することができる。   Note that the relative position and posture relationship between the current grounding surface of the robot 1 and the cameras 3R and 3L are based on the displacement amount of each joint of the robot 1 (specifically, the grounded leg of the robot 1 and the camera The amount of displacement of each joint existing between 3R and 3L). Therefore, the inclination angle of ↑ m1 with respect to the normal direction of the current ground plane of the robot 1 is the value of ↑ m1 seen in the camera coordinate system of the reference camera 3 (camera 3R) and the displacement amount of each joint of the robot 1. It can be calculated from the measured value (or a target value for tracking the displacement).

そして、段差部存在検知部11は、STEP3の判断結果が肯定的である場合(段差部が存在していると判断した場合)には、さらにSTEP4の処理を実行する。このSTEP4では、カメラ3R,3Lの撮像領域に存在する段差部の種別(昇りの段差部であるか降りの段差部であるかの種別)を判断する。   Then, when the determination result of STEP 3 is affirmative (when it is determined that a step portion exists), the step difference presence detection unit 11 further executes the process of STEP 4. In STEP 4, the type of stepped portion (type of rising stepped portion or descending stepped portion) existing in the imaging regions of the cameras 3R and 3L is determined.

ここで、カメラ3R,3Lの撮像領域に、図7(a)に示す如く、昇りの段差部(図では昇り階段50)が存在する場合には、段差部存在検知部11が決定する段差部存在検知用平面パラメータベクトル↑m1は、ロボット1から見て、昇り勾配斜面の平面パラメータベクトルとなる。また、カメラ3R,3Lの撮像領域に、図7(b)に示す如く、降りの段差部(図では降り階段50)が存在する場合には、段差部存在検知部11が決定する段差部存在検知用平面パラメータベクトル↑m1は、ロボット1から見て、降り勾配斜面の平面パラメータベクトルとなる。   Here, when an ascending step portion (ascending staircase 50 in the figure) is present in the imaging regions of the cameras 3R and 3L as shown in FIG. 7A, the step portion determined by the step portion presence detecting unit 11 is determined. The presence detection plane parameter vector ↑ m1 is a plane parameter vector of an ascending slope when viewed from the robot 1. Also, as shown in FIG. 7B, when there is a stepped portion (a descending staircase 50 in the figure) in the imaging area of the cameras 3R, 3L, the stepped portion presence detection unit 11 determines the presence of the stepped portion. The detection plane parameter vector ↑ m1 is a plane parameter vector of the descending slope when viewed from the robot 1.

そこで、STEP4では、段差部存在検知部11は、↑m1が、ロボット1の現在の接地面の法線方向に対して、ピッチ方向で正負のいずれの向きに傾いているかによって、該段差部が昇りの段差部であるか、降りの段差部であるかを判断する。   Therefore, in STEP4, the stepped portion presence detecting unit 11 determines whether the stepped portion ↑ m1 is positive or negative in the pitch direction with respect to the normal direction of the current ground plane of the robot 1. It is determined whether it is an ascending step or a descending step.

以上が、段差部存在検知部11の処理の詳細である。   The above is the details of the processing of the stepped portion presence detection unit 11.

段差部存在検知部11により、カメラ3R,3Lの撮像領域に段差部が存在することが検知された場合には、演算処理装置10は、次に、平面投影領域抽出部12の処理を実行する。   When the stepped portion presence detection unit 11 detects that a stepped portion is present in the imaging regions of the cameras 3R and 3L, the arithmetic processing device 10 next executes the process of the planar projection region extraction unit 12. .

この平面投影領域抽出部12は、カメラ3R,3Lによって取得された撮像画像(ステレオ画像)を用いて、図8のフローチャートに示す処理を実行する。   The planar projection area extraction unit 12 executes processing shown in the flowchart of FIG. 8 using captured images (stereo images) acquired by the cameras 3R and 3L.

平面投影領域抽出部12は、まず、STEP11の処理を実行する。このSTEP11では、平面投影領域抽出部12は、与えられたステレオ画像のうちの基準画像内の複数の(N2個の)位置(u1,v(i))(i=1,2,…,N2)に、微小な面積の領域である局所領域R2(i)を設定する。   The planar projection area extraction unit 12 first performs the processing of STEP11. In STEP 11, the plane projection area extracting unit 12 includes a plurality of (N2) positions (u1, v (i)) (i = 1, 2,..., N2) in the reference image of the given stereo image. ) Is set to a local region R2 (i) which is a region having a very small area.

各局所領域R2(i)は、図9に示す如く例えば方形状の領域である。そして、各局所領域R2(i)のサイズ(縦方向及び横方向の幅)は、基準画像に段差部の画像が投影されている場合に、該段差部の各段の踏面内に収まり得るようなサイズにあらかじめ設定されている。   Each local region R2 (i) is, for example, a rectangular region as shown in FIG. The size (width in the vertical and horizontal directions) of each local region R2 (i) is such that it can fit within the tread of each step of the step when the step image is projected on the reference image. Is set in advance.

なお、図9では、前記投光器4から出力される補助光SLによる斜行輝線SLa,SLbの図示は省略している。このことは、後述する図13、図19においても同様である。   In FIG. 9, illustration of the oblique bright lines SLa and SLb by the auxiliary light SL output from the projector 4 is omitted. This also applies to FIGS. 13 and 19 described later.

補足すると、各局所領域R2(i)の形状は、方形状でなくともよく、例えば、平行四辺形や台形等の形状であってもよい。   Supplementally, the shape of each local region R2 (i) may not be a square shape, and may be a shape such as a parallelogram or a trapezoid.

各局所領域R2(i)の配置位置(u1,v(i))は、基準画像の横方向をu軸、縦方向(上下方向)をv軸とする画像座標系で表した、各局所領域R2(i)の代表点の位置である。その代表点は、図9に示す例では、各局所領域R2(i)の左上隅の点である。ただし、該代表点は、各局所領域R2(i)の他の点、例えば各局所領域R2(i)の中央点、右上隅の点、左下隅の点、右下隅の点等であってもよい。   The arrangement position (u1, v (i)) of each local region R2 (i) is represented by an image coordinate system in which the horizontal direction of the reference image is the u axis and the vertical direction (vertical direction) is the v axis. This is the position of the representative point of R2 (i). The representative point is the upper left corner point of each local region R2 (i) in the example shown in FIG. However, the representative point may be another point of each local region R2 (i), for example, the center point, the upper right corner point, the lower left corner point, the lower right corner point, or the like of each local region R2 (i). Good.

本実施形態では、各局所領域R2(i)の配置位置(u1,v(i))のうち、基準画像の横方向(u軸方向)での位置u1は互いに同一の位置である。その位置u1は、基準画像におけるロボット1の通過予定領域上に各局所領域R2(i)が配置されるように設定される。例えば、位置u1は、ロボット1の通過予定領域の幅方向中央付近の位置に設定される。   In the present embodiment, among the arrangement positions (u1, v (i)) of the local regions R2 (i), the position u1 in the horizontal direction (u-axis direction) of the reference image is the same position. The position u1 is set so that each local region R2 (i) is disposed on the planned passage region of the robot 1 in the reference image. For example, the position u1 is set to a position near the center in the width direction of the scheduled passage area of the robot 1.

また、各局所領域R2(i)の配置位置(u1,v(i))のうち、基準画像の縦方向(v軸方向)の位置v(i)(i=1,2,…,N2)は、基準画像の下部から上部まで、所定の微小間隔(例えば1画素分の間隔)を存して並ぶようにあらかじめ設定された位置である。   Also, among the arrangement positions (u1, v (i)) of the local regions R2 (i), the position v (i) (i = 1, 2,..., N2) in the vertical direction (v-axis direction) of the reference image. Is a position set in advance so as to line up with a predetermined minute interval (for example, an interval of one pixel) from the lower part to the upper part of the reference image.

そして、STEP11では、平面投影領域抽出部12は、上記の如く配置位置が決定された各局所領域R2(i)のそれぞれに対して、基準画像の各局所領域R2(i)に投影されている部分が平面部分であると仮定した場合の当該平面部分の平面パラメータベクトル↑mを算出する。以降の説明では、各局所領域R2(i)(i=1,2,…,N2)のそれぞれに対応して算出される平面パラメータベクトル↑mを参照符号↑m_r2(i)を用いて表記する。   In STEP 11, the planar projection area extraction unit 12 projects each local area R2 (i) whose arrangement position is determined as described above onto each local area R2 (i) of the reference image. When it is assumed that the portion is a plane portion, a plane parameter vector ↑ m of the plane portion is calculated. In the following description, the plane parameter vector ↑ m calculated corresponding to each local region R2 (i) (i = 1, 2,..., N2) is described using the reference symbol ↑ m_r2 (i). .

この場合、各局所領域R2(i)(i=1,2,…,N2)のそれぞれに対応する平面パラメータベクトル↑m_r2(i)の算出は、前記段差部存在検知部11によるSTEP2の処理と同様の処理によって行なわれる。この場合、↑m_r2(i)の算出処理は、前記段差部存在検知用領域R1の代わりに、局所領域R2(i)を使用する(前記誤差関数D1の値を算出するための領域としてR2(i)を使用する)こと以外は、STEP2の処理と同じでよい。   In this case, the calculation of the plane parameter vector ↑ m_r2 (i) corresponding to each of the local regions R2 (i) (i = 1, 2,..., N2) The same process is performed. In this case, the calculation process of ↑ m_r2 (i) uses the local region R2 (i) instead of the stepped portion presence detection region R1 (R2 (as a region for calculating the value of the error function D1). The process of STEP2 may be the same except that i) is used.

次いで、平面投影領域抽出部12は、STEP12の処理を実行する。このSTEP12では、平面投影領域抽出部12は、上記の如く算出した各局所領域R2(i)(i=1,2,…,N2)に対応する平面パラメータベクトル↑m_r2(i)から、この↑m_r2(i)により位置及び姿勢が規定される平面(R2(i)に投影されているとみなす仮想的な平面)の法線方向の単位ベクトルである単位法線ベクトル↑n_r2(i)を算出する。   Next, the planar projection region extraction unit 12 executes the processing of STEP12. In this STEP 12, the plane projection area extraction unit 12 uses the plane parameter vector ↑ m_r2 (i) corresponding to each of the local areas R2 (i) (i = 1, 2,..., N2) calculated as described above. Calculate unit normal vector ↑ n_r2 (i), which is the unit vector in the normal direction of the plane whose position and orientation are defined by m_r2 (i) (virtual plane assumed to be projected on R2 (i)) To do.

この単位法線ベクトル↑n_r2(i)は、平面パラメータベクトル↑m_r2(i)と同じ向きを有する単位長のベクトルであるから、↑m_r2(i)を、その大きさ(=|↑m_r2(i)|)により除算することによって算出される。   Since this unit normal vector ↑ n_r2 (i) is a unit length vector having the same direction as the plane parameter vector ↑ m_r2 (i), ↑ m_r2 (i) is set to its magnitude (= | ↑ m_r2 (i Calculated by dividing by) |).

次いで、平面投影領域抽出部12は、STEP13の処理を実行する。このSTEP13では、平面投影領域抽出部12は、各局所領域R2(i)における単位法線ベクトル↑n_r2(i)と、現在のロボット座標系のZ軸方向の単位ベクトル↑nzとの内積(スカラー積)を算出する。   Next, the planar projection area extraction unit 12 executes the processing of STEP13. In STEP 13, the planar projection region extraction unit 12 calculates the inner product (scalar) of the unit normal vector ↑ n_r2 (i) in each local region R2 (i) and the unit vector ↑ nz in the Z-axis direction of the current robot coordinate system. Product).

上記ロボット座標系というのは、図7(a)又は図7(b)に示す如く、ロボット1の現在の接地面に対して固定された座標系であって、該接地面の法線方向をZ軸方向、ロボット1の進行方向をX軸方向、これらのZ軸及びX軸に直交する方向(ロボット1の左右方向)をY軸方向とする座標系である。従って、現在のロボット座標系のZ軸方向の単位ベクトル↑nzというのは、ロボット1の現在の接地面の法線方向の単位ベクトルを意味する。   The robot coordinate system is a coordinate system fixed with respect to the current ground plane of the robot 1 as shown in FIG. 7A or 7B, and the normal direction of the ground plane is set. This is a coordinate system in which the Z-axis direction, the traveling direction of the robot 1 is the X-axis direction, and the direction perpendicular to the Z-axis and the X-axis (the left-right direction of the robot 1) is the Y-axis direction. Therefore, the unit vector ↑ nz in the Z-axis direction of the current robot coordinate system means a unit vector in the normal direction of the current ground plane of the robot 1.

そして、この単位ベクトル↑nzと、単位法線ベクトル↑n_r2(i)との内積を算出する場合、基準カメラ3のカメラ座標系で見たベクトルとしての単位法線ベクトル↑n_r2(i)が、ロボット1の各関節の変位量の計測値(又は目標値)に応じて、現在のロボット座標系で見たベクトルに座標変換される。そして、この座標変換後の単位法線ベクトル↑n_r2(i)と、ロボット1の現在の接地面の法線方向(現在のロボット座標系のZ軸方向)の単位ベクトル↑nzとの内積が算出される。   When calculating the inner product of the unit vector ↑ nz and the unit normal vector ↑ n_r2 (i), the unit normal vector ↑ n_r2 (i) as a vector viewed in the camera coordinate system of the reference camera 3 is Depending on the measured value (or target value) of the displacement amount of each joint of the robot 1, the coordinate is converted into a vector viewed in the current robot coordinate system. Then, the inner product of the unit normal vector ↑ n_r2 (i) after the coordinate conversion and the unit vector ↑ nz in the normal direction of the current ground plane of the robot 1 (Z-axis direction of the current robot coordinate system) is calculated. Is done.

なお、カメラ座標系で見た単位法線ベクトル↑n_r2(i)と、ロボット1の現在の接地面の法線方向の単位ベクトル↑nzをロボット座標系からカメラ座標系に座標変換したベクトルとの内積を算出するようにしてもよい。   The unit normal vector ↑ n_r2 (i) viewed in the camera coordinate system and the vector obtained by coordinate conversion of the unit vector ↑ nz in the normal direction of the current ground plane of the robot 1 from the robot coordinate system to the camera coordinate system. The inner product may be calculated.

これにより、図10に例示する如く、基準画像の縦方向での各局所領域R2(i)の位置v(i)と、上記内積の値との間の関係を表すデータが得られることとなる。   As a result, as illustrated in FIG. 10, data representing the relationship between the position v (i) of each local region R2 (i) in the vertical direction of the reference image and the value of the inner product is obtained. .

ここで、カメラ3R,3Lの撮像領域に段差部が存在する場合、その段差部の各踏面は、一般に、ロボット1の現在の接地面とほぼ平行な平面部分となる。従って、基準画像における段差部の踏面の投影領域内に含まれる各局所領域R2(i)(例えば、図9に示すR2(1),R2(ib),R2(N2))に対応して上記の如く算出される内積の値は、“1”またはそれに近い値となる。   Here, when there are step portions in the imaging regions of the cameras 3 </ b> R and 3 </ b> L, each tread surface of the step portions is generally a plane portion substantially parallel to the current grounding surface of the robot 1. Therefore, the local area R2 (i) (for example, R2 (1), R2 (ib), R2 (N2) shown in FIG. 9) included in the projected area of the tread of the stepped portion in the reference image corresponds to the above. The inner product value calculated as described above is “1” or a value close thereto.

一方、段差部の踏面の投影領域に含まれない各局所領域R2(i)、又は、段差部の踏面の投影領域が一部しか含まれないような各局所領域R2(i)(例えば、図9に示すR2(ia))に対応する内積の値は、“1”から乖離した値となる。   On the other hand, each local region R2 (i) that is not included in the projection area of the stepped surface or each local region R2 (i) that includes only a part of the projected area of the stepped surface (for example, FIG. The value of the inner product corresponding to R2 (ia)) shown in 9 is a value deviating from “1”.

従って、上記内積の値は、各局所領域R2(i)に投影されている部分が、段差部の踏面の部分であるか否かを示す指標となるものである。   Therefore, the value of the inner product is an index indicating whether or not the portion projected on each local region R2 (i) is a stepped portion of the stepped portion.

次いで、平面投影領域抽出部12は、STEP14の処理を実行する。このSTEP14では、平面投影領域抽出部12は、N2個の局所領域R2(i)(i=1,2,…,N2)のうち、STEP13で算出した内積の値が、あらかじめ定めれた所定の閾値Th2以上となる各局所領域R2(i)について、該局所領域R2(i)に投影されている部分の、ロボット座標系で見たZ軸座標位置(すなわち、ロボット1の現在の接地面に対する当該投影部分の高さ)を、該局所領域R2(i)に対応する平面パラメータベクトル↑m_r2(i)を基に算出する。   Next, the planar projection region extraction unit 12 executes the processing of STEP14. In STEP 14, the planar projection area extracting unit 12 has a predetermined inner product value calculated in STEP 13 out of N2 local areas R2 (i) (i = 1, 2,..., N2). For each local region R2 (i) that is greater than or equal to the threshold Th2, the Z-axis coordinate position of the portion projected on the local region R2 (i) viewed in the robot coordinate system (ie, with respect to the current ground plane of the robot 1) The height of the projection part) is calculated based on the plane parameter vector ↑ m_r2 (i) corresponding to the local region R2 (i).

ここで、上記所定の閾値Th2は、“1”よりも若干小さい値、例えば0.999である。従って、内積の値が、この閾値Th2以上となる各局所領域R2(i)は、それに投影されている部分が、ロボット1の現在の接地面とほぼ平行になっているような部分である。   Here, the predetermined threshold Th2 is a value slightly smaller than “1”, for example, 0.999. Therefore, each local region R2 (i) where the value of the inner product is equal to or greater than the threshold value Th2 is such that the portion projected onto the local region R2 (i) is substantially parallel to the current contact surface of the robot 1.

そして、閾値Th2以上となる各局所領域R2(i)に対応する平面パラメータベクトル↑m_r2(i)により規定される平面と、ロボット1の現在の接地面を含む平面との間の間隔(詳しくは、ロボット座標系のZ軸方向での間隔)を算出することによって、該局所領域R2(i)に投影されている部分のZ軸座標位置(ロボット1の現在の接地面に対する高さ)が決定される。   The distance between the plane defined by the plane parameter vector ↑ m_r2 (i) corresponding to each local region R2 (i) that is equal to or greater than the threshold Th2 and the plane including the current grounding surface of the robot 1 (in detail) , The distance in the Z-axis direction of the robot coordinate system) is calculated to determine the Z-axis coordinate position (the height of the robot 1 relative to the current ground plane) of the portion projected onto the local region R2 (i). Is done.

次いで、平面投影領域抽出部12は、STEP15の処理を実行する。このSTEP15では、平面投影領域抽出部12は、前記STEP14で得られたデータを基に、基準画像における段差部の踏面に対応する平面投影領域を抽出(特定)する。   Next, the planar projection region extraction unit 12 executes the processing of STEP15. In STEP 15, the plane projection area extraction unit 12 extracts (specifies) a plane projection area corresponding to the tread of the step portion in the reference image based on the data obtained in STEP 14.

具体的には、平面投影領域抽出部12は、内積の値が前記閾値Th2以上となるv軸方向の区間であって、その区間内の各位置の局所領域R2(i)に投影されている部分の高さ(ロボット1の接地面からの高さ)がほぼ一定となる(各投影部分の相互の高さの差の大きさがあらかじめ定めた所定の閾値以下となる)区間を決定する。なお、各投影部分の高さの相互の差の大きさ(絶対値)に対する閾値は、“0”に近い微小値、例えば10[mm]である。   Specifically, the planar projection area extraction unit 12 projects a v-axis direction section where the inner product value is equal to or greater than the threshold value Th2, and is projected onto the local area R2 (i) at each position in the section. A section in which the height of the portion (height from the ground contact surface of the robot 1) is substantially constant (the difference in height between the projection portions is equal to or less than a predetermined threshold value) is determined. Note that the threshold value for the magnitude (absolute value) of the difference between the heights of the projection portions is a minute value close to “0”, for example, 10 [mm].

図10に示すΔv1、Δv2、Δv3は、このようにして決定される区間の例を示すものである。このようにして決定される各区間は、STEP11で設定したN2個の局所領域R2(i)(i=1,2,…,N2)のうち、ロボット1の現在の接地面とほぼ平行な単一の平面部分(段差部の各踏面に相当する平面部分)の投影領域となっている局所領域R2(i)の代表点の位置(v軸方向の位置)の範囲に相当するものである。以降、このようにして決定される各区間を同一平面投影区間という。   Δv1, Δv2, and Δv3 shown in FIG. 10 show examples of sections determined in this way. Each section determined in this way is a single area substantially parallel to the current ground contact surface of the robot 1 among the N2 local regions R2 (i) (i = 1, 2,..., N2) set in STEP11. This corresponds to the range of the position (position in the v-axis direction) of the representative point of the local area R2 (i), which is the projection area of one plane portion (a plane portion corresponding to each tread of the stepped portion). Hereinafter, each section determined in this way is referred to as a same plane projection section.

そして、平面投影領域抽出部12は、上記の如く決定した各同一平面投影区間毎に、それに対応する平面投影領域を決定する。この場合、本実施形態では、各平面投影領域は、基準画像の横方向(u軸方向)に局所領域R2(i)(i=1,2,…,N2)と同じ幅を有し、且つ、その横方向の範囲(各平面投影領域の左端と右端との間の範囲)が局所領域R2(i)の横方向の範囲に一致するようにして、基準画像に配置される方形状の領域である。   Then, the plane projection area extraction unit 12 determines a plane projection area corresponding to each of the same plane projection sections determined as described above. In this case, in the present embodiment, each planar projection area has the same width as the local area R2 (i) (i = 1, 2,..., N2) in the lateral direction (u-axis direction) of the reference image, and A rectangular area arranged in the reference image so that its horizontal range (the range between the left and right ends of each planar projection area) matches the horizontal range of the local area R2 (i). It is.

そして、基準画像の縦方向(v軸方向)での各平面投影領域の範囲(各平面投影領域の上端と下端との間の範囲)は、該平面投影領域に対応する同一平面投影区間内に代表点の位置を有する全ての局所領域R2(i)を合成した領域の縦方向の範囲と一致するように決定される。   The range of each plane projection area (the range between the upper end and the lower end of each plane projection area) in the vertical direction (v-axis direction) of the reference image is within the same plane projection section corresponding to the plane projection area. It is determined so as to coincide with the range in the vertical direction of the combined region of all the local regions R2 (i) having the positions of the representative points.

例えば、基準画像のv軸方向の位置がv(ic)からv(ic+n)までの区間が、ある1つの同一平面投影区間であるとしたとき、その同一平面投影区間に対応する平面投影領域の縦方向(v軸方向)の範囲は、該同一平面投影区間内に代表点の位置を有するn+1個の局所領域R2(ic)〜R2(ic+n)のうち、最も下側の局所領域R2(ic)の下端位置と、最も上側の局所領域R2(ic+n)の上端位置との間の範囲として決定される。   For example, when a section from the position of the reference image in the v-axis direction from v (ic) to v (ic + n) is one same plane projection section, the plane projection corresponding to the same plane projection section The range in the vertical direction (v-axis direction) of the region is the lowest local region among n + 1 local regions R2 (ic) to R2 (ic + n) having the position of the representative point in the same plane projection section. It is determined as a range between the lower end position of the region R2 (ic) and the upper end position of the uppermost local region R2 (ic + n).

以上のSTEP15の処理によって、段差部の各踏面に対応する平面投影領域が、基準画像から抽出されることとなる。例えば、図9に破線枠で示す方形状の領域AR2が、平面投影領域として基準画像から抽出される。   Through the processing of STEP 15 described above, a planar projection area corresponding to each tread of the stepped portion is extracted from the reference image. For example, a rectangular area AR2 indicated by a broken line frame in FIG. 9 is extracted from the reference image as a planar projection area.

次いで、平面投影領域抽出部12は、STEP16の処理を実行する。このSTEP16では、平面投影領域抽出部12は、STEP15の処理によって2つ以上の平面投影領域AR2が抽出されたか否かを判断する。そして、この判断結果が否定的である場合には、基準画像に段差部が写っていない可能性があるので、図8の処理(今回の演算処理周期での処理)を終了する。   Next, the planar projection region extraction unit 12 executes the processing of STEP16. In STEP 16, the plane projection area extraction unit 12 determines whether or not two or more plane projection areas AR2 have been extracted by the processing in STEP 15. If the determination result is negative, there is a possibility that the stepped portion is not shown in the reference image, and thus the processing in FIG. 8 (processing in the current calculation processing cycle) is terminated.

一方、STEP16の判断結果が肯定的である場合には、平面投影領域抽出部12は、STEP17の処理を実行した後、図8の処理を終了する。このSTEP17では、平面投影領域抽出部12は、各平面投影領域AR2に投影されている平面部分を包含する平面の平面パラメータベクトル↑m2を決定する。   On the other hand, if the determination result in STEP 16 is affirmative, the planar projection area extraction unit 12 executes the process in STEP 17 and then ends the process in FIG. In STEP 17, the plane projection area extraction unit 12 determines a plane parameter vector ↑ m2 of a plane including the plane portion projected on each plane projection area AR2.

この場合、平面投影領域抽出部12は、例えば、前記局所領域R2(i)(i=1,2,…,N2)のうち、各平面投影領域AR2に含まれる局所領域R2(i)のそれぞれに対応する平面パラメータベクトル↑m_r2(i)のそれぞれの方位角(基準カメラ3のカメラ座標系で見た方位角)の平均の方位角を有する単位ベクトルを、該平面投影領域AR2に対応する平面の単位法線ベクトル↑n2として決定する。   In this case, the planar projection area extraction unit 12 may, for example, each of the local areas R2 (i) included in each planar projection area AR2 among the local areas R2 (i) (i = 1, 2,..., N2). A unit vector having an average azimuth of each azimuth angle (azimuth angle as seen in the camera coordinate system of the reference camera 3) of the plane parameter vector ↑ m_r2 (i) corresponding to the plane vector corresponding to the plane projection area AR2 Unit normal vector ↑ n2.

さらに、平面投影領域抽出部12は、各平面投影領域AR2に含まれる局所領域R2(i)のそれぞれに対応して、前記STEP11で推定した平面パラメータベクトル↑m_r2(i)の大きさ(絶対値)の逆数値(=1/|↑m(i)|)の平均値を、該平面投影領域AR2に対応する平面の、基準カメラ3の光学中心Cからの距離d2として決定する。   Further, the plane projection area extraction unit 12 corresponds to each of the local areas R2 (i) included in each plane projection area AR2, and the magnitude (absolute value) of the plane parameter vector ↑ m_r2 (i) estimated in STEP 11 above. ) Is determined as the distance d2 of the plane corresponding to the planar projection area AR2 from the optical center C of the reference camera 3. The inverse value (= 1 / | ↑ m (i) |)

そして、各平面投影領域AR2に対応する平面の単位法線ベクトル↑n2を距離d2で除算してなるベクトル(=↑n2/d2)を該平面投影領域AR2に対応する平面パラメータベクトル↑m2として決定する。   A vector (= ↑ n2 / d2) obtained by dividing the unit normal vector ↑ n2 of the plane corresponding to each plane projection area AR2 by the distance d2 is determined as the plane parameter vector ↑ m2 corresponding to the plane projection area AR2. To do.

なお、各局所領域R2(i)に対応する平面パラメータベクトル↑m_r2(i)を推定する場合と同様の処理(射影変換を利用した収束演算処理)によって、各平面投影領域AR2に対応する平面パラメータベクトル↑m2を改めて推定するようにしてもよい。   The plane parameter corresponding to each planar projection area AR2 is processed by the same process (convergence calculation process using projective transformation) as in the case of estimating the plane parameter vector ↑ m_r2 (i) corresponding to each local area R2 (i). The vector ↑ m2 may be estimated again.

以上が平面投影領域抽出部12の処理の詳細である。   The details of the processing of the planar projection area extraction unit 12 have been described above.

補足すると、本実施形態では、STEP15の処理で前記同一平面投影区間を決定する場合に、各局所領域R2(i)(i=1,2,…,N2)毎の前記内積の値に加えて、各局所領域R2(i)に投影されている部分の高さを参照するようにしたが、内積の値だけから、同一平面投影区間を決定するようにしてもよい。   Supplementally, in the present embodiment, when the same plane projection section is determined by the processing of STEP 15, in addition to the value of the inner product for each local region R2 (i) (i = 1, 2,..., N2). Although the height of the portion projected on each local region R2 (i) is referred to, the same plane projection section may be determined only from the inner product value.

例えば、内積の値が、基準画像の縦方向(v軸方向)で連続的に所定の閾値Th2以上となる区間(その区間内に代表点の位置を有して、縦方向に並ぶ全ての局所領域R2(i)のそれぞれに対応する内積の値が閾値Th2以上となる区間)を同一平面投影区間として決定してもよい。このようにした場合には、STEP14の処理は不要である。   For example, a section in which the inner product value is continuously greater than or equal to a predetermined threshold Th2 in the vertical direction (v-axis direction) of the reference image (all local areas arranged in the vertical direction with representative point positions in the section) A section in which the inner product value corresponding to each of the regions R2 (i) is equal to or greater than the threshold value Th2 may be determined as the same plane projection section. In such a case, the processing of STEP14 is unnecessary.

また、カメラ3R,3Lの撮像領域に存在する段差部の踏面に対応する平面投影領域だけでなく、段鼻の先端面又は蹴り込み面のように、踏面に対して起立する平面部分に対応する平面投影領域を抽出するようにしてもよい。   Further, not only a plane projection area corresponding to the stepped surface of the stepped portion existing in the imaging areas of the cameras 3R and 3L, but also a plane corresponding to a plane portion standing up with respect to the treaded surface, such as a nose tip surface or a kicked surface. You may make it extract a projection area | region.

この場合、例えば各局所領域R2(i)(i=1,2,…,N2)毎の平面パラメータベクトル↑m_r2(i)(又は単位法線ベクトル↑n_r2(i))の向きに着目し、その向きが連続的にほぼ一定に保たれる(ロボット1の現在の接地面の法線方向と同方向の向きでなくてもよい)ような区間を同一平面投影区間として決定する。そして、その決定した各同一平面投影区間に応じて上記と同様に平面投影領域を決定する。これにより、段差部の踏面に対応する平面投影領域だけでなく、段鼻の先端面や段差部の蹴り込み面の如く、踏面に対して起立する平面部分に対応する平面投影領域を抽出することもできる。   In this case, for example, paying attention to the direction of the plane parameter vector ↑ m_r2 (i) (or unit normal vector ↑ n_r2 (i)) for each local region R2 (i) (i = 1, 2,..., N2), A section whose direction is continuously kept substantially constant (it does not have to be the same direction as the normal direction of the current ground plane of the robot 1) is determined as the same plane projection section. Then, a plane projection area is determined in the same manner as described above according to each determined same plane projection section. As a result, not only a planar projection area corresponding to the stepped surface of the stepped portion but also a planar projected region corresponding to a planar portion standing up with respect to the treaded surface, such as the tip surface of the nose or the kicked surface of the stepped portion, can be extracted. it can.

以上説明した平面投影領域抽出部12によって、段差部の踏面に対応する2つ以上の平面投影領域AR2が抽出された場合には、演算処理装置10は、次に、エッジ投影線推定処理部13の処理を実行する。   When two or more plane projection areas AR2 corresponding to the tread of the stepped portion are extracted by the plane projection area extraction unit 12 described above, the arithmetic processing device 10 next moves to the edge projection line estimation processing unit 13. Execute the process.

このエッジ投影線推定処理部13は、カメラ3R,3Lによって取得された撮像画像(ステレオ画像)と、平面投影領域抽出部12で決定された各平面投影領域AR2に対応する平面パラメータベクトル↑m2とを用いて、図11及び図12のフローチャートに示す処理を実行することで、上段側踏面の先端側エッジを基準画像に投影してなる実エッジ投影線を推定したものとしての推定エッジ投影線を特定する。   The edge projection line estimation processing unit 13 includes captured images (stereo images) acquired by the cameras 3R and 3L, and a plane parameter vector ↑ m2 corresponding to each plane projection area AR2 determined by the plane projection area extraction unit 12. 11 and 12 are executed, the estimated edge projection line is obtained by estimating the actual edge projection line formed by projecting the leading edge of the upper tread surface onto the reference image. Identify.

なお、基準画像における実エッジ投影線を推定するということは、基準画像における実エッジ投影線の位置及び方向(又はこれらを規定するパラメータ)を決定することを意味する。   Note that estimating the actual edge projection line in the reference image means determining the position and direction (or parameters defining these) of the actual edge projection line in the reference image.

エッジ投影線推定処理部13は、まず、STEP21の処理を実行する。このSTEP21では、エッジ投影線推定処理部13は、図5のSTEP4の処理によって前記段差部存在検知部11が特定した段差部(カメラ3R,3Lの撮像領域に存在する段差部)の種別が、ロボット1から見て、昇りの段差部であるか降りの段差部であるかを確認する。   The edge projection line estimation processing unit 13 first executes the processing of STEP21. In this STEP 21, the edge projection line estimation processing unit 13 has the type of the stepped portion (stepped portion existing in the imaging region of the cameras 3R, 3L) identified by the stepped portion presence detecting unit 11 by the processing in STEP4 of FIG. As seen from the robot 1, it is confirmed whether it is an ascending step or a descending step.

エッジ投影線推定処理部13は、カメラ3R,3Lの撮像領域に存在する段差部が、昇りの段差部である場合には、図11に示すSTEP22〜36の処理を実行し、降りの段差部である場合には、図12に示すSTEP37〜51の処理を実行する。   The edge projection line estimation processing unit 13 executes the processing of STEPs 22 to 36 shown in FIG. 11 when the stepped portion existing in the imaging regions of the cameras 3R and 3L is the rising stepped portion, and the stepped portion of the descending step. If so, the processing of STEPs 37 to 51 shown in FIG. 12 is executed.

段差部が昇りの段差部である場合には、エッジ投影線推定処理部13は、まず、STEP22において、基準画像内に、実エッジ投影線の推定用の画像処理領域であるエッジ推定用領域R3uを設定する。   In the case where the stepped portion is an ascending stepped portion, the edge projection line estimation processing unit 13 first, in STEP 22, in the reference image, an edge estimation region R3u that is an image processing region for estimating the actual edge projection line. Set.

ここで、以降の説明では、説明の便宜上、カメラ3R,3Lの撮像領域に存在する昇りの段差部が、一例として、図1(a)に示した如き昇り階段50であるとする。そして、この昇り階段50が、図13に示す如く基準画像に写っているものとする。   Here, in the following description, for convenience of explanation, it is assumed that the ascending step portion present in the imaging regions of the cameras 3R and 3L is, for example, the ascending staircase 50 as shown in FIG. It is assumed that the ascending staircase 50 is reflected in the reference image as shown in FIG.

さらに、この昇り階段50の任意の1つの下段側踏面51(例えばロボット1から見て最も手前側の下段側踏面)の一段上側の上段側踏面51の先端側エッジ52を基準画像に投影してなる実エッジ投影線L52rを推定する処理をエッジ投影線推定処理部13により実行するものとする。   Further, the tip side edge 52 of the upper step surface 51 on the upper stage of one arbitrary lower step surface 51 of the ascending staircase 50 (for example, the lower step surface closest to the robot 1) is projected onto the reference image. Assume that the edge projection line estimation processing unit 13 executes processing for estimating the actual edge projection line L52r.

そして、推定しようとする実エッジ投影線L52rに対応する先端側エッジ52を先端に有する上段側踏面51と、その一段下側の下段側踏面51とを、それぞれ参照符号51p,51qを使用して表記する。   Then, an upper tread surface 51 having a front end edge 52 corresponding to the actual edge projection line L52r to be estimated and a lower tread surface 51 below the first step are respectively denoted by reference numerals 51p and 51q. write.

また、前記平面投影領域抽出部12によって、上段側踏面51pに対応して抽出された平面投影領域AR2を、以降、参照符号AR2pを使用して上段側踏面投影領域AR2pと称する。そして、この上段側踏面投影領域AR2pに対応して決定された平面パラメータベクトル↑m2を参照符号↑m2pを使用して表記する。   The planar projection area AR2 extracted by the planar projection area extraction unit 12 corresponding to the upper stage tread surface 51p is hereinafter referred to as an upper stage tread projection area AR2p using the reference symbol AR2p. Then, the plane parameter vector ↑ m2 determined corresponding to the upper side tread projection area AR2p is described using the reference symbol ↑ m2p.

また、前記平面投影領域抽出部12によって、下段側踏面51qに対応して抽出された平面投影領域AR2を、以降、参照符号AR2qを使用して下段側踏面投影領域AR2qと称する。そして、この下段側踏面投影領域AR2qに対応して決定された平面パラメータベクトル↑m2を参照符号↑m2qを使用して表記する。   The planar projection area AR2 extracted by the planar projection area extraction unit 12 corresponding to the lower stage tread surface 51q is hereinafter referred to as a lower stage tread projection area AR2q using the reference symbol AR2q. Then, the plane parameter vector ↑ m2 determined corresponding to the lower stage tread projection area AR2q is described using the reference symbol ↑ m2q.

STEP22において基準画像に設定するエッジ推定用領域R3uは、本実施形態では、図13に示す如く設定される方形状の領域である。具体的には、エッジ推定用領域R3uは、その下端の位置が下段側踏面投影領域AR2qの縦方向の幅内の位置(例えば下段側踏面投影領域AR2qの上端から既定の所定量だけ下側の位置)となり、且つ、R3uの上端の位置が上段側踏面投影領域AR2pの縦方向の幅内の位置(例えば上段側踏面投影領域AR2pの下端から所定量だけ上側の位置)になるように配置される。この場合、エッジ推定用領域R3uの縦方向の幅は、下段側踏面投影領域AR2qと上段側踏面投影領域AR2pとの間の縦方向の間隔に応じて決定される。   In STEP 22, the edge estimation region R3u set in the reference image in STEP 22 is a rectangular region set as shown in FIG. Specifically, the edge estimation region R3u has a lower end position within a vertical width of the lower tread projection area AR2q (for example, a predetermined predetermined amount below the upper end of the lower tread projection area AR2q). And the position of the upper end of R3u is a position within the vertical width of the upper stage tread projection area AR2p (for example, a position above the lower end of the upper stage tread projection area AR2p by a predetermined amount). The In this case, the vertical width of the edge estimation region R3u is determined in accordance with the vertical interval between the lower stage tread projection area AR2q and the upper stage tread projection area AR2p.

また、エッジ推定用領域R3uは、その横方向の範囲(左端と右端との間の範囲)が、下段側踏面投影領域AR2q及び上段側踏面投影領域AR2pの横方向の範囲に一致するように配置される。この場合、エッジ推定用領域R3uの横方向の幅は、下段側踏面投影領域AR2q及び上段側踏面投影領域AR2pの横方向の幅と同じ幅(既定の幅)に決定される。   Further, the edge estimation region R3u is arranged such that its horizontal range (the range between the left end and the right end) matches the horizontal range of the lower tread projection area AR2q and the upper tread projection area AR2p. Is done. In this case, the lateral width of the edge estimation region R3u is determined to be the same width (default width) as the lateral width of the lower tread projection area AR2q and the upper tread projection area AR2p.

なお、エッジ推定用領域R3uの横方向の幅は、下段側踏面投影領域AR2q及び上段側踏面投影領域AR2pの横方向の幅よりも若干小さくてもよい。その場合は、エッジ推定用領域R3uは、その横方向の範囲が、下段側踏面投影領域AR2q及び上段側踏面投影領域AR2pの横方向の範囲内に収まるように配置すればよい。   The lateral width of the edge estimation region R3u may be slightly smaller than the lateral width of the lower stage tread projection area AR2q and the upper stage tread projection area AR2p. In this case, the edge estimation region R3u may be arranged so that the lateral range thereof falls within the lateral range of the lower stage tread projection area AR2q and the upper stage tread projection area AR2p.

以上のSTEP22の処理によって、エッジ推定用領域R3uは、その内部に(上端の辺と下端の辺との間)に推定しようとする単一の実エッジ投影線L52rが存在し、且つ、該エッジ推定用領域R3uの上端の辺及び下端の辺がそれぞれ、上段側踏面投影領域AR2p、下段側踏面投影領域AR2qに含まれるようにして、基準画像内に設定されることとなる。   Through the processing of STEP 22 described above, the edge estimation region R3u has a single actual edge projection line L52r to be estimated (between the upper end side and the lower end side) in the inside thereof, and the edge The upper edge and the lower edge of the estimation area R3u are set in the reference image so as to be included in the upper tread projection area AR2p and the lower tread projection area AR2q, respectively.

エッジ投影線推定処理部13は、次にSTEP23の処理を実行する。このSTEP23では、エッジ投影線推定処理部13は、実エッジ投影線L52rが基準画像の横方向(u軸方向)に延在するものと仮定して、図14に示す如く、基準画像の縦方向(v軸方向)における実エッジ投影線L52rの位置の候補としての複数(N3a個)の候補位置v(k1)(k1=1,2,…,N3a)を決定する。   Next, the edge projection line estimation processing unit 13 executes the processing of STEP23. In STEP 23, the edge projection line estimation processing unit 13 assumes that the actual edge projection line L52r extends in the horizontal direction (u-axis direction) of the reference image, as shown in FIG. A plurality (N3a) of candidate positions v (k1) (k1 = 1, 2,..., N3a) are determined as candidates for the position of the actual edge projection line L52r in the (v-axis direction).

この場合、N3a個の候補位置v(k1)(k1=1,2,…,N3a)は、エッジ推定用領域R3uの縦方向の範囲(上端と下端との間の範囲)内で、あらかじめ定められた所定の刻み間隔ずつ(例えば1画素分の間隔ずつ)、基準画像の縦方向に異なる位置とされる。また、これらの候補位置v(k1)のうち、最も上側の候補位置としての第1番目の候補位置v(1)は、エッジ推定用領域R3uの上端から所定間隔(例えば1画素分の間隔)だけ下側の位置に決定される。   In this case, N3a candidate positions v (k1) (k1 = 1, 2,..., N3a) are determined in advance within the vertical range (range between the upper end and the lower end) of the edge estimation region R3u. The positions are set to different positions in the vertical direction of the reference image by predetermined intervals (for example, by one pixel). Of these candidate positions v (k1), the first candidate position v (1) as the uppermost candidate position is a predetermined interval (for example, an interval of one pixel) from the upper end of the edge estimation region R3u. Only the lower position is determined.

さらに、最も下側の候補位置としての第N3a番目の候補位置v(N3a)は、本実施形態では、この候補位置v(N3a)に応じて後述する射影変換領域R3u3の上端位置を設定したときに、該射影変換領域R3u3の上端位置が、エッジ推定用領域R3uの下端から、該エッジ推定用領域R3u3の縦方向の所定の最小幅(例えば1画素分の幅)だけ上側の位置になるように、該エッジ推定用領域R3u3の縦方向の最小幅での上端位置に応じて決定される。   Further, in this embodiment, the N3a-th candidate position v (N3a) as the lowermost candidate position is set when an upper end position of a projection transformation region R3u3 described later is set according to the candidate position v (N3a). Further, the upper end position of the projective transformation area R3u3 is positioned above the lower end of the edge estimation area R3u by a predetermined minimum width (for example, one pixel width) in the vertical direction of the edge estimation area R3u3. The edge estimation region R3u3 is determined in accordance with the upper end position in the minimum vertical width.

次に、エッジ投影線推定処理部13は、STEP24の処理を実行する。この処理では、各候補位置v(k1)に対応する処理を順番に実行するために、k1の初期値として“1”が設定される。   Next, the edge projection line estimation processing unit 13 executes the processing of STEP24. In this process, “1” is set as the initial value of k1 in order to sequentially execute the processes corresponding to the candidate positions v (k1).

次いで、エッジ投影線推定処理部13は、STEP25の処理を実行する。このSTEP25では、エッジ投影線推定処理部13は、基準画像の縦方向での実エッジ投影線L52rの位置が第k1番目の候補位置v(k1)(k1は現在設定されている値)に一致するものと仮定して、エッジ推定用領域R3u内に、図14に例示する如く、3つの射影変換対象領域R3u1、R3u2、R3u3を設定する。   Next, the edge projection line estimation processing unit 13 executes the processing of STEP25. In STEP 25, the edge projection line estimation processing unit 13 matches the position of the actual edge projection line L52r in the vertical direction of the reference image with the k1th candidate position v (k1) (k1 is a currently set value). In the edge estimation region R3u, three projection transformation target regions R3u1, R3u2, and R3u3 are set in the edge estimation region R3u as illustrated in FIG.

射影変換対象領域R3u1〜R3u3のうち、射影変換対象領域R3u1,R3u2は、第k1番目の候補位置v(k1)で横方向に延在する仮想的なエッジ投影線L52(k1)を境界線として上下に隣接するように設定される領域である。この場合、上側の射影変換対象領域R3u1は、その上端側の辺と下端側の辺とがそれぞれエッジ推定用領域R3uの上端側の辺、仮想的なエッジ投影線L52(k1)に一致し、且つ、横方向の範囲が、エッジ推定用領域R3uの横方向の範囲と一致する領域である。   Among the projection transformation target regions R3u1 to R3u3, the projection transformation target regions R3u1 and R3u2 use the virtual edge projection line L52 (k1) extending in the horizontal direction at the k1th candidate position v (k1) as a boundary line. It is an area set to be adjacent vertically. In this case, the upper projection conversion target area R3u1 has an upper end side and a lower end side corresponding to the upper end side of the edge estimation area R3u, the virtual edge projection line L52 (k1), In addition, the horizontal range is a region that matches the horizontal range of the edge estimation region R3u.

従って、射影変換対象領域R3u1は、その縦方向の幅と下端側の辺の位置(縦方向での位置)とが、仮想的なエッジ投影線L52(k1)の位置(=v(k1))に応じて変化するように設定される領域である。この射影変換対象領域R3u1は、仮想的なエッジ投影線L52(k1)が、実エッジ投影線L52rに合致する場合には、上段側踏面投影領域AR2pに含まれる領域である。   Accordingly, in the projection transformation target region R3u1, the vertical width and the position of the lower side edge (the vertical position) are the position of the virtual edge projection line L52 (k1) (= v (k1)). It is an area set so as to change according to. This projective transformation target area R3u1 is an area included in the upper tread projection area AR2p when the virtual edge projection line L52 (k1) matches the actual edge projection line L52r.

また、下側の射影変換対象領域R3u2は、その上端側の辺が仮想的なエッジ投影線L52(k1)に一致すると共に、下端側の辺が仮想的なエッジ投影線L52(k1)とあらかじめ定められた所定間隔Δvu2(例えば15画素分の間隔)を有して該エッジ投影線L52(k1)に平行な線に一致し、且つ、横方向の範囲が、エッジ推定用領域R3uの横方向の範囲と一致する領域である。   Further, the lower projection transformation target area R3u2 has an upper end side that coincides with the virtual edge projection line L52 (k1) and a lower end side that coincides with the virtual edge projection line L52 (k1) in advance. It has a predetermined interval Δvu2 (for example, an interval of 15 pixels) and coincides with a line parallel to the edge projection line L52 (k1), and the horizontal range is the horizontal direction of the edge estimation region R3u It is an area that matches the range of.

従って、射影変換対象領域R3u2は、その上端側の辺の位置と下端側の辺の位置とが、それらの間の間隔(すなわちR3u2の縦方向の幅)を一定の間隔Δvu2に保持しつつ、仮想的なエッジ投影線L52(k1)の位置(=v(k1))に応じて変化するように設定される領域である。この射影変換対象領域R3u2は、仮想的なエッジ投影線L52(k1)が、実エッジ投影線L52rに合致する場合には、段鼻の先端面や蹴り込み面のように、昇り階段50の上段側踏面51pの先端側で該上段側踏面51pに対して起立した姿勢で形成される平面部分が投影される領域である。   Accordingly, in the projective transformation target region R3u2, the position of the upper edge side and the position of the lower edge side hold the distance between them (that is, the vertical width of R3u2) at a constant distance Δvu2, This is an area set so as to change in accordance with the position (= v (k1)) of the virtual edge projection line L52 (k1). This projective transformation target region R3u2 is located on the upper side of the ascending staircase 50, such as the tip of the nose or the kicking surface, when the virtual edge projection line L52 (k1) matches the actual edge projection line L52r. This is an area on which a flat surface formed in a posture standing on the upper side tread surface 51p on the front end side of the tread surface 51p is projected.

また、射影変換対象領域R3u3は、上記射影変換領域R3u2よりも下側で、エッジ推定用領域R3uの下部に設定される方形状の領域である。この射影変換領域R3u3は、その下端側の辺がエッジ推定用領域R3uの下端側の辺に一致し、且つ、横方向の範囲が、エッジ推定用領域R3uの横方向の範囲と一致する領域である。   The projective transformation target region R3u3 is a rectangular region set below the edge transformation region R3u and below the projective transformation region R3u2. This projective transformation area R3u3 is an area in which the lower edge side coincides with the lower edge side of the edge estimation area R3u and the horizontal range coincides with the horizontal range of the edge estimation area R3u. is there.

そして、射影変換対象領域R3u3の上端側の辺の位置は、本実施形態では、仮想的なエッジ投影線L52(k1)の位置(=v(k1))に応じて次のように設定される。   In the present embodiment, the position of the upper edge side of the projection transformation target region R3u3 is set as follows according to the position of the virtual edge projection line L52 (k1) (= v (k1)). .

すなわち、エッジ投影線推定処理部13は、まず、上段側踏面投影領域AR2pに対応する平面パラメータベクトル↑m2pを用いて、仮想的なエッジ投影線L52(k1)に対応する上段側踏面51pの先端側エッジ線(先端側エッジ52を包含する空間的な直線)を求める。この先端側エッジ線は、基準カメラ3の光学中心Cと基準画像の撮像面上の仮想的なエッジ投影線L52(k1)とを包含する平面と、上段側踏面投影領域AR2pに対応する平面パラメータベクトル↑m2pにより規定される平面(上段側踏面51pを包含する平面)との交線として算出される。   That is, the edge projection line estimation processing unit 13 first uses the plane parameter vector ↑ m2p corresponding to the upper stage tread projection area AR2p to use the tip of the upper stage tread 51p corresponding to the virtual edge projection line L52 (k1). A side edge line (a spatial straight line including the front end side edge 52) is obtained. The leading edge line is a plane parameter that includes the optical center C of the reference camera 3 and a virtual edge projection line L52 (k1) on the imaging surface of the reference image, and a plane parameter corresponding to the upper tread projection area AR2p. Calculated as a line of intersection with a plane defined by the vector ↑ m2p (a plane including the upper tread surface 51p).

そして、エッジ投影線推定処理部13は、上記の如く求めた先端側エッジ線を含み、且つ、上段側踏面投影領域AR2pに対応する平面パラメータベクトル↑m2pにより規定される平面に対して直交する平面(あるいは↑m2pにより規定される平面に対して、90度に近い既定の角度で交差する平面)を決定する。この平面は、階段の段鼻の先端面又は蹴り込み面に相当する仮想的な平面(以降、起立平面ということがある)である。   Then, the edge projection line estimation processing unit 13 includes a front-side edge line obtained as described above, and is a plane orthogonal to the plane defined by the plane parameter vector ↑ m2p corresponding to the upper tread surface projection area AR2p. (Or a plane that intersects the plane defined by ↑ m2p at a predetermined angle close to 90 degrees). This plane is a virtual plane (hereinafter sometimes referred to as an upright plane) corresponding to the front end surface or kick surface of the stair nosing.

さらに、エッジ投影線推定処理部13は、上記の如く決定した起立平面と、下段側踏面投影領域AR2qに対応する平面パラメータベクトル↑m2qにより規定される平面との交線を、基準画像に投影してなる線に、射影変換対象領域R3u3の上端側の辺が合致するように該上端側の辺の位置を設定する。   Further, the edge projection line estimation processing unit 13 projects an intersection line between the standing plane determined as described above and the plane defined by the plane parameter vector ↑ m2q corresponding to the lower tread projection area AR2q onto the reference image. The position of the upper end side is set so that the upper end side of the projection transformation target area R3u3 matches the line.

従って、射影変換対象領域R3u3の上端側の辺は、下段側踏面51qの基端側エッジ53が、上段側踏面51pの先端側エッジ52のほぼ直下に存在するものと仮定した場合における該基端側エッジ53を基準画像に投影してなる線に相当するものとなる。この射影変換対象領域R3u3は、仮想的なエッジ投影線L52(k1)が、実エッジ投影線L52rに合致する場合には、下段側踏面投影領域AR2qに含まれる領域である。   Therefore, the upper end side of the projective transformation target region R3u3 is the base end when it is assumed that the base end side edge 53 of the lower step side tread surface 51q exists almost immediately below the front end side edge 52 of the upper step side tread surface 51p. This corresponds to a line formed by projecting the side edge 53 on the reference image. This projective transformation target area R3u3 is an area included in the lower tread projection area AR2q when the virtual edge projection line L52 (k1) matches the actual edge projection line L52r.

なお、前記平面投影領域抽出部12の処理によって、階段の段鼻の先端面又は蹴り込み面に相当する段差部の平面部分に対応する平面投影領域を抽出するようにした場合には、その平面投影領域に対応する平面パラメータベクトルにより規定される平面を上記起立平面として使用して、射影変換対象領域R3u3の上端の辺の位置を決定するようにしてもよい。   When the plane projection area extraction unit 12 extracts a plane projection area corresponding to the planar portion of the step portion corresponding to the tip surface or the kick surface of the stair nosing, the plane projection is performed. The position of the upper end side of the projection transformation target region R3u3 may be determined using the plane defined by the plane parameter vector corresponding to the region as the standing plane.

補足すると、段差部の上段側踏面の先端側で該上段側踏面に対して起立する姿勢となる平面部分は、蹴り込みの箇所に板部材が設けられていないような段差部にあっては、段鼻の先端面に相当するものとなる。従って、該平面部分の上下方向の幅は、上段側踏面と下段側踏面との間隔に比して小さなものとなる。さらに、この場合には、段差部の蹴り込みの箇所には、平面部分が存在しないこととなる。   Supplementally, the flat surface portion that is in a posture of standing on the upper tread surface at the front end side of the upper tread surface of the step portion is in a step portion where no plate member is provided at the location of kicking, It corresponds to the tip of the nose. Accordingly, the vertical width of the flat portion is smaller than the distance between the upper step surface and the lower step surface. Further, in this case, there is no plane portion at the stepped portion of the stepped portion.

そこで、本実施形態では、前記射影変換対象領域R3u2の縦方向の幅Δvu2を比較的小さな幅とし、射影変換対象領域R3u2の下端の辺と、その下側の射影変換対象領域R3u3の上端の辺との間に間隔を設けるようにしている。   Therefore, in the present embodiment, the vertical width Δvu2 of the projection transformation target region R3u2 is set to a relatively small width, and the lower end side of the projection transformation target region R3u2 and the upper end side of the lower projection transformation target region R3u3. An interval is provided between the two.

なお、基準画像に段鼻の先端面に相当する部分が投影されている場合、該基準画像における段鼻の画像の縦方向の幅は、基準カメラ3の光学中心Cから段鼻までの距離や、基準カメラ3の光軸Lcに対する段鼻の方位角(基準画像の縦方向での方位角)に応じて変化する。従って、前記射影変換対象領域R3u2の縦方向の幅Δvu2は、基準カメラ3の光学中心Cから段鼻の近辺に存在する部分(例えば上段側踏面投影領域AR2pの下端に対応する上段側踏面51上の点)までの距離や、基準カメラ3の光軸Lcに対する該部分の方位角等に応じて可変的に設定するようにしてもよい。また、カメラ3R,3Lの解像度や撮像画像の拡縮の倍率等に応じて射影変換対象領域R3u2の縦方向の幅Δvu2を異ならせるようにしてもよい。   When a portion corresponding to the front end surface of the nose is projected on the reference image, the vertical width of the nose image in the reference image is the distance from the optical center C of the reference camera 3 to the nose, or the reference camera. 3 changes in accordance with the azimuth angle of the nose with respect to the optical axis Lc (vertical azimuth angle of the reference image). Accordingly, the vertical width Δvu2 of the projection conversion target region R3u2 is a portion existing in the vicinity of the nose from the optical center C of the reference camera 3 (for example, on the upper step surface 51 corresponding to the lower end of the upper step projection region AR2p). It may be variably set according to the distance to the point), the azimuth angle of the portion with respect to the optical axis Lc of the reference camera 3, and the like. Further, the vertical width Δvu2 of the projective transformation target region R3u2 may be varied according to the resolution of the cameras 3R and 3L, the magnification of the captured image, and the like.

以上の如くSTEP25の処理を実行した後、次に、エッジ投影線推定処理部13は、STEP26の処理を実行する。このSTEP26では、エッジ推定用領域R3uに設定した3つの射影変換対象領域R3u1,R3u2,R3u3のそれぞれが平面部分の投影領域であると仮定して、射影変換対象領域R3u1,R3u2,R3u3のそれぞれに対応する平面部分を包含する平面についての平面パラメータベクトル↑mu1,↑mu2,↑mu3を決定する。   After executing the processing of STEP25 as described above, the edge projection line estimation processing unit 13 then executes the processing of STEP26. In this STEP 26, assuming that each of the three projective transformation target regions R3u1, R3u2, and R3u3 set in the edge estimation region R3u is a projection region of a plane part, each of the projective transformation target regions R3u1, R3u2, and R3u3 Determine plane parameter vectors ↑ mu1, ↑ mu2, and ↑ mu3 for the plane including the corresponding plane portion.

この場合、射影変換対象領域R3u1,R3u3にそれぞれ対応する平面パラメータベクトル↑mu1,↑mu3は、それぞれ、上段側踏面投影領域AR2pに対応する平面パラメータベクトル↑m2p、下段側踏面投影領域AR2qに対応する平面パラメータベクトル↑m2qに一致するベクトルに決定される。   In this case, the plane parameter vectors ↑ mu1 and ↑ mu3 corresponding to the projective transformation target areas R3u1 and R3u3 respectively correspond to the plane parameter vector ↑ m2p and the lower stage tread projection area AR2q corresponding to the upper tread projection area AR2p. It is determined to be a vector that matches the plane parameter vector ↑ m2q.

また、射影変換対象領域R3u2に対応する平面パラメータベクトル↑mu2は、前記STEP25の処理に関して説明した起立平面(仮想的なエッジ投影線L52(k1)に対応する先端側エッジ線を含み、上段側踏面51pを包含する平面に対して直交又はほぼ直交する平面)の平面パラメータベクトル↑mに一致するベクトルに決定される。   Further, the plane parameter vector ↑ mu2 corresponding to the projective transformation target region R3u2 includes the standing plane described with respect to the processing of STEP 25 (including the tip side edge line corresponding to the virtual edge projection line L52 (k1), and the upper tread surface To a plane parameter vector ↑ m that is orthogonal or nearly orthogonal to the plane including 51p.

なお、前記平面投影領域抽出部12の処理によって、階段の段鼻の先端面又は蹴り込み面に相当する段差部の平面部分に対応する平面投影領域を抽出するようにした場合には、その平面投影領域に対応する平面パラメータベクトル↑mに、↑mu2を一致させるようにしてもよい。   When the plane projection area extraction unit 12 extracts a plane projection area corresponding to the planar portion of the step portion corresponding to the tip surface or the kick surface of the stair nosing, the plane projection is performed. ↑ mu2 may be matched with the plane parameter vector ↑ m corresponding to the region.

次いで、エッジ投影線推定処理部13は、STEP27の処理を実行する。このSTEP27では、エッジ投影線推定処理部13は、各射影変換対象領域R3u1,R3u2,R3u3について、各射影変換対象領域R3u1,R3u2,R3u3の画像(基準画像)と、これに対応する参照画像中の領域の画像を射影変換した場合に得られる射影変換画像との誤差を表す誤差画像を作成する。   Next, the edge projection line estimation processing unit 13 executes the processing of STEP27. In this STEP 27, the edge projection line estimation processing unit 13 for each projection transformation target region R3u1, R3u2, R3u3, the image (reference image) of each projection transformation target region R3u1, R3u2, R3u3 and the reference image corresponding thereto. An error image representing an error from the projective transformation image obtained when projecting the image of the area is created.

各射影変換対象領域R3u1,R3u2,R3u3に対応する誤差画像は次のように作成される。例えば射影変換対象領域R3u1に対応す誤差画像の作成処理を代表的に説明すると、基準画像の射影変換対象領域R3u1内の任意の位置Qでの画素値をI1(Q)、基準画像内の位置Qを射影変換対象領域R3u1に対応する平面パラメータベクトル↑mu1により規定される前記式(1−1)の射影変換行列Pにより射影変換してなる参照画像内の位置をf(Q)、参照画像内の位置f(Q)での画素値をI2(f(Q))とおく。   Error images corresponding to the respective projection transformation target areas R3u1, R3u2, and R3u3 are created as follows. For example, the error image creation process corresponding to the projection transformation target region R3u1 will be described as a representative example. The pixel value at an arbitrary position Q in the projection transformation target region R3u1 of the reference image is I1 (Q), and the position in the reference image. The position in the reference image obtained by performing the projective transformation by Q using the projective transformation matrix P of the equation (1-1) defined by the plane parameter vector ↑ mu1 corresponding to the projection transformation target region R3u1 is f (Q), and the reference image. The pixel value at the position f (Q) is I2 (f (Q)).

このとき、射影変換対象領域R3u1に対応する誤差画像は、射影変換対象領域R3u1の各位置Qの画素値を、I1(Q)とI2(f(Q))との差の二乗値(=(I1(Q)−I2(f(Q)))2)又は絶対値(=|I1(Q)−I2(f(Q))|)に置き換えた画像として作成される。 At this time, the error image corresponding to the projective transformation target region R3u1 has the pixel value at each position Q in the projective transformation target region R3u1 as the square value of the difference between I1 (Q) and I2 (f (Q)) (= ( I1 (Q) -I2 (f (Q))) 2 ) or an absolute value (= | I1 (Q) -I2 (f (Q)) |).

射影変換対象領域R3u2,R3u3のそれぞれに対応する誤差画像についても同様である。ただし、この場合、参照画像中の位置f(Q)を求めるための射影変換に使用する平面パラメータベクトルは、↑mu1の代わりに、それぞれの領域に対応して決定された平面パラメータベクトル↑mu2,↑mu3が使用される。   The same applies to the error images corresponding to the projective transformation target regions R3u2 and R3u3. However, in this case, the plane parameter vector used for the projective transformation for obtaining the position f (Q) in the reference image is a plane parameter vector ↑ mu2 determined for each region instead of ↑ mu1. ↑ mu3 is used.

次いで、エッジ投影線推定処理部13は、STEP28,29の処理を実行する。STEP28では、エッジ投影線推定処理部13は、処理に用いる候補位置v(k1)の番数k1を“1”だけ増加させる。そして、STEP29では、エッジ投影線推定処理部13は、増加後のk1の値が候補位置v(k1)の総個数であるN3aを超えたか否かを判断する。   Next, the edge projection line estimation processing unit 13 executes the processing of STEPs 28 and 29. In STEP 28, the edge projection line estimation processing unit 13 increases the number k1 of candidate positions v (k1) used for processing by “1”. In STEP 29, the edge projection line estimation processing unit 13 determines whether or not the increased value of k1 exceeds N3a, which is the total number of candidate positions v (k1).

このSTEP29の判断結果が否定的である場合には、エッジ投影線推定処理部13は、増加後の第k1番目の候補位置v(k1)を用いて、前記STEP25〜27の処理を実行する。   If the determination result in STEP 29 is negative, the edge projection line estimation processing unit 13 executes the processes in STEPs 25 to 27 using the increased k1th candidate position v (k1).

以上のようにして、N3a個の候補位置v(k1)(k1=1,2,…,N3a)のそれぞれに対応して、上記の誤差画像が作成される。   As described above, the above error image is created corresponding to each of N3a candidate positions v (k1) (k1 = 1, 2,..., N3a).

STEP29の判断結果が肯定的となった場合には、エッジ投影線推定処理部13は、次に、STEP30の処理を実行する。このSTEP30では、エッジ投影線推定処理部13は、図15に示す如く、エッジ推定用領域R3u内に、縦方向に細長い複数(N3b個)の演算処理領域R3min(k2)(k2=1,2,…,N3b)を設定する。各演算処理領域R3min(k2)は、基準画像の横方向の幅があらかじめ定められた所定の微小幅(例えば1画素分の幅)を有し、且つ、縦方向の範囲が、エッジ推定用領域R3uの縦方向の範囲に一致する細長方形状(短冊状)の領域である。   If the determination result in STEP 29 is affirmative, the edge projection line estimation processing unit 13 next executes the process in STEP 30. In this STEP 30, as shown in FIG. 15, the edge projection line estimation processing unit 13 has a plurality (N3b) of arithmetic processing regions R3min (k2) (k2 = 1, 2) elongated in the vertical direction in the edge estimation region R3u. ,..., N3b) are set. Each arithmetic processing region R3min (k2) has a predetermined minute width (for example, one pixel width) in which the horizontal width of the reference image is determined in advance, and the vertical range is an edge estimation region. This is a narrow rectangular (strip-shaped) region that matches the vertical range of R3u.

そして、これらの演算処理領域R3min(k2)は、本実施形態では、基準画像の横方向に順番に隣接して並ぶように配置され、その全体の領域がエッジ推定用領域R3uに合致するものとされる。   In this embodiment, these arithmetic processing regions R3min (k2) are arranged so as to be adjacent to each other in order in the horizontal direction of the reference image, and the entire region thereof coincides with the edge estimation region R3u. Is done.

なお、演算処理領域R3min(k2)は、隣合う演算処理領域の間に若干の間隔を有するように設定してもよい。また、各演算処理領域R3min(k2)の横方向の幅は1画素分の幅よりも多少大きい幅(例えば2画素分の幅、3画素分の幅等)であってもよい。   Note that the arithmetic processing region R3min (k2) may be set to have a slight interval between adjacent arithmetic processing regions. Further, the width in the horizontal direction of each arithmetic processing region R3min (k2) may be slightly larger than the width of one pixel (for example, the width of two pixels, the width of three pixels, etc.).

補足すると、演算処理領域R3min(k2)(k2=1,2,…,N3b)の全てを合成したものが、エッジ推定用領域R3uに合致するので、前記STEP23において、N3a個の候補位置v(k1)(k1=1,2,…,N3a)を設定する処理は、換言すれば、各演算処理領域R3min(k2)に対してN3a個の候補位置v(k1)(k1=1,2,…,N3a)を設定する処理であると言える。   Supplementally, a combination of all of the calculation processing region R3min (k2) (k2 = 1, 2,..., N3b) matches the edge estimation region R3u. Therefore, in STEP 23, N3a candidate positions v ( In other words, the process of setting k1) (k1 = 1, 2,..., N3a) is N3a candidate positions v (k1) (k1 = 1,2, N2) for each arithmetic processing region R3min (k2). .., N3a).

また、前記STEP25において、v(k1)に応じて射影変換対象領域R3u1,R3u2,R3u3を設定する処理は、換言すれば、各演算処理領域R3min(k2)に対して射影変換対象領域R3u1,R3u2,R3u3を設定する処理であると言える。   In STEP 25, the process of setting the projective transformation target areas R3u1, R3u2, and R3u3 according to v (k1), in other words, the projective transformation target areas R3u1, R3u2 for each arithmetic processing area R3min (k2). , R3u3.

演算処理領域R3min(k2)を設定するSTEP30の処理は、STEP23やSTEP25よりも後で行なう必要はなく、例えば、STPE22において、演算処理領域R3min(k2)の設定処理を行ってもよい。   The processing of STEP 30 for setting the arithmetic processing region R3min (k2) does not need to be performed after STEP23 or STEP25. For example, the processing for setting the arithmetic processing region R3min (k2) may be performed in STPE22.

次いで、エッジ投影線推定処理部13は、STEP31の処理を実行する。この処理では、各演算処理領域R3min(k2)に対応する処理を順番に実行するために、k2の初期値として“1”が設定される。   Next, the edge projection line estimation processing unit 13 executes the processing of STEP31. In this processing, “1” is set as the initial value of k2 in order to sequentially execute the processing corresponding to each arithmetic processing region R3min (k2).

次いで、エッジ投影線推定処理部13は、STEP32の処理を実行する。このSTEP32では、エッジ投影線推定処理部13は、第k2番目(k2は現在設定されている番数)の演算処理領域R3min(k2)におけるN3a個の前記候補位置v(k1)(k1=1,2,…,N3a)のそれぞれについて、実エッジ投影線L52rの位置(縦方向での位置)に対する各候補位置v(k1)の適合度を表す評価関数Eu(k2)の値を算出する。   Next, the edge projection line estimation processing unit 13 executes the processing of STEP32. In this STEP 32, the edge projection line estimation processing unit 13 performs N3a candidate positions v (k1) (k1 = 1) in the k2th (k2 is the currently set number) arithmetic processing region R3min (k2). , 2,..., N3a), the value of the evaluation function Eu (k2) representing the degree of fitness of each candidate position v (k1) with respect to the position of the actual edge projection line L52r (position in the vertical direction) is calculated.

以降、第k2番目の演算処理領域R3min(k2)における第k1番目の候補位置v(k1)の適合度を表す評価関数Eu(k2)をEu(k2)_k1と表記する。   Hereinafter, the evaluation function Eu (k2) representing the fitness of the k1th candidate position v (k1) in the k2th arithmetic processing region R3min (k2) is expressed as Eu (k2) _k1.

演算処理領域R3min(k2)における各候補位置v(k1)に対応する評価関数Eu(k2)_k1の値は、v(k1)に応じて設定された射影変換対象領域R3u1(以降、これをR3u1(k1)と表記する)に対応する前記誤差画像のうちの演算処理領域R3min(k2)に含まれる部分の画像から算出される誤差関数Du1(k2)_k1の値と、v(k1)に応じて設定された射影変換対象領域R3u2(以降、これをR3u2(k1)と表記する)に対応する誤差画像のうちの演算処理領域R3min(k2)に含まれる部分の画像から算出される誤差関数Du2(k2)_k1の値と、v(k1)に応じて設定された射影変換対象領域R3u3(以降、これをR3u3(k1)と表記する)に対応する誤差画像のうちの演算処理領域R3min(k2)に含まれる部分の画像から算出される誤差関数Du3(k2)_k1の値とを線形結合(本実施形態では加算)してなる値として算出される。   The value of the evaluation function Eu (k2) _k1 corresponding to each candidate position v (k1) in the arithmetic processing region R3min (k2) is the projection transformation target region R3u1 (hereinafter referred to as R3u1) set according to v (k1). in accordance with the value of the error function Du1 (k2) _k1 calculated from the image of the portion included in the calculation processing region R3min (k2) of the error image corresponding to (k1)) and v (k1) The error function Du2 calculated from the image of the portion included in the calculation processing region R3min (k2) in the error image corresponding to the projection transformation target region R3u2 set in the above (hereinafter referred to as R3u2 (k1)). The calculation processing region R3min (k2) in the error image corresponding to the value of (k2) _k1 and the projection transformation target region R3u3 set in accordance with v (k1) (hereinafter referred to as R3u3 (k1)) ) Is linearly combined (added in this embodiment) with the value of the error function Du3 (k2) _k1 calculated from the image of the portion included in Calculated as a value.

より具体的には、v(k1)に応じて設定された射影変換対象領域R3u1,R3u2,R3u3のそれぞれに対応する誤差画像の各画素位置Qでの画素値をそれぞれI1uerr(Q),I2uerr(Q),I3uerr(Q)とする。また、演算処理領域R3min(k2)における射影変換対象領域R3u1(k1),R3u2(k1),R3u3(k1)のそれぞれのトータルの画素数をNu1(k2)_k1,Nu2(k2)_k1,Nu3(k3)_k1とする。このとき、誤差関数Du1(k2)_k1,Du2(k2)_k1,Du3(k2)_k1はそれぞれ、次式(3−1),(3−2),(3−3)により算出される。そして、これらのDu1(k2)_k1,Du2(k2)_k1,Du3(k2)_k1の値から次式(4)によって、評価関数Eu(k2)_k1が算出される。   More specifically, the pixel values at each pixel position Q of the error image corresponding to each of the projection transformation target areas R3u1, R3u2, and R3u3 set according to v (k1) are respectively set as I1uerr (Q) and I2uerr ( Q) and I3uerr (Q). Further, the total number of pixels in the projection transformation target areas R3u1 (k1), R3u2 (k1), and R3u3 (k1) in the arithmetic processing area R3min (k2) is expressed as Nu1 (k2) _k1, Nu2 (k2) _k1, Nu3 ( k3) _k1. At this time, the error functions Du1 (k2) _k1, Du2 (k2) _k1, and Du3 (k2) _k1 are calculated by the following equations (3-1), (3-2), and (3-3), respectively. Then, the evaluation function Eu (k2) _k1 is calculated from the values of Du1 (k2) _k1, Du2 (k2) _k1, and Du3 (k2) _k1 by the following equation (4).


Du1(k2)_k1=(1/Nu1(k2)_k1)・ΣI1uerr(Q) ……(3−1)
Du2(k2)_k1=(1/Nu2(k2)_k1)・ΣI2uerr(Q) ……(3−2)
Du3(k2)_k1=(1/Nu3(k2)_k1)・ΣI3uerr(Q) ……(3−3)
Eu(k2)_k1=Du1(k2)_k1+Du2(k2)_k1+Du3(k2)_k1 ……(4)

Du1 (k2) _k1 = (1 / Nu1 (k2) _k1) · ΣI1uerr (Q) (3-1)
Du2 (k2) _k1 = (1 / Nu2 (k2) _k1) · ΣI2uerr (Q) (3-2)
Du3 (k2) _k1 = (1 / Nu3 (k2) _k1) · ΣI3uerr (Q) (3-3)
Eu (k2) _k1 = Du1 (k2) _k1 + Du2 (k2) _k1 + Du3 (k2) _k1 (4)

この場合、式(3−1)におけるΣI1uerr(Q)は、演算処理領域R3min(k2)における射影変換対象領域R3u1(k1)(演算処理領域R3min(k2)と射影変換対象領域R3u1(k1)との重なり領域)での誤差画像の画素値I1uerr(Q)の総和である。   In this case, ΣI1uerr (Q) in equation (3-1) is the projection transformation target region R3u1 (k1) (calculation processing region R3min (k2) and projection transformation target region R3u1 (k1) in the computation processing region R3min (k2). The sum of the pixel values I1uerr (Q) of the error image in the overlapping region).

また、式(3−2)におけるΣI2uerr(Q)は、演算処理領域R3min(k2)における射影変換対象領域R3u2(k1)(演算処理領域R3min(k2)と射影変換対象領域R3u2(k1)との重なり領域)での誤差画像の画素値I2uerr(Q)の総和である。   In addition, ΣI2uerr (Q) in Expression (3-2) is the projection transformation target region R3u2 (k1) (calculation processing region R3min (k2) and projection transformation target region R3u2 (k1) in the computation processing region R3min (k2). This is the sum of the pixel values I2uerr (Q) of the error image in the overlap region.

また、式(3−3)におけるΣI3uerr(Q)は、演算処理領域R3min(k2)における射影変換対象領域R3u3(k1)(演算処理領域R3min(k2)と射影変換対象領域R3u3(k1)との重なり領域)での誤差画像の画素値I3uerr(Q)の総和である。   In addition, ΣI3uerr (Q) in Expression (3-3) is the projection transformation target region R3u3 (k1) (calculation processing region R3min (k2) and projection transformation target region R3u3 (k1) in the computation processing region R3min (k2). This is the sum of the pixel values I3uerr (Q) of the error image in the overlapping region.

STEP32では、以上のようにして、第k2番目の演算処理領域R3min(k2)において、N3a個の候補位置v(k1)(k1=1,2,…,N3a)のそれぞれの適合度(実エッジ投影線L52rの位置としての妥当性の度合い)をそれぞれ表すN3a個の評価関数Eu(k2)_k1(k1=1,2,…,N3a)の値が算出される。これらの評価関数Eu(k2)_k1(k1=1,2,…,N3a)は、第k2番目の演算処理領域R3min(k2)において、基準画像の縦方向での位置と、その位置の適合度(第k2番目の演算処理領域R3min(k2)での実エッジ投影線L52rの位置に対する適合度)との間の関係を表すデータとしての意味を持つ。   In STEP 32, the fitness (actual edge) of each of the N3a candidate positions v (k1) (k1 = 1, 2,..., N3a) in the k2th arithmetic processing region R3min (k2) as described above. The values of N3a evaluation functions Eu (k2) _k1 (k1 = 1, 2,..., N3a) representing the degree of validity as the position of the projection line L52r are calculated. These evaluation functions Eu (k2) _k1 (k1 = 1, 2,..., N3a) are the position in the vertical direction of the reference image in the k2th arithmetic processing region R3min (k2) and the degree of fitness of the position. It has a meaning as data representing the relationship with (the degree of fitness for the position of the actual edge projection line L52r in the k2th arithmetic processing region R3min (k2)).

次いで、エッジ投影線推定処理部13は、STEP33,34の処理を実行する。STEP33では、エッジ投影線推定処理部13は、処理対象とする演算処理領域R3min(k2)の番数k2を“1”だけ増加させる。そして、STEP34では、エッジ投影線推定処理部13は、増加後のk2の値が演算処理領域R3min(k2)の総個数であるN3bを超えたか否かを判断する。   Next, the edge projection line estimation processing unit 13 executes the processing of STEPs 33 and 34. In STEP 33, the edge projection line estimation processing unit 13 increases the number k2 of the calculation processing region R3min (k2) to be processed by “1”. In STEP 34, the edge projection line estimation processing unit 13 determines whether or not the increased k2 value has exceeded N3b, which is the total number of calculation processing regions R3min (k2).

このSTEP34の判断結果が否定的である場合には、エッジ投影線推定処理部13は、増加後の第k2番目の演算処理領域R3min(k2)に関して、前記STEP32の処理を実行する。   If the determination result in STEP 34 is negative, the edge projection line estimation processing unit 13 executes the process in STEP 32 for the k2th arithmetic processing region R3min (k2) after the increase.

以上のようにして、N3a個の候補位置v(k1)(k1=1,2,…,N3a)のそれぞれと、N3b個の演算処理領域R3min(k2)(k2=1,2,…,N3b)のそれぞれとの各組に対応して、総計N3a×N3b個の評価関数Eu(k2)_k1の値が算出される。   As described above, each of N3a candidate positions v (k1) (k1 = 1, 2,..., N3a) and N3b operation processing regions R3min (k2) (k2 = 1, 2,..., N3b). ), A total of N3a × N3b evaluation function Eu (k2) _k1 values are calculated.

これにより、図16(a),(b)に例示する如く、各演算処理領域R3min(k2)毎に、基準画像の縦方向(v軸方向)での所定の刻み間隔毎の複数の候補位置v(k1)(k1=1,2,…,N3a)と、その各候補位置v(k1)の適合度(第k2番目の演算処理領域R3min(k2)での実エッジ投影線L52rの位置に対する適合度)を表す評価関数Eu(k2)_k1の値との間の関係を表すデータが得られることとなる。   Thereby, as illustrated in FIGS. 16A and 16B, a plurality of candidate positions for each predetermined interval in the vertical direction (v-axis direction) of the reference image for each arithmetic processing region R3min (k2). v (k1) (k1 = 1, 2,..., N3a) and the fitness of each candidate position v (k1) (relative to the position of the actual edge projection line L52r in the k2th arithmetic processing region R3min (k2)) Data representing the relationship between the value of the evaluation function Eu (k2) _k1 representing the degree of fitness) is obtained.

なお、図16(a),(b)は、それぞれ、第1番目の演算処理領域R3min(1)に関する評価関数Eu(1)のグラフ、第N3b番目の演算処理領域R3min(N3b)に関する評価関数Eu(N3b)のグラフを代表的に示している。   16A and 16B are graphs of the evaluation function Eu (1) relating to the first arithmetic processing region R3min (1), and the evaluation function relating to the N3bth arithmetic processing region R3min (N3b), respectively. A graph of Eu (N3b) is representatively shown.

STEP34の判断結果が肯定的となった場合には、エッジ投影線推定処理部13は、次に、STEP35の処理を実行する。このSTEP35では、エッジ投影線推定処理部13は、エッジ推定用領域R3uに推定エッジ投影線の複数の候補(以降、エッジ投影線候補という)を仮想的に設定する。そして、エッジ投影線推定処理部13は、その各エッジ投影線候補毎に、N3b個の演算処理領域R3min(k2)(k2=1,2,…,N3b)のそれぞれにおける評価関数Eu(k2)の値の総和TEu(以降、総合評価関数TEuという)を求める。   If the determination result in STEP 34 is affirmative, the edge projection line estimation processing unit 13 next executes the process in STEP 35. In STEP 35, the edge projection line estimation processing unit 13 virtually sets a plurality of estimated edge projection line candidates (hereinafter referred to as edge projection line candidates) in the edge estimation region R3u. Then, the edge projection line estimation processing unit 13 evaluates Eu (k2) for each of the N3b calculation processing regions R3min (k2) (k2 = 1, 2,..., N3b) for each edge projection line candidate. Is obtained as a total sum TEu (hereinafter referred to as a comprehensive evaluation function TEu).

このSTEP35の処理でエッジ投影線推定処理部13が仮想的に設定する複数のエッジ投影線候補は、複数種類の位置及び方向を有するエッジ投影線である。これらのエッジ投影線候補は、具体的には、例えば次のように設定される。   The plurality of edge projection line candidates virtually set by the edge projection line estimation processing unit 13 in the processing of STEP 35 are edge projection lines having a plurality of types of positions and directions. Specifically, these edge projection line candidates are set as follows, for example.

すなわち、図17を参照して、エッジ投影線推定処理部13は、N3b個の演算処理領域R3min(k2)を合成した領域としてエッジ推定用領域R3uの左端の辺と右端の辺とにそれぞれ同数ずつ、複数個の点を設定する。例えば、前記N3a個の候補位置v(k1)(k1=1,2,…,N3a)、エッジ推定用領域R3uの左端の辺と右端の辺とにそれぞれ、N3a個の点を等間隔で設定する。   That is, referring to FIG. 17, the edge projection line estimation processing unit 13 has the same number of left and right edges of the edge estimation region R3u as regions obtained by combining N3b calculation processing regions R3min (k2). Set multiple points at a time. For example, N3a candidate positions v (k1) (k1 = 1, 2,..., N3a) and N3a points are set at equal intervals on the left and right sides of the edge estimation region R3u. To do.

そして、エッジ投影線推定処理部13は、エッジ推定用領域R3uの左端の各設定点と、右端の各設定点とを結ぶ、総計N3a×N3a個の直線をエッジ投影線候補として設定する。   Then, the edge projection line estimation processing unit 13 sets a total of N3a × N3a straight lines connecting the set points on the left end of the edge estimation region R3u and the set points on the right end as edge projection line candidates.

図17に示すエッジ投影線候補は、このようにして設定されるエッジ投影線候補のうちの一部を代表的に示したものである。   The edge projection line candidates shown in FIG. 17 representatively show a part of the edge projection line candidates set in this way.

補足すると、エッジ推定用領域R3uの左端の辺と右端の辺とにそれぞれ設定する点の個数は、候補位置v(k1)の個数N3aと同じでなくてもよく、例えばN3aよりも少ない個数であってもよい。また、エッジ推定用領域R3uの左端の辺と右端の辺とにそれぞれ設定する点の位置(縦方向での位置)は、v(1)とv(N3a)との間の範囲内の位置であれば、候補位置v(k1)と異なる位置であってもよい。   Supplementally, the number of points set on the left and right sides of the edge estimation region R3u may not be the same as the number N3a of candidate positions v (k1), for example, a number smaller than N3a. There may be. The positions of the points set in the left and right edges of the edge estimation region R3u (positions in the vertical direction) are positions within the range between v (1) and v (N3a). If present, the position may be different from the candidate position v (k1).

また、エッジ投影線候補が通る基準画像上の1つの点の位置と、該エッジ投影線候補の方向(傾斜角度)との組み合わせによって、複数のエッジ投影線候補を設定するようにしてもよい。   Further, a plurality of edge projection line candidates may be set by a combination of the position of one point on the reference image through which the edge projection line candidate passes and the direction (tilt angle) of the edge projection line candidate.

上記の如く設定される各エッジ投影線候補に対応する総合評価関数TEuの値は、次のように算出される。   The value of the comprehensive evaluation function TEu corresponding to each edge projection line candidate set as described above is calculated as follows.

すなわち、エッジ投影線推定処理部13は、まず、エッジ投影線候補のそれぞれについて、該エッジ投影線候補がN3b個の演算処理領域R3min(k2)(k2=1,2,…,N3b)のそれぞれと交差する点の、基準画像の縦方向での位置(各演算処理領域R3min(k2)での該エッジ投影線候補の位置)を算出する。   That is, the edge projection line estimation processing unit 13 first determines, for each edge projection line candidate, each of the N3b calculation processing regions R3min (k2) (k2 = 1, 2,..., N3b). The position in the vertical direction of the reference image (the position of the edge projection line candidate in each calculation processing region R3min (k2)) is calculated.

そして、エッジ投影線推定処理部13は、エッジ投影線候補のそれぞれについて、各演算処理領域R3min(k2)での評価関数Eu(k2)の値を、上記の如く算出した該演算処理領域R3min(k2)でのエッジ候補線候補の位置と、該演算処理領域R3min(k2)において前記STEP32の処理により算出したN3a個の評価関数Eu(k2)_1〜Eu(k2)_N3aとに基づいて決定する。   Then, the edge projection line estimation processing unit 13 calculates the value of the evaluation function Eu (k2) in each calculation processing region R3min (k2) for each of the edge projection line candidates, as calculated in the calculation processing region R3min ( It is determined based on the position of the edge candidate line candidate at k2) and the N3a evaluation functions Eu (k2) _1 to Eu (k2) _N3a calculated by the processing of STEP 32 in the calculation processing region R3min (k2). .

具体的には、任意の1つのエッジ投影線候補に関し、例えば第k2番目の演算処理領域R3min(k2)における該エッジ投影線候補の位置(v軸方向での位置)がvxであり、N3a個の前記候補位置v(1)〜v(N3a)のうちのvxに一致する候補位置がv(k1x)であるとする。この場合、第k2番目の演算処理領域R3min(k2)と候補位置v(k1x)とに対応して算出された評価関数Eu(k2)_k1xの値が、第k2番目の演算処理領域R3min(k2)での該エッジ投影線候補の評価関数Eu(k2)の値として決定される。   Specifically, for any one edge projection line candidate, for example, the position (position in the v-axis direction) of the edge projection line candidate in the k2th computation processing region R3min (k2) is vx, and N3a pieces Of the candidate positions v (1) to v (N3a) is v (k1x). In this case, the value of the evaluation function Eu (k2) _k1x calculated corresponding to the k2th arithmetic processing region R3min (k2) and the candidate position v (k1x) is the k2th arithmetic processing region R3min (k2). ) At the edge projection line candidate evaluation function Eu (k2).

なお、vxに一致する候補位置が存在しない場合には、例えばvxに最も近い候補位置を上記v(k1x)として、第k2番目の演算処理領域R3min(k2)での該エッジ投影線候補の評価関数Eu(k2)の値が決定される。   If there is no candidate position matching vx, for example, the candidate position closest to vx is defined as v (k1x), and the edge projection line candidate is evaluated in the k2th arithmetic processing region R3min (k2). The value of the function Eu (k2) is determined.

あるいは、vxの前後の2つ以上の候補位置のそれぞれに対応する評価関数Eu(k2)の値から、線形補間等の補間処理によって、vxに対応する評価関数Eu(k2)の値を算出するようにしてもよい。このようにした場合には、その算出した評価関数Eu(k2)の値を、第k2番目の演算処理領域R3min(k2)での該エッジ投影線候補の評価関数Eu(k2)の値として決定するようにすればよい。   Alternatively, the value of the evaluation function Eu (k2) corresponding to vx is calculated from the value of the evaluation function Eu (k2) corresponding to each of two or more candidate positions before and after vx by interpolation processing such as linear interpolation. You may do it. In this case, the value of the calculated evaluation function Eu (k2) is determined as the value of the evaluation function Eu (k2) of the edge projection line candidate in the k2th arithmetic processing region R3min (k2). You just have to do it.

次いで、エッジ投影線推定処理部13は、各エッジ投影線候補毎に、N3b個の演算処理領域R3min(k2)(k2=1,2,…,N3b)のそれぞれにおける該エッジ投影線候補の位置に関する評価関数Eu(1)〜Eu(N3b)の値を加え合わせることによって、該エッジ投影線候補に対応する総合評価関数TEuの値を算出する。   Next, the edge projection line estimation processing unit 13 positions the edge projection line candidates in each of the N3b calculation processing regions R3min (k2) (k2 = 1, 2,..., N3b) for each edge projection line candidate. The value of the comprehensive evaluation function TEu corresponding to the edge projection line candidate is calculated by adding together the values of the evaluation functions Eu (1) to Eu (N3b).

以上の如くSTEP35の処理を実行した後、次に、エッジ投影線推定処理部13は、STEP36の処理を実行する。このSTEP36では、エッジ投影線推定処理部13は、STEP35で算出した各エッジ投影線候補毎の総合評価関数TEuに基づいて、実エッジ投影線L52rを推定した線としての推定エッジ投影線を決定する。   After executing the processing of STEP 35 as described above, the edge projection line estimation processing unit 13 then executes the processing of STEP 36. In STEP 36, the edge projection line estimation processing unit 13 determines an estimated edge projection line as a line obtained by estimating the actual edge projection line L52r based on the comprehensive evaluation function TEu for each edge projection line candidate calculated in STEP 35. .

ここで、ある1つのエッジ投影線候補が、実エッジ投影線L52rに合致する場合、原理的には、各演算処理領域R3min(k2)での該エッジ投影線候補の位置に関する評価関数Eu(k2)の値は最小(最も“0”に近い値)となる。従って、該エッジ投影線候補に対応する総合評価関数TEuの値は、他のエッジ投影線候補に対応する総合評価関数TEuの値よりも小さくなる。   Here, when one edge projection line candidate matches the actual edge projection line L52r, in principle, an evaluation function Eu (k2) relating to the position of the edge projection line candidate in each arithmetic processing region R3min (k2). ) Is the minimum (the value closest to “0”). Therefore, the value of the comprehensive evaluation function TEu corresponding to the edge projection line candidate is smaller than the value of the comprehensive evaluation function TEu corresponding to other edge projection line candidates.

そこで、STEP36では、エッジ投影線推定処理部13は、STEP35で設定した全てのエッジ投影線候補のうち、対応する総合評価関数TEuの値が最小となるエッジ投影線候補を、推定エッジ投影線として決定する。   Therefore, in STEP 36, the edge projection line estimation processing unit 13 sets the edge projection line candidate having the minimum value of the corresponding comprehensive evaluation function TEu among all the edge projection line candidates set in STEP 35 as the estimated edge projection line. decide.

これにより例えば、図18に例示する如く、エッジ推定用領域R3uの左端の辺上の位置v(k1a)の点と、右端の辺上の位置v(k1b)(図示例ではv(k1b)=v(k1a))の点とを結ぶエッジ投影線候補が、推定エッジ投影線として決定される。   Thus, for example, as illustrated in FIG. 18, the point at the position v (k1a) on the left end side of the edge estimation region R3u and the position v (k1b) on the right end side (in the example shown, v (k1b) = Edge projection line candidates connecting the points of v (k1a)) are determined as estimated edge projection lines.

以上が、カメラ3R,3Lの撮像領域に昇りの段差部(昇り階段50)が存在する場合に実行されるエッジ投影線推定処理部13の処理である。   The above is the processing of the edge projection line estimation processing unit 13 executed when an ascending step portion (ascending staircase 50) exists in the imaging regions of the cameras 3R and 3L.

次に、カメラ3R,3Lの撮像領域に降りの段差部(例えば降り階段50)が存在する場合に実行されるエッジ投影線推定処理部13の処理(図12のSTEP37〜51の処理)を説明する。   Next, the processing of the edge projection line estimation processing unit 13 (the processing of STEPs 37 to 51 in FIG. 12) executed when there is a stepped portion (for example, the descending staircase 50) in the imaging region of the cameras 3R and 3L will be described. To do.

段差部が降りの段差部である場合には、エッジ投影線推定処理部13は、まず、STEP37において、基準画像内に、STEP22と同様に、実エッジ投影線の推定用の画像処理領域であるエッジ推定用領域R3dを設定する。   When the stepped portion is a descending stepped portion, the edge projection line estimation processing unit 13 is an image processing region for estimating an actual edge projection line in STEP 37 as in STEP 22, first, in the reference image. An edge estimation region R3d is set.

ここで、以降の説明では、説明の便宜上、カメラ3R,3Lの撮像領域に存在する降りの段差部が、図1(b)に示した如き降り階段50であるとする。さらに、この降り階段50の任意の1つの上段側踏面51(例えばロボット1から見て最も手前側の上段側踏面)の先端側エッジ52を基準画像に投影してなる実エッジ投影線L52rを推定する処理をエッジ投影線推定処理部13により実行するものとする。   Here, in the following description, for the sake of convenience of explanation, it is assumed that the descending step portion present in the imaging regions of the cameras 3R and 3L is the descending staircase 50 as shown in FIG. Further, an actual edge projection line L52r formed by projecting the tip side edge 52 of any one upper step surface 51 of the descending staircase 50 (for example, the upper step surface closest to the robot 1) onto the reference image is estimated. It is assumed that the edge projection line estimation processing unit 13 executes the processing to be performed.

そして、昇りの段差部に関する説明と同様に、推定しようとする実エッジ投影線L52rに対応する先端側エッジ52を先端に有する上段側踏面51と、その一段下側の下段側踏面51とを、それぞれ参照符号51p,51qを使用して表記する。   Then, similarly to the description of the ascending stepped portion, an upper stage tread 51 having a tip side edge 52 corresponding to the actual edge projection line L52r to be estimated at the tip, and a lower stage tread 51 below the first stage, Represented using reference numerals 51p and 51q, respectively.

STEP37において基準画像に設定するエッジ推定用領域R3dは、図19に示す如く設定される方形状の領域である。このエッジ推定用領域R3dは、その下端の位置が上段側踏面投影領域AR2pの縦方向の幅内の位置(例えば上段側踏面投影領域AR2pの上端から既定の所定量だけ下側の位置)となり、且つ、R3dの上端の位置が下段側踏面投影領域AR2qの縦方向の幅内の位置(例えば下段側踏面投影領域AR2qの下端から所定量だけ上側の位置)になるように配置される。この場合、エッジ推定用領域R3dの縦方向の幅は、下段側踏面投影領域ARqと上段側踏面投影領域ARpとの間の縦方向の間隔に応じて決定される。   The edge estimation region R3d set as the reference image in STEP 37 is a rectangular region set as shown in FIG. The edge estimation region R3d has a lower end position within a vertical width of the upper stage tread projection area AR2p (for example, a position below the upper end of the upper stage tread projection area AR2p by a predetermined amount), Further, the position of the upper end of R3d is arranged so as to be a position within the vertical width of the lower stage tread projection area AR2q (for example, a position above the lower end of the lower stage tread projection area AR2q by a predetermined amount). In this case, the vertical width of the edge estimation region R3d is determined in accordance with the vertical interval between the lower stage tread projection area ARq and the upper stage tread projection area ARp.

また、エッジ推定用領域R3dは、その横方向の範囲(左端と右端との間の範囲)が、下段側踏面投影領域AR2q及び上段側踏面投影領域AR2pの横方向の範囲に一致するように配置される。この場合、エッジ推定用領域R3dの横方向の幅は、下段側踏面投影領域AR2q及び上段側踏面投影領域AR2pの横方向の幅と同じ幅(既定の幅)に決定される。   In addition, the edge estimation region R3d is arranged such that its horizontal range (the range between the left end and the right end) coincides with the horizontal range of the lower-stage tread projection area AR2q and the upper-stage tread projection area AR2p. Is done. In this case, the lateral width of the edge estimation region R3d is determined to be the same width (predetermined width) as the lateral width of the lower tread projection area AR2q and the upper tread projection area AR2p.

なお、エッジ推定用領域R3dの横方向の幅は、下段側踏面投影領域AR2q及び上段側踏面投影領域AR2pの横方向の幅よりも若干小さくてもよい。その場合は、エッジ推定用領域R3dは、その横方向の範囲が、下段側踏面投影領域AR2q及び上段側踏面投影領域AR2pの横方向の範囲内に収まるように配置すればよい。   The lateral width of the edge estimation region R3d may be slightly smaller than the lateral width of the lower stage tread projection area AR2q and the upper stage tread projection area AR2p. In that case, the edge estimation region R3d may be arranged so that the lateral range thereof falls within the lateral range of the lower stage tread projection area AR2q and the upper stage tread projection area AR2p.

以上のSTEP37の処理によって、エッジ推定用領域R3dは、その内部に(上端の辺と下端の辺との間)に推定しようとする単一の実エッジ投影線L52rが存在し、且つ、該エッジ推定用領域R3dの上端の辺及び下端の辺がそれぞれ、下段側踏面投影領域AR2q、上段側踏面投影領域AR2pに含まれるようにして、基準画像内に設定されることとなる。   Through the processing of STEP 37 described above, the edge estimation region R3d has a single actual edge projection line L52r to be estimated (between the upper end side and the lower end side) inside the edge estimation region R3d, and the edge The upper edge and the lower edge of the estimation area R3d are set in the reference image so as to be included in the lower tread projection area AR2q and the upper tread projection area AR2p, respectively.

エッジ投影線推定処理部13は、STEP37の次にSTEP38の処理を実行する。このSTEP38では、エッジ投影線推定処理部13は、前記STEP23と同様に処理によって、図20に示す如く、基準画像の縦方向(v軸方向)における実エッジ投影線L52rの位置の候補としての複数(N3a個)の候補位置v(k1)(k1=1,2,…,N3a)を決定する。   The edge projection line estimation processing unit 13 executes the processing of STEP38 after STEP37. In this STEP 38, the edge projection line estimation processing unit 13 performs processing similar to that in STEP 23, as shown in FIG. 20, a plurality of candidates for the position of the actual edge projection line L52r in the vertical direction (v-axis direction) of the reference image. (N3a) candidate positions v (k1) (k1 = 1, 2,..., N3a) are determined.

なお、この場合、候補位置v(k1)の個数N3aは、前記STEP23の処理における個数N3aと一般には異なる。   In this case, the number N3a of candidate positions v (k1) is generally different from the number N3a in the processing of STEP23.

また、この場合、N3a個の候補位置v(k1)(k1=1,2,…,N3a)は、エッジ推定用領域R3dの縦方向の範囲(上端と下端との間の範囲)内で、あらかじめ定められた所定の刻み間隔ずつ(例えば1画素分の間隔ずつ)、基準画像の縦方向に異なる位置とされる。そして、これらの候補位置v(k1)のうち、最も上側の候補位置としての第1番目の候補位置v(1)は、エッジ推定用領域R3dの上端から所定間隔(例えば1画素分の間隔)だけ下側の位置、最も下側の候補位置としての第N3a番目の候補位置v(N3a)は、エッジ推定用領域R3dの下端から所定間隔(例えば1画素分の間隔)だけ上側の位置に決定される。   In this case, N3a candidate positions v (k1) (k1 = 1, 2,..., N3a) are within the vertical range (range between the upper end and the lower end) of the edge estimation region R3d. The positions are different in the vertical direction of the reference image by predetermined intervals (for example, by one pixel). Of these candidate positions v (k1), the first candidate position v (1) as the uppermost candidate position is a predetermined interval (for example, one pixel interval) from the upper end of the edge estimation region R3d. And the N3a-th candidate position v (N3a) as the lowermost candidate position is determined to be an upper position by a predetermined interval (for example, an interval of one pixel) from the lower end of the edge estimation region R3d. Is done.

次に、エッジ投影線推定処理部13は、STEP39の処理を実行する。この処理は、前記STEP24の処理と同じであり、k1の初期値として“1”が設定される。   Next, the edge projection line estimation process part 13 performs the process of STEP39. This process is the same as the process of STEP 24, and “1” is set as the initial value of k1.

次いで、エッジ投影線推定処理部13は、STEP40の処理を実行する。このSTEP40では、エッジ投影線推定処理部13は、基準画像の縦方向での実エッジ投影線L52rの位置が第k1番目の候補位置v(k1)(k1は現在設定されている値)に一致するものと仮定して、エッジ推定用領域R3d内に、図20に例示する如く、2つの射影変換対象領域R3d1,R3d2を設定する。   Next, the edge projection line estimation processing unit 13 executes the processing of STEP40. In STEP 40, the edge projection line estimation processing unit 13 matches the position of the actual edge projection line L52r in the vertical direction of the reference image with the k1th candidate position v (k1) (k1 is a currently set value). Assuming that this is done, two projection transformation target regions R3d1 and R3d2 are set in the edge estimation region R3d as illustrated in FIG.

カメラ3R,3Lの撮像領域に存在する段差部が降りの段差部(ここでは降り階段50)である場合には、該段差部の段鼻の先端面や蹴り込み面は、基準画像及び参照画像には写らない。このため、この場合にエッジ推定用領域R3dに設定する射影変換対象領域は、R3d1,R3d2の2つである。   When the stepped portion present in the imaging regions of the cameras 3R and 3L is a stepped portion that is descending (here, the descending staircase 50), the tip end surface and the kicking surface of the stepped nose of the stepped portion are included in the reference image and the reference image. Is not shown. For this reason, in this case, there are two projective transformation target areas to be set in the edge estimation area R3d, namely R3d1 and R3d2.

これらの2つの射影変換対象領域R3d1,R3d2は、より詳しくは、第k1番目の候補位置v(k1)で横方向に延在する仮想的なエッジ投影線L52(k1)を境界線として上下に隣接するように設定される領域である。この場合、上側の射影変換対象領域R3d1は、その上端側の辺と下端側の辺とがそれぞれエッジ推定用領域R3dの上端側の辺、仮想的なエッジ投影線L52(k1)に一致し、且つ、横方向の範囲が、エッジ推定用領域R3dの横方向の範囲と一致する領域である。   More specifically, these two projective transformation target regions R3d1 and R3d2 are vertically arranged with a virtual edge projection line L52 (k1) extending in the horizontal direction at the k1th candidate position v (k1) as a boundary line. This is an area set to be adjacent. In this case, the upper projection conversion target region R3d1 has an upper end side and a lower end side that coincide with the upper end side of the edge estimation region R3d, the virtual edge projection line L52 (k1), In addition, the horizontal range is a region that matches the horizontal range of the edge estimation region R3d.

従って、射影変換対象領域R3d1は、その縦方向の幅と下端側の辺の位置(縦方向での位置)とが、仮想的なエッジ投影線L52(k1)の位置(=v(k1))に応じて変化するように設定される領域である。この射影変換対象領域R3d1は、仮想的なエッジ投影線L52(k1)が、実エッジ投影線L52rに合致する場合には、下段側踏面投影領域AR2qに含まれる領域である。   Therefore, in the projection transformation target region R3d1, the vertical width and the position of the lower side edge (the vertical position) are the positions of the virtual edge projection line L52 (k1) (= v (k1)). It is an area set so as to change according to. This projection transformation target area R3d1 is an area included in the lower tread projection area AR2q when the virtual edge projection line L52 (k1) matches the actual edge projection line L52r.

また、下側の射影変換対象領域R3d2は、その上端側の辺と下端側の辺とがそれぞれ仮想的なエッジ投影線L52(k1)、エッジ推定用領域R3dの下端側の辺に一致し、且つ、横方向の範囲が、エッジ推定用領域R3dの横方向の範囲と一致する領域である。   The lower projection transformation target area R3d2 has an upper edge side and a lower edge side that correspond to the virtual edge projection line L52 (k1) and the lower edge side of the edge estimation area R3d, respectively. In addition, the horizontal range is a region that matches the horizontal range of the edge estimation region R3d.

従って、射影変換対象領域R3d2は、その縦方向の幅と上端側の辺の位置(縦方向での位置)とが、仮想的なエッジ投影線L52(k1)の位置(=v(k1))に応じて変化するように設定される領域である。この射影変換対象領域R3d2は、仮想的なエッジ投影線L52(k1)が、実エッジ投影線L52rに合致する場合には、上段側踏面投影領域AR2pに含まれる領域である。   Accordingly, in the projection transformation target area R3d2, the vertical width and the position of the upper side edge (the vertical position) are the positions of the virtual edge projection line L52 (k1) (= v (k1)). It is an area set so as to change according to. This projective transformation target area R3d2 is an area included in the upper tread projection area AR2p when the virtual edge projection line L52 (k1) matches the actual edge projection line L52r.

以上の如くSTEP40の処理を実行した後、次に、エッジ投影線推定処理部13は、STEP41の処理を実行する。このSTEP41では、エッジ推定用領域R3dに設定した2つの射影変換対象領域R3d1,R3d2のそれぞれが平面部分の投影領域であると仮定して、射影変換対象領域R3d1,R3d2のそれぞれに対応する平面部分を包含する平面についての平面パラメータベクトル↑md1,↑md2を決定する。   After executing the processing of STEP 40 as described above, the edge projection line estimation processing unit 13 then executes the processing of STEP 41. In this STEP 41, it is assumed that each of the two projection transformation target areas R3d1, R3d2 set in the edge estimation area R3d is a projection area of the plane part, and the plane portions corresponding to the projection transformation target areas R3d1, R3d2 respectively. Plane parameter vectors ↑ md1 and ↑ md2 are determined for the plane that includes.

この場合、射影変換対象領域R3d1,R3d2にそれぞれ対応する平面パラメータベクトル↑md1,↑md2は、それぞれ、下段側踏面投影領域AR2qに対応する平面パラメータベクトル↑m2q、上段側踏面投影領域AR2pに対応する平面パラメータベクトル↑m2pに一致するベクトルに決定される。   In this case, the plane parameter vectors ↑ md1 and ↑ md2 respectively corresponding to the projective transformation target areas R3d1 and R3d2 correspond to the plane parameter vector ↑ m2q and the upper stage tread projection area AR2p corresponding to the lower tread projection area AR2q, respectively. The plane parameter vector is determined to be a vector matching the m2p.

次いで、エッジ投影線推定処理部13は、STEP42の処理を実行する。このSTEP42では、エッジ投影線推定処理部13は、各射影変換対象領域R3d1,R3d2について、各射影変換対象領域R3d1,R3d2の画像(基準画像)と、これに対応する参照画像中の領域の画像を射影変換した場合に得られる射影変換画像との誤差を表す誤差画像を作成する。   Next, the edge projection line estimation processing unit 13 executes the processing of STEP42. In this STEP 42, the edge projection line estimation processing unit 13 for each projection transformation target region R3d1, R3d2, images of the projection transformation target regions R3d1, R3d2 and images of the corresponding regions in the reference image. An error image representing an error from the projective transformation image obtained when projective transformation is performed is created.

この場合、各射影変換対象領域R3d1,R3d2に対応する誤差画像は、それぞれに対応する平面パラメータベクトル↑md1,↑md2を使用して、前記STEP27での誤差画像の作成処理と同様の処理によって作成される。   In this case, the error image corresponding to each of the projection transformation target regions R3d1, R3d2 is created by the same process as the error image creation process in STEP 27, using the corresponding plane parameter vectors ↑ md1, ↑ md2. Is done.

次いで、エッジ投影線推定処理部13は、STEP43,44の処理を実行する。STEP43では、エッジ投影線推定処理部13は、処理に用いる候補位置v(k1)の番数k1を“1”だけ増加させる。そして、STEP44では、エッジ投影線推定処理部13は、増加後のk1の値が候補位置v(k1)の総個数であるN3aを超えたか否かを判断する。   Next, the edge projection line estimation processing unit 13 executes the processing of STEPs 43 and 44. In STEP 43, the edge projection line estimation processing unit 13 increases the number k1 of the candidate position v (k1) used for processing by “1”. In STEP 44, the edge projection line estimation processing unit 13 determines whether or not the increased k1 value exceeds N3a, which is the total number of candidate positions v (k1).

このSTEP44の判断結果が否定的である場合には、エッジ投影線推定処理部13は、増加後の第k1番目の候補位置v(k1)を用いて、前記STEP40〜42の処理を実行する。   If the determination result in STEP 44 is negative, the edge projection line estimation processing unit 13 executes the processes in STEP 40 to 42 using the k1th candidate position v (k1) after the increase.

以上のようにして、N3a個の候補位置v(k1)(k1=1,2,…,N3a)のそれぞれに対応して、上記の誤差画像が作成される。   As described above, the above error image is created corresponding to each of N3a candidate positions v (k1) (k1 = 1, 2,..., N3a).

STEP44の判断結果が肯定的となった場合には、エッジ投影線推定処理部13は、次に、STEP45の処理を実行する。このSTEP45では、エッジ投影線推定処理部13は、図21に示す如く、エッジ推定用領域R3d内に、縦方向に細長い複数(N3b個)の演算処理領域R3min(k2)(k2=1,2,…,N3b)を設定する。各演算処理領域R3min(k2)(k2=1,2,…,N3b)は、前記STEP30の処理に関して説明したものと同様の細長方形状(短冊状)の領域である。そして、その設定の仕方は、STEP30の処理と同じである。   If the determination result in STEP 44 is affirmative, the edge projection line estimation processing unit 13 next executes the process in STEP 45. In STEP 45, as shown in FIG. 21, the edge projection line estimation processing unit 13 includes a plurality of (N3b) arithmetic processing regions R3min (k2) (k2 = 1, 2) elongated in the vertical direction in the edge estimation region R3d. ,..., N3b) are set. Each arithmetic processing region R3min (k2) (k2 = 1, 2,..., N3b) is a narrow rectangular region (strip shape) similar to that described in connection with the processing of STEP 30. The setting method is the same as in STEP 30.

なお、演算処理領域R3min(k2)の個数N3bは、前記STEP30で設定する演算処理領域R3min(k2)の個数と同じでなくてもよい。   Note that the number N3b of the arithmetic processing areas R3min (k2) may not be the same as the number of arithmetic processing areas R3min (k2) set in STEP 30.

補足すると、前記STEP30に関して説明したことと同様に、前記STEP38において、N3a個の候補位置v(k1)(k1=1,2,…,N3a)を設定する処理は、換言すれば、各演算処理領域R3min(k2)に対してN3a個の候補位置v(k1)(k1=1,2,…,N3a)を設定する処理であると言える。   Supplementally, the processing for setting N3a candidate positions v (k1) (k1 = 1, 2,..., N3a) in STEP38 is the same as that described for STEP30. It can be said that this is a process of setting N3a candidate positions v (k1) (k1 = 1, 2,..., N3a) for the region R3min (k2).

また、前記STEP40において、v(k1)に応じて射影変換対象領域R3d1,R3d2を設定する処理は、換言すれば、各演算処理領域R3min(k2)に対して射影変換対象領域R3d1,R3d2を設定する処理であると言える。   In STEP 40, the process of setting the projective transformation target areas R3d1 and R3d2 according to v (k1), in other words, the projective transformation target areas R3d1 and R3d2 are set for each arithmetic processing area R3min (k2). It can be said that it is processing to do.

STEP45の処理は、STEP38やSTEP40よりも後で行なう必要はなく、例えば、STEP37において、演算処理領域R3min(k2)の設定処理を行ってもよい。   The processing of STEP 45 does not need to be performed after STEP 38 or STEP 40. For example, in STEP 37, setting processing of the arithmetic processing region R3min (k2) may be performed.

次いで、エッジ投影線推定処理部13は、STEP46の処理を実行する。この処理では、k2の初期値として“1”が設定される。   Next, the edge projection line estimation processing unit 13 executes the processing of STEP46. In this process, “1” is set as the initial value of k2.

次いで、エッジ投影線推定処理部13は、STEP47の処理を実行する。このSTEP47では、エッジ投影線推定処理部13は、第k2番目(k2は現在設定されている番数)の演算処理領域R3min(k2)におけるN3a個の前記候補位置v(k1)(k1=1,2,…,N3a)のそれぞれについて、実エッジ投影線L52rの位置(縦方向での位置)に対する各候補位置v(k1)の適合度を表す評価関数Ed(k2)の値を、前記STEP32の処理の場合と同様の処理によって算出する。   Next, the edge projection line estimation processing unit 13 executes the processing of STEP 47. In STEP 47, the edge projection line estimation processing unit 13 determines the N3a candidate positions v (k1) (k1 = 1) in the k2th (k2 is the currently set number) arithmetic processing region R3min (k2). , 2,..., N3a), the value of the evaluation function Ed (k2) representing the suitability of each candidate position v (k1) with respect to the position of the actual edge projection line L52r (position in the vertical direction) is determined in STEP32. It is calculated by the same process as in the case of the process.

ただし、この場合、エッジ推定用領域R3dに設定される射影変換対象領域はR3d1,R3d2の2つであるので、演算処理領域R3min(k2)における各候補位置v(k1)に対応する評価関数Ed(k2)_k1の値は、次のように算出される。   However, in this case, since there are two projection transformation target areas R3d1 and R3d2 set in the edge estimation area R3d, the evaluation function Ed corresponding to each candidate position v (k1) in the arithmetic processing area R3min (k2). The value of (k2) _k1 is calculated as follows.

すなわち、演算処理領域R3min(k2)における各候補位置v(k1)に対応する評価関数Ed(k2)_k1の値は、v(k1)に応じて設定された射影変換対象領域R3d1(以降、これをR3d1(k1)と表記する)に対応する前記誤差画像のうちの演算処理領域R3min(k2)に含まれる部分の画像から算出される誤差関数Dd1(k2)_k1の値と、v(k1)に応じて設定された射影変換対象領域R3d2(以降、これをR3d2(k1)と表記する)に対応する誤差画像のうちの演算処理領域R3min(k2)に含まれる部分の画像から算出される誤差関数Dd2(k2)_k1の値とを線形結合(本実施形態では加算)してなる値として算出される。   That is, the value of the evaluation function Ed (k2) _k1 corresponding to each candidate position v (k1) in the arithmetic processing region R3min (k2) is the projection transformation target region R3d1 (hereinafter referred to as this) set according to v (k1). Of the error image corresponding to R3d1 (k1)), the value of the error function Dd1 (k2) _k1 calculated from the image of the portion included in the calculation processing region R3min (k2), and v (k1) The error calculated from the image of the portion included in the calculation processing region R3min (k2) in the error image corresponding to the projection transformation target region R3d2 (hereinafter referred to as R3d2 (k1)) set according to It is calculated as a value obtained by linearly combining (adding in this embodiment) the value of the function Dd2 (k2) _k1.

さらに詳細には、v(k1)に応じて設定された射影変換対象領域R3d1,R3d2のそれぞれに対応する誤差画像の各画素位置Qでの画素値をそれぞれI1derr(Q),I2derr(Q),I3derr(Q)とする。また、演算処理領域R3min(k2)における射影変換対象領域R3d1(k1),R3d2(k1)のそれぞれのトータルの画素数をNd1(k2)_k1,Nd2(k2)_k1とする。このとき、誤差関数Dd1(k2)_k1,Dd2(k2)_k1はそれぞれ、次式(5−1),(5−2)により算出される。そして、これらのDd1(k2)_k1,Dd2(k2)_k1の値から次式(6)によって、評価関数Ed(k2)_k1が算出される。   More specifically, the pixel values at the respective pixel positions Q of the error image corresponding to each of the projection transformation target areas R3d1 and R3d2 set according to v (k1) are respectively set as I1derr (Q), I2derr (Q), I3derr (Q). Further, the total number of pixels in the projection transformation target areas R3d1 (k1) and R3d2 (k1) in the arithmetic processing area R3min (k2) is Nd1 (k2) _k1 and Nd2 (k2) _k1. At this time, error functions Dd1 (k2) _k1 and Dd2 (k2) _k1 are calculated by the following equations (5-1) and (5-2), respectively. Then, the evaluation function Ed (k2) _k1 is calculated from the values of Dd1 (k2) _k1 and Dd2 (k2) _k1 by the following equation (6).


Dd1(k2)_k1=(1/Nd1(k2)_k1)・ΣI1derr(Q) ……(5−1)
Dd2(k2)_k1=(1/Nd2(k2)_k1)・ΣI2derr(Q) ……(5−2)
Ed(k2)_k1=Dd1(k2)_k1+Dd2(k2)_k1 ……(6)

Dd1 (k2) _k1 = (1 / Nd1 (k2) _k1) · ΣI1derr (Q) (5-1)
Dd2 (k2) _k1 = (1 / Nd2 (k2) _k1) · ΣI2derr (Q) (5-2)
Ed (k2) _k1 = Dd1 (k2) _k1 + Dd2 (k2) _k1 (6)

この場合、式(5−1)におけるΣI1derr(Q)は、演算処理領域R3min(k2)における射影変換対象領域R3d1(k1)(演算処理領域R3min(k2)と射影変換対象領域R3d1(k1)との重なり領域)での誤差画像の画素値I1derr(Q)の総和である。   In this case, ΣI1derr (Q) in equation (5-1) is the projection transformation target region R3d1 (k1) (calculation processing region R3min (k2) and projection transformation target region R3d1 (k1) in the computation processing region R3min (k2). The sum of the pixel values I1derr (Q) of the error image in the overlapping region).

また、式(3−2)におけるΣI2derr(Q)は、演算処理領域R3min(k2)における射影変換対象領域R3u2(k1)(演算処理領域R3min(k2)と射影変換対象領域R3u2(k1)との重なり領域)での誤差画像の画素値I2derr(Q)の総和である。   In addition, ΣI2derr (Q) in Expression (3-2) is the projection transformation target region R3u2 (k1) (the computation processing region R3min (k2) and the projection transformation target region R3u2 (k1) in the computation processing region R3min (k2). The sum of the pixel values I2derr (Q) of the error image in the overlapping region).

STEP47では、以上のようにして、第k2番目の演算処理領域R3min(k2)において、N3a個の候補位置v(k1)(k1=1,2,…,N3a)のそれぞれの適合度(実エッジ投影線L52rの位置としての妥当性の度合い)をそれぞれ表すN3a個の評価関数Ed(k2)_k1(k1=1,2,…,N3a)の値が算出される。   In STEP 47, as described above, the fitness (actual edge) of each of the N3a candidate positions v (k1) (k1 = 1, 2,..., N3a) in the k2th arithmetic processing region R3min (k2). The values of N3a evaluation functions Ed (k2) _k1 (k1 = 1, 2,..., N3a) each representing the degree of validity as the position of the projection line L52r are calculated.

次いで、エッジ投影線推定処理部13は、STEP48,49の処理を実行する。STEP48では、エッジ投影線推定処理部13は、処理対象とする演算処理領域R3min(k2)の番数k2を“1”だけ増加させる。そして、STEP49では、エッジ投影線推定処理部13は、増加後のk2の値が演算処理領域R3min(k2)の総個数であるN3bを超えたか否かを判断する。   Next, the edge projection line estimation processing unit 13 executes the processing of STEPs 48 and 49. In STEP 48, the edge projection line estimation processing unit 13 increases the number k2 of the calculation processing region R3min (k2) to be processed by “1”. In STEP 49, the edge projection line estimation processing unit 13 determines whether or not the increased k2 value has exceeded N3b, which is the total number of calculation processing regions R3min (k2).

このSTEP49の判断結果が否定的である場合には、エッジ投影線推定処理部13は、増加後の第k2番目の演算処理領域R3min(k2)に関して、前記STEP47の処理を実行する。   If the determination result in STEP 49 is negative, the edge projection line estimation processing unit 13 executes the processing in STEP 47 for the k2th arithmetic processing region R3min (k2) after the increase.

以上のようにして、N3a個の候補位置v(k1)(k1=1,2,…,N3a)のそれぞれと、N3b個の演算処理領域R3min(k2)(k2=1,2,…,N3b)のそれぞれとの各組に対応して、総計N3a×N3b個の評価関数Ed(k2)_k1の値が算出される。   As described above, each of N3a candidate positions v (k1) (k1 = 1, 2,..., N3a) and N3b operation processing regions R3min (k2) (k2 = 1, 2,..., N3b). ), A total of N3a × N3b evaluation function Ed (k2) _k1 values are calculated.

これにより、各演算処理領域R3min(k2)毎に、基準画像の縦方向(v軸方向)での所定の刻み間隔毎の複数の候補位置v(k1)(k1=1,2,…,N3a)と、その各候補位置v(k1)の適合度(第k2番目の演算処理領域R3min(k2)での実エッジ投影線L52rの位置に対する適合度)を表す評価関数Ed(k2)_k1の値との間の関係を表すデータが得られることとなる。   Thus, for each arithmetic processing region R3min (k2), a plurality of candidate positions v (k1) (k1 = 1, 2,..., N3a at predetermined intervals in the vertical direction (v-axis direction) of the reference image. ) And the value of the evaluation function Ed (k2) _k1 representing the fitness of each candidate position v (k1) (the fitness of the actual edge projection line L52r in the k2th arithmetic processing region R3min (k2)) Data representing the relationship between the two will be obtained.

STEP49の判断結果が肯定的となった場合には、エッジ投影線推定処理部13は、次に、STEP50の処理を実行する。このSTEP50では、エッジ投影線推定処理部13は、前記STEP35の処理と同様に、エッジ推定用領域R3dに複数のエッジ投影線候補を仮想的に設定する。そして、エッジ投影線推定処理部13は、その各エッジ投影線候補毎に、N3b個の演算処理領域R3min(k2)(k2=1,2,…,N3b)のそれぞれにおける評価関数Ed(k2)の値の総和である総合評価関数TEdを求める。   If the determination result in STEP 49 is affirmative, the edge projection line estimation processing unit 13 next executes the process in STEP 50. In STEP 50, the edge projection line estimation processing unit 13 virtually sets a plurality of edge projection line candidates in the edge estimation region R3d, similarly to the processing in STEP 35. Then, the edge projection line estimation processing unit 13 evaluates the evaluation function Ed (k2) in each of the N3b arithmetic processing regions R3min (k2) (k2 = 1, 2,..., N3b) for each edge projection line candidate. A comprehensive evaluation function TEd that is the sum of the values of is obtained.

このSTEP50における複数のエッジ投影線候補の設定処理と、各エッジ投影線候補に対応する総合評価関数TEdの値の算出処理とは、前記STEP35の処理と同様の処理によって行われる。   The processing for setting a plurality of edge projection line candidates in STEP 50 and the processing for calculating the value of the comprehensive evaluation function TEd corresponding to each edge projection line candidate are performed by the same processing as in STEP 35.

次に、エッジ投影線推定処理部13は、STEP51の処理を実行する。このSTEP51の処理は、前記STEP36の処理と同様に行なわれる。すなわち、エッジ投影線推定処理部13は、STEP50で設定した全てのエッジ投影線候補のうち、対応する総合評価関数TEdの値が最小となるエッジ投影線候補を、推定エッジ投影線として決定する。   Next, the edge projection line estimation process part 13 performs the process of STEP51. The processing of STEP 51 is performed in the same manner as the processing of STEP 36. That is, the edge projection line estimation processing unit 13 determines an edge projection line candidate having a minimum value of the corresponding comprehensive evaluation function TEd among all the edge projection line candidates set in STEP 50 as an estimated edge projection line.

以上が、カメラ3R,3Lの撮像領域に降りの段差部(降り階段50)が存在する場合に実行されるエッジ投影線推定処理部13の処理である。   The above is the processing of the edge projection line estimation processing unit 13 that is executed when the stepped portion (the descending staircase 50) exists in the imaging regions of the cameras 3R and 3L.

以上説明したエッジ投影線推定処理部13の処理によって、カメラ3R,3Lの撮像領域に段差部が存在する場合に、その段差部が、ロボット1から見て、昇りの段差部、降りの段差部のいずれであっても、該段差部の上段側踏面の先端側エッジを基準画像に投影してなる実エッジ投影線が推定される。   When there is a stepped portion in the imaging area of the cameras 3R and 3L by the processing of the edge projection line estimation processing unit 13 described above, the stepped portion is an ascending stepped portion and a descending stepped portion as viewed from the robot 1. In any case, an actual edge projection line formed by projecting the leading edge of the upper tread surface of the stepped portion onto the reference image is estimated.

なお、以上のエッジ投影線推定処理部13の処理の説明では、STEP22〜36の処理、又は、STEP37〜51の処理によって、任意の1つの先端側エッジ52に対応する推定エッジ投影線を求める場合について説明したが、基準画像に投影されている各上段側踏面51の先端側エッジ52毎に、STEP22〜36の処理、又は、STEP37〜51の処理を繰り返すことで、基準画像に写っている各先端側エッジ52に対応する推定エッジ投影線をそれぞれ求めることができる。   In the description of the processing of the edge projection line estimation processing unit 13 described above, an estimated edge projection line corresponding to one arbitrary front end edge 52 is obtained by the processing of STEPs 22 to 36 or the processing of STEPs 37 to 51. However, the processing of STEPs 22 to 36 or the processing of STEPs 37 to 51 is repeated for each front edge 52 of each upper tread surface 51 projected on the reference image, so that each of the images shown in the reference image is repeated. Estimated edge projection lines corresponding to the leading edge 52 can be respectively obtained.

このエッジ投影線推定処理部13の処理が終了すると、演算処理装置10は次に、段差部空間配置決定部14の処理を実行する。   When the processing of the edge projection line estimation processing unit 13 is completed, the arithmetic processing device 10 next executes the processing of the stepped portion space arrangement determining unit 14.

この段差部空間配置決定部14は、平面投影領域抽出部12の処理によって抽出された各平面投影領域AR2の平面パラメータベクトル↑m2と、エッジ投影線推定処理部13の処理によって求められた推定エッジ投影線とを用いて、カメラ3R,3Lにより撮像された段差部の空間的な配置位置(ロボット座標系で見た配置位置)を決定する。   The stepped portion space arrangement determining unit 14 includes the plane parameter vector ↑ m2 of each plane projection area AR2 extracted by the process of the plane projection area extraction unit 12 and the estimated edge obtained by the process of the edge projection line estimation processing unit 13. Using the projection line, a spatial arrangement position (arrangement position viewed in the robot coordinate system) of the stepped portion imaged by the cameras 3R and 3L is determined.

この場合、本実施形態では、段差部空間配置決定部14は、段差部の空間的な配置を示すデータとして、例えば、ロボット1の空間的な進行予定領域での段差部の各上段側踏面の先端側エッジ及び各下段側踏面の基端側エッジの空間的な配置位置、並びに、各踏面の空間的な姿勢(法線方向)を決定する。   In this case, in this embodiment, the stepped portion space arrangement determining unit 14 uses, as data indicating the spatial arrangement of the stepped portion, for example, each upper step side tread of the stepped portion in the spatial advance planned area of the robot 1. The spatial arrangement position of the front end side edge and the base end side edge of each lower stage tread and the spatial posture (normal direction) of each tread are determined.

これらのデータは、基準画像上で決定した推定エッジ投影線と、この推定エッジ投影線に対応する先端側エッジを有する上段側踏面の平面パラメータベクトル↑m2(↑m2p)と、該上段側踏面の一段下側の下段側踏面の平面パラメータベクトル↑m2(↑m2q)とを使用して決定される。   These data are the estimated edge projection line determined on the reference image, the plane parameter vector ↑ m2 (↑ m2p) of the upper tread surface having the leading edge corresponding to the estimated edge projection line, and the upper tread surface It is determined using the plane parameter vector ↑ m2 (↑ m2q) of the lower tread on the lower stage.

具体的には、段差部空間配置決定部14は、基準画像における推定エッジ投影線を、推定エッジ投影線に対応する先端側エッジを有する上段側踏面の平面パラメータベクトル↑m2pにより規定される平面に逆投影してなる線と、該先端側エッジに合致する線として決定する。その線は、基準画像の撮像面における推定エッジ投影線と基準カメラ3の光学中心Cとを含む平面と、上記平面パラメータベクトル↑m2pにより規定される平面との交線上の線として決定される。   Specifically, the stepped portion space arrangement determining unit 14 sets the estimated edge projection line in the reference image to a plane defined by the plane parameter vector ↑ m2p of the upper tread surface having the tip side edge corresponding to the estimated edge projection line. The line formed by back projection and the line that matches the leading edge are determined. The line is determined as a line on the intersection line between the plane including the estimated edge projection line on the imaging plane of the reference image and the optical center C of the reference camera 3 and the plane defined by the plane parameter vector ↑ m2p.

また、段差部空間配置決定部14は、上記の如く空間的な配置を決定した先端側エッジを、下段側踏面の平面パラメータベクトル↑m2qにより規定される平面に所定の方向で投影してなる線を該下段側踏面の基端側エッジとして決定する。この場合、上記所定の方向は、具体的には、先端側エッジを有する上段側踏面の平面パラメータベクトル↑m2pにより規定される平面に直交する方向、あるいは↑m2pにより規定される平面に対して、90度に近い既定の角度で交差する方向である。   Further, the stepped portion space arrangement determining unit 14 projects the tip side edge whose spatial arrangement has been determined as described above onto a plane defined by the plane parameter vector ↑ m2q of the lower step side tread in a predetermined direction. Is determined as the base end edge of the lower tread surface. In this case, the predetermined direction is specifically the direction orthogonal to the plane defined by the plane parameter vector ↑ m2p of the upper tread surface having the tip side edge, or the plane defined by ↑ m2p. The direction intersects at a predetermined angle close to 90 degrees.

なお、前記平面投影領域抽出部12の処理によって、階段の段鼻の先端面又は蹴り込み面に相当する段差部の平面部分に対応する平面投影領域を抽出するようにした場合には、その平面投影領域に対応する平面パラメータベクトルにより規定される平面の法線方向に、先端側エッジと基端側エッジとを含む平面の法線方向が一致もしくはほぼ一致するように、上記所定の方向を決定してもよい。   When the plane projection area extraction unit 12 extracts a plane projection area corresponding to the planar portion of the step portion corresponding to the tip surface or the kick surface of the stair nosing, the plane projection is performed. The predetermined direction is determined so that the normal direction of the plane including the distal end edge and the proximal end edge coincides with or substantially coincides with the normal direction of the plane defined by the plane parameter vector corresponding to the region. May be.

また、段差部空間配置決定部14は、段差部の上段側踏面及び下段側踏面の姿勢(法線方向)を、それぞれに対応する平面パラメータベクトル↑m2p、↑m2qの方向と一致する方向(これは一般には、鉛直方向とは限らない)に決定する。   In addition, the step space arrangement determination unit 14 determines the postures (normal directions) of the upper step surface and the lower step surface of the step portion in directions that match the directions of the plane parameter vectors ↑ m2p and ↑ m2q, respectively. In general, the vertical direction is not necessarily determined).

以上により、段差部の各上段側踏面の先端側エッジ及び各下段側踏面の基端側エッジの空間的な配置位置、並びに、各踏面の空間的な姿勢(法線方向)が決定される。   As described above, the spatial arrangement positions of the leading edge of each upper stage tread and the base end edge of each lower stage tread of the stepped portion, and the spatial posture (normal direction) of each tread are determined.

そして、ロボット1は、これらのデータによりロボット1に対する段差部の配置位置やその形状を認識しつつ、該段差部を昇降する等の動作を行なう。   The robot 1 recognizes the position of the stepped portion relative to the robot 1 and the shape of the stepped portion with respect to the robot 1 and performs operations such as raising and lowering the stepped portion.

以上説明した本実施形態によれば、横方向の幅が微小で、且つ縦方向に細長い複数の演算処理領域R3min(k2)(k2=1,2,…,N3b)が基準画像に横方向に並ぶようにして設定される。そして、その各演算処理領域毎に、基準画像の縦方向の複数の候補位置v(k1)(k1=1,2,…,N3a)のそれぞれの適合度(実エッジ投影線L52rの位置に対する適合度)を表す評価関数Eu(k2)_k1又はEd(k2)_k1が、射影変換を利用した演算処理によって算出される。   According to the present embodiment described above, a plurality of arithmetic processing regions R3min (k2) (k2 = 1, 2,..., N3b) having a small width in the horizontal direction and elongated in the vertical direction are formed in the reference image in the horizontal direction. It is set to line up. Then, for each arithmetic processing area, each of the plurality of candidate positions v (k1) (k1 = 1, 2,..., N3a) in the vertical direction of the reference image is matched to the position of the actual edge projection line L52r. The evaluation function Eu (k2) _k1 or Ed (k2) _k1 representing the degree) is calculated by an arithmetic process using projective transformation.

これにより、横方向に並ぶ複数の演算処理領域R3min(k2)(k2=1,2,…,N3b)のそれぞれにおいて、縦方向の位置と、評価関数Eu(k2)_k1又はEd(k2)_k1の値との関係を表すデータが得られることとなる。   Thereby, in each of the plurality of calculation processing regions R3min (k2) (k2 = 1, 2,..., N3b) arranged in the horizontal direction, the vertical position and the evaluation function Eu (k2) _k1 or Ed (k2) _k1 Data representing the relationship with the value of is obtained.

さらに、エッジ推定用領域R3u又はR3dに、位置や方向が互いに相違する複数のエッジ投影線候補を仮想的に設定され、それぞれのエッジ投影線候補に対して、各演算処理領域R3min(k2)での位置の評価関数Eu(k2)_k1又はEd(k2)_k1の値を合成してなる総合評価関数TEu又はTEdの値が算出される。この総合評価関数TEu又はTEdは、各演算処理領域R3min(k2)でのエッジ投影線候補の位置の適合度(実エッジ投影線L52rの位置に対する適合度)を合成してなる合成適合度の逆数値に相当するものである。   Further, a plurality of edge projection line candidates whose positions and directions are different from each other are virtually set in the edge estimation region R3u or R3d, and each of the edge projection line candidates is set in each calculation processing region R3min (k2). The value of the comprehensive evaluation function TEu or TEd obtained by synthesizing the value of the evaluation function Eu (k2) _k1 or Ed (k2) _k1 at the position of is calculated. This comprehensive evaluation function TEu or TEd is the inverse of the combined fitness obtained by synthesizing the fitness of the position of the edge projection line candidate in each arithmetic processing region R3min (k2) (the fitness of the actual edge projection line L52r). It corresponds to a numerical value.

そして、この総合評価関数TEu又はTEdの値が最小となるエッジ投影線候補(換言すれば、上記合成適合度が最大となるエッジ投影線候補)が、推定エッジ投影線として決定される。   Then, the edge projection line candidate that minimizes the value of the comprehensive evaluation function TEu or TEd (in other words, the edge projection line candidate that maximizes the combined fitness) is determined as the estimated edge projection line.

このようにして推定エッジ投影線を決定することにより、実エッジ投影線を推定したものとしての信頼性の高い推定エッジ投影線を決定できる。   By determining the estimated edge projection line in this way, it is possible to determine an estimated edge projection line with high reliability as an estimation of the actual edge projection line.

また、特に、カメラ3R,3Lの撮像領域に昇り階段50などの昇りの段差部が存在する場合に、候補位置v(k1)に依存する3つの射影変換対象領域R3u1,R3u2,R3u1をエッジ推定用領域R3uに前記した如く設定する(ひいては各演算処理領域R3min(k2)に設定する)ので、前記各評価関数Eu(k2)_k1の値に、候補位置v(k1)の位置を境界として隣接する射影変換対象領域R3u1,R3u2だけでなく、下段側踏面に対応する射影変換対象領域R3u3の画像の画素値を反映させることができる。すなわち、前記各評価関数Eu(k2)_k1の値を、各演算処理領域R3min(k2)に含まれる多くの画素の画素値を反映させて算出することができる。   In particular, when an ascending step portion such as ascending staircase 50 exists in the imaging regions of the cameras 3R and 3L, edge estimation is performed on three projective transformation target regions R3u1, R3u2, and R3u1 depending on the candidate position v (k1). Since it is set in the operation area R3u as described above (and thus set in each arithmetic processing area R3min (k2)), it is adjacent to the value of each evaluation function Eu (k2) _k1 with the position of the candidate position v (k1) as a boundary. It is possible to reflect not only the projection conversion target areas R3u1 and R3u2 to be processed but also the pixel values of the image of the projection conversion target area R3u3 corresponding to the lower tread. That is, the value of each evaluation function Eu (k2) _k1 can be calculated by reflecting the pixel values of many pixels included in each calculation processing region R3min (k2).

そのため、各演算処理領域R3min(k2)における候補位置v(k1)の位置の適合度を表すものとしての各評価関数Eu(k2)_k1の値の信頼性を高めることができる。ひいては、推定エッジ投影線の信頼性を高めることができる。   Therefore, it is possible to improve the reliability of the value of each evaluation function Eu (k2) _k1 representing the degree of suitability of the position of the candidate position v (k1) in each arithmetic processing region R3min (k2). As a result, the reliability of the estimated edge projection line can be improved.

また、本実施形態では、段差部存在検知部11や、平面投影領域抽出部12は、ステレオ画像と射影変換とを利用した処理によって、レーザ測距装置等の測距装置をロボット1に備えることなく、段差部の存在を検知したり、平面投影領域の抽出を行なうことができる。このため、段差部の認識を安価な構成で行なうことができる。   In the present embodiment, the stepped portion presence detection unit 11 and the planar projection region extraction unit 12 are provided with a distance measuring device such as a laser distance measuring device in the robot 1 by processing using a stereo image and projective transformation. In addition, it is possible to detect the presence of a stepped portion and to extract a planar projection region. For this reason, the stepped portion can be recognized with an inexpensive configuration.

ここで、以上説明した実施形態と本発明との対応関係について補足しておく。   Here, the correspondence relationship between the embodiment described above and the present invention will be supplemented.

本実施形態では、前記段差部存在検知部11の処理によって、本発明における段差部存在検知手段が実現される。この場合、段差部存在検知部11は、本発明における段差部種別判断手段としての機能を含んでおり、前記STEP4の処理によって、段差部種別判断手段が実現される。   In the present embodiment, the stepped portion presence detecting means in the present invention is realized by the processing of the stepped portion presence detecting unit 11. In this case, the stepped portion presence detection unit 11 includes a function as the stepped portion type determining unit in the present invention, and the stepped portion type determining unit is realized by the processing of STEP4.

また、前記平面投影領域抽出部12の処理によって、本発明における平面投影領域抽出手段が実現される。この場合、前記局所領域R2(i)(i=1,2,…,N2)が、本発明における平面投影領域抽出用局所領域に相当する。   Further, the plane projection area extraction means in the present invention is realized by the processing of the plane projection area extraction unit 12. In this case, the local region R2 (i) (i = 1, 2,..., N2) corresponds to the planar projection region extracting local region in the present invention.

また、前記エッジ投影線推定処理部13の処理によって、本発明における評価関数算出手段と推定エッジ投影線決定手段とが実現される。より詳しくは、前記STEP22〜34の処理及びSTEP37〜49の処理によって、評価関数算出手段が実現され、前記STEP35,36並びにSTEP50,51の処理によって、推定エッジ投影線決定手段が実現される。   Further, the evaluation function calculation means and the estimated edge projection line determination means in the present invention are realized by the processing of the edge projection line estimation processing unit 13. More specifically, an evaluation function calculating unit is realized by the processes of STEPs 22 to 34 and STEPs 37 to 49, and an estimated edge projection line determining unit is realized by the processes of STEPs 35 and 36 and STEPs 50 and 51.

この場合、射影変換対象領域R3u1,R3u2,R3u3が、それぞれ、本発明における第1のエッジ推定用射影変換対象領域、第2のエッジ推定用射影変換対象領域、第3のエッジ推定用射影変換対象領域に相当し、射影変換対象領域R3d1,R3d2が、それぞれ、本発明における第4のエッジ推定用射影変換対象領域、第5のエッジ推定用射影変換対象領域に相当する。また、前記平面パラメータベクトル↑mu1,↑mu2,↑mu3,↑md1,↑md2がそれぞれ、本発明における射影変換用平面パラメータに相当する。   In this case, the projective transformation target regions R3u1, R3u2, and R3u3 are respectively the first edge estimation projective transformation target region, the second edge estimation projective transformation target region, and the third edge estimation projective transformation target. The projection conversion target areas R3d1 and R3d2 correspond to the fourth edge estimation projection conversion target area and the fifth edge estimation projection conversion target area, respectively. The plane parameter vectors ↑ mu1, ↑ mu2, ↑ mu3, ↑ md1, and ↑ md2 correspond to the projective transformation plane parameters in the present invention.

また、前記段差部空間配置決定部14の処理によって、本発明における段差部空間配置決定手段が実現される。   Further, the stepped portion space arrangement determining means in the present invention is realized by the processing of the stepped portion space arrangement determining unit 14.

次に、以上説明した実施形態の変形態様をいくつか説明しておく。   Next, some modifications of the embodiment described above will be described.

前記実施形態では、移動体として2脚の脚式移動ロボット1を例示したが、移動体は、3脚以上の脚を有するロボット、あるいは、車輪やクローラを備える移動体であってもよい。   In the embodiment, the two-legged mobile robot 1 is exemplified as the moving body, but the moving body may be a robot having three or more legs, or a moving body including wheels and crawlers.

また、前記実施形態では、カメラ3R,3Lのうちのカメラ3Rを基準カメラ3として使用したが、カメラ3Lを基準カメラとして使用してもよい。   In the embodiment, the camera 3R out of the cameras 3R and 3L is used as the reference camera 3. However, the camera 3L may be used as the reference camera.

また、前記実施形態では、カメラ3R,3Lの撮像領域に昇りの段差部が存在する場合に、候補位置v(k1)に依存する3つの射影変換対象領域R3u1,R3u2,R3u3をエッジ推定用領域R3uに設定するようにしたが、射影変換対象領域R3u1,R3u2の2つの射影変換対象領域だけをエッジ推定用領域R3uに設定(ひいては各演算処理領域R3min(k2)に設定)するようにしてもよい。   Further, in the above embodiment, when there are ascending steps in the imaging areas of the cameras 3R and 3L, the three projection transformation target areas R3u1, R3u2, and R3u3 depending on the candidate position v (k1) are used as the edge estimation area. Although R3u is set, only the two projection transformation target areas R3u1 and R3u2 are set as the edge estimation area R3u (and thus set in each calculation processing area R3min (k2)). Good.

また、前記実施形態では、各演算処理領域R3min(k2)における複数の候補位置は、全ての演算処理領域R3min(k2)について同じであるが、各演算処理領域R3min(k2)毎の候補位置を異ならせるようにしてもよい。   In the embodiment, the plurality of candidate positions in each calculation processing region R3min (k2) are the same for all the calculation processing regions R3min (k2). However, the candidate positions for each calculation processing region R3min (k2) are determined. You may make it differ.

また、前記実施形態では、平面投影領域抽出部12の処理において、複数の局所領域R2(i)(i=1,2,…,N2)の、基準画像の横方向での位置を同じとしたが、さらに、基準画像の横方向での複数の位置のそれぞれおいて、複数の局所領域R2(i)を縦方向に並べるように配置してもよい。   In the embodiment, in the processing of the planar projection area extraction unit 12, the positions of the plurality of local areas R2 (i) (i = 1, 2,. However, a plurality of local regions R2 (i) may be arranged in the vertical direction at each of a plurality of positions in the horizontal direction of the reference image.

このようにした場合には、縦方向での平面部分の分布の変化を、基準画像の横方向の複数位置において、把握することができる。このため、カメラ3R,3Lの撮像領域に存在する段差部の各踏面が、基準画像の横方向に対して比較的大きく傾いているような場合に、その傾きを反映させて、段差部の各踏面等の平面部分に対応する平面投影領域を抽出することができる。従って、該平面部分の傾きに合せて、上端及び下端の辺が基準画像の横方向に対して傾斜したような形状の平面投影領域を抽出するようにすることができる。   In such a case, the change in the distribution of the planar portion in the vertical direction can be grasped at a plurality of positions in the horizontal direction of the reference image. For this reason, when each tread of the stepped portion existing in the imaging area of the cameras 3R and 3L is relatively largely inclined with respect to the lateral direction of the reference image, each step of the stepped portion is reflected to reflect the inclination. A planar projection area corresponding to a planar portion such as a tread can be extracted. Therefore, it is possible to extract a planar projection region having a shape in which the upper and lower sides are inclined with respect to the horizontal direction of the reference image in accordance with the inclination of the planar portion.

1…脚式移動ロボット(移動体)、3R,3L…カメラ(ステレオカメラ)、4…投光器、11…段差部存在検知部(段差部存在検知手段、段差部種別判断手段)、12…平面投影領域抽出部(平面投影領域抽出手段)、13…エッジ投影線推定処理部(評価関数算出手段、推定エッジ投影線決定手段)、14…段差部空間配置決定部(段差部空間配置決定手段)、STEP4…段差部種別判断手段、STEP22〜34,STEP37〜49…評価関数算出手段、STEP35,36,50,51…推定エッジ投影線決定手段、50…階段(段差部)、51…踏面、52…先端側エッジ。   DESCRIPTION OF SYMBOLS 1 ... Legged mobile robot (moving body), 3R, 3L ... Camera (stereo camera), 4 ... Projector, 11 ... Step part presence detection part (step part presence detection means, step part type judgment means), 12 ... Planar projection Area extraction unit (planar projection area extraction unit), 13 ... edge projection line estimation processing unit (evaluation function calculation unit, estimated edge projection line determination unit), 14 ... stepped part space arrangement determining unit (stepped part space arrangement determining unit), STEP4: Stepped portion type determining means, STEP22 to 34, STEP37 to 49 ... Evaluation function calculating means, STEP35, 36, 50, 51 ... Estimated edge projection line determining means, 50 ... Stair (stepped portion), 51 ... Tread, 52 ... Tip side edge.

Claims (8)

ステレオカメラを搭載した移動体の移動環境に存在しており、下段側踏面とその一段上側の上段側踏面との組を一組以上有する段差部の空間的な配置位置を、前記ステレオカメラにより取得されるステレオ画像を構成する基準画像及び参照画像を用いて認識する段差部認識装置であって、
前記段差部が前記ステレオカメラにより撮像されている状態において、前記基準画像から、該段差部の上段側踏面及び下段側踏面にそれぞれ対応する2つの平面部分を少なくとも含む互いに異なる平面部分がそれぞれ投影された領域である複数の平面投影領域を抽出すると共に、各平面投影領域に対応する平面部分を包含する平面の空間的な位置及び姿勢を表す平面パラメータを決定する平面投影領域抽出手段と、
前記段差部の上段側踏面の先端側エッジを前記基準画像に投影してなる実エッジ投影線をそれぞれ含み、且つ、前記基準画像の縦方向に細長い形状を有して該基準画像の横方向に並列する複数条の演算処理領域を該基準画像に設定すると共に、該複数条の演算処理領域のそれぞれにおける前記基準画像の縦方向での前記実エッジ投影線の複数の候補位置を設定し、各演算処理領域毎に、各候補位置の実エッジ投影線の位置に対する適合度を表す評価関数の値を、前記基準画像及び参照画像と、前記決定された平面パラメータとを用いて算出する評価関数算出手段と、
前記実エッジ投影線を推定してなる線である推定エッジ投影線を、前記複数条の演算処理領域のそれぞれにおける該推定エッジ投影線の位置の適合度を合成してなる合成適合度が最も高くなるように、前記算出された評価関数に基づいて決定する推定エッジ投影線決定手段と、
該段差部の空間的な配置位置を認識するためのデータとして、少なくとも前記段差部の上段側踏面の先端側エッジの空間的な位置及び方向を表すデータを前記決定された推定エッジ投影線と前記決定された平面パラメータとに基づいて決定する段差部空間配置決定手段とを備え、
前記評価関数算出手段は、前記各演算処理領域毎に、各候補位置の実エッジ投影線の位置に対する適合度を表す評価関数の値を算出するために、各演算処理領域内に各候補位置を境界として隣接する2つの射影変換対象領域を少なくとも含む複数のエッジ推定用射影変換対象領域を各候補位置に応じて設定する処理と、各エッジ推定用射影変換対象領域に対応する射影変換用平面パラメータを前記平面投影領域抽出手段により決定された平面パラメータに応じて設定する処理と、各演算処理領域及び各候補位置の組毎に、各エッジ推定用射影変換対象領域の画像の画素値分布と、該エッジ推定用射影変換対象領域に対応する前記参照画像中の領域の画像を該エッジ推定用射影変換対象領域に対応する射影変換用平面パラメータに応じて射影変換した場合に得られる射影変換画像の画素値分布との誤差を表す誤差関数の値を算出する処理と、各演算処理領域及び各候補位置の組毎に、各演算処理領域内に設定した複数のエッジ推定用射影変換対象領域のそれぞれに対応して算出した前記誤差関数の値を線形結合してなる値を、前記評価関数の値として算出する処理とを実行することを特徴とする段差部認識装置。
It exists in the moving environment of a moving body equipped with a stereo camera, and the stereo camera acquires the spatial arrangement position of the stepped part that has one or more pairs of the lower tread and the upper tread above it A step difference recognition device that recognizes using a standard image and a reference image constituting a stereo image,
In a state where the stepped portion is imaged by the stereo camera, different plane portions including at least two plane portions respectively corresponding to the upper step surface and the lower step surface of the step portion are projected from the reference image. A plane projection area extracting means for extracting a plurality of plane projection areas, which are areas, and determining plane parameters representing a spatial position and orientation of a plane including a plane portion corresponding to each plane projection area;
Each of which includes an actual edge projection line formed by projecting the leading edge of the upper tread surface of the stepped portion onto the reference image, and has a shape that is elongated in the vertical direction of the reference image in the horizontal direction of the reference image. A plurality of parallel arithmetic processing areas are set in the reference image, and a plurality of candidate positions of the actual edge projection line in the vertical direction of the reference image in each of the multiple arithmetic processing areas are set, Evaluation function calculation that calculates the value of the evaluation function representing the degree of suitability of each candidate position with respect to the position of the actual edge projection line for each arithmetic processing region using the reference image and the reference image and the determined plane parameter Means,
The combined adaptability obtained by combining the estimated edge projection line, which is a line obtained by estimating the actual edge projected line, with the adaptability of the position of the estimated edge projected line in each of the plurality of arithmetic processing regions is the highest. An estimated edge projection line determination means for determining based on the calculated evaluation function,
As data for recognizing the spatial arrangement position of the stepped portion, at least data representing the spatial position and direction of the tip side edge of the upper tread of the stepped portion is used as the determined estimated edge projection line and the A stepped portion space arrangement determining means for determining based on the determined plane parameter;
The evaluation function calculating means calculates each candidate position in each calculation processing area in order to calculate a value of an evaluation function representing the degree of suitability of each candidate position with respect to the position of the actual edge projection line for each calculation processing area. A process for setting a plurality of projection conversion target areas for edge estimation including at least two projection conversion target areas adjacent as boundaries according to each candidate position, and a plane parameter for projection conversion corresponding to each projection conversion target area for edge estimation Processing according to the plane parameters determined by the plane projection area extraction means, and for each set of calculation processing areas and each candidate position, pixel value distribution of the image of each edge estimation projective transformation target area, The image of the region in the reference image corresponding to the projection conversion target region for edge estimation is changed in accordance with the plane parameter for projection conversion corresponding to the projection conversion target region for edge estimation. A process of calculating an error function value representing an error from the pixel value distribution of the projective transformation image obtained in the case, and a plurality of sets set in each calculation processing area for each set of each calculation processing area and each candidate position Stepped portion recognition characterized by executing a process of calculating a value obtained by linearly combining the error function values calculated corresponding to each of the projection conversion target areas for edge estimation as the value of the evaluation function apparatus.
請求項1記載の段差部認識装置において、
前記平面投影領域抽出手段は、前記基準画像における位置が互いに相違する複数の平面投影領域抽出用局所領域を該基準画像に設定する処理と、各平面投影領域抽出用局所領域の画像と該平面投影領域抽出用局所領域に対応する前記参照画像中の領域の画像との間の射影変換を規定する平面パラメータである平面投影領域抽出用平面パラメータを、該平面投影領域抽出用局所領域の画像の画素値分布と、該平面投影領域抽出用局所領域に対応する前記参照画像中の領域の画像を該平面投影領域抽出用平面パラメータに応じて射影変換した場合に得られる画像の画素値分布との誤差を最小化するように決定する処理とを実行し、各平面投影領域に含まれる前記平面投影領域抽出用局所領域のそれぞれに対応する平面投影領域抽出用平面パラメータにより規定される平面が互いに一致するように前記基準画像から各平面投影領域を抽出することを特徴とする段差部認識装置。
The step difference recognition apparatus according to claim 1,
The plane projection area extracting means sets a plurality of plane projection area extraction local areas whose positions in the reference image are different from each other to the reference image, and images of the plane projection area extraction local areas and the plane projection A plane parameter for plane projection area extraction, which is a plane parameter that defines projective transformation with the image of the area in the reference image corresponding to the local area for area extraction, is a pixel of the image of the local area for plane projection area extraction. An error between the value distribution and the pixel value distribution of the image obtained when projective transformation is performed on the image of the area in the reference image corresponding to the local area for plane projection area extraction according to the plane parameter for plane projection area extraction The plane parameter for plane projection area extraction corresponding to each of the local areas for plane projection area extraction included in each plane projection area. It stepped portions recognition apparatus characterized by plane defined to extract the planar projection area from the reference image so as to match one another by.
請求項1又は2記載の段差部認識装置において、
前記評価関数算出手段が各演算処理領域に設定する複数の候補位置は、全ての演算処理領域について共通のN3a個(N3a:2以上の整数)の候補位置であり、前記評価関数算出手段は、第k1番目(k1:1からN3aまでの整数のうちの任意の1つの整数)の候補位置と各演算処理領域とに対応する前記誤差関数の値を算出するために、前記射影変換用平面パラメータが互いに同一となる各演算処理領域のエッジ推定用射影変換対象領域を合成してなる合成射影変換対象領域における画像と、該合成射影変換対象領域に対応する前記参照画像中の領域の画像を該合成射影変換対象領域に対応する射影変換用平面パラメータに応じて射影変換した場合に得られる画像との誤差画像を求める処理を実行し、その誤差画像を用いて、第k1番目の候補位置と各演算処理領域とに対応する前記誤差関数の値を算出することを特徴とする段差部認識装置。
In the step recognition apparatus according to claim 1 or 2,
The plurality of candidate positions set in each calculation processing area by the evaluation function calculation means are N3a (N3a: integer greater than or equal to 2) candidate positions common to all calculation processing areas, and the evaluation function calculation means includes: In order to calculate the value of the error function corresponding to the k1th candidate position (any one of the integers from k1: 1 to N3a) and each calculation processing area, the projection transformation plane parameter Images in the combined projective transformation target region obtained by synthesizing the projection conversion target regions for edge estimation of the calculation processing regions that are identical to each other, and an image of the region in the reference image corresponding to the composite projected transform target region A process for obtaining an error image with an image obtained by performing projective transformation according to the projective transformation plane parameter corresponding to the composite projective transformation target region is executed, and the k1th candidate position is obtained using the error image. Calculating the value of the error function corresponding to the respective processing area stepped portion recognition apparatus according to claim.
請求項1〜3のいずれか1項に記載の段差部認識装置において、
前記ステレオカメラの撮像領域に段差部が存在しているか否かを検知する段差部存在検知手段をさらに備えており、
前記平面投影領域抽出手段、評価関数算出手段及び段差部配置決定手段の処理は、前記段差部存在検知手段によって前記ステレオカメラの撮像領域に段差部が存在していることが検知されることを必要条件として実行される処理であり、
前記段差部存在検知手段は、前記ステレオカメラの撮像領域に段差部が存在しているか否かを検知するための段差部存在検知用領域を前記基準画像に設定する処理と、該段差部存在検知用領域の画像と該段差部存在検知用領域に対応する前記参照画像中の領域の画像との間の射影変換を規定する平面パラメータである段差部存在検知用平面パラメータを、前記段差部存在検知用領域の画像の画素値分布と該段差部存在検知用領域に対応する領域の画像を該段差部存在検知用平面パラメータに応じて射影変換した場合に得られる画像の画素値分布との誤差を最小化するように決定する処理とを実行し、決定した該段差部存在検知用平面パラメータにより示される平面の法線方向の向きに基づいて前記ステレオカメラの撮像領域に段差部が存在しているか否かを検知することを特徴とする段差部認識装置。
In the level difference part recognition device according to any one of claims 1 to 3,
It further comprises a stepped portion presence detecting means for detecting whether or not a stepped portion is present in the imaging area of the stereo camera,
The processing of the planar projection area extraction means, the evaluation function calculation means, and the step portion arrangement determination means needs to detect that a step portion is present in the imaging area of the stereo camera by the step portion presence detection means. It is a process executed as a condition,
The stepped portion presence detection means sets a stepped portion presence detection area for detecting whether or not a stepped portion is present in the imaging area of the stereo camera to the reference image, and the stepped portion presence detection A step portion presence detection plane parameter, which is a plane parameter that defines projective transformation between the image of the target region and the image of the region in the reference image corresponding to the step portion presence detection region. An error between the pixel value distribution of the image of the image area and the pixel value distribution of the image obtained when projective transforming the image of the area corresponding to the area for detecting the presence of the stepped portion according to the planar parameter for detecting the presence of the stepped portion A step portion is present in the imaging region of the stereo camera based on the direction of the normal direction of the plane indicated by the determined step portion presence detection plane parameter. Stepped portions recognition device and detecting whether dolphin not.
請求項1〜4のいずれか1項に記載の段差部認識装置において、
前記段差部が前記ステレオカメラにより撮像されている状態において、該段差部が昇りの段差部であるか、降りの段差部であるかを判断する段差部種別判断手段をさらに備えており、
前記評価関数算出手段は、
前記段差部種別判断手段によって前記段差部が昇り段差部であると判断された場合には、前記基準画像に前記複数条の演算処理領域を設定する処理において、各演算処理領域の上端が該段差部の上段側踏面に対応する前記平面投影領域に位置し、且つ、各演算処理領域の下端が該段差部の下段側踏面に対応する前記平面投影領域に位置するように前記複数条の演算処理領域を設定し、前記各演算処理領域内に前記複数のエッジ推定用射影変換対象領域を設定する処理において、各候補位置を境界として隣接する第1及び第2のエッジ推定用射影変換対象領域を該演算処理領域の上部側に設定すると共に、該第1及び第2のエッジ推定用射影変換対象領域のうちの下側の領域である第2のエッジ推定用射影変換対象領域との間に該候補位置に応じた間隔を有する第3のエッジ推定用射影変換対象領域を該演算処理領域の下部側に設定し、
前記段差部種別判断手段によって前記段差部が降り段差部であると判断された場合には、前記基準画像に前記複数条の演算処理領域を設定する処理において、各演算処理領域の上端が下段側踏面に対応する前記平面投影領域に位置し、且つ、各演算処理領域の下端が上段側踏面に対応する前記平面投影領域に位置するように前記複数条の演算処理領域を設定し、前記各演算処理領域内に前記複数のエッジ推定用射影変換対象領域を設定する処理において、各候補位置を境界として隣接する第4及び第5のエッジ推定用射影変換対象領域を該演算処理領域内に設定することを特徴とする段差部認識装置。
In the level | step difference recognition apparatus of any one of Claims 1-4,
In the state where the stepped portion is imaged by the stereo camera, further comprising a stepped portion type determining means for determining whether the stepped portion is an ascending stepped portion or a descending stepped portion,
The evaluation function calculating means includes
When the stepped portion type determining means determines that the stepped portion is an ascending stepped portion, in the process of setting the plurality of calculation processing regions in the reference image, the upper end of each calculation processing region is the stepped portion. The plurality of lines of arithmetic processing are positioned in the planar projection area corresponding to the upper stage tread of the section and the lower end of each computation processing area is positioned in the plane projection area corresponding to the lower stage tread of the step In the process of setting a region and setting the plurality of edge estimation projection transformation target regions in each of the calculation processing regions, the first and second edge estimation projection transformation target regions adjacent to each other with the candidate positions as boundaries Set on the upper side of the arithmetic processing region, and between the first and second edge estimation projective transformation target regions, the second edge estimation projective transformation target region is the lower region. Depending on the candidate position The third projective transformation target area for edge estimation with interval set on the lower side of the processing area,
When the stepped portion type determining means determines that the stepped portion is a descending stepped portion, in the processing for setting the plurality of calculation processing regions in the reference image, the upper end of each calculation processing region is on the lower side. The plurality of calculation processing areas are set so that the lower end of each calculation processing area is located in the planar projection area corresponding to the tread, and the lower end of each calculation processing area is positioned in the flat projection area corresponding to the upper tread. In the process of setting the plurality of edge estimation projective transformation target regions in the processing region, the fourth and fifth edge estimation projective transformation target regions adjacent to each other at the candidate positions are set in the calculation processing region. The step part recognition apparatus characterized by the above-mentioned.
請求項5記載の段差部認識装置において、
前記評価関数算出手段は、前記段差部種別判断手段によって前記段差部が昇りの段差部であると判断された場合に、各エッジ推定用射影変換対象領域に対応するエッジ推定用平面パラメータを設定する処理において、前記第1のエッジ推定用射影変換対象領域と前記第3のエッジ推定用射影変換対象領域とのそれぞれに対応する射影変換用平面パラメータとして、それぞれ、前記段差部の上段側踏面に対応する前記平面投影領域に関して決定された前記平面パラメータと、前記段差部の下段側踏面に対応する前記平面投影領域に関して決定された前記平面パラメータとを設定し、前記第2のエッジ推定用射影変換対象領域に対応する射影変換用平面パラメータとして、第1のエッジ推定用射影変換対象領域に対応する射影変換用平面パラメータにより規定される平面に対してあらかじめ定めた角度で交差する平面の位置及び姿勢を表す平面パラメータを設定することを特徴とする段差部認識装置。
In the level | step-difference part recognition apparatus of Claim 5,
The evaluation function calculating means sets edge estimation plane parameters corresponding to each edge estimation projective transformation target area when the step difference type determining means determines that the step difference is an ascending step difference. In the processing, the projection conversion plane parameter corresponding to each of the first edge estimation projection conversion target area and the third edge estimation projection conversion target area respectively corresponds to the upper tread of the stepped portion. The plane parameter determined for the plane projection area to be set and the plane parameter determined for the plane projection area corresponding to the lower tread of the stepped portion are set, and the second edge estimation projective transformation target As the projection conversion plane parameter corresponding to the region, the projection conversion plane parameter corresponding to the first edge estimation projection conversion target region is used. Stepped portions recognition apparatus characterized by setting the plane parameters representing the position and orientation of the planes that intersect at predetermined angles relative to a plane defined by.
請求項1〜6のいずれか1項に記載の段差部認識装置において、
前記段差部空間配置決定手段は、前記段差部の上段側踏面の先端側エッジを、該上段側踏面に対応する前記平面パラメータにより規定される平面に対してあらかじめ定めた角度で交差する方向で該段差部の下段側踏面に対応する前記平面パラメータにより規定される平面に投影した線を、該下段側踏面の基端側の境界線として決定する手段を含むことを特徴とする段差部認識装置。
In the level difference recognition apparatus according to any one of claims 1 to 6,
The stepped portion space arrangement determining means is configured such that the tip side edge of the upper stepped tread of the stepped portion intersects the plane defined by the plane parameter corresponding to the upper stepped tread at a predetermined angle. A step recognition unit comprising: means for determining a line projected on a plane defined by the plane parameter corresponding to the lower step surface of the step portion as a boundary line on the base end side of the lower step surface.
請求項1〜7のいずれか1項に記載の段差部認識装置において、
前記移動体には、前記ステレオカメラのよる撮像時に該ステレオカメラの撮像領域にテクスチャを付与する投光器が搭載されていることを特徴とする段差部認識装置。
In the level | step difference recognition apparatus of any one of Claims 1-7,
The step recognition apparatus, wherein the moving body is equipped with a projector that gives a texture to an imaging region of the stereo camera during imaging by the stereo camera.
JP2011213384A 2011-09-28 2011-09-28 Step recognition device Expired - Fee Related JP5623362B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011213384A JP5623362B2 (en) 2011-09-28 2011-09-28 Step recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011213384A JP5623362B2 (en) 2011-09-28 2011-09-28 Step recognition device

Publications (2)

Publication Number Publication Date
JP2013072813A true JP2013072813A (en) 2013-04-22
JP5623362B2 JP5623362B2 (en) 2014-11-12

Family

ID=48477418

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011213384A Expired - Fee Related JP5623362B2 (en) 2011-09-28 2011-09-28 Step recognition device

Country Status (1)

Country Link
JP (1) JP5623362B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015080832A (en) * 2013-10-22 2015-04-27 本田技研工業株式会社 Control system for leg type mobile robot
CN105513064A (en) * 2015-12-03 2016-04-20 浙江万里学院 Image segmentation and adaptive weighting-based stereo matching method
WO2018066027A1 (en) * 2016-10-03 2018-04-12 オリンパス株式会社 Image processing device, image capture system, image processing method, and image processing program
CN108230320A (en) * 2018-01-18 2018-06-29 上海爱优威软件开发有限公司 Number of staircases statistical method and system
WO2018151160A1 (en) * 2017-02-15 2018-08-23 オリンパス株式会社 Method for specifying reinforcement bar arrangement angle, system for specifying reinforcement bar arrangement angle, and program for specifying reinforcement bar arrangement angle
KR20190002900A (en) * 2017-06-30 2019-01-09 현대자동차주식회사 Walking control system of robot and method controlling the same
US11123869B2 (en) 2019-04-12 2021-09-21 Boston Dynamics, Inc. Robotically negotiating stairs
CN115388777A (en) * 2022-10-28 2022-11-25 成都睿芯行科技有限公司 Method for testing precision of repeated position of mobile robot
US11599128B2 (en) 2020-04-22 2023-03-07 Boston Dynamics, Inc. Perception and fitting for a stair tracker

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05223549A (en) * 1992-02-10 1993-08-31 Honda Motor Co Ltd Recognizing method of step or the like of moving body
JP2000153476A (en) * 1998-09-14 2000-06-06 Honda Motor Co Ltd Leg type movable robot
JP2001266123A (en) * 2000-03-22 2001-09-28 Honda Motor Co Ltd Picture processor, peculiar part detecting method and recording medium recording peculiar part detection program
JP2004117078A (en) * 2002-09-25 2004-04-15 Toshiba Corp Obstacle detection device and method
JP2005182826A (en) * 2003-12-23 2005-07-07 Honda Motor Co Ltd Polyhedron recognition device
JP2006053890A (en) * 2004-07-13 2006-02-23 Toshiba Corp Obstacle detection apparatus and method therefor
JPWO2005087452A1 (en) * 2004-03-17 2008-01-24 ソニー株式会社 Robot device, stair ascending / descending method, and moving device
JP2008224380A (en) * 2007-03-12 2008-09-25 Univ Of Electro-Communications Device and method for recognizing movement environment
JP2008250516A (en) * 2007-03-29 2008-10-16 Honda Motor Co Ltd Projective transformation convergence calculation method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05223549A (en) * 1992-02-10 1993-08-31 Honda Motor Co Ltd Recognizing method of step or the like of moving body
JP2000153476A (en) * 1998-09-14 2000-06-06 Honda Motor Co Ltd Leg type movable robot
JP2001266123A (en) * 2000-03-22 2001-09-28 Honda Motor Co Ltd Picture processor, peculiar part detecting method and recording medium recording peculiar part detection program
JP2004117078A (en) * 2002-09-25 2004-04-15 Toshiba Corp Obstacle detection device and method
JP2005182826A (en) * 2003-12-23 2005-07-07 Honda Motor Co Ltd Polyhedron recognition device
JPWO2005087452A1 (en) * 2004-03-17 2008-01-24 ソニー株式会社 Robot device, stair ascending / descending method, and moving device
JP2006053890A (en) * 2004-07-13 2006-02-23 Toshiba Corp Obstacle detection apparatus and method therefor
JP2008224380A (en) * 2007-03-12 2008-09-25 Univ Of Electro-Communications Device and method for recognizing movement environment
JP2008250516A (en) * 2007-03-29 2008-10-16 Honda Motor Co Ltd Projective transformation convergence calculation method

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015080832A (en) * 2013-10-22 2015-04-27 本田技研工業株式会社 Control system for leg type mobile robot
CN105513064A (en) * 2015-12-03 2016-04-20 浙江万里学院 Image segmentation and adaptive weighting-based stereo matching method
JPWO2018066027A1 (en) * 2016-10-03 2019-07-18 オリンパス株式会社 Image processing apparatus, imaging system, image processing method and image processing program
WO2018066027A1 (en) * 2016-10-03 2018-04-12 オリンパス株式会社 Image processing device, image capture system, image processing method, and image processing program
US10715723B2 (en) 2016-10-03 2020-07-14 Olympus Corporation Image processing apparatus, image acquisition system, image processing method, and image processing program
WO2018151160A1 (en) * 2017-02-15 2018-08-23 オリンパス株式会社 Method for specifying reinforcement bar arrangement angle, system for specifying reinforcement bar arrangement angle, and program for specifying reinforcement bar arrangement angle
KR102324773B1 (en) * 2017-06-30 2021-11-10 현대자동차주식회사 Walking control system of robot and method controlling the same
KR20190002900A (en) * 2017-06-30 2019-01-09 현대자동차주식회사 Walking control system of robot and method controlling the same
CN108230320A (en) * 2018-01-18 2018-06-29 上海爱优威软件开发有限公司 Number of staircases statistical method and system
US11123869B2 (en) 2019-04-12 2021-09-21 Boston Dynamics, Inc. Robotically negotiating stairs
US11548151B2 (en) 2019-04-12 2023-01-10 Boston Dynamics, Inc. Robotically negotiating stairs
US11660752B2 (en) 2019-04-12 2023-05-30 Boston Dynamics, Inc. Perception and fitting for a stair tracker
US11599128B2 (en) 2020-04-22 2023-03-07 Boston Dynamics, Inc. Perception and fitting for a stair tracker
CN115388777A (en) * 2022-10-28 2022-11-25 成都睿芯行科技有限公司 Method for testing precision of repeated position of mobile robot

Also Published As

Publication number Publication date
JP5623362B2 (en) 2014-11-12

Similar Documents

Publication Publication Date Title
JP5623362B2 (en) Step recognition device
JP5588812B2 (en) Image processing apparatus and imaging apparatus using the same
KR101776622B1 (en) Apparatus for recognizing location mobile robot using edge based refinement and method thereof
JP4573977B2 (en) Distance correction device for monitoring system and vanishing point correction device for monitoring system
JP4803927B2 (en) Distance correction apparatus and distance correction method for monitoring system
EP1975046B1 (en) Legged locomotion robot
JP5804185B2 (en) Moving object position / orientation estimation apparatus and moving object position / orientation estimation method
JP2009041972A (en) Image processing device and method therefor
JP5796947B2 (en) Autonomous traveling control device and autonomous traveling vehicle equipped with the same
WO2015024407A1 (en) Power robot based binocular vision navigation system and method based on
JP4032843B2 (en) Monitoring system and monitoring method, distance correction device and distance correction method in the monitoring system
KR20130064167A (en) Image generating method for around view of vehicl using improved polygon matching
KR101379787B1 (en) An apparatus and a method for calibration of camera and laser range finder using a structure with a triangular hole
US20130021449A1 (en) Three-dimensional measuring method
KR20100128919A (en) System and method for automatic measuring of the stair dimensions using a single camera and a laser
US8675047B2 (en) Detection device of planar area and stereo camera system
JP2003281552A (en) Image processor and method
JP2013257244A (en) Distance measurement device, distance measurement method, and distance measurement program
US10339394B2 (en) Step detection device and step detection method
JPWO2008032376A1 (en) Distance measuring apparatus and method, and computer program
JP5533323B2 (en) Movement amount estimation apparatus and movement amount estimation method
CN112884845A (en) Indoor robot obstacle positioning method based on single camera
JP2004069437A (en) Test chart, and device and method for inspecting stereoscopic camera for positional deviation
Jordan et al. Kinematic model based visual odometry for differential drive vehicles
JP4876676B2 (en) POSITION MEASURING DEVICE, METHOD, AND PROGRAM, AND MOVEMENT DETECTION DETECTING DEVICE, METHOD, AND PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140415

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140902

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140924

R150 Certificate of patent or registration of utility model

Ref document number: 5623362

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees