JP2008260117A - Leg-wheel type robot and leg-wheel device - Google Patents

Leg-wheel type robot and leg-wheel device Download PDF

Info

Publication number
JP2008260117A
JP2008260117A JP2007270136A JP2007270136A JP2008260117A JP 2008260117 A JP2008260117 A JP 2008260117A JP 2007270136 A JP2007270136 A JP 2007270136A JP 2007270136 A JP2007270136 A JP 2007270136A JP 2008260117 A JP2008260117 A JP 2008260117A
Authority
JP
Japan
Prior art keywords
leg
wheel
scanning
measurement
type robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007270136A
Other languages
Japanese (ja)
Inventor
Isayuki Sagayama
功幸 嵯峨山
Kazuteru Hida
和輝 飛田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NSK Ltd
Original Assignee
NSK Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NSK Ltd filed Critical NSK Ltd
Priority to JP2007270136A priority Critical patent/JP2008260117A/en
Publication of JP2008260117A publication Critical patent/JP2008260117A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a leg-wheel type robot suitable for saving on energy consumption required for movement, and also to provide a leg-wheel device. <P>SOLUTION: The leg-wheel type robot 100 is furnished with: a base body 10; leg parts 12 connected to the base body 10 with freedom and constituted including the leg-wheel device 11; wheels 20 integrally provided with a leg driving mechanism part 16 forming a hip joint part of the leg parts 12; a joint motor 40 to give motive power to drive the leg parts 12; and a wheel motor 50 provided in the neighborhood of the wheels 20 and to give motive power to drive the wheels 20. Supply of driving electric power to the joint motor 40 is cut off in moving control using only the wheels 20 to carry out by controlling of the wheel motor 50, and supply of driving electric power to the wheel motor 50 is cut off, in a moving control using only the leg parts 12 to carry out by controlling of the joint motor 40. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、段差を乗り越えて移動できる脚車輪型ロボットに係り、特に、移動にかかるエネルギー消費量を節約するのに好適な脚車輪型ロボット及び脚車輪装置に関する。   The present invention relates to a leg wheel type robot that can move over a step, and more particularly to a leg wheel type robot and a leg wheel device that are suitable for saving energy consumption for movement.

ロボットの移動機構は、車輪型、クローラ型、脚型またはこれらを組み合わせた機構に分類される。一般に、車輪型ロボットは、平地での移動性は高いが、段差への適応性が低いという問題がある。また、クローラ型ロボットは、不整地に適し、多少の段差であれば乗り越えられるが、積極的な重心移動ができないために急な階段への適応性が低く、平地における移動性が車輪型ロボットより低いという問題がある。また、脚型ロボットは、階段への適応性が最も優れているが、平地での移動性が極端に低いという問題がある。   The moving mechanism of the robot is classified into a wheel type, a crawler type, a leg type, or a combination thereof. In general, a wheel type robot has a problem of high mobility on a flat ground but low adaptability to a step. Crawler type robots are suitable for rough terrain, and can be overcome if there are a few steps. However, because they cannot actively move the center of gravity, they are less adaptable to steep stairs and are more mobile on flat ground than wheel type robots. There is a problem that it is low. In addition, the legged robot has the best adaptability to the stairs, but has the problem of extremely low mobility on flat ground.

車輪型、クローラ型および脚型の問題を解決するため、脚型と車輪型を組み合わせた脚車輪型ロボットが提案されている。脚車輪型ロボットとしては、例えば、特許文献1及び非特許文献1に記載の技術が知られている。
特許文献1に記載の脚車輪分離型ロボットは、胴体と、胴体に回転可能に設けられる一対の車輪と、胴体に設けられるとともに、水平方向及び鉛直方向に旋回可能な一対の前脚と、胴体に設けられるとともに、水平方向及び鉛直方向に旋回可能な一対の後脚と、各車輪を駆動させるアクチュエータと、各前脚及び各後脚を駆動させるアクチュエータと、アクチュエータの動作を制御するコントローラとを備えている。そして、コントローラにより、前脚及び後脚による脚モード、一対の車輪による車輪モード、一対の車輪と前脚及び後脚とによる脚車輪モードの何れかのモードを選択可能としている。
In order to solve the problems of the wheel type, the crawler type and the leg type, a leg wheel type robot combining the leg type and the wheel type has been proposed. As leg-wheel type robots, for example, techniques described in Patent Literature 1 and Non-Patent Literature 1 are known.
A leg-wheel separated robot described in Patent Literature 1 includes a body, a pair of wheels rotatably provided on the body, a pair of front legs that are provided on the body, and that can be turned in a horizontal direction and a vertical direction. A pair of rear legs that can be turned in a horizontal direction and a vertical direction, an actuator that drives each wheel, an actuator that drives each front leg and each rear leg, and a controller that controls the operation of the actuator. Yes. The controller can select any one of a leg mode with a front leg and a rear leg, a wheel mode with a pair of wheels, and a leg wheel mode with a pair of wheels, a front leg and a rear leg.

また、非特許文献1に記載の脚車輪型ロボットは、車輪を駆動するための機構は備えるが、モータは備えず、スケートで滑るような動きをすることにより、車輪を使い走行するというものである。
特開2006−315587号 広瀬茂男、竹内裕喜;ローラウォーカ:新しい脚−車輪ハイブリッド移動体の提案、日本機械学会誌(C編),62,599,pp.222-248(1996)
In addition, the leg-wheel type robot described in Non-Patent Document 1 includes a mechanism for driving the wheel, but does not include a motor, and moves using a wheel by moving like sliding on a skate. is there.
JP 2006-315587 A Hirose Shigeo, Takeuchi Hiroki; Laura Walker: Proposal of a new leg-wheel hybrid moving body, Journal of the Japan Society of Mechanical Engineers (C), 62, 599, pp. 222-248 (1996)

しかしながら、上記特許文献1の従来技術では、車輪モードで走行する場合に、車輪を駆動するためにモータを回転し、それ以外の関節はモータをある角度で保持しているため、移動に脚を用いていないときでもモータに電流を流し続けなればならない。
また、上記非特許文献1の従来技術では、足先重量を軽くするため、また、エネルギ消費を減少させるために、車輪を駆動するためのモータを備えず、スケートで滑るような特別な動きをすることにより、車輪での走行を実現しているが、車輪走行時においては、姿勢を維持するために各関節のモータには電流を流し続けなければならない。
However, in the prior art of the above-mentioned Patent Document 1, when traveling in the wheel mode, the motor is rotated to drive the wheel, and the other joints hold the motor at a certain angle. Even when not in use, current must continue to flow through the motor.
Further, in the prior art of Non-Patent Document 1, in order to reduce the weight of the foot and reduce the energy consumption, a special movement that slides on a skate without a motor for driving the wheels is provided. By doing so, traveling by wheel is realized, but during wheel traveling, current must be continuously supplied to the motors of the joints in order to maintain the posture.

そこで、本発明は、このような従来の技術の有する未解決の課題に着目してなされたものであり、移動にかかるエネルギー消費量を節約するのに好適な脚車輪型ロボット及び脚車輪装置を提供することを目的としている。   Therefore, the present invention has been made paying attention to such an unsolved problem of the conventional technology, and a leg wheel type robot and a leg wheel device suitable for saving energy consumption for movement are provided. It is intended to provide.

〔発明1〕 上記目的を達成するために、発明1の脚車輪型ロボットは、基体と、前記基体に対して関節を介して支持された複数の脚部と、各脚部に回転自在に設けられた車輪と、前記各脚部及び前記車輪を駆動する動力を付与するアクチュエータと、前記アクチュエータを制御する制御手段とを備え、環境に応じて前記脚部及び前記車輪の少なくとも一方を駆動することにより移動する脚車輪型ロボットであって、前記車輪を、前記脚部の前記基体に支持された端部側に構成された股関節部に設けると共に、前記車輪を駆動するアクチュエータを、前記車輪の近傍に設け、前記制御手段は、前記脚部及び前記車輪を駆動するアクチュエータのうち前記移動に用いていないアクチュエータに対して、供給する駆動電力量を節減する制御を行うことを特徴とする。   [Invention 1] In order to achieve the above object, a leg-wheel type robot according to Invention 1 is provided with a base, a plurality of legs supported on the base via joints, and rotatably provided on each leg. And at least one of the leg and the wheel according to the environment, the control unit for controlling the actuator, and an actuator for applying power for driving the leg and the wheel. A leg-wheel type robot that moves according to the above, wherein the wheel is provided at a hip joint portion formed on an end side supported by the base of the leg portion, and an actuator for driving the wheel is provided in the vicinity of the wheel. The control means performs control to reduce the amount of drive power to be supplied to an actuator that is not used for the movement among the actuators that drive the legs and the wheels. And wherein the door.

このような構成であれば、基体の近傍に車輪が設けられることになり且つこの車輪を駆動するアクチュエータが当該車輪の近傍に設けられるので、重心位置を低くすることができると共に、従来の脚先に車輪を設けていた構成と比較して、脚先部のイナーシャ(慣性力)を小さくすることができる。
また、移動時においては、車輪のみを用いた走行移動、車輪の一部のみを用いた走行移動、脚部のみを用いた歩行移動などを行ったときに、制御手段によって、不使用となるアクチュエータに対する供給電力量を節減するように制御(例えば、電流の供給を絶つ制御)を行うことができるので、従来に比して、移動にかかるエネルギー消費量を節減することができる。
With such a configuration, a wheel is provided in the vicinity of the base body, and an actuator for driving the wheel is provided in the vicinity of the wheel, so that the position of the center of gravity can be lowered and the conventional leg tip is provided. The inertia (inertial force) of the leg tip portion can be reduced as compared with the configuration in which the wheel is provided on the leg.
Also, when moving, actuators that are not used by the control means when traveling using only wheels, traveling using only a part of the wheels, walking using only the legs, etc. Since control (for example, control to cut off the supply of current) can be performed so as to reduce the amount of power supplied to the battery, energy consumption for movement can be reduced as compared with the conventional case.

ここで、上記「脚部」は、自由度を与える関節として股関節部のみを有する1つのリンクから構成されるもの、複数のリンクが関節(股関節部を含む)を介して連結された構成のものなどが該当する。以下、発明8の脚車輪装置及び発明10の脚車輪型ロボットにおいて同じである。
また、上記「股関節部」は、脚部に自由度を与える一又は複数の関節から構成されており、例えば、基体の底面に対して垂直方向の軸まわりに脚部を回動させる関節、前記垂直方向の軸と直交する軸まわりに脚部を回動させる関節などから構成される。以下、発明8の脚車輪装置及び発明10の脚車輪型ロボットにおいて同じである。
Here, the above-mentioned “leg part” is composed of one link having only the hip joint part as a joint for giving a degree of freedom, and a structure in which a plurality of links are connected via joints (including the hip joint part). And so on. The same applies to the leg-wheel device of the eighth aspect and the leg-wheel type robot of the tenth aspect.
The “hip joint” is composed of one or a plurality of joints that give the legs freedom, for example, a joint that rotates the legs around an axis perpendicular to the bottom surface of the base, It consists of a joint that rotates the leg around an axis perpendicular to the vertical axis. The same applies to the leg-wheel device of the eighth aspect and the leg-wheel type robot of the tenth aspect.

〔発明2〕 更に、発明2の脚車輪型ロボットは、発明1の脚車輪型ロボットにおいて、前記アクチュエータとして、前記脚部を駆動する第1アクチュエータと前記車輪を駆動する第2アクチュエータとをそれぞれ独立に備えることを特徴とする。
このような構成であれば、脚部を駆動する第1アクチュエータと、車輪を駆動する第2アクチュエータとを、制御手段によって独立に制御することができる。
[Invention 2] Furthermore, the leg-wheel type robot of Invention 2 is the leg-wheel type robot of Invention 1, wherein the actuator includes a first actuator that drives the leg and a second actuator that drives the wheel. It prepares for.
If it is such a structure, the 1st actuator which drives a leg part and the 2nd actuator which drives a wheel can be controlled independently by a control means.

〔発明3〕 更に、発明3の脚車輪型ロボットは、発明2の脚車輪型ロボットにおいて、前記制御手段は、前記車輪のみを用いて移動を行うときに、前記複数の脚部を前記車輪の接地面よりも上方の位置に移動且つ保持するように前記第1アクチュエータを制御することを特徴とする。
このような構成であれば、車輪のみで移動を行うときに、脚部が車輪の接地面よりも上方の位置に移動且つ保持されるので、脚部が車輪による移動の妨げになるのを防ぐことができる。また、脚部を引きずって移動を行うなどの状況を確実に回避できるので脚部の破損を防ぐこともできる。
[Invention 3] Further, the leg wheel type robot of the invention 3 is the leg wheel type robot of the invention 2, wherein when the control means moves using only the wheels, the plurality of leg portions are attached to the wheels. The first actuator is controlled so as to move and hold at a position above the ground plane.
With such a configuration, when the movement is performed with only the wheel, the leg is moved and held at a position above the ground contact surface of the wheel, thus preventing the leg from being obstructed by the wheel. be able to. Moreover, since the situation of moving by dragging the leg portion can be avoided reliably, the leg portion can be prevented from being damaged.

〔発明4〕 更に、発明4の脚車輪型ロボットは、発明3の脚車輪型ロボットにおいて、前記制御手段は、前記複数の脚部を前記車輪の接地面よりも上方の位置に移動後に、前記車輪のみで移動を行っている間は、前記第1アクチュエータに対する駆動電力の供給を断つ制御を行うことを特徴とする。
このような構成であれば、前記複数の脚部を前記車輪の接地面よりも上方の位置に移動後に、車輪のみで移動を行っているときに、制御手段によって、第1アクチュエータへの駆動電力の供給を断つことができるので、従来に比して、車輪のみの移動時にかかるエネルギー消費量を節減することができる。
[Invention 4] Further, the leg wheel type robot of the invention 4 is the leg wheel type robot of the invention 3, wherein the control means moves the plurality of legs to a position above the ground contact surface of the wheel. Control is performed to cut off the supply of drive power to the first actuator while the vehicle is moving only with wheels.
In such a configuration, when the plurality of legs are moved only to the wheel after being moved to a position above the ground contact surface of the wheel, the drive power to the first actuator is controlled by the control means. Therefore, the energy consumption required when only the wheel is moved can be reduced as compared with the conventional case.

〔発明5〕 更に、発明5の脚車輪型ロボットは、発明3の脚車輪型ロボットにおいて、前記制御手段は、前記複数の脚部を前記車輪の接地面よりも上方の位置に移動後に、前記車輪のみで移動を行っている間は、前記第1アクチュエータに対して、前記上方に位置する脚部の姿勢保持に必要な最小限の量の駆動電力を供給するように制御を行うことを特徴とする。
このような構成であれば、車輪接地面よりも上方の位置に移動後の脚部の自重により発生する回転力を打ち消す駆動電力のみを各第1アクチュエータに供給するので、従来に比して、車輪のみの移動時にかかるエネルギー消費量を節減することができる。
[Invention 5] Further, the leg-wheel type robot according to Invention 5 is the leg-wheel type robot according to Invention 3, wherein the control means moves the plurality of legs to a position above the ground contact surface of the wheel. While moving only with wheels, the first actuator is controlled so as to supply a minimum amount of driving power necessary for maintaining the posture of the upper leg portion. And
With such a configuration, only the driving power that cancels the rotational force generated by the weight of the leg after moving to a position above the wheel ground contact surface is supplied to each first actuator. It is possible to save energy consumption when moving only the wheel.

〔発明6〕 更に、発明6の脚車輪型ロボットは、発明3の脚車輪型ロボットにおいて、前記制御手段は、前記脚部のみを用いた移動を行っている間は、前記第2アクチュエータに対する駆動電力の供給を断つ制御を行うことを特徴とする。
このような構成であれば、脚部のみを用いた移動時において、第2アクチュエータへの電力供給を断つことができるので、従来に比して、脚部のみの移動時にかかるエネルギー消費量を節減することができる。
[Invention 6] Further, the leg-wheel type robot of the invention 6 is the leg-wheel type robot of the invention 3, wherein the control means drives the second actuator while moving using only the leg portion. Control is performed to cut off the supply of power.
With such a configuration, the power supply to the second actuator can be cut off during movement using only the leg portion, so that energy consumption required when moving only the leg portion can be reduced compared to the conventional case. can do.

〔発明7〕 更に、発明7の脚車輪型ロボットは、発明3の脚車輪型ロボットにおいて、前記制御手段は、前記脚部を駆動して障害物を乗り越えるときに、当該障害物を乗り越える脚部に設けられた前記車輪が前記障害物に接触するように、前記第1アクチュエータを制御することを特徴とする。
このような構成であれば、移動経路にある段差等の障害物を乗り越えるときに、脚部の接触に加え車輪も接触させることができるので、脚部だけのときよりも自重を支える点を増やすことができるので安定した歩行で段差を乗り越えることができるほか、従来、脚部だけでは乗り越えられなかった高さの段差を、車輪を利用して乗り越えることができる。
[Invention 7] Further, the leg-wheel type robot according to Invention 7 is the leg-wheel type robot according to Invention 3, wherein the control means drives the leg part to get over the obstacle, and the leg part gets over the obstacle. The first actuator is controlled so that the wheel provided on the vehicle contacts the obstacle.
With such a configuration, when overcoming obstacles such as steps on the moving path, the wheels can be contacted in addition to the contact with the legs, so the number of points supporting the own weight is increased more than when only the legs are used. In addition to being able to get over the steps with stable walking, it is possible to use the wheels to get over the height steps that could not be overcome with the legs alone.

〔発明8〕 一方、上記目的を達成するために、発明8の脚車輪装置は、脚車輪型ロボットの基体に対して関節を介して支持される脚部と、前記脚部に回転自在に設けられた車輪と、前記脚部及び前記車輪を駆動する動力を付与するアクチュエータとを備え、前記脚部及び前記車輪の少なくとも一方の駆動により前記脚車輪型ロボットを移動させる脚車輪装置であって、前記車輪を、前記脚部の前記基体に支持される端部側に構成された股関節部に設ける構成とし、前記車輪を駆動するアクチュエータを、前記車輪の近傍に設ける構成としたことを特徴とする。   [Invention 8] On the other hand, in order to achieve the above object, the leg wheel device of Invention 8 is provided with a leg portion supported via a joint with respect to a base body of a leg wheel type robot, and rotatably provided on the leg portion. A leg wheel device that moves the leg wheel type robot by driving at least one of the leg portion and the wheel, and the leg portion and an actuator that gives power to drive the wheel. The wheel is configured to be provided in a hip joint portion configured on an end side supported by the base body of the leg portion, and an actuator for driving the wheel is configured to be provided in the vicinity of the wheel. .

このような構成であれば、基体の近傍に車輪を設けることができ且つこの車輪を駆動するアクチュエータを当該車輪の近傍に設けることができるので、脚車輪型ロボットの重心位置を低くすることができると共に、従来の脚先に車輪を設けていた構成と比較して、脚先部のイナーシャ(慣性力)を小さくすることができる。   With such a configuration, the wheel can be provided in the vicinity of the base body, and the actuator for driving the wheel can be provided in the vicinity of the wheel, so that the position of the center of gravity of the leg wheel type robot can be lowered. At the same time, the inertia (inertial force) of the leg tip portion can be reduced as compared with the configuration in which the wheel is provided on the conventional leg tip.

〔発明9〕 更に、発明9の脚車輪装置は、発明8の脚車輪装置において、前記車輪を回転駆動するアクチュエータを、前記脚部を駆動するアクチュエータとは独立に設けたことを特徴とする。
このような構成であれば、脚部を駆動するアクチュエータと、車輪を駆動するアクチュエータとを独立に制御することができる。
[Invention 9] Further, the leg wheel device of Invention 9 is characterized in that, in the leg wheel device of Invention 8, the actuator for rotationally driving the wheel is provided independently of the actuator for driving the leg portion.
With such a configuration, the actuator for driving the leg portion and the actuator for driving the wheel can be controlled independently.

〔発明10〕 一方、上記目的を達成するために、発明10の脚車輪型ロボットは、発明8又は発明9に記載の脚車輪装置を備えている。
このような構成であれば、発明8又は9に記載の脚車輪装置と同等の作用が得られる。
[Invention 10] On the other hand, in order to achieve the above object, the leg-wheel type robot of Invention 10 includes the leg-wheel device described in Invention 8 or Invention 9.
If it is such a structure, the effect | action equivalent to the leg wheel apparatus of the invention 8 or 9 will be acquired.

〔発明11〕 更に、発明11に記載の脚車輪型ロボットは、発明1乃至7並びに10のいずれか1に記載の脚車輪型ロボットにおいて、前記車輪のみによる走行時に、環境に応じて脚部の姿勢を変更する脚部姿勢変更手段を備えることを特徴とする。
このような構成であれば、例えば、坂道を車輪走行中に、前脚を前方に伸ばすなど、脚部の姿勢を変更して重心位置を変化させることができる。
[Invention 11] Furthermore, the leg-wheel type robot according to invention 11 is the leg-wheel type robot according to any one of inventions 1 to 7 and 10, wherein the leg portion of the leg-wheel type robot depends on the environment when traveling with only the wheel. A leg posture changing means for changing the posture is provided.
With such a configuration, for example, the position of the center of gravity can be changed by changing the posture of the leg portion such as extending the front leg forward while the vehicle is traveling on a slope.

〔発明12〕 一方、上記目的を達成するために、発明12の物体認識装置は、物体上の面または面の境界を認識する物体認識装置であって、物体上の測定点までの距離を測定する測距センサと、前記測距センサを走査する走査手段と、前記走査手段の走査範囲で測定可能な前記測定点について前記測距センサの測定結果を取得する測定結果取得手段と、前記測定結果取得手段で取得した測定結果を直交座標系の座標に変換する座標変換手段と、前記座標変換手段で変換された少なくとも2つの前記測定点の座標に基づいてハフ変換により前記直交座標系における線分を検出する線分検出手段と、前記線分検出手段で検出した線分に基づいて物体上の面または面の境界を認識する認識手段とを備える。   [Invention 12] On the other hand, in order to achieve the above object, the object recognition apparatus of the invention 12 is an object recognition apparatus for recognizing a surface or a boundary of a surface on an object, and measures a distance to a measurement point on the object. A distance measuring sensor, a scanning means for scanning the distance measuring sensor, a measurement result acquiring means for acquiring a measurement result of the distance measuring sensor for the measurement points that can be measured in a scanning range of the scanning means, and the measurement result A coordinate conversion means for converting the measurement result acquired by the acquisition means into coordinates of an orthogonal coordinate system; and a line segment in the orthogonal coordinate system by Hough conversion based on the coordinates of at least two of the measurement points converted by the coordinate conversion means. And a recognition unit for recognizing a surface on the object or a boundary of the surface based on the line segment detected by the line segment detection unit.

このような構成であれば、走査手段により、測距センサが走査可能となる。したがって、物体の少なくとも平面的な形状を把握することができる。そして、測定結果取得手段により、走査手段の走査範囲で測定可能な測定点について測距センサの測定結果が取得され、座標変換手段により、取得された測定結果が直交座標系の座標に変換される。
次いで、線分検出手段により、変換された少なくとも2つの測定点の座標に基づいてハフ変換により直交座標系における線分が検出される。
With such a configuration, the distance measuring sensor can be scanned by the scanning unit. Therefore, at least the planar shape of the object can be grasped. Then, the measurement result acquisition unit acquires the measurement result of the distance measuring sensor for the measurement points that can be measured in the scanning range of the scanning unit, and the coordinate conversion unit converts the acquired measurement result into the coordinates of the orthogonal coordinate system. .
Next, a line segment in the orthogonal coordinate system is detected by the Hough transform based on the transformed coordinates of at least two measurement points.

複数の測定点に基づいて線分を検出する他の方法として、最小二乗法が知られている。
しかしながら、最小二乗法では、1つ1つの測定点を辿って線分を検出するため、測定解像度が低い領域では、物体上の面とは沿わない線分を検出してしまうことがある。これに対し、ハフ変換では、測定解像度の影響を受けにくく、測定解像度が低い領域を含んでいても、物体上の面に比較的沿った線分を検出することができる。
As another method for detecting a line segment based on a plurality of measurement points, a least square method is known.
However, since the least square method detects a line segment by tracing each measurement point, a line segment that does not follow the surface on the object may be detected in a region where the measurement resolution is low. On the other hand, in the Hough transform, it is difficult to be affected by the measurement resolution, and a line segment relatively along the surface on the object can be detected even if the measurement resolution includes a low region.

また、最小二乗法では、1つ1つの測定点を辿って線分を検出するため、測定面の光沢等の影響により測定結果にばらつきが生じたときは、ばらつきが生じた測定点およびその近傍領域(以下、誤差領域という。)について、実際は平坦な線分であるところ斜めの線分として検出してしまう。これに対し、ハフ変換では、ばらつきの影響を受けにくく、ばらつきの数が少なければ、誤差領域およびその両側の領域を平坦な線分として検出することができる。   In the least-square method, line segments are detected by tracing each measurement point. Therefore, if measurement results vary due to the gloss of the measurement surface, etc. An area (hereinafter referred to as an error area) is detected as an oblique line segment, which is actually a flat line segment. On the other hand, the Hough transform is not easily affected by variations, and if the number of variations is small, the error region and the regions on both sides thereof can be detected as flat line segments.

また、最小二乗法では、どこからどこまでの領域を1つの連続面であるかを認識するかについて問題がある。この場合、例えば、検出した線分の傾きが急激に変化した箇所を連続面の境界として認識することが考えられるが、この認識方法では、誤差領域について、実際は誤差領域およびその両側の領域が1つの連続面であるところ両側の領域を別々の連続面として認識してしまう。これに対し、ハフ変換では、ばらつきの影響を受けにくく、ばらつきの数が少なければ、誤差領域およびその両側の領域を1つの平坦な線分として検出することができる。   Further, the least square method has a problem as to whether to recognize a region from where to where is one continuous surface. In this case, for example, it is conceivable to recognize a point where the slope of the detected line segment changes abruptly as the boundary of the continuous surface. However, with this recognition method, the error region and the regions on both sides of the error region are actually 1 Two continuous areas are recognized as separate continuous areas. On the other hand, the Hough transform is not easily affected by variation, and if the number of variations is small, the error region and the regions on both sides thereof can be detected as one flat line segment.

ハフ変換により線分が検出されると、認識手段により、検出された線分に基づいて物体上の面または面の境界が認識される。したがって、脚型ロボットや脚車輪型ロボットのように複雑な姿勢制御を必要とするロボットの姿勢制御に好適な認識結果を得ることができる。
ここで、走査手段は、測距センサを走査するものであればどのような構成であってもよく、例えば、測定点の軌跡が線をなすように測距センサを1次元に走査してもよいし、測定点の軌跡が面をなすように測距センサを2次元に走査してもよい。前者の場合は、物体の平面的な形状を、後者の場合は、物体の立体的な形状を把握することができる。以下、発明13および18の物体認識装置において同じである。
When the line segment is detected by the Hough transform, the recognition unit recognizes the surface or the boundary of the surface on the object based on the detected line segment. Accordingly, it is possible to obtain a recognition result suitable for posture control of a robot that requires complicated posture control, such as a legged robot or a leg-wheel type robot.
Here, the scanning means may have any configuration as long as it scans the distance measuring sensor. For example, the scanning means scans the distance measuring sensor one-dimensionally so that the locus of the measurement points forms a line. Alternatively, the distance measuring sensor may be scanned two-dimensionally so that the locus of the measurement points forms a plane. In the former case, the planar shape of the object can be grasped, and in the latter case, the three-dimensional shape of the object can be grasped. The same applies to the object recognition apparatuses according to inventions 13 and 18.

また、走査手段としては、例えば、次の構成を採用することができる。
(1)回転機構
前記測距センサの測定方向に対して所定角度をなす少なくとも1つの走査軸の回りに前記測距センサを回転させる回転手段からなる構成である。
(2)移動機構
前記測距センサの測定方向とは異なる少なくとも1つの走査方向に前記測距センサを移動させる移動手段からなる構成である。なお、移動手段は、前記走査方向に延長する経路を含む経路に沿って前記測距センサを移動させてもよい。以下、発明13および18の物体認識装置において同じである。
Moreover, as a scanning means, the following structure is employable, for example.
(1) Rotating mechanism The rotating mechanism is configured by rotating means for rotating the distance measuring sensor around at least one scanning axis that forms a predetermined angle with respect to the measuring direction of the distance measuring sensor.
(2) Moving mechanism The moving mechanism is configured by moving means for moving the distance measuring sensor in at least one scanning direction different from the measuring direction of the distance measuring sensor. The moving means may move the distance measuring sensor along a path including a path extending in the scanning direction. The same applies to the object recognition apparatuses according to inventions 13 and 18.

〔発明13〕 さらに、発明13の物体認識装置は、物体上の面または面の境界を認識する物体認識装置であって、物体上の測定点までの距離を測定する測距センサと、前記測距センサを走査する走査手段と、前記走査手段の走査範囲で測定可能な前記測定点について前記測距センサの測定結果を取得する測定結果取得手段と、前記測定結果取得手段で取得した測定結果を直交座標系の座標に変換する座標変換手段と、前記座標変換手段で変換された前記測定点間を線で補間する測定点間補間手段と、前記測定点間補間手段で得られた線上の点の座標に基づいてハフ変換により前記直交座標系における線分を検出する線分検出手段と、前記線分検出手段で検出した線分に基づいて物体上の面または面の境界を認識する認識手段とを備える。   [Invention 13] The object recognition apparatus according to Invention 13 is an object recognition apparatus for recognizing a surface or a boundary of a surface on an object, the distance measuring sensor for measuring a distance to a measurement point on the object, and the measurement. Scanning means for scanning the distance sensor, measurement result acquiring means for acquiring the measurement results of the distance measuring sensor for the measurement points that can be measured in the scanning range of the scanning means, and measurement results acquired by the measurement result acquiring means Coordinate conversion means for converting into coordinates in an orthogonal coordinate system, inter-measurement point interpolation means for interpolating between the measurement points converted by the coordinate conversion means, and points on the line obtained by the inter-measurement point interpolation means Line segment detection means for detecting a line segment in the orthogonal coordinate system by Hough transform based on the coordinates of the object, and recognition means for recognizing a surface or a boundary of the surface on the object based on the line segment detected by the line segment detection means With.

このような構成であれば、走査手段により、測距センサが走査可能となる。したがって、物体の少なくとも平面的な形状を把握することができる。そして、測定結果取得手段により、走査手段の走査範囲で測定可能な測定点について測距センサの測定結果が取得され、座標変換手段により、取得された測定結果が直交座標系の座標に変換される。
次いで、測定点間補間手段により、変換された測定点間が線で補間され、線分検出手段により、得られた線上の点の座標に基づいてハフ変換により直交座標系における線分が検出される。
With such a configuration, the distance measuring sensor can be scanned by the scanning unit. Therefore, at least the planar shape of the object can be grasped. Then, the measurement result acquisition unit acquires the measurement result of the distance measuring sensor for the measurement points that can be measured in the scanning range of the scanning unit, and the coordinate conversion unit converts the acquired measurement result into the coordinates of the orthogonal coordinate system. .
Next, the inter-measurement point interpolation means interpolates between the converted measurement points, and the line segment detection means detects the line segment in the orthogonal coordinate system by Hough transform based on the coordinates of the point on the obtained line. The

複数の測定点に基づいて線分を検出する他の方法として、最小二乗法が知られている。
しかしながら、最小二乗法では、1つ1つの測定点を辿って線分を検出するため、測定解像度が低い領域では、物体上の面とは沿わない線分を検出してしまうことがある。これに対し、ハフ変換では、測定解像度の影響を受けにくく、測定解像度が低い領域を含んでいても、物体上の面に比較的沿った線分を検出することができる。
As another method for detecting a line segment based on a plurality of measurement points, a least square method is known.
However, since the least square method detects a line segment by tracing each measurement point, a line segment that does not follow the surface on the object may be detected in a region where the measurement resolution is low. On the other hand, in the Hough transform, it is difficult to be affected by the measurement resolution, and a line segment relatively along the surface on the object can be detected even if the measurement resolution includes a low region.

また、最小二乗法では、1つ1つの測定点を辿って線分を検出するため、測定面の光沢等の影響により測定結果にばらつきが生じたときは、誤差領域について、実際は平坦な線分であるところ斜めの線分として検出してしまう。これに対し、ハフ変換では、ばらつきの影響を受けにくく、ばらつきの数が少なければ、誤差領域およびその両側の領域を平坦な線分として検出することができる。   In addition, in the least square method, the line segment is detected by tracing each measurement point. Therefore, when the measurement result varies due to the influence of the gloss of the measurement surface, the error area is actually a flat line segment. However, it is detected as an oblique line segment. On the other hand, the Hough transform is not easily affected by variations, and if the number of variations is small, the error region and the regions on both sides thereof can be detected as flat line segments.

また、最小二乗法では、どこからどこまでの領域を1つの連続面であるかを認識するかについて問題がある。この場合、例えば、検出した線分の傾きが急激に変化した箇所を連続面の境界として認識することが考えられるが、この認識方法では、誤差領域について、実際は誤差領域およびその両側の領域が1つの連続面であるところ両側の領域を別々の連続面として認識してしまう。これに対し、ハフ変換では、ばらつきの影響を受けにくく、ばらつきの数が少なければ、誤差領域およびその両側の領域を1つの平坦な線分として検出することができる。   Further, the least square method has a problem as to whether to recognize a region from where to where is one continuous surface. In this case, for example, it is conceivable to recognize a point where the slope of the detected line segment changes abruptly as the boundary of the continuous surface. However, with this recognition method, the error region and the regions on both sides of the error region are actually 1 Two continuous areas are recognized as separate continuous areas. On the other hand, the Hough transform is not easily affected by variation, and if the number of variations is small, the error region and the regions on both sides thereof can be detected as one flat line segment.

ハフ変換により線分が検出されると、認識手段により、検出された線分に基づいて物体上の面または面の境界が認識される。したがって、脚型ロボットや脚車輪型ロボットのように複雑な姿勢制御を必要とするロボットの姿勢制御に好適な認識結果を得ることができる。
ここで、補間には、測定点間を線で接続することのほか、測定点間を線で近似することが含まれ、必ずしも、測定点が線上に位置しなくてもよいし、隣接する測定点同士を対象としなくてもよい。以下、発明20の物体認識装置、および発明29の物体認識方法において同じである。
また、線には、直線、線分、多次曲線その他の曲線が含まれる。以下、発明20の物体認識装置、および発明29の物体認識方法において同じである。
When the line segment is detected by the Hough transform, the recognition unit recognizes the surface or the boundary of the surface on the object based on the detected line segment. Accordingly, it is possible to obtain a recognition result suitable for posture control of a robot that requires complicated posture control, such as a legged robot or a leg-wheel type robot.
Here, the interpolation includes connecting the measurement points with a line and approximating the measurement points with a line. The measurement points do not necessarily have to be located on the line, and adjacent measurement points are not necessarily included. It is not necessary to target points. Hereinafter, the same applies to the object recognition device of the invention 20 and the object recognition method of the invention 29.
The line includes a straight line, a line segment, a multi-order curve, and other curves. Hereinafter, the same applies to the object recognition device of the invention 20 and the object recognition method of the invention 29.

〔発明14〕 さらに、発明14の物体認識装置は、発明12および13のいずれか1の物体認識装置において、前記認識手段は、前記線分検出手段で検出した線分の端点の座標に基づいて物体上の面の境界を認識する。
このような構成であれば、認識手段により、検出された線分の端点の座標に基づいて物体上の面の境界が認識される。
[Invention 14] The object recognition apparatus according to Invention 14 is the object recognition apparatus according to any one of Inventions 12 and 13, wherein the recognition means is based on the coordinates of the end points of the line segment detected by the line segment detection means. Recognize the boundary of the surface on the object.
With such a configuration, the recognition means recognizes the boundary of the surface on the object based on the coordinates of the end points of the detected line segment.

〔発明15〕 さらに、発明15の物体認識装置は、発明12ないし14のいずれか1の物体認識装置において、前記走査手段は、前記測距センサの測定方向とは異なる第1走査方向に前記測距センサを走査する第1走査手段と、前記測定方向および前記第1走査方向とは異なる第2走査方向に前記測距センサを走査する第2走査手段とからなり、前記測定結果取得手段は、前記第1走査手段および前記第2走査手段の走査範囲で測定可能な前記測定点について前記測距センサの測定結果を取得する。   [Invention 15] Furthermore, the object recognition device of Invention 15 is the object recognition device of any one of Inventions 12 to 14, wherein the scanning means measures the measurement in a first scanning direction different from the measurement direction of the distance measuring sensor. A first scanning unit that scans the distance sensor; and a second scanning unit that scans the distance measuring sensor in a second scanning direction different from the measurement direction and the first scanning direction. The measurement result of the distance measuring sensor is acquired for the measurement points that can be measured in the scanning range of the first scanning means and the second scanning means.

このような構成であれば、第1走査手段により、第1走査方向に測距センサが、第2走査手段により、第2走査方向に測距センサがそれぞれ走査可能となる。したがって、物体の立体的な形状を把握することができる。そして、測定結果取得手段により、第1走査手段および第2走査手段の走査範囲で測定可能な測定点について測距センサの測定結果が取得される。   With this configuration, the first scanning unit can scan the distance measuring sensor in the first scanning direction, and the second scanning unit can scan the distance measuring sensor in the second scanning direction. Therefore, the three-dimensional shape of the object can be grasped. Then, the measurement result acquisition means acquires the measurement result of the distance measuring sensor for the measurement points that can be measured in the scanning range of the first scanning means and the second scanning means.

ここで、第1走査手段および第2走査手段としては、例えば、次の構成を採用することができる。
(1)回転機構
前記測距センサの測定方向に対して所定角度をなす第1走査軸の回りに前記測距センサを回転させる第1回転手段と、前記測定方向および前記第1走査軸に対して所定角度をなす第2走査軸の回りに前記測距センサを回転させる第2回転手段とからなる構成である。
(2)移動機構
前記測距センサの測定方向とは異なる第1走査方向に前記測距センサを移動させる第1移動手段と、前記測定方向および前記第1走査方向とは異なる第2走査方向に前記測距センサを移動させる第2移動手段とからなる構成である。なお、第1移動手段は、前記第1走査方向に延長する経路を含む第1経路に沿って前記測距センサを移動させてもよいし、第2移動手段は、前記第2走査方向に延長する経路を含む第2経路に沿って前記測距センサを移動させてもよい。以下、(3)、(4)においても同様である。
Here, as the first scanning unit and the second scanning unit, for example, the following configuration can be adopted.
(1) Rotation mechanism First rotation means for rotating the distance measuring sensor around a first scanning axis that forms a predetermined angle with respect to the measurement direction of the distance measuring sensor, and the measurement direction and the first scanning axis. And a second rotating means for rotating the distance measuring sensor around a second scanning axis forming a predetermined angle.
(2) Moving mechanism First moving means for moving the distance measuring sensor in a first scanning direction different from the measuring direction of the distance measuring sensor, and a second scanning direction different from the measuring direction and the first scanning direction. It comprises a second moving means for moving the distance measuring sensor. The first moving unit may move the distance measuring sensor along a first path including a path extending in the first scanning direction, and the second moving unit extends in the second scanning direction. The distance measuring sensor may be moved along a second route including a route to be performed. The same applies to (3) and (4) below.

(3)回転機構と移動機構の組み合わせ
前記測距センサの測定方向に対して所定角度をなす走査軸の回りに前記測距センサを回転させる回転手段と、前記走査軸の軸方向とは異なる走査方向に前記測距センサを移動させる移動手段とからなる構成である。
(4)移動機構と回転機構の組み合わせ
前記測距センサの測定方向とは異なる走査方向に前記測距センサを移動させる移動手段と、前記走査方向に対して所定角度をなす走査軸の回りに前記測距センサを回転させる回転手段とからなる構成である。以下、発明22の物体認識装置において同じである。
(3) Combination of rotating mechanism and moving mechanism Rotating means for rotating the distance measuring sensor around a scanning axis forming a predetermined angle with respect to the measuring direction of the distance measuring sensor, and scanning different from the axial direction of the scanning axis And a moving means for moving the distance measuring sensor in the direction.
(4) A combination of a moving mechanism and a rotating mechanism The moving means for moving the distance measuring sensor in a scanning direction different from the measuring direction of the distance measuring sensor, and the scanning axis about a predetermined angle with respect to the scanning direction It is the structure which consists of a rotation means to rotate a ranging sensor. The same applies to the object recognition apparatus of the invention 22 below.

〔発明16〕 さらに、発明16の物体認識装置は、発明15の物体認識装置において、前記認識手段は、前記線分検出手段で検出した線分の端点の座標に基づいて物体上の面を認識する。
このような構成であれば、認識手段により、検出された線分の端点の座標に基づいて物体上の面が認識される。
[Invention 16] Furthermore, the object recognition device of Invention 16 is the object recognition device of Invention 15, wherein the recognition means recognizes a surface on the object based on the coordinates of the end points of the line segment detected by the line segment detection means. To do.
With such a configuration, the surface on the object is recognized by the recognition unit based on the coordinates of the end points of the detected line segment.

〔発明17〕 さらに、発明17の物体認識装置は、発明15および16のいずれか1の物体認識装置において、前記第1走査手段は、前記測定方向に対して所定角度をなす第1走査軸の回りに前記測距センサを回転させる第1回転手段であり、前記第2走査手段は、前記測定方向および前記第1走査軸に対して所定角度をなす第2走査軸の回りに前記測距センサを回転させる第2回転手段であり、前記測定結果取得手段は、前記第1回転手段により前記測距センサを回転させながら前記第1回転手段の所定単位角度ごとに前記測距センサの測定結果を取得する第1走査を、前記第2回転手段により前記測距センサを回転させながら前記第2回転手段の所定単位角度ごとに行う第2走査を行うことにより、前記第1回転手段の所定単位角度ごとおよび前記第2回転手段の所定単位角度ごとの前記測定結果を取得する。   [Invention 17] The object recognition apparatus according to Invention 17 is the object recognition apparatus according to any one of Inventions 15 and 16, in which the first scanning means has a first scanning axis that forms a predetermined angle with respect to the measurement direction. A first rotating means for rotating the distance measuring sensor around, the second scanning means being configured to rotate the distance measuring sensor around a second scanning axis that forms a predetermined angle with respect to the measuring direction and the first scanning axis; The measurement result acquisition means outputs the measurement result of the distance measurement sensor for each predetermined unit angle of the first rotation means while rotating the distance measurement sensor by the first rotation means. A predetermined unit angle of the first rotating means is obtained by performing a second scan in which the first scanning to be acquired is performed at predetermined unit angles of the second rotating means while rotating the distance measuring sensor by the second rotating means. Your And obtaining the measurement results for each predetermined unit angle of the second rotation means.

このような構成であれば、第1回転手段により、第1走査軸の回りに測距センサが、第2回転手段により、第2走査軸の回りに測距センサがそれぞれ回転可能となる。したがって、物体の立体的な形状を把握することができる。そして、測定結果取得手段により、第2走査が行われることにより第1回転手段の所定単位角度ごとおよび第2回転手段の所定単位角度ごとの測定結果が取得される。第2走査では、第2回転手段により測距センサを回転させながら第2回転手段の所定単位角度ごとに第1走査が行われる。第1走査では、第1回転手段により測距センサを回転させながら第1回転手段の所定単位角度ごとに測定結果が取得される。   With such a configuration, the distance measuring sensor can be rotated around the first scanning axis by the first rotating means, and the distance measuring sensor can be rotated around the second scanning axis by the second rotating means. Therefore, the three-dimensional shape of the object can be grasped. Then, the second scanning is performed by the measurement result acquisition unit, whereby measurement results for each predetermined unit angle of the first rotation unit and for each predetermined unit angle of the second rotation unit are acquired. In the second scanning, the first scanning is performed for each predetermined unit angle of the second rotating means while the distance measuring sensor is rotated by the second rotating means. In the first scan, a measurement result is acquired for each predetermined unit angle of the first rotating means while rotating the distance measuring sensor by the first rotating means.

〔発明18〕 さらに、発明18の物体認識装置は、物体上の面または面の境界を認識する物体認識装置であって、物体上の測定点までの距離を測定する測距センサと、前記測距センサを走査する走査手段と、前記走査手段の走査範囲で測定可能な前記測定点について前記測距センサの測定結果を取得する測定結果取得手段と、前記測定結果取得手段で取得した測定結果に基づいて物体上の特徴を検出する第1特徴検出手段と、前記走査手段の走査範囲で測定可能な前記測定点を含む画像を撮影する撮像手段と、前記撮像手段で撮影した画像に基づいて物体上の特徴を検出する第2特徴検出手段と、前記第1特徴検出手段および前記第2特徴検出手段の検出結果に基づいて物体上の面または面の境界を認識する認識手段とを備える。   [Invention 18] The object recognition apparatus of the invention 18 is an object recognition apparatus for recognizing a surface or a boundary of a surface on an object, the distance measuring sensor for measuring a distance to a measurement point on the object, and the measurement. A scanning unit that scans the distance sensor, a measurement result acquisition unit that acquires a measurement result of the distance measuring sensor for the measurement point that can be measured in a scanning range of the scanning unit, and a measurement result acquired by the measurement result acquisition unit. A first feature detecting unit for detecting a feature on the object based on the image, an imaging unit for capturing an image including the measurement point that can be measured in a scanning range of the scanning unit, and an object based on the image captured by the imaging unit. Second feature detection means for detecting the upper feature, and recognition means for recognizing a surface or a boundary of the surface on the object based on detection results of the first feature detection means and the second feature detection means.

このような構成であれば、走査手段により、測距センサが走査可能となる。したがって、物体の少なくとも平面的な形状を把握することができる。そして、測定結果取得手段により、走査手段の走査範囲で測定可能な測定点について測距センサの測定結果が取得され、第1特徴検出手段により、取得された測定結果に基づいて物体上の特徴が検出される。
また、撮像手段により、走査手段の走査範囲で測定可能な測定点を含む画像が撮影され、第2特徴検出手段により、撮影された画像に基づいて物体上の特徴が検出される。
With such a configuration, the distance measuring sensor can be scanned by the scanning unit. Therefore, at least the planar shape of the object can be grasped. Then, the measurement result acquisition means acquires the measurement result of the distance measuring sensor for the measurement points that can be measured in the scanning range of the scanning means, and the first feature detection means determines the feature on the object based on the acquired measurement result. Detected.
In addition, an image including a measurement point that can be measured within the scanning range of the scanning unit is captured by the imaging unit, and a feature on the object is detected based on the captured image by the second feature detection unit.

そして、認識手段により、第1特徴検出手段および第2特徴検出手段の検出結果に基づいて物体上の面または面の境界が認識される。
ここで、物体上の特徴としては、例えば、物体上の特徴を示す点、直線、線分、多次曲線、円、楕円その他の曲線、平面、曲面その他の面、立方体、球体その他の立体的特徴が含まれる。以下、発明30の物体認識方法において同じである。
Then, the recognition unit recognizes the surface or the boundary of the surface on the object based on the detection results of the first feature detection unit and the second feature detection unit.
Here, the features on the object include, for example, points indicating features on the object, straight lines, line segments, multi-order curves, circles, ellipses and other curves, planes, curved surfaces and other surfaces, cubes, spheres and other three-dimensional shapes. Features are included. The same applies to the object recognition method of the invention 30 below.

〔発明19〕 さらに、発明19の物体認識装置は、発明18の物体認識装置において、前記第1特徴検出手段は、前記測定結果取得手段で取得した測定結果を直交座標系の座標に変換する座標変換手段と、前記座標変換手段で変換された少なくとも2つの前記測定点の座標に基づいてハフ変換により前記直交座標系における線分を検出する線分検出手段とを有し、前記認識手段は、前記線分検出手段で検出した線分および前記第2特徴検出手段の検出結果に基づいて物体上の面または面の境界を認識する。   [Invention 19] Further, the object recognition device of Invention 19 is the object recognition device of Invention 18, wherein the first feature detection means is a coordinate for converting the measurement result acquired by the measurement result acquisition means into coordinates of an orthogonal coordinate system. Conversion means; and line segment detection means for detecting line segments in the orthogonal coordinate system by Hough transform based on the coordinates of at least two measurement points converted by the coordinate conversion means; and the recognition means, Based on the line segment detected by the line segment detection means and the detection result of the second feature detection means, the surface on the object or the boundary of the surface is recognized.

このような構成であれば、座標変換手段により、取得された測定結果が直交座標系の座標に変換される。
そして、線分検出手段により、変換された少なくとも2つの測定点の座標に基づいてハフ変換により直交座標系における線分が検出される。
複数の測定点に基づいて線分を検出する他の方法として、最小二乗法が知られている。
If it is such a structure, the acquired measurement result will be converted into the coordinate of a rectangular coordinate system by a coordinate conversion means.
Then, a line segment in the orthogonal coordinate system is detected by the Hough transform based on the transformed coordinates of at least two measurement points.
As another method for detecting a line segment based on a plurality of measurement points, a least square method is known.

しかしながら、最小二乗法では、1つ1つの測定点を辿って線分を検出するため、測定解像度が低い領域では、物体上の面とは沿わない線分を検出してしまうことがある。これに対し、ハフ変換では、測定解像度の影響を受けにくく、測定解像度が低い領域を含んでいても、物体上の面に比較的沿った線分を検出することができる。
また、最小二乗法では、1つ1つの測定点を辿って線分を検出するため、測定面の光沢等の影響により測定結果にばらつきが生じたときは、誤差領域について、実際は平坦な線分であるところ斜めの線分として検出してしまう。これに対し、ハフ変換では、ばらつきの影響を受けにくく、ばらつきの数が少なければ、誤差領域およびその両側の領域を平坦な線分として検出することができる。
However, since the least square method detects a line segment by tracing each measurement point, a line segment that does not follow the surface on the object may be detected in a region where the measurement resolution is low. On the other hand, in the Hough transform, it is difficult to be affected by the measurement resolution, and a line segment relatively along the surface on the object can be detected even if the measurement resolution includes a low region.
In addition, in the least square method, the line segment is detected by tracing each measurement point. Therefore, when the measurement result varies due to the influence of the gloss of the measurement surface, the error area is actually a flat line segment. However, it is detected as an oblique line segment. On the other hand, the Hough transform is not easily affected by variations, and if the number of variations is small, the error region and the regions on both sides thereof can be detected as flat line segments.

また、最小二乗法では、どこからどこまでの領域を1つの連続面であるかを認識するかについて問題がある。この場合、例えば、検出した線分の傾きが急激に変化した箇所を連続面の境界として認識することが考えられるが、この認識方法では、誤差領域について、実際は誤差領域およびその両側の領域が1つの連続面であるところ両側の領域を別々の連続面として認識してしまう。これに対し、ハフ変換では、ばらつきの影響を受けにくく、ばらつきの数が少なければ、誤差領域およびその両側の領域を1つの平坦な線分として検出することができる。   Further, the least square method has a problem as to whether to recognize a region from where to where is one continuous surface. In this case, for example, it is conceivable to recognize a point where the slope of the detected line segment changes abruptly as the boundary of the continuous surface. However, with this recognition method, the error region and the regions on both sides of the error region are actually 1 Two continuous areas are recognized as separate continuous areas. On the other hand, the Hough transform is not easily affected by variation, and if the number of variations is small, the error region and the regions on both sides thereof can be detected as one flat line segment.

ハフ変換により線分が検出されると、認識手段により、検出された線分および第2特徴検出手段の検出結果に基づいて物体上の面または面の境界が認識される。したがって、非特許文献1の技術が、複雑な姿勢制御を必要としないクローラ型ロボットの移動制御のための簡易なマップ情報しか生成できないのに対して、本発明は、物体上の面または面の境界として物体の少なくとも平面的な形状を把握することができるので、脚型ロボットや脚車輪型ロボットのように複雑な姿勢制御を必要とするロボットの姿勢制御に好適な認識結果を得ることができる。   When the line segment is detected by the Hough transform, the recognition unit recognizes the surface or the boundary of the surface on the object based on the detected line segment and the detection result of the second feature detection unit. Therefore, the technique of Non-Patent Document 1 can generate only simple map information for movement control of a crawler type robot that does not require complicated posture control. Since at least the planar shape of an object can be grasped as a boundary, a recognition result suitable for posture control of a robot that requires complicated posture control such as a legged robot or a leg-wheel type robot can be obtained. .

〔発明20〕 さらに、発明20の物体認識装置は、発明18の物体認識装置において、前記第1特徴検出手段は、前記測定結果取得手段で取得した測定結果を直交座標系の座標に変換する座標変換手段と、前記座標変換手段で変換された前記測定点間を線で補間する測定点間補間手段と、前記測定点間補間手段で得られた線上の点の座標に基づいてハフ変換により前記直交座標系における線分を検出する線分検出手段とを有し、前記認識手段は、前記線分検出手段で検出した線分および前記第2特徴検出手段の検出結果に基づいて物体上の面または面の境界を認識する。   [Invention 20] Furthermore, the object recognition device of Invention 20 is the object recognition device of Invention 18, wherein the first feature detection means is a coordinate for converting the measurement result acquired by the measurement result acquisition means into coordinates of an orthogonal coordinate system. A conversion means, an inter-measurement point interpolation means for interpolating between the measurement points converted by the coordinate conversion means, and the Hough transform based on the coordinates of the points on the line obtained by the inter-measurement point interpolation means. A line segment detecting means for detecting a line segment in an orthogonal coordinate system, wherein the recognizing means is a surface on the object based on the line segment detected by the line segment detecting means and the detection result of the second feature detecting means. Or recognize the boundary of the face.

このような構成であれば、座標変換手段により、取得された測定結果が直交座標系の座標に変換され、測定点間補間手段により、変換された測定点間が線で補間される。
そして、線分検出手段により、得られた線上の点の座標に基づいてハフ変換により直交座標系における線分が検出される。なお、最小二乗法に対しては上記同様の優位点がある。
ハフ変換により線分が検出されると、認識手段により、検出された線分および第2特徴検出手段の検出結果に基づいて物体上の面または面の境界が認識される。したがって、上記同様に、脚型ロボットや脚車輪型ロボットのように複雑な姿勢制御を必要とするロボットの姿勢制御に好適な認識結果を得ることができる。
If it is such a structure, the acquired measurement result will be converted into the coordinate of a rectangular coordinate system by a coordinate conversion means, and between the measured points will be interpolated by a line by the inter-measurement point interpolation means.
Then, a line segment in the orthogonal coordinate system is detected by the Hough transform based on the coordinates of the obtained point on the line. It should be noted that there are advantages similar to those described above over the least square method.
When the line segment is detected by the Hough transform, the recognition unit recognizes the surface or the boundary of the surface on the object based on the detected line segment and the detection result of the second feature detection unit. Therefore, as described above, it is possible to obtain a recognition result suitable for posture control of a robot that requires complicated posture control, such as a legged robot or a leg-wheel type robot.

〔発明21〕 さらに、発明21の物体認識装置は、発明18の物体認識装置において、前記第1特徴検出手段は、前記測定結果取得手段で取得した測定結果を直交座標系の座標に変換する座標変換手段と、前記座標変換手段で変換された各測定点ごとに、当該測定点の座標およびその周辺の測定点の座標に基づいて前記直交座標系における当該測定点での傾きを算出する傾き算出手段と、前記傾き算出手段で算出した傾きの総数に対する各傾きの出現頻度を算出する出現頻度算出手段とを有し、前記認識手段は、前記出現頻度算出手段で算出した出現頻度および前記変換された各測定点の座標、並びに前記第2特徴検出手段の検出結果に基づいて物体上の面または面の境界を認識する。   [Invention 21] Further, the object recognition device of Invention 21 is the object recognition device of Invention 18, wherein the first feature detection means is a coordinate for converting the measurement result acquired by the measurement result acquisition means into coordinates of an orthogonal coordinate system. Inclination calculation for calculating the inclination at the measurement point in the orthogonal coordinate system based on the coordinates of the measurement point and the coordinates of the measurement points in the vicinity thereof for each measurement point converted by the conversion means and the coordinate conversion means And an appearance frequency calculating means for calculating the appearance frequency of each inclination with respect to the total number of inclinations calculated by the inclination calculating means, and the recognition means is the appearance frequency calculated by the appearance frequency calculating means and the converted The surface on the object or the boundary of the surface is recognized based on the coordinates of each measurement point and the detection result of the second feature detection means.

このような構成であれば、座標変換手段により、取得された測定結果が直交座標系の座標に変換され、傾き算出手段により、変換された各測定点ごとに、その測定点の座標およびその周辺の測定点の座標に基づいて直交座標系におけるその測定点での傾きが算出され、出現頻度算出手段により、算出された傾きの総数に対する各傾きの出現頻度が算出される。   If it is such a structure, the acquired measurement result will be converted into the coordinate of a rectangular coordinate system by the coordinate conversion means, and the coordinates of the measurement point and its surroundings will be obtained for each converted measurement point by the inclination calculation means. The inclination at the measurement point in the orthogonal coordinate system is calculated based on the coordinates of the measurement points, and the appearance frequency calculating means calculates the appearance frequency of each inclination with respect to the calculated total number of inclinations.

各傾きの出現頻度が算出されると、認識手段により、算出された出現頻度および変換された各測定点の座標、並びに第2特徴検出手段の検出結果に基づいて物体上の面または面の境界が認識される。したがって、上記同様に、脚型ロボットや脚車輪型ロボットのように複雑な姿勢制御を必要とするロボットの姿勢制御に好適な認識結果を得ることができる。   When the appearance frequency of each inclination is calculated, the recognition unit calculates the surface on the object or the boundary of the surface based on the calculated appearance frequency, the converted coordinates of each measurement point, and the detection result of the second feature detection unit. Is recognized. Therefore, as described above, it is possible to obtain a recognition result suitable for posture control of a robot that requires complicated posture control, such as a legged robot or a leg-wheel type robot.

ここで、傾き算出手段は、例えば、複数の測定点に対する回帰直線を公知の最小二乗法で近似し、回帰直線から傾きを算出したり、直交座標系において、一の軸方向に連続する複数の測定点のうち両端2つの測定点の座標の差分値と、他の軸方向に連続する複数の測定点のうち両端2つの測定点の座標の差分値とを用いて傾きを算出したりすることができる。   Here, the inclination calculation means, for example, approximates a regression line with respect to a plurality of measurement points by a known least square method, calculates an inclination from the regression line, or, in an orthogonal coordinate system, a plurality of continuous in one axial direction. Inclination is calculated using the difference value of the coordinates of the two measurement points at both ends of the measurement point and the difference value of the coordinates of the measurement points of the two ends of the plurality of measurement points continuous in the other axial direction. Can do.

〔発明22〕 さらに、発明22の物体認識装置は、発明18ないし21のいずれか1の物体認識装置において、前記走査手段は、前記測距センサの測定方向とは異なる第1走査方向に前記測距センサを走査する第1走査手段と、前記測定方向および前記第1走査方向とは異なる第2走査方向に前記測距センサを走査する第2走査手段とからなり、前記測定結果取得手段は、前記第1走査手段および前記第2走査手段の走査範囲で測定可能な前記測定点について前記測距センサの測定結果を取得する。   [Invention 22] The object recognition apparatus according to Invention 22 is the object recognition apparatus according to any one of Inventions 18 to 21, wherein the scanning means measures the measurement in a first scanning direction different from the measurement direction of the distance measuring sensor. A first scanning unit that scans the distance sensor; and a second scanning unit that scans the distance measuring sensor in a second scanning direction different from the measurement direction and the first scanning direction. The measurement result of the distance measuring sensor is acquired for the measurement points that can be measured in the scanning range of the first scanning means and the second scanning means.

このような構成であれば、第1走査手段により、第1走査方向に測距センサが、第2走査手段により、第2走査方向に測距センサがそれぞれ走査可能となる。したがって、物体の立体的な形状を把握することができる。そして、測定結果取得手段により、第1走査手段および第2走査手段の走査範囲で測定可能な測定点について測距センサの測定結果が取得される。   With this configuration, the first scanning unit can scan the distance measuring sensor in the first scanning direction, and the second scanning unit can scan the distance measuring sensor in the second scanning direction. Therefore, the three-dimensional shape of the object can be grasped. Then, the measurement result acquisition means acquires the measurement result of the distance measuring sensor for the measurement points that can be measured in the scanning range of the first scanning means and the second scanning means.

〔発明23〕 さらに、発明23の物体認識装置は、発明22の物体認識装置において、前記第1走査手段は、前記測定方向に対して所定角度をなす第1走査軸の回りに前記測距センサを回転させる第1回転手段であり、前記第2走査手段は、前記測定方向および前記第1走査軸に対して所定角度をなす第2走査軸の回りに前記測距センサを回転させる第2回転手段であり、前記測定結果取得手段は、前記第1回転手段により前記測距センサを回転させながら前記第1回転手段の所定単位角度ごとに前記測距センサの測定結果を取得する第1走査を、前記第2回転手段により前記測距センサを回転させながら前記第2回転手段の所定単位角度ごとに行う第2走査を行うことにより、前記第1回転手段の所定単位角度ごとおよび前記第2回転手段の所定単位角度ごとの前記測定結果を取得する。   [Invention 23] The object recognition apparatus according to Invention 23 is the object recognition apparatus according to Invention 22, wherein the first scanning means includes the distance measuring sensor around a first scanning axis that forms a predetermined angle with respect to the measurement direction. The second scanning means rotates the distance measuring sensor around a second scanning axis that forms a predetermined angle with respect to the measurement direction and the first scanning axis. The measurement result acquisition means performs a first scan for acquiring the measurement result of the distance measurement sensor for each predetermined unit angle of the first rotation means while rotating the distance measurement sensor by the first rotation means. By performing the second scanning performed at every predetermined unit angle of the second rotating means while rotating the distance measuring sensor by the second rotating means, the second rotation is performed at every predetermined unit angle of the first rotating means. hand Acquiring the measurement results for each predetermined unit angle.

このような構成であれば、第1回転手段により、第1走査軸の回りに測距センサが、第2回転手段により、第2走査軸の回りに測距センサがそれぞれ回転可能となる。したがって、物体の立体的な形状を把握することができる。そして、測定結果取得手段により、第2走査が行われることにより第1回転手段の所定単位角度ごとおよび第2回転手段の所定単位角度ごとの測定結果が取得される。第2走査では、第2回転手段により測距センサを回転させながら第2回転手段の所定単位角度ごとに第1走査が行われる。第1走査では、第1回転手段により測距センサを回転させながら第1回転手段の所定単位角度ごとに測定結果が取得される。   With such a configuration, the distance measuring sensor can be rotated around the first scanning axis by the first rotating means, and the distance measuring sensor can be rotated around the second scanning axis by the second rotating means. Therefore, the three-dimensional shape of the object can be grasped. Then, the second scanning is performed by the measurement result acquisition unit, whereby measurement results for each predetermined unit angle of the first rotation unit and for each predetermined unit angle of the second rotation unit are acquired. In the second scanning, the first scanning is performed for each predetermined unit angle of the second rotating means while the distance measuring sensor is rotated by the second rotating means. In the first scan, a measurement result is acquired for each predetermined unit angle of the first rotating means while rotating the distance measuring sensor by the first rotating means.

〔発明24〕 さらに、発明24の物体認識装置は、発明18ないし21のいずれか1の物体認識装置において、複数の前記測距センサおよび前記走査手段を備え、前記各走査手段は、当該走査手段に対応する前記測距センサを、前記測距センサの測定方向とは異なる第1走査方向に走査し、前記各測距センサは、前記測定方向および前記第1走査方向とは異なる第2走査方向に配置されている。   [Invention 24] The object recognition apparatus according to Invention 24 is the object recognition apparatus according to any one of Inventions 18 to 21, further comprising a plurality of the distance measuring sensors and the scanning means, wherein each of the scanning means includes the scanning means. Are scanned in a first scanning direction different from the measurement direction of the distance measuring sensor, and each distance measuring sensor is scanned in a second scanning direction different from the measurement direction and the first scanning direction. Is arranged.

このような構成であれば、各走査手段により、第2走査方向に配置された各測距センサが第1走査方向にそれぞれ走査可能となる。したがって、物体の立体的な形状を把握することができる。そして、測定結果取得手段により、走査手段の走査範囲で測定可能な測定点について各測距センサの測定結果が取得される。   With such a configuration, each scanning unit can scan each distance measuring sensor arranged in the second scanning direction in the first scanning direction. Therefore, the three-dimensional shape of the object can be grasped. And the measurement result of each ranging sensor is acquired by the measurement result acquisition means about the measurement point which can be measured in the scanning range of a scanning means.

〔発明25〕 さらに、発明25の物体認識装置は、発明18ないし24のいずれか1の物体認識装置において、前記第1特徴検出手段は、前記測定結果取得手段で取得した測定結果に基づいて物体上の特徴点を検出し、前記第2特徴検出手段は、前記撮像手段で撮影した画像から線分を検出する画像線分検出手段を有し、前記認識手段は、前記撮像手段を基準とする座標系において、前記画像線分検出手段で検出した線分と、前記第1特徴検出手段で検出した特徴点との位置関係に基づいて物体上の面または面の境界を認識する。   [Invention 25] Further, the object recognition device of Invention 25 is the object recognition device of any one of Inventions 18 to 24, wherein the first feature detection means is an object based on the measurement result acquired by the measurement result acquisition means. The upper feature point is detected, and the second feature detection unit includes an image line segment detection unit that detects a line segment from an image captured by the imaging unit, and the recognition unit is based on the imaging unit. In the coordinate system, the surface on the object or the boundary of the surface is recognized based on the positional relationship between the line segment detected by the image line segment detection unit and the feature point detected by the first feature detection unit.

このような構成であれば、第1特徴検出手段により、取得された測定結果に基づいて物体上の特徴点が検出され、画像線分検出手段により、撮影された画像から線分が検出される。
そして、認識手段により、撮像手段を基準とする座標系において、検出された線分と、検出された特徴点との位置関係に基づいて物体上の面または面の境界が認識される。
If it is such a structure, the feature point on an object will be detected by the 1st feature detection means based on the acquired measurement result, and a line segment will be detected from the imaged image by the image line segment detection means. .
Then, the recognition unit recognizes the surface or the boundary of the surface on the object based on the positional relationship between the detected line segment and the detected feature point in the coordinate system based on the imaging unit.

〔発明26〕 さらに、発明26の物体認識装置は、発明25の物体認識装置において、前記認識手段は、前記画像線分検出手段で検出した各線分ごとに、当該線分と、当該線分を延長した直線から所定距離内に存在する前記特徴点とを対応付け、同一の前記特徴点が対応付けられた前記線分をグループ化し、同一グループに属する前記線分の端点の座標に基づいて物体上の面または面の境界を認識する。   [Invention 26] Further, the object recognition device of Invention 26 is the object recognition device of Invention 25, wherein the recognition means calculates the line segment and the line segment for each line segment detected by the image line segment detection means. Corresponding to the feature points existing within a predetermined distance from the extended straight line, grouping the line segments associated with the same feature points, and based on the coordinates of the end points of the line segments belonging to the same group Recognize the upper face or face boundary.

このような構成であれば、認識手段により、検出された各線分ごとに、その線分と、その線分を延長した直線から所定距離内に存在する特徴点とが対応付けられ、同一の特徴点が対応付けられた線分がグループ化され、同一グループに属する線分の端点の座標に基づいて物体上の面または面の境界が認識される。   With such a configuration, the recognition means associates each detected line segment with the line segment and a feature point existing within a predetermined distance from the straight line obtained by extending the line segment, and the same feature The line segments associated with the points are grouped, and the surface on the object or the boundary of the surface is recognized based on the coordinates of the end points of the line segments belonging to the same group.

〔発明27〕 さらに、発明27の物体認識装置は、発明25および26のいずれか1の物体認識装置において、前記測距センサを基準とする直交座標系における所定の2軸からなる平面と、前記撮像手段を基準とする直交座標系における所定の2軸からなる平面とが平行となるように前記測距センサおよび前記撮像手段を配置した。   [Invention 27] Furthermore, the object recognition device of Invention 27 is the object recognition device of any one of Inventions 25 and 26, wherein a plane composed of two predetermined axes in an orthogonal coordinate system with the distance measuring sensor as a reference, The distance measuring sensor and the imaging means are arranged so that a plane composed of two predetermined axes in an orthogonal coordinate system based on the imaging means is parallel.

〔発明28〕 一方、上記目的を達成するために、発明28の物体認識方法は、物体上の測定点までの距離を測定する測距センサを用いて物体上の面または面の境界を認識する物体認識方法であって、前記測距センサを走査する走査ステップと、前記走査ステップの走査範囲で測定可能な前記測定点について前記測距センサの測定結果を取得する測定結果取得ステップと、前記測定結果取得ステップで取得した測定結果を直交座標系の座標に変換する座標変換ステップと、前記座標変換ステップで変換された少なくとも2つの前記測定点の座標に基づいてハフ変換により前記直交座標系における線分を検出する線分検出ステップと、前記線分検出ステップで検出した線分に基づいて物体上の面または面の境界を認識する認識ステップとを含む。   [Invention 28] On the other hand, in order to achieve the above object, the object recognition method of Invention 28 recognizes a surface or a boundary of a surface on an object using a distance measuring sensor that measures a distance to a measurement point on the object. An object recognition method, a scanning step of scanning the distance measuring sensor, a measurement result acquiring step of acquiring a measurement result of the distance measuring sensor for the measurement points that can be measured in a scanning range of the scanning step, and the measurement A coordinate conversion step for converting the measurement result acquired in the result acquisition step into a coordinate in the orthogonal coordinate system, and a line in the orthogonal coordinate system by Hough conversion based on the coordinates of the at least two measurement points converted in the coordinate conversion step. A line segment detecting step for detecting a segment, and a recognition step for recognizing a surface or a boundary of the surface on the object based on the line segment detected in the line segment detecting step.

ここで、走査ステップは、測距センサを走査するものであればどのような方法であってもよく、例えば、測定点の軌跡が線をなすように測距センサを1次元に走査してもよいし、測定点の軌跡が面をなすように測距センサを2次元に走査してもよい。前者の場合は、物体の平面的な形状を、後者の場合は、物体の立体的な形状を把握することができる。以下、発明29および30の物体認識方法において同じである。   Here, the scanning step may be any method as long as it scans the distance measuring sensor. For example, the distance measuring sensor may be scanned one-dimensionally so that the locus of the measurement points forms a line. Alternatively, the distance measuring sensor may be scanned two-dimensionally so that the locus of the measurement points forms a plane. In the former case, the planar shape of the object can be grasped, and in the latter case, the three-dimensional shape of the object can be grasped. The same applies to the object recognition methods of the inventions 29 and 30 below.

〔発明29〕 さらに、発明29の物体認識方法は、物体上の測定点までの距離を測定する測距センサを用いて物体上の面または面の境界を認識する物体認識方法であって、前記測距センサを走査する走査ステップと、前記走査ステップの走査範囲で測定可能な前記測定点について前記測距センサの測定結果を取得する測定結果取得ステップと、前記測定結果取得ステップで取得した測定結果を直交座標系の座標に変換する座標変換ステップと、前記座標変換ステップで変換された前記測定点間を線で補間する測定点間補間ステップと、前記測定点間補間ステップで得られた線上の点の座標に基づいてハフ変換により前記直交座標系における線分を検出する線分検出ステップと、前記線分検出ステップで検出した線分に基づいて物体上の面または面の境界を認識する認識ステップとを含む。   [Invention 29] Further, the object recognition method of the invention 29 is an object recognition method for recognizing a surface or a boundary of a surface on an object by using a distance measuring sensor for measuring a distance to a measurement point on the object. A scanning step for scanning the distance measuring sensor, a measurement result acquiring step for acquiring a measurement result of the distance measuring sensor for the measurement points that can be measured in the scanning range of the scanning step, and a measurement result acquired in the measurement result acquiring step On the line obtained by the coordinate conversion step for converting the coordinates into the coordinates of the orthogonal coordinate system, the inter-measurement point interpolation step for interpolating between the measurement points converted by the coordinate conversion step, and the inter-measurement point interpolation step A line segment detection step for detecting a line segment in the orthogonal coordinate system by Hough transform based on the coordinates of the point, and a surface on the object based on the line segment detected in the line segment detection step. And a recognition step recognizes the boundary of the surface.

〔発明30〕 さらに、発明30の物体認識方法は、物体上の測定点までの距離を測定する測距センサを用いて物体上の面または面の境界を認識する物体認識方法であって、前記測距センサを走査する走査ステップと、前記走査ステップの走査範囲で測定可能な前記測定点について前記測距センサの測定結果を取得する測定結果取得ステップと、前記測定結果取得ステップで取得した測定結果に基づいて物体上の特徴を検出する第1特徴検出ステップと、前記走査ステップの走査範囲で測定可能な前記測定点を含む画像を撮影する撮像ステップと、前記撮像ステップで撮影した画像に基づいて物体上の特徴を検出する第2特徴検出ステップと、前記第1特徴検出ステップおよび前記第2特徴検出ステップの検出結果に基づいて物体上の面または面の境界を認識する認識ステップとを含む。   [Invention 30] The object recognition method of the invention 30 is an object recognition method for recognizing a surface or a boundary of a surface on an object using a distance measuring sensor for measuring a distance to a measurement point on the object. A scanning step for scanning the distance measuring sensor, a measurement result acquiring step for acquiring a measurement result of the distance measuring sensor for the measurement points that can be measured in the scanning range of the scanning step, and a measurement result acquired in the measurement result acquiring step A first feature detection step for detecting a feature on the object based on the image, an imaging step for capturing an image including the measurement point that can be measured in a scanning range of the scanning step, and an image captured in the imaging step A second feature detecting step for detecting a feature on the object; a surface on the object based on the detection results of the first feature detecting step and the second feature detecting step; The boundary surface and a recognizing step.

以上説明したように、発明1及び2の脚車輪型ロボットによれば、当該ロボットの重心位置を低くすることができるので、安定した移動を行うことができるという効果が得られると共に、脚先のイナーシャを小さくすることができるので、従来に比して高速に脚先を移動することができるという効果が得られる。また、不使用のアクチュエータに対する供給電力量を節減することができるので、従来に比して、移動にかかるエネルギー消費量を節減することができるという効果が得られる。   As described above, according to the leg-wheel type robots of the first and second aspects of the invention, the center of gravity of the robot can be lowered, so that an effect that stable movement can be performed is obtained, and Since the inertia can be reduced, the effect that the leg tip can be moved at a higher speed than in the prior art can be obtained. In addition, since it is possible to reduce the amount of power supplied to the unused actuator, it is possible to reduce the amount of energy consumed for movement compared to the prior art.

また、発明3の脚車輪型ロボットによれば、車輪のみで移動を行うときに、脚部を車輪の接地面よりも上方の位置に移動且つ保持することができるので、脚部が車輪による移動の妨げになるのを防ぐことができるという効果が得られると共に、脚部を引きずって移動を行うなどの状況を回避できるので脚部の破損を防ぐことができるという効果が得られる。   Further, according to the leg-wheel type robot of the invention 3, when the movement is performed only by the wheel, the leg can be moved and held at a position above the ground contact surface of the wheel, so that the leg is moved by the wheel. As a result, it is possible to prevent a situation in which the leg portion is prevented from being damaged, and the leg portion can be prevented from being damaged.

また、発明4〜5の脚車輪型ロボットによれば、車輪のみで移動を行っているときに、第1アクチュエータに対する駆動電力の供給量を節減することができるので、従来に比して、車輪のみの移動時にかかるエネルギー消費量を節減することができるという効果が得られる。
また、発明6の脚車輪型ロボットによれば、脚部のみを用いた移動時において、第2アクチュエータへの電力供給を断つことができるので、従来に比して、脚部のみの移動時にかかるエネルギー消費量を節減することができるという効果が得られる。
In addition, according to the leg-wheel type robots of the inventions 4 to 5, since the amount of driving power supplied to the first actuator can be reduced when moving with only the wheels, It is possible to reduce the amount of energy consumed when only moving.
In addition, according to the leg-wheel type robot of the sixth aspect of the invention, since the power supply to the second actuator can be cut off during movement using only the leg portion, it takes more time when only the leg portion is moved than in the prior art. The effect is that energy consumption can be saved.

また、発明7の脚車輪型ロボットによれば、移動経路にある段差等の障害物を乗り越えるときに、脚部の接触に加え車輪も接触させることができるので、脚部だけのときよりも自重を支える点を増やすことができるので安定した歩行で段差を乗り越えることができるという効果が得られると共に、従来、脚部だけでは乗り越えられなかった高さの段差を、車輪を利用して乗り越えることができるという効果が得られる。   In addition, according to the leg-wheel type robot of the invention 7, when overcoming an obstacle such as a step on the moving path, the wheel can be brought into contact in addition to the contact of the leg, so that the weight of the robot is more than that of the leg alone. Since the number of points that support the vehicle can be increased, the effect of being able to get over the steps with stable walking can be obtained, and it is possible to use the wheels to get over the steps that could not be overcome with the legs alone. The effect that it can be obtained.

また、発明8〜9の脚車輪装置によれば、脚車輪型ロボットの重心位置を低くすることができるので、脚車輪型ロボットに安定した移動を行わせることができるという効果が得られると共に、脚車輪型ロボットの脚先のイナーシャを小さくすることができるので、従来に比して、高速に脚先を移動させることができるという効果が得られる。
また、発明10の脚車輪型ロボットによれば、当該ロボットの重心位置を低くすることができるので、安定した移動を行うことができるという効果が得られると共に、脚先のイナーシャを小さくすることができるので、従来に比して高速に脚先を移動することができるという効果が得られる。
Moreover, according to the leg-wheel apparatus of invention 8-9, since the gravity center position of a leg-wheel-type robot can be made low, while being able to make a leg-wheel-type robot perform stable movement, it is acquired, Since the inertia of the leg tip of the leg-wheel type robot can be reduced, an effect that the leg tip can be moved at a higher speed than in the prior art can be obtained.
Further, according to the leg-wheel type robot of the tenth aspect, since the position of the center of gravity of the robot can be lowered, an effect that stable movement can be performed is obtained, and the inertia of the leg tip can be reduced. As a result, the effect of being able to move the leg tip at a higher speed than in the prior art can be obtained.

また、発明11の脚車輪型ロボットによてば、車輪走行時に積極的に脚を利用することにより重心位置を変化させ、より安定に車輪走行できるという効果が得られる。
一方、発明12、13、19または20の物体認識装置によれば、物体上の面または面の境界として物体の少なくとも平面的な形状を把握することができるので、脚型ロボットや脚車輪型ロボットのように複雑な姿勢制御を必要とするロボットの姿勢制御に好適な認識結果を得ることができるという効果が得られる。また、ハフ変換により線分を検出するので、測距センサを用いた2次元距離測定装置により物体認識を行う場合に、測定解像度の低下または測定結果のばらつきにより認識精度が低下する可能性を低減することができるという効果も得られる。
In addition, according to the leg-wheel type robot of the eleventh aspect of the present invention, it is possible to change the center of gravity by actively using the legs during wheel traveling, and to obtain an effect that the wheels can travel more stably.
On the other hand, according to the object recognition device of the invention 12, 13, 19 or 20, since at least the planar shape of the object can be grasped as a surface on the object or a boundary between the surfaces, a legged robot or a leg wheel type robot. As described above, it is possible to obtain a recognition result suitable for posture control of a robot that requires complicated posture control. In addition, because line segments are detected by Hough transform, when object recognition is performed using a two-dimensional distance measuring device using a distance measuring sensor, the possibility that the recognition accuracy will decrease due to a decrease in measurement resolution or variations in measurement results is reduced. The effect that it can do is also acquired.

さらに、発明13または20の物体認識装置によれば、測定点間を線で補間して得られた線上の点の座標に基づいて線分を検出するので、測定解像度の低下または測定結果のばらつきが生じても比較的正確な認識結果を得ることができ、認識精度が低下する可能性をさらに低減することができるという効果も得られる。
さらに、発明14の物体認識装置によれば、物体上の面の境界を比較的正確に認識することができるという効果が得られる。
Furthermore, according to the object recognition device of the thirteenth or twentieth aspect, since the line segment is detected based on the coordinates of the points on the line obtained by interpolating between the measurement points with the line, the measurement resolution is lowered or the measurement result is varied. Even if this occurs, it is possible to obtain a relatively accurate recognition result, and to further reduce the possibility that the recognition accuracy is lowered.
Further, according to the object recognition device of the fourteenth aspect of the present invention, an effect that the boundary of the surface on the object can be recognized relatively accurately is obtained.

さらに、発明15の物体認識装置によれば、物体上の面または面の境界として物体の立体的な形状を把握することができるので、脚型ロボットや脚車輪型ロボットのように複雑な姿勢制御を必要とするロボットの姿勢制御にさらに好適な認識結果を得ることができるという効果が得られる。
さらに、発明16の物体認識装置によれば、物体上の面を比較的正確に認識することができるという効果が得られる。
Further, according to the object recognition device of the fifteenth aspect, since the three-dimensional shape of the object can be grasped as a surface on the object or a boundary between the surfaces, complicated posture control such as a legged robot or a leg wheel type robot can be performed. It is possible to obtain a recognition result more suitable for posture control of a robot that requires
Furthermore, according to the object recognition device of the sixteenth aspect, it is possible to obtain an effect that the surface on the object can be recognized relatively accurately.

さらに、発明17の物体認識装置によれば、測距センサを回転させる回転機構を採用したので、移動機構に比して、走査に必要なスペースが小さくてすみ、走査のための機構が簡素となり、しかも高速な走査を実現することができるという効果が得られる。
さらに、発明18の物体認識装置によれば、測距センサのほか、これとは異なる方式の撮像手段を用いて物体上の特徴をそれぞれ検出し、それら2つの検出結果に基づいて物体上の面または面の境界を認識するので、測距センサによる方式の短所を撮像手段による方式で補うことができ、測距センサを用いた2次元距離測定装置により物体認識を行う場合に、認識精度が低下する可能性を低減することができるという効果が得られる。また、走査手段の走査回数を増やさなくてすむので、測定時間を短縮することができるという効果も得られる。
Further, according to the object recognition device of the invention 17, since the rotation mechanism for rotating the distance measuring sensor is adopted, the space required for scanning is smaller than that of the moving mechanism, and the mechanism for scanning becomes simple. And the effect that a high-speed scanning is realizable is acquired.
Furthermore, according to the object recognition device of the eighteenth aspect, in addition to the distance measurement sensor, the feature on the object is detected using the imaging means of a different system, and the surface on the object is detected based on the two detection results. Alternatively, since the boundary of the surface is recognized, the shortcomings of the method using the distance measuring sensor can be compensated for by the method using the imaging means, and the recognition accuracy decreases when the object is recognized by the two-dimensional distance measuring device using the distance measuring sensor. The effect that it is possible to reduce the possibility of doing is obtained. In addition, since it is not necessary to increase the number of scans of the scanning means, the effect that the measurement time can be shortened is also obtained.

さらに、発明21の物体認識装置によれば、物体上の面または面の境界として物体の少なくとも平面的な形状を把握することができるので、脚型ロボットや脚車輪型ロボットのように複雑な姿勢制御を必要とするロボットの姿勢制御に好適な認識結果を得ることができるという効果が得られる。また、測定点での傾きの出現頻度および各測定点の座標に基づいて物体上の面または面の境界を認識するので、測距センサを用いた2次元距離測定装置により物体認識を行う場合に、認識精度が低下する可能性をさらに低減することができるという効果も得られる。   Furthermore, according to the object recognition device of the invention 21, since at least a planar shape of an object can be grasped as a surface on the object or a boundary between surfaces, a complicated posture such as a legged robot or a legged wheel type robot can be obtained. An effect is obtained that a recognition result suitable for posture control of a robot that requires control can be obtained. In addition, since the surface on the object or the boundary of the surface is recognized based on the appearance frequency of the inclination at the measurement point and the coordinates of each measurement point, when the object recognition is performed by the two-dimensional distance measuring device using the distance measuring sensor. In addition, there is an effect that the possibility that the recognition accuracy is lowered can be further reduced.

さらに、発明22または24の物体認識装置によれば、物体上の面または面の境界として物体の立体的な形状を把握することができるので、脚型ロボットや脚車輪型ロボットのように複雑な姿勢制御を必要とするロボットの姿勢制御にさらに好適な認識結果を得ることができるという効果が得られる。
さらに、発明23の物体認識装置によれば、測距センサを回転させる回転機構を採用したので、移動機構に比して、走査に必要なスペースが小さくてすみ、走査のための機構が簡素となり、しかも高速な走査を実現することができるという効果が得られる。
Furthermore, according to the object recognition device of the invention 22 or 24, the three-dimensional shape of the object can be grasped as a surface on the object or a boundary between the surfaces. An effect is obtained that a recognition result more suitable for posture control of a robot that requires posture control can be obtained.
Further, according to the object recognition device of the invention 23, since the rotation mechanism for rotating the distance measuring sensor is adopted, the space required for scanning is smaller than that of the moving mechanism, and the mechanism for scanning becomes simple. And the effect that a high-speed scanning is realizable is acquired.

さらに、発明25の物体認識装置によれば、画像から検出された線分と、測距センサの測定結果から検出された特徴点との位置関係に基づいて物体上の面または面の境界を認識するので、認識精度が低下する可能性をさらに低減することができるという効果が得られる。
さらに、発明26の物体認識装置によれば、コントラスト等の影響により、撮影された画像から、実際は一つの線分として検出されるべきところ複数の線分として検出されても、測距センサの測定結果から検出された特徴点との対応関係に基づいて複数の線分を1つの線分としてグループ化し、物体上の面または面の境界を認識するので、認識精度が低下する可能性をさらに低減することができるという効果が得られる。
Furthermore, according to the object recognition device of the invention 25, the surface or the boundary of the surface on the object is recognized based on the positional relationship between the line segment detected from the image and the feature point detected from the measurement result of the distance measuring sensor. Therefore, an effect that the possibility that the recognition accuracy is lowered can be further reduced.
Further, according to the object recognition device of the invention 26, even if it is detected as a plurality of line segments from the captured image due to the influence of contrast or the like, it is actually measured by the distance measuring sensor. Based on the correspondence with the feature points detected from the results, multiple line segments are grouped as a single line segment and the surface or boundary of the surface on the object is recognized, further reducing the possibility of reduced recognition accuracy The effect that it can do is acquired.

一方、発明28の物体認識方法によれば、発明12の物体認識装置と同等の効果が得られる。
さらに、発明29の物体認識方法によれば、発明13の物体認識装置と同等の効果が得られる。
さらに、発明30の物体認識方法によれば、発明18の物体認識装置と同等の効果が得られる。
On the other hand, according to the object recognition method of the invention 28, the same effect as the object recognition device of the invention 12 can be obtained.
Furthermore, according to the object recognition method of the invention 29, an effect equivalent to that of the object recognition device of the invention 13 can be obtained.
Furthermore, according to the object recognition method of the thirtieth aspect, the same effects as those of the object recognition apparatus of the eighteenth aspect can be obtained.

〔第1の実施の形態〕
以下、本発明の第1の実施の形態を図面に基づき説明する。図1〜図12は、本発明に係る脚車輪型ロボット及び脚車輪装置の第1の実施の形態を示す図である。
まず、図1に基づき、本発明に係る脚車輪装置の構成を説明する。
図1(a)〜(c)は、本発明に係る脚車輪装置11の構成を示す図である。
[First Embodiment]
A first embodiment of the present invention will be described below with reference to the drawings. FIGS. 1-12 is a figure which shows 1st Embodiment of the leg-wheel-type robot and leg-wheel apparatus which concern on this invention.
First, based on FIG. 1, the structure of the leg wheel apparatus which concerns on this invention is demonstrated.
Fig.1 (a)-(c) is a figure which shows the structure of the leg wheel apparatus 11 which concerns on this invention.

脚車輪装置11は、図1(a)の正面図に示すように、シャフト15、第1プーリ16a、第2プーリ16b、第1ベルト16c、第2ギアボックス16d、第1リンク13及び関節モータ40(後述)から構成される脚駆動機構部16を含んだ構成となっている。
脚駆動機構部16は、図1(b)の底面図に示すように、関節モータ40の回転軸(以下、第1の回転軸と称す)が、第1プーリ16aの回転軸となるように当該第1プーリ16aの軸穴に嵌合された構成となっており、これにより、関節モータ40の第1の回転軸の回転駆動力が、第1プーリ16aに伝達される。
As shown in the front view of FIG. 1A, the leg wheel device 11 includes a shaft 15, a first pulley 16a, a second pulley 16b, a first belt 16c, a second gear box 16d, a first link 13, and a joint motor. The structure includes a leg drive mechanism 16 composed of 40 (described later).
As shown in the bottom view of FIG. 1B, the leg drive mechanism 16 is configured so that the rotation shaft of the joint motor 40 (hereinafter referred to as the first rotation shaft) is the rotation shaft of the first pulley 16a. The first pulley 16a is fitted into the shaft hole of the first pulley 16a, whereby the rotational driving force of the first rotating shaft of the joint motor 40 is transmitted to the first pulley 16a.

また、第1プーリ16a及び第2プーリ16bには、外周に沿って溝が設けられており、両者の溝には、第1プーリ16aの回転駆動力を第2プーリ16bに伝えるために、第1ベルト16cが架け渡されている。つまり、第1プーリ16aが回転することによって第1ベルト16cが回転すると、この第1ベルト16cの回転駆動力は、第2プーリ16bに伝達され、第2プーリ16bを回転駆動する。   Further, the first pulley 16a and the second pulley 16b are provided with grooves along the outer periphery, and in order to transmit the rotational driving force of the first pulley 16a to the second pulley 16b, both grooves are provided with the first pulley 16a and the second pulley 16b. One belt 16c is stretched over. That is, when the first belt 16c rotates due to the rotation of the first pulley 16a, the rotational driving force of the first belt 16c is transmitted to the second pulley 16b, and rotationally drives the second pulley 16b.

また、第2プーリ16bと、シャフト15とは、第2プーリ16bの回転駆動力がシャフト15を回転させるように、シャフト15が第2プーリ16bの軸穴に嵌合された構成となっている。従って、第2プーリ16bに伝達された回転駆動力は、シャフト15へと伝達される。
一方、第2ギアボックス16dは、複数のギアを含むと共に入力軸及び出力軸を共通の軸とする構成(例えば、遊星歯車機構など)となっており、その軸穴にシャフト15を嵌合する構成となっている。そして、第2ギアボックス16dにおいて、複数のギアによりシャフト15の回転速度を減速して必要なトルクを得るようにしている。
The second pulley 16b and the shaft 15 are configured such that the shaft 15 is fitted in the shaft hole of the second pulley 16b so that the rotational driving force of the second pulley 16b rotates the shaft 15. . Accordingly, the rotational driving force transmitted to the second pulley 16 b is transmitted to the shaft 15.
On the other hand, the second gear box 16d includes a plurality of gears and has a configuration in which the input shaft and the output shaft are a common shaft (for example, a planetary gear mechanism), and the shaft 15 is fitted into the shaft hole. It has a configuration. In the second gear box 16d, the rotational speed of the shaft 15 is reduced by a plurality of gears to obtain a necessary torque.

また、図1(a)及び図1(c)の斜視図に示すように、第1リンク13は、その一端がシャフト15及び支持部材21を介して基体10側に支持されており、その他端側がシャフト15の回転に連動して回動する構成となっている。
従って、関節モータ40が第1の回転軸を回転駆動することで、その回転駆動力は、第1プーリ16a、第1ベルト16c、第2プーリ16b及び第2ギアボックス16dを介してシャフト15へと伝達され、この伝達された回転駆動力によってシャフト15が回転することで、第1リンク13の他端側をシャフト15の回転方向に回動させる。
Moreover, as shown in the perspective views of FIGS. 1A and 1C, one end of the first link 13 is supported on the base 10 side via the shaft 15 and the support member 21, and the other end. The side rotates in conjunction with the rotation of the shaft 15.
Therefore, when the joint motor 40 rotationally drives the first rotating shaft, the rotational driving force is transmitted to the shaft 15 via the first pulley 16a, the first belt 16c, the second pulley 16b, and the second gear box 16d. When the shaft 15 is rotated by the transmitted rotational driving force, the other end side of the first link 13 is rotated in the rotation direction of the shaft 15.

脚車輪装置11は、図1(a)に示すように、更に、軸受(不図示)、第3プーリ17a、第4プーリ17b、第2ベルト17c、車輪20及び車輪モータ50(後述)とから構成される車輪駆動機構部17を含んだ構成となっている。
車輪駆動機構部17は、図1(b)に示すように、車輪モータ50の回転軸(以下、第2の回転軸と称す)が、第3プーリ17aの回転軸となるように当該第3プーリ17aの軸穴に嵌合された構成となっており、これにより、車輪モータ50の第2の回転軸の回転駆動力が、第3プーリ17aに伝達される。
As shown in FIG. 1A, the leg wheel device 11 further includes a bearing (not shown), a third pulley 17a, a fourth pulley 17b, a second belt 17c, a wheel 20, and a wheel motor 50 (described later). The wheel drive mechanism unit 17 is configured.
As shown in FIG. 1B, the wheel drive mechanism unit 17 is configured so that the rotation axis of the wheel motor 50 (hereinafter referred to as the second rotation axis) becomes the rotation axis of the third pulley 17a. It is configured to be fitted into the shaft hole of the pulley 17a, and thereby the rotational driving force of the second rotating shaft of the wheel motor 50 is transmitted to the third pulley 17a.

そして、第3プーリ17a及び第4プーリ17bには、外周に沿って溝が設けられており、両者の溝には、第3プーリ17aの回転駆動力を第4プーリ17bに伝えるために、第2ベルト17cが架け渡されている。つまり、第3プーリ17aが回転することで第2ベルト17cが回転し、この回転駆動力が第4プーリ17bに伝達され、第4プーリ17bを回転駆動する。   The third pulley 17a and the fourth pulley 17b are provided with grooves along the outer periphery. In order to transmit the rotational driving force of the third pulley 17a to the fourth pulley 17b, both grooves are provided with the first pulley 17a and the fourth pulley 17b. Two belts 17c are stretched over. That is, when the third pulley 17a rotates, the second belt 17c rotates, and this rotational driving force is transmitted to the fourth pulley 17b, thereby rotating the fourth pulley 17b.

また、第4プーリ17bと、車輪20とは、第4プーリ17bの回転駆動力が車輪20を回転させるように、両者が一体となった構成となっている。従って、第4プーリ17bに伝達された回転駆動力は、そのまま車輪20へと伝達される。また、第4プーリ17b及び車輪20の内側には軸受(不図示)が設けられており、この軸受を介して、車輪20及び第4プーリ17bがシャフト15を軸としてその軸まわりに回転自在に設けられている。つまり、脚駆動機構部16と車輪駆動機構部17とは、シャフト15を共通の軸として一体的に構成される。但し、上記軸受により、第2ギアボックス16dを介して伝達されるシャフト15の回転駆動力が、車輪20及び第4プーリ17bには伝達されないようにしている。   Further, the fourth pulley 17b and the wheel 20 are configured such that both are integrated so that the rotational driving force of the fourth pulley 17b rotates the wheel 20. Accordingly, the rotational driving force transmitted to the fourth pulley 17b is transmitted to the wheel 20 as it is. A bearing (not shown) is provided inside the fourth pulley 17b and the wheel 20, and the wheel 20 and the fourth pulley 17b can rotate about the shaft 15 with the shaft 15 as an axis via the bearing. Is provided. That is, the leg drive mechanism 16 and the wheel drive mechanism 17 are integrally configured with the shaft 15 as a common axis. However, the bearing prevents the rotational driving force of the shaft 15 transmitted through the second gear box 16d from being transmitted to the wheels 20 and the fourth pulley 17b.

上記構成であれば、脚車輪装置11は、車輪駆動機構部17を基体10の近傍に配設することができるので、脚車輪型ロボットの重心位置を低くすることが可能である。また、車輪20を、基体10の近傍に位置させることができるので、従来の脚先に車輪を設けていた構成と比較して、脚先のイナーシャを小さくすることが可能である。
次に、図2に基づき、本発明に係る脚車輪型ロボットの概略構成を説明する。
If it is the said structure, since the leg wheel apparatus 11 can arrange | position the wheel drive mechanism part 17 to the base | substrate 10 vicinity, it is possible to make the gravity center position of a leg wheel type robot low. Further, since the wheel 20 can be positioned in the vicinity of the base body 10, it is possible to reduce the inertia of the leg tip as compared with the configuration in which the wheel is provided on the conventional leg tip.
Next, a schematic configuration of the leg wheel type robot according to the present invention will be described with reference to FIG.

図2は、本発明に係る脚車輪型ロボット100の正面図である。また、図3は、本発明に係る脚車輪型ロボット100の側面図である。
脚車輪型ロボット100は、図2および図3に示すように、基体10と、基体10に連結された4つの脚部12とを有して構成されている。
基体10に連結される脚部12は、上記構成の脚車輪装置11と、脚車輪装置11の第1リンク13の他端側に、第3回転関節18を介して一端が連結された第2リンク19とを有して構成されている。
FIG. 2 is a front view of the leg wheel type robot 100 according to the present invention. FIG. 3 is a side view of the leg wheel type robot 100 according to the present invention.
As shown in FIGS. 2 and 3, the leg-wheel type robot 100 includes a base body 10 and four leg portions 12 connected to the base body 10.
The leg portion 12 connected to the base body 10 has a second configuration in which one end is connected to the other end side of the first link 13 of the leg wheel device 11 and the leg wheel device 11 via the third rotary joint 18. And a link 19.

第3回転関節18は、関節モータ40、シャフト、関節モータ40の回転駆動力をシャフトに伝達する伝達機構を有しており、シャフトを回転駆動することで、当該シャフトの回転方向に第2リンク19の他端側を回動させる構成となっている。
このような構成をした2本の脚部12が、基体10の前方に支持部材31を介して左右対称の位置に連結されている。また、基体10の後方にも、2本の脚部12が、支持部材31を介して左右対称の位置に連結されている。
The third rotary joint 18 includes a joint motor 40, a shaft, and a transmission mechanism that transmits the rotational driving force of the joint motor 40 to the shaft, and the second link in the rotational direction of the shaft by rotationally driving the shaft. The other end side of 19 is rotated.
The two leg portions 12 having such a configuration are coupled to the front side of the base body 10 at a symmetrical position via a support member 31. In addition, the two leg portions 12 are connected to the left and right symmetrical positions via the support member 31 also behind the base body 10.

第1ギアボックス14は、第1回転関節を構成し(以下、第1回転関節14と称す)、脚車輪型ロボット100の底面と直交する方向を軸方向として回転する。すなわち、ヨー軸回りに回転する。また、脚車輪型ロボット100は、第1ギアボックス14に伝達される回転駆動力の回転方向を制御することによって、車輪20の操舵を行うようになっている。   The first gear box 14 constitutes a first rotary joint (hereinafter referred to as the first rotary joint 14), and rotates with the direction orthogonal to the bottom surface of the leg wheel type robot 100 as the axial direction. That is, it rotates around the yaw axis. In addition, the leg wheel type robot 100 controls the wheel 20 by controlling the direction of rotation of the rotational driving force transmitted to the first gear box 14.

脚駆動機構部16(以下、第2回転関節16とも称す)、第3回転関節18は、第1回転関節14が図1の状態であるときは、脚車輪型ロボット100の側面と直交する方向を軸方向として回転する。すなわち、第1回転関節14が図1の状態であるときは、ピッチ軸回りに回転し、第1回転関節14が図1の状態から90度回転した状態であるときは、ロール軸回りに回転する。従って、脚部12は、それぞれ3自由度を有する。   The leg drive mechanism 16 (hereinafter also referred to as the second rotary joint 16) and the third rotary joint 18 are orthogonal to the side surface of the leg wheel type robot 100 when the first rotary joint 14 is in the state shown in FIG. Rotate in the axial direction. That is, when the first rotary joint 14 is in the state of FIG. 1, it rotates about the pitch axis, and when the first rotary joint 14 is rotated 90 degrees from the state of FIG. 1, it rotates about the roll axis. To do. Therefore, each leg 12 has three degrees of freedom.

つまり、第1回転関節14及び第2回転関節16により、脚車輪型ロボット100の股関節部が構成され、第3回転関節により、脚車輪型ロボット100の膝関節部が構成される。
各脚部12の先端には、脚車輪型ロボット100の移動経路上に存在する障害物までの距離を測定する前方脚先センサ22と、接地面までの距離を測定する下方脚先センサ24とが設けられている。
That is, the first rotary joint 14 and the second rotary joint 16 constitute a hip joint part of the leg-wheel type robot 100, and the third rotary joint constitutes a knee joint part of the leg-wheel type robot 100.
At the tip of each leg 12, a front leg tip sensor 22 that measures the distance to an obstacle existing on the movement path of the leg wheel type robot 100, and a lower leg tip sensor 24 that measures the distance to the ground plane Is provided.

一方、基体10の正面の上部中央には、水平面レーザ光を照射する水平レーザ26が設けられている。また、基体10の正面の中央左右には、垂直面レーザ光を照射する垂直レーザ28、30がそれぞれ設けられている。
基体10の正面の下部中央には、水平面レーザ光および垂直面レーザ光の反射光を含む画像を撮影するカメラ32が設けられている。
On the other hand, a horizontal laser 26 that irradiates a horizontal laser beam is provided in the upper center of the front surface of the substrate 10. In addition, vertical lasers 28 and 30 for irradiating vertical surface laser light are respectively provided on the center left and right of the front surface of the substrate 10.
A camera 32 that captures an image including reflected light of a horizontal plane laser beam and a vertical plane laser beam is provided at the lower center of the front surface of the substrate 10.

水平レーザ26は、カメラ32で水平面レーザ光の反射光を含む画像が撮影できるように下方に所定角度傾けて設けられている。同様に、垂直レーザ28は、カメラ32で垂直面レーザ光の反射光を含む画像が撮影できるように右方に所定角度傾けて設けられ、垂直レーザ30は、左方に所定角度傾けて設けられている。
カメラ32の左右には、障害物を検出する障害物センサ34、36がそれぞれ設けられている。
The horizontal laser 26 is provided so as to be inclined downward by a predetermined angle so that the camera 32 can capture an image including the reflected light of the horizontal laser beam. Similarly, the vertical laser 28 is tilted to the right by a predetermined angle so that the camera 32 can capture an image including reflected light of the vertical plane laser beam, and the vertical laser 30 is tilted to the left by a predetermined angle. ing.
Obstacle sensors 34 and 36 for detecting an obstacle are provided on the left and right of the camera 32, respectively.

図4は、障害物センサ34、36の構成を示す図である。 障害物センサ34、36は、図4(a)に示すように、指向性の低い超音波測距センサを複数アレイ状に配列して構成することができる。また、図4(b)に示すように、指向性の高い赤外線測距センサを複数アレイ状に配列して構成することもできる。アレイ状に配列する構成に限らず、単体で構成してもよい。また、超音波測距センサまたは赤外線測距センサを複数平面上に配列したエリアセンサで構成してもよい。これにより、脚車輪型ロボット100の移動経路上に存在する障害物を大まかに検出することができる。   FIG. 4 is a diagram illustrating the configuration of the obstacle sensors 34 and 36. As shown in FIG. 4A, the obstacle sensors 34 and 36 can be configured by arranging a plurality of ultrasonic ranging sensors having low directivity in an array. Moreover, as shown in FIG.4 (b), it can also comprise by arrange | positioning a highly directional infrared ranging sensor in multiple array form. It is not limited to the configuration arranged in an array, and may be configured as a single unit. Moreover, you may comprise with the area sensor which arranged the ultrasonic ranging sensor or the infrared ranging sensor on the several plane. Thereby, the obstacle which exists on the movement path | route of the leg wheel type robot 100 can be roughly detected.

次に、脚車輪型ロボット100の移動制御システムを説明する。
図5は、脚車輪型ロボット100の移動制御システムを示すブロック図である。
各脚部12の第1〜第3回転関節14〜18には、図5に示すように、第1〜第3回転関節14〜18を回転駆動する関節モータ40がそれぞれ設けられている。各関節モータ40には、関節モータ40の回転角度位置を検出するエンコーダ42と、モータ指令信号およびエンコーダ42の出力信号に基づいて関節モータ40の駆動を制御するドライバ44が設けられている。
Next, the movement control system of the leg wheel type robot 100 will be described.
FIG. 5 is a block diagram showing a movement control system of the leg wheel type robot 100.
As shown in FIG. 5, joint motors 40 that rotationally drive the first to third rotary joints 14 to 18 are provided in the first to third rotary joints 14 to 18 of the respective leg portions 12. Each joint motor 40 is provided with an encoder 42 that detects the rotational angle position of the joint motor 40, and a driver 44 that controls the driving of the joint motor 40 based on the motor command signal and the output signal of the encoder 42.

各脚部12の車輪20の回転軸には、先述したように、車輪モータ50の回転駆動力(トルク)が伝達可能となるように、第3プーリ17a、第4プーリ17b及び第2ベルト17cを介して車輪モータ50がそれぞれ接続されている。各車輪モータ50には、車輪モータ50の回転角度位置を検出するエンコーダ52と、モータ指令信号およびエンコーダ52の出力信号に基づいて車輪モータ50の駆動を制御するドライバ54が設けられている。   As described above, the third pulley 17a, the fourth pulley 17b, and the second belt 17c are capable of transmitting the rotational driving force (torque) of the wheel motor 50 to the rotating shaft of the wheel 20 of each leg portion 12. The wheel motors 50 are respectively connected via Each wheel motor 50 is provided with an encoder 52 that detects the rotational angle position of the wheel motor 50, and a driver 54 that controls the driving of the wheel motor 50 based on the motor command signal and the output signal of the encoder 52.

脚車輪型ロボット100は、更に、CPU60と、脚車輪型ロボット100の姿勢を検出する3軸姿勢センサ70と、カメラ32の画像信号を処理するビジョンプロセッサ72と、外部のPC等と無線通信を行う無線通信部74と、ビジョンプロセッサ72および無線通信部74とCPU60の入出力を中継するハブ76と、警告音等を出力するスピーカ78とを有して構成される。   The leg wheel type robot 100 further performs wireless communication with the CPU 60, the three-axis attitude sensor 70 that detects the attitude of the leg wheel type robot 100, the vision processor 72 that processes the image signal of the camera 32, and an external PC. The wireless communication unit 74 is configured to include a vision processor 72, a wireless communication unit 74, a hub 76 that relays input / output of the CPU 60, and a speaker 78 that outputs warning sound and the like.

3軸姿勢センサ70は、ジャイロ若しくは加速度センサ、またはその両方を有し、地軸に対して脚車輪型ロボット100の姿勢の傾きを検出する。
CPU60は、モータ指令出力I/F61を介してドライバ44、54にモータ指令信号を出力し、角度取込I/F62を介してエンコーダ42、52の出力信号を入力する。また、センサ入力I/F63を介して、前方脚先センサ22、下方脚先センサ24、障害物センサ34および3軸姿勢センサ70からそれぞれセンサ信号を入力する。また、通信I/F64を介してハブ76と信号の入出力を行い、サウンド出力I/F65を介してスピーカ78に音声信号を出力する。
The triaxial attitude sensor 70 includes a gyroscope or an acceleration sensor, or both, and detects the inclination of the attitude of the leg wheel type robot 100 with respect to the ground axis.
The CPU 60 outputs motor command signals to the drivers 44 and 54 via the motor command output I / F 61 and inputs output signals of the encoders 42 and 52 via the angle fetch I / F 62. In addition, sensor signals are input from the front leg tip sensor 22, the lower leg tip sensor 24, the obstacle sensor 34, and the triaxial posture sensor 70 via the sensor input I / F 63, respectively. Further, signals are input / output to / from the hub 76 via the communication I / F 64, and an audio signal is output to the speaker 78 via the sound output I / F 65.

次に、CPU60で実行される処理を説明する。
CPU60は、ROM等の所定領域に格納されている制御プログラムを起動させ、その制御プログラムに従って、図6のフローチャートに示す車輪走行モードへの変換処理及び図8のフローチャートに示す昇降制御処理を実行する。
図6は、車輪走行モードへの変換処理を示すフローチャートである。また、図8は、昇降制御処理を示すフローチャートである。
Next, processing executed by the CPU 60 will be described.
The CPU 60 activates a control program stored in a predetermined area such as a ROM, and executes the conversion process to the wheel travel mode shown in the flowchart of FIG. 6 and the elevation control process shown in the flowchart of FIG. 8 according to the control program. .
FIG. 6 is a flowchart showing the conversion process to the wheel travel mode. FIG. 8 is a flowchart showing the elevation control process.

まず、図6に基づき、車輪走行モードへの変換処理を説明する。
車輪走行モードへの変換処理は、脚車輪型ロボット100の移動経路が整地であるときに実行される、車輪20の走行制御を行う処理であって、CPU60において実行されると、まず、図6に示すように、ステップS100に移行する。
ステップS100では、各エンコーダ42の出力信号を入力し、ステップS102に移行する。
First, based on FIG. 6, the conversion process to wheel driving mode is demonstrated.
The conversion process to the wheel travel mode is a process for performing the travel control of the wheel 20 that is executed when the movement path of the leg-wheel type robot 100 is leveling. As shown in FIG.
In step S100, the output signal of each encoder 42 is input, and the process proceeds to step S102.

ステップS102では、ステップS100で入力したエンコーダ42の出力信号から各脚部12の位置を算出し、ステップS104に移行する。
ステップS104では、ステップS102で算出した位置に基づき、各脚部12が車輪走行時の待避位置にあるか否かを判定し、待避位置にあると判定したとき(Yes)は、ステップS106に移行し、待避位置にないと判定したとき(No)は、ステップS112に移行する。
In step S102, the position of each leg 12 is calculated from the output signal of the encoder 42 input in step S100, and the process proceeds to step S104.
In step S104, based on the position calculated in step S102, it is determined whether or not each leg 12 is in the retracted position during wheel travel. If it is determined that the leg 12 is in the retracted position (Yes), the process proceeds to step S106. However, when it is determined that it is not in the retreat position (No), the process proceeds to step S112.

ここで、図7(a)は、脚部12が待避位置にある場合の一例を示す図であり、(b)は、脚部12が待避位置にない場合の一例を示す図である。
本実施の形態において、上記待避位置は、図7(a)に示すように、各脚部12が、車輪20の接地面より上方で且つ自重によって脚部12が自然落下しないバランスとなる位置である。なお、自然落下しないように、脚部12を支える支持部材を基体10に設けてもよい。各脚部12が、図7(a)に示す待避位置にある場合は、ステップS106に移行することになる。
Here, FIG. 7A is a diagram showing an example when the leg portion 12 is in the retracted position, and FIG. 7B is a diagram showing an example when the leg portion 12 is not in the retracted position.
In the present embodiment, as shown in FIG. 7A, the retracted position is a position where each leg 12 is above the ground contact surface of the wheel 20 and is in a balance where the leg 12 does not naturally fall by its own weight. is there. Note that a support member that supports the leg portion 12 may be provided on the base body 10 so as not to fall naturally. If each leg 12 is in the retracted position shown in FIG. 7A, the process proceeds to step S106.

一方、各脚部12が、図7(b)に示すように、車輪20の接地面よりも下方にある場合は、ステップS112に移行することになる。
ステップS106に移行した場合は、関節モータ40の回転を停止すべきモータ停止信号をドライバ44に出力し、ステップS108に移行する。これにより、関節モータ40への脚部12を駆動する電力の供給を停止する。
On the other hand, as shown in FIG.7 (b), when each leg part 12 exists below the contact surface of the wheel 20, it will transfer to step S112.
When the process proceeds to step S106, a motor stop signal for stopping the rotation of the joint motor 40 is output to the driver 44, and the process proceeds to step S108. Thereby, supply of the electric power which drives the leg part 12 to the joint motor 40 is stopped.

ステップS108では、各ドライバ54へのモータ指令信号を生成し、ステップS110に移行する。
ステップS110では、ステップS108で生成したモータ指令信号をドライバ54に出力し、一連の処理を終了して元の処理に復帰させる。
一方、ステップS104において、各脚部12が待避位置になくステップS112に移行した場合は、ステップS100で入力した各エンコーダ42の出力信号に基づき、各脚部12と待避位置との位置関係を算出し、ステップS114に移行する。
In step S108, a motor command signal to each driver 54 is generated, and the process proceeds to step S110.
In step S110, the motor command signal generated in step S108 is output to the driver 54, and the series of processes is terminated and the original process is restored.
On the other hand, if each leg 12 is not in the retracted position in step S104 and the process proceeds to step S112, the positional relationship between each leg 12 and the retracted position is calculated based on the output signal of each encoder 42 input in step S100. Then, the process proceeds to step S114.

ステップS114では、ステップS112で算出した位置関係に基づき、各ドライバ44へのモータ指令信号を生成し、ステップS116に移行する。
ステップS116では、各ドライバ44へのモータ指令信号を生成し、ステップS100に移行する。
次に、図8に基づき、昇降制御処理を説明する。
In step S114, a motor command signal for each driver 44 is generated based on the positional relationship calculated in step S112, and the process proceeds to step S116.
In step S116, a motor command signal to each driver 44 is generated, and the process proceeds to step S100.
Next, the elevation control process will be described with reference to FIG.

昇降制御処理は、脚車輪型ロボット100の移動経路上に段差(障害物)があったときに実行される、脚部12の昇降制御を行う処理であって、CPU60において実行されると、まず、図8に示すように、ステップS200に移行する。
ステップS200では、ビジョンプロセッサ72から画像を取り込み、ステップS202に移行する。
The up / down control process is a process for performing the up / down control of the leg portion 12 that is executed when there is a step (obstacle) on the movement path of the leg-wheel type robot 100. As shown in FIG. 8, the process proceeds to step S200.
In step S200, an image is captured from the vision processor 72, and the process proceeds to step S202.

ステップS202では、取り込んだ画像に基づいて光切断法により段差の特徴点を抽出する。
図9は、光切断法の原理を説明するための図である。
光切断法は、三角測量の原理により計測対象上の座標を求める計測法である。図7に計測座標系を示す。 計測対象上の座標P(x0、y0、z0)は、カメラ32の撮像素子上の任意の座標をPs(xi、yi、zi)とすると、下式(1)により求められる。
In step S202, step feature points are extracted by the light cutting method based on the captured image.
FIG. 9 is a diagram for explaining the principle of the light cutting method.
The light section method is a measurement method for obtaining coordinates on a measurement object based on the principle of triangulation. FIG. 7 shows the measurement coordinate system. The coordinates P (x0, y0, z0) on the measurement target are obtained by the following equation (1), where arbitrary coordinates on the image sensor of the camera 32 are Ps (xi, yi, zi).

Figure 2008260117
Figure 2008260117

次に、得られた三次元座標から、レーザ光の反射光の不連続点または屈曲点を段差の特徴点として抽出する。 図10は、段差にレーザ光を照射した状態およびカメラ32の撮像素子の画像を示す図である。   Next, from the obtained three-dimensional coordinates, a discontinuous point or a bent point of the reflected light of the laser beam is extracted as a feature point of the step. FIG. 10 is a diagram illustrating a state in which the step is irradiated with laser light and an image of the imaging element of the camera 32.

脚車輪型ロボット100の移動経路上に凸状の段差が存在すると、図10(a)左側に示すように、水平レーザ26から照射された水平面レーザ光が段差の壁面および床面で反射し、カメラ32により、その反射光を含む段差の画像が撮影される。その画像に対して画像処理を行うと、図10(a)右側に示すように、壁面での反射光エッジおよび床面での反射光エッジを抽出することができる。そして、そのエッジ画像および上式(1)により得られた三次元座標に基づいて、反射光エッジの不連続点に対応する実座標を算出することができる。   When there is a convex step on the movement path of the leg wheel type robot 100, as shown on the left side of FIG. 10 (a), the horizontal plane laser light emitted from the horizontal laser 26 is reflected on the wall surface and floor surface of the step, An image of a step including the reflected light is taken by the camera 32. When image processing is performed on the image, a reflected light edge on the wall surface and a reflected light edge on the floor surface can be extracted as shown on the right side of FIG. Then, based on the edge image and the three-dimensional coordinates obtained by the above equation (1), the actual coordinates corresponding to the discontinuous points of the reflected light edge can be calculated.

また、図10(b)左側に示すように、垂直レーザ28から照射された垂直面レーザ光が段差の壁面および上面で反射し、カメラ32により、その反射光を含む段差の画像が撮影される。その画像に対して画像処理を行うと、図10(b)右側に示すように、壁面での反射光エッジおよび上面での反射光エッジを抽出することができる。また、垂直レーザ30についても同様であり、図10(c)右側に示すように、壁面での反射光エッジおよび上面での反射光エッジを抽出することができる。そして、それらエッジ画像および上式(1)により得られた三次元座標に基づいて、反射光エッジの屈曲点に対する実座標を算出することができる。   As shown on the left side of FIG. 10B, the vertical surface laser light emitted from the vertical laser 28 is reflected by the wall surface and the upper surface of the step, and the camera 32 captures an image of the step including the reflected light. . When image processing is performed on the image, a reflected light edge on the wall surface and a reflected light edge on the upper surface can be extracted as shown on the right side of FIG. The same applies to the vertical laser 30. As shown on the right side of FIG. 10C, the reflected light edge on the wall surface and the reflected light edge on the upper surface can be extracted. Based on these edge images and the three-dimensional coordinates obtained by the above equation (1), the actual coordinates for the bent point of the reflected light edge can be calculated.

図8に戻り、次いで、ステップS204に移行して、抽出した特徴点に基づいて段差の幅を算出し、ステップS206に移行する。
ステップS206、抽出した特徴点に基づいて段差の上面の実座標を算出し、ステップS208に移行する。
ステップS208では、算出した段差の幅および上面の実座標、並びに3軸姿勢センサ70のセンサ信号に基づいて逆運動学計算および重心計算を行い、ステップS210に移行する。
Returning to FIG. 8, the process proceeds to step S <b> 204, the step width is calculated based on the extracted feature points, and the process proceeds to step S <b> 206.
In step S206, the actual coordinates of the upper surface of the step are calculated based on the extracted feature points, and the process proceeds to step S208.
In step S208, inverse kinematics calculation and centroid calculation are performed based on the calculated step width and actual coordinates of the upper surface and the sensor signal of the triaxial posture sensor 70, and the process proceeds to step S210.

ステップS210では、ステップS208の計算結果に基づいて脚先(第2リンク19の他端部)の着地位置を決定し、ステップS212に移行する。
ステップS212では、車輪モータ50の回転を停止すべきモータ停止信号をドライバ54に出力し、ステップS214に移行する。これにより、車輪モータ50への車輪20を駆動する電力の供給を停止する。
In step S210, the landing position of the leg tip (the other end of the second link 19) is determined based on the calculation result of step S208, and the process proceeds to step S212.
In step S212, a motor stop signal for stopping the rotation of the wheel motor 50 is output to the driver 54, and the process proceeds to step S214. Thereby, supply of the electric power which drives the wheel 20 to the wheel motor 50 is stopped.

ステップS214では、前方脚先センサ22および下方脚先センサ24からそれぞれセンサ信号を入力し、ステップS216に移行する。
ステップS216では、ステップS214で入力した前方脚先センサ22のセンサ信号に基づいて壁面までの距離を算出し、ステップS218に移行する。
ステップS218では、ステップS214で入力した下方脚先センサ24のセンサ信号に基づいて脚先と上面との位置関係を算出し、ステップS220に移行する。
In step S214, sensor signals are input from the front leg tip sensor 22 and the lower leg tip sensor 24, respectively, and the process proceeds to step S216.
In step S216, the distance to the wall surface is calculated based on the sensor signal of the front leg tip sensor 22 input in step S214, and the process proceeds to step S218.
In step S218, the positional relationship between the leg tip and the upper surface is calculated based on the sensor signal of the lower leg tip sensor 24 input in step S214, and the process proceeds to step S220.

ステップS220では、決定した着地位置および算出した両距離に基づいてドライバ44へのモータ指令信号を生成し、ステップS222に移行する。
ステップS222では、ステップS220で生成したモータ指令信号をドライバ44に出力し、ステップS224に移行する。
ステップS224では、脚先が着地位置に着地したか否かを判定し、脚先が着地したと判定したとき(Yes)は、一連の処理を終了して元の処理に復帰させる。 一方、ステップS224で、脚先が着地しないと判定したとき(No)は、ステップS112に移行する。
In step S220, a motor command signal to the driver 44 is generated based on the determined landing position and the calculated both distances, and the process proceeds to step S222.
In step S222, the motor command signal generated in step S220 is output to the driver 44, and the process proceeds to step S224.
In step S224, it is determined whether or not the leg tip has landed at the landing position. If it is determined that the leg tip has landed (Yes), the series of processes is terminated and the process returns to the original process. On the other hand, when it is determined in step S224 that the leg tip does not land (No), the process proceeds to step S112.

次に、図11〜図12に基づき、本実施の形態の動作を説明する。
ここで、図11(a)〜(e)は、脚車輪型ロボット100の段差を乗り越えるときの移動動作の一例を示す図である。また、図12は、高い段差を乗り越えるときの移動動作の一例を示す図である。
脚車輪型ロボット100は、障害物センサ34、36のセンサ信号に基づき、自己の移動経路上に何も障害物が存在しないと判断すると、車輪走行モードへの変換処理を開始し、車輪20のみを駆動して移動するモード(以下、車輪走行モードと称す)に移行する。
Next, the operation of the present embodiment will be described with reference to FIGS.
Here, FIGS. 11A to 11E are diagrams illustrating an example of the movement operation when the step over the leg wheel type robot 100 is overcome. FIG. 12 is a diagram illustrating an example of the movement operation when overcoming a high step.
When the leg-wheel type robot 100 determines that there is no obstacle on its movement path based on the sensor signals of the obstacle sensors 34 and 36, the leg-wheel type robot 100 starts the conversion process to the wheel traveling mode, and only the wheel 20 is detected. It shifts to the mode (henceforth wheel driving mode) which drives and moves.

車輪走行モードに移行すると、各脚部12を駆動する関節モータ40に対応するエンコーダ42の出力信号を、角度取込I/F62を介して入力し(ステップS100)、入力した出力信号に基づき各脚部12の位置を算出する(ステップS102)。具体的に、エンコーダ42の出力信号から第1〜第3関節14〜18の回転角度位置が解るので、この回転角度位置から各脚部12の現在位置を把握する。   When the wheel travel mode is entered, an output signal of the encoder 42 corresponding to the joint motor 40 that drives each leg 12 is input via the angle capture I / F 62 (step S100), and each output signal is based on the input output signal. The position of the leg 12 is calculated (step S102). Specifically, since the rotation angle positions of the first to third joints 14 to 18 are obtained from the output signal of the encoder 42, the current position of each leg 12 is grasped from this rotation angle position.

各脚部12の位置が算出されると、各脚部12の位置情報と、予め決定された待避位置の位置情報とを比較し、当該比較結果から、各脚部12が待避位置にあるか否かを判断する(ステップS104)。
そして、4本の脚部12のうち、1本でも待避位置にないものがあるときは(ステップS104の「No」の分岐)、待避位置にない脚部12の現在の回転角度位置と、当該脚部12に対応する待避位置の回転角度位置との差分(位置関係)を算出する(ステップS112)。
When the position of each leg portion 12 is calculated, the position information of each leg portion 12 is compared with the position information of a predetermined retracted position. From the comparison result, whether each leg 12 is in the retracted position. It is determined whether or not (step S104).
If there is one of the four legs 12 that is not in the retracted position ("No" branch in step S104), the current rotational angle position of the leg 12 that is not in the retracted position, and The difference (positional relationship) between the retraction position and the rotation angle position corresponding to the leg 12 is calculated (step S112).

位置関係(差分)が算出されると、差分を「0」にする回転方向に関節モータ40の回転軸を回転させるようにモータ指令信号を生成し(ステップS114)、当該生成したモータ指令信号を、該当の関節モータ40に対応するドライバ44に出力する(ステップS116)。これにより、該当の脚部12を構成する第1リンク13及び第2リンク19は、待避位置に向かって各回転関節を軸に回動する。   When the positional relationship (difference) is calculated, a motor command signal is generated so as to rotate the rotation shaft of the joint motor 40 in the rotation direction in which the difference is set to “0” (step S114), and the generated motor command signal is Then, it outputs to the driver 44 corresponding to the relevant joint motor 40 (step S116). Thereby, the 1st link 13 and the 2nd link 19 which comprise the applicable leg part 12 rotate centering on each rotation joint toward a retracted position.

上記のようにして各脚部12が待避位置に移動したときは(ステップS104の「Yes」の分岐)、次に、各脚部12を駆動する各関節モータ40に対応するドライバ44に対して、関節モータ40を停止させるモータ停止信号を出力する(ステップS106)。これにより、各脚部12の各関節モータ40に対する駆動電力の供給が断たれる。
各関節モータ40を停止させると、次に、脚車輪型ロボット100を移動方向に車輪走行させるための各車輪モータ50のドライバ54に対するモータ指令信号を生成し(ステップS108)、当該生成したモータ指令信号を、各ドライバ54に出力する(ステップS110)。これにより、各車輪20が回転駆動し、脚車輪型ロボット100を移動方向に移動させる。
When each leg 12 has moved to the retracted position as described above ("Yes" branch in step S104), the driver 44 corresponding to each joint motor 40 that drives each leg 12 is then operated. Then, a motor stop signal for stopping the joint motor 40 is output (step S106). Thereby, the supply of drive power to each joint motor 40 of each leg 12 is cut off.
When each joint motor 40 is stopped, next, a motor command signal for the driver 54 of each wheel motor 50 for causing the leg wheel type robot 100 to travel in the moving direction is generated (step S108), and the generated motor command is generated. A signal is output to each driver 54 (step S110). Thereby, each wheel 20 rotates and moves the leg wheel type robot 100 in the moving direction.

一方、上記車輪走行モードで移動時に、図11(a)に示すように、脚車輪型ロボット100の移動経路上に凸状の段差(障害物)が出現し、障害物センサ34、36のセンサ信号に基づき、前記段差(障害物)の存在が検出されると、昇降制御処理を開始し、各脚部12のみを駆動して移動するモード(以下、脚部移動モードと称す)に移行する。
脚部移動モードに移行すると、まず、水平レーザ26から照射された水平面レーザ光、および垂直レーザ28、30から照射された垂直面レーザ光がそれぞれ段差で反射し、カメラ32により、それら反射光を含む画像が撮影される。次いで、カメラ32で撮影された画像が取り込まれ(ステップS200)、取り込まれた画像から段差の特徴点が抽出される(ステップS202)。そして、抽出された特徴点に基づいて段差の幅及び段差上面の実座標が算出され(ステップS204〜S208)、算出された段差の幅及び段差上面の実座標に基づいて脚先の着地位置が決定される(ステップS210)。
On the other hand, when moving in the wheel travel mode, as shown in FIG. 11A, a convex step (obstacle) appears on the movement path of the leg wheel type robot 100, and the sensors of the obstacle sensors 34 and 36 are detected. When the presence of the step (obstacle) is detected based on the signal, the elevator control process is started, and the mode shifts to a mode in which only each leg 12 is driven and moved (hereinafter referred to as a leg moving mode). .
When shifting to the leg movement mode, first, the horizontal laser beam emitted from the horizontal laser 26 and the vertical plane laser beam emitted from the vertical lasers 28 and 30 are reflected by steps, and the reflected light is reflected by the camera 32. The containing image is taken. Next, an image photographed by the camera 32 is captured (step S200), and step feature points are extracted from the captured image (step S202). Then, the step width and the actual coordinates of the upper surface of the step are calculated based on the extracted feature points (steps S204 to S208), and the landing position of the leg tip is determined based on the calculated width of the step and the actual coordinates of the upper surface of the step. It is determined (step S210).

着地位置が決定されると、各車輪20を駆動する車輪モータ50に対応するドライバ54に対して、車輪モータ50を停止させるモータ停止信号を出力する(ステップS212)。これにより、各車輪モータ50に対する駆動電力の供給が断たれる。
更に、脚先センサ22、24からそれぞれセンサ信号が入力され(ステップS214)、壁面までの距離及び脚先と段差上面との位置関係が算出される(ステップS216〜S218)。そして、決定された着地位置および算出された両距離に基づいてモータ指令信号が生成され(ステップS220)、生成されたモータ指令信号がドライバ44に出力される(ステップS222)。これにより、第1〜第3回転関節14〜18が駆動し、第1リンク13及び第2リンク19が回動して、図11(b)〜(d)に示すように、脚車輪型ロボット100が姿勢を適切に保ちつつ段差を乗り越える。また、状況によっては段差を回避、停止する。従って、脚型ロボットと同様に段差への適応性が高い。
When the landing position is determined, a motor stop signal for stopping the wheel motor 50 is output to the driver 54 corresponding to the wheel motor 50 that drives each wheel 20 (step S212). Thereby, the supply of driving power to each wheel motor 50 is cut off.
Further, sensor signals are respectively input from the leg tip sensors 22 and 24 (step S214), and the distance to the wall surface and the positional relationship between the leg tip and the upper surface of the step are calculated (steps S216 to S218). Then, a motor command signal is generated based on the determined landing position and the calculated both distances (step S220), and the generated motor command signal is output to the driver 44 (step S222). As a result, the first to third rotary joints 14 to 18 are driven, and the first link 13 and the second link 19 are rotated. As shown in FIGS. 100 gets over the step while keeping the posture properly. Also, depending on the situation, the step is avoided and stopped. Therefore, the adaptability to a level difference is high like a legged robot.

段差を乗り越えると、移動系路上に他の段差(障害物)が存在しない場合は、図11(e)に示すように、再び車輪走行モードへと移行して、車輪20のみによる走行移動を行う。つまり、障害物のない整地などにおいては、車輪20のみによる走行移動を行い、段差(障害物)に対しては、脚部12のみを用いた歩行移動を行って乗り越える。そして、段差を乗り越えると再び車輪のみの走行移動を行う。   When overcoming the step, if there is no other step (obstacle) on the moving road, as shown in FIG. 11 (e), the vehicle shifts to the wheel travel mode again and travels only by the wheel 20. . That is, on leveling with no obstacles, the traveling movement is performed only by the wheels 20, and the steps (obstacles) are moved by walking using only the legs 12. And if it gets over a level | step difference, the traveling movement of only a wheel will be performed again.

また、本実施の形態の脚車輪型ロボット100は、移動系路上に、図12に示すような、脚部12を使って乗り越える際に後ろ脚が伸びきってしまうような凸状の高い段差がある場合は、積極的に車輪20を段差に接触させるように、各回転関節の関節モータ40を制御する。これにより、重心位置が低い構成となっていることに加え、段差との接点が増えるため、姿勢を安定に保ちながら段差を乗り越えることが可能となる。このとき、更に段差に接触している車輪20の車輪モータ50を駆動制御することで、段差を乗り越える方向に力を加えることも可能であり、これにより、より確実に段差を乗り越えることが可能となる。また、できる限り基体10を小さく構成することにより、更に、段差を乗り越えるときの安定感を増すことが可能である。   Further, the leg-wheel type robot 100 of the present embodiment has a convex high step on the moving path, as shown in FIG. 12, such that the rear leg extends completely when the leg portion 12 is used. In some cases, the joint motor 40 of each rotary joint is controlled so as to positively bring the wheel 20 into contact with the step. As a result, in addition to the low center of gravity, the number of contact points with the step increases, so that the step can be overcome while maintaining a stable posture. At this time, it is also possible to apply force in the direction over the step by driving and controlling the wheel motor 50 of the wheel 20 that is in contact with the step, which makes it possible to more reliably get over the step. Become. Further, by making the base 10 as small as possible, it is possible to further increase the sense of stability when overcoming the step.

また、本実施の形態の脚車輪型ロボット100は、移動経路が傾斜を有する坂道などである場合に、該坂道を車輪のみで走行するときに、各回転関節の関節モータ40を制御して、待避位置に移動させた脚部12の姿勢を変更して、脚車輪型ロボット100の重心位置を変化させ、より安定して走行できるようにすることが可能である。
以上、脚車輪型ロボット100は、その脚部12を構成する脚車輪装置11を、車輪20を、第1リンク13の基体側端部に設けられた第2回転関節16と一体的に設けると共に、第3プーリ17a、第2ベルト17c及び第3プーリ17bを介して車輪モータ50を車輪20の近傍に配設する構成とした。
Further, the leg-wheel type robot 100 according to the present embodiment controls the joint motor 40 of each rotary joint when traveling on the slope only with the wheels when the movement route is an inclined slope or the like, It is possible to change the posture of the leg 12 moved to the retracted position and change the position of the center of gravity of the leg-wheel type robot 100 so that it can run more stably.
As described above, the leg wheel type robot 100 includes the leg wheel device 11 constituting the leg portion 12 and the wheel 20 integrally with the second rotary joint 16 provided at the base side end portion of the first link 13. The wheel motor 50 is disposed in the vicinity of the wheel 20 via the third pulley 17a, the second belt 17c, and the third pulley 17b.

これにより、車輪20及び車輪モータ50が基体10の近傍に配設されることになるので、脚車輪型ロボットの重心位置を低くすることが可能である。また、従来の脚先に車輪を設けていた構成と比較して、脚先のイナーシャを小さくすることが可能である。
また、車輪20のみを用いて移動を行うときに、車輪20の接地面よりも下に位置する脚部12を、接地面よりも上の待避位置に移動させることが可能である。
Thereby, since the wheel 20 and the wheel motor 50 are disposed in the vicinity of the base body 10, it is possible to lower the position of the center of gravity of the leg wheel type robot. In addition, the inertia of the leg tip can be reduced as compared with the conventional configuration in which the wheel is provided on the leg tip.
Further, when the movement is performed using only the wheel 20, the leg portion 12 positioned below the ground contact surface of the wheel 20 can be moved to a retracted position above the ground contact surface.

これにより、車輪20のみで走行時に、脚部20が走行の妨げになるのを確実に防ぐことが可能である。
また、車輪20のみを用いて移動を行うときに、脚部12を駆動する各関節モータ40に対して、駆動電力の供給を断つ(サーボオフする)ことが可能である。
これにより、各関節モータ40におけるエネルギー消費量を節減することが可能である。
Thereby, it is possible to reliably prevent the leg portion 20 from obstructing traveling when traveling with only the wheel 20.
Further, when moving using only the wheels 20, it is possible to cut off the supply of drive power (servo-off) to each joint motor 40 that drives the leg 12.
Thereby, energy consumption in each joint motor 40 can be reduced.

また、脚部12のみを用いて移動を行うときに、車輪20を駆動する各車輪モータ50に対して、駆動電力の供給を断つ(サーボオフする)ことが可能である。
これにより、各車輪モータ50におけるエネルギー消費量を節減することが可能である。
また、脚部12を用いて段差を乗り越えるときに、段差に車輪20を接触させながら乗り越えるように各間接モータ40を駆動制御することが可能である。
Further, when the movement is performed using only the leg portion 12, it is possible to cut off the supply of drive power (servo-off) to each wheel motor 50 that drives the wheel 20.
Thereby, energy consumption in each wheel motor 50 can be reduced.
Further, when the leg portion 12 is used to get over the step, each indirect motor 40 can be driven and controlled so as to get over the wheel 20 while contacting the step.

これにより、従来の脚先に車輪の設けられたロボットでは乗り越えられなかった比較的高い段差に対しても、車輪20の接触により接点を増やすことで、乗り越えることが可能である。
また、坂道などの平地ではない移動経路を車輪走行するときに、待避位置に移動した脚部12の姿勢を変更して、脚車輪型ロボット100の重心位置を変化させることができる。
As a result, even a relatively high level difference that cannot be overcome by a robot with wheels provided on the conventional leg tips can be overcome by increasing the number of contacts by contact with the wheels 20.
In addition, when the vehicle travels on a moving path that is not flat, such as a hill, the posture of the leg 12 moved to the retracted position can be changed to change the position of the center of gravity of the leg-wheel type robot 100.

これにより、坂道などにおいて、脚車輪型ロボット100に、より安定した車輪走行を行わせることが可能である。
更に、本実施の形態では、レーザ26〜30およびカメラ32からなる画像センサと、脚先センサ22、24とを備え、カメラ32で撮影した画像および脚先センサ22、24で測定した距離に基づいて階段等の段差を認識し、その認識結果に基づいて関節モータ40を制御する。
Thereby, it is possible to make the leg wheel type robot 100 perform more stable wheel running on a slope.
Further, in the present embodiment, an image sensor including the lasers 26 to 30 and the camera 32 and the leg tip sensors 22 and 24 are provided. Based on the image captured by the camera 32 and the distance measured by the leg tip sensors 22 and 24. Then, a step such as a staircase is recognized, and the joint motor 40 is controlled based on the recognition result.

これにより、画像センサおよび脚先センサ22、24を用いて未知の段差を認識しながら脚部12の昇降制御を行うので、未知の段差に対して高い適応性を実現することができる。また、人が活動する環境での動作を行えるので、人と一緒に行動する用途に用いられるホームロボット、パーソナルロボット等に好適である。
更に、本実施の形態では、画像センサを基体10の正面に設け、脚先センサ22、24を脚部12の先端に設けた。
Thereby, since the raising / lowering control of the leg part 12 is performed while recognizing the unknown step using the image sensor and the leg tip sensors 22 and 24, high adaptability to the unknown step can be realized. In addition, since it can operate in an environment where people are active, it is suitable for home robots, personal robots, and the like that are used for acting with people.
Further, in the present embodiment, the image sensor is provided on the front surface of the base body 10, and the leg tip sensors 22 and 24 are provided on the distal ends of the leg portions 12.

これにより、脚車輪型ロボット100の移動経路上に存在する障害物を広い視野で検出することができるとともに、階段昇降時に車輪20と階段の距離を精度よく測定することができる。
更に、本実施の形態では、移動方向に対して所定角度にレーザ光を照射するレーザ26〜30と、レーザ26〜30から所定距離隔てて設けられかつレーザ光の反射光を含む画像を撮像するカメラ32とを備え、カメラ32で撮影した画像に基づいて光切断法により階段等の段差を認識する。
This makes it possible to detect an obstacle present on the movement path of the leg wheel type robot 100 with a wide field of view and to accurately measure the distance between the wheel 20 and the stairs when the stairs are raised and lowered.
Furthermore, in this embodiment, the lasers 26 to 30 that irradiate the laser beam at a predetermined angle with respect to the moving direction, and an image that is provided at a predetermined distance from the lasers 26 to 30 and that includes the reflected light of the laser beam are captured. A camera 32 is provided, and a step such as a staircase is recognized by a light cutting method based on an image photographed by the camera 32.

これにより、段差の特徴のうち脚部12の昇降制御に有効な特徴を検出することができるので、未知の段差に対してさらに高い適応性を実現することができる。
更に、本実施の形態では、水平レーザ26から照射された水平面レーザ光の反射光の撮影状態に基づいて段差の幅を算出し、垂直レーザ28、30から照射された2つの垂直面レーザ光の反射光の撮影状態に基づいて断裁の段差上面の実座標を算出する。
Thereby, since the characteristic effective for the raising / lowering control of the leg part 12 can be detected among the characteristics of the step, it is possible to realize higher adaptability to the unknown step.
Furthermore, in the present embodiment, the width of the step is calculated based on the imaging state of the reflected light of the horizontal plane laser light emitted from the horizontal laser 26, and the two vertical surface laser lights emitted from the vertical lasers 28 and 30 are calculated. Based on the imaging state of the reflected light, the actual coordinates of the upper surface of the cut step are calculated.

これにより、段差の特徴のうち脚部12の昇降制御にさらに有効な特徴を検出することができるので、未知の階段に対してさらに高い適応性を実現することができる。
更に、本実施の形態では、前方脚先センサ22の測定結果に基づいて段差の壁面までの距離を算出し、下方脚先センサ24の測定結果に基づいて車輪20と段差上面との位置関係を算出する。
As a result, it is possible to detect a feature that is more effective for raising and lowering the leg portion 12 among the features of the step, and thus it is possible to realize higher adaptability to an unknown staircase.
Further, in the present embodiment, the distance to the wall surface of the step is calculated based on the measurement result of the front leg tip sensor 22, and the positional relationship between the wheel 20 and the upper surface of the step is determined based on the measurement result of the lower leg tip sensor 24. calculate.

これにより、段差の特徴のうち脚部12の昇降制御にさらに有効な特徴を検出することができるので、未知の段差(例えば、様々な形状の階段など)に対してさらに高い適応性を実現することができる。
上記実施の形態において、脚車輪装置11は、発明8及び9の脚車輪装置に対応し、車輪20は、発明1〜5並びに7〜9の車輪に対応し、脚部12は、発明1〜9の脚部に対応する。
As a result, it is possible to detect a feature that is more effective for raising / lowering control of the leg portion 12 among the features of the step, thereby realizing higher adaptability to an unknown step (for example, various steps). be able to.
In the said embodiment, the leg wheel apparatus 11 respond | corresponds to the leg wheel apparatus of invention 8 and 9, the wheel 20 respond | corresponds to the wheel of invention 1-5 and 7-9, and the leg part 12 is invention 1. Corresponds to 9 legs.

また、上記実施の形態において、関節モータ40は、発明1、8及び9のアクチュエータ、並びに発明2〜5及び7の第1アクチュエータに対応し、車輪モータ50は、発明1、8及び9のアクチュエータ、並びに発明2及び6の第2アクチュエータに対応し、ステップS100〜S116及びステップS200〜S224は、発明1並びに3〜7の制御手段に対応し、各回転関節の関節モータ40を制御して、待避位置に移動させた脚部12の姿勢を変更して、脚車輪型ロボット100の重心位置を変化させる処理は、発明11の脚部姿勢変更手段に対応する。   Moreover, in the said embodiment, the joint motor 40 respond | corresponds to the actuator of invention 1, 8 and 9, and the 1st actuator of invention 2-5 and 7, and the wheel motor 50 is an actuator of invention 1, 8 and 9. Corresponding to the second actuators of the inventions 2 and 6, steps S100 to S116 and steps S200 to S224 correspond to the control means of the inventions 1 and 3 to 7, controlling the joint motor 40 of each rotary joint, The process of changing the posture of the leg 12 moved to the retracted position and changing the position of the center of gravity of the leg wheel type robot 100 corresponds to the leg posture changing means of the eleventh aspect.

なお、上記実施の形態においては、本発明に係る脚車輪型ロボットを、凸状の段差を乗り越える場合について適用したが、これに限らず、凸状の段差以外の段差を乗り越える場合についても同様に適用することができる。
また、上記実施の形態においては、車輪20のみを用いた移動制御において、待避位置に各脚部12を移動後に、当該各脚部12の関節モータ40への供給電力を断つ制御を行う構成としたが、これに限らず、各脚部12が自重によって落下してしまう構成の場合は、落下を防ぐのに必要な最小限の駆動電力を各関節モータ40に供給する構成としても良い。
In the above embodiment, the leg-wheel type robot according to the present invention is applied to the case of overcoming the convex step. However, the present invention is not limited to this, and the same applies to the case of overcoming the step other than the convex step. Can be applied.
Moreover, in the said embodiment, in the movement control using only the wheel 20, after moving each leg part 12 to a retracted position, control which cuts off the electric power supplied to the joint motor 40 of each said leg part 12 and However, the present invention is not limited to this, and in the case of a configuration in which each leg 12 falls due to its own weight, a configuration may be adopted in which the minimum drive power necessary to prevent the fall is supplied to each joint motor 40.

また、上記実施の形態においては、本発明に係る脚車輪型ロボットを、2本の前脚部及び2本の後脚部の計4本の脚部を有する構成としたが、これに限らず、2本(一対)あるいは6本(3対)以上を有する構成としても良い。但し、車輪のみでの走行移動時に脚部を車輪の接地部よりも高い位置(または車輪走行の妨げにならない位置)に移動できる構成であることが好ましい。   Moreover, in the said embodiment, although the leg-wheel type robot which concerns on this invention was set as the structure which has a total of four leg parts of two front leg parts and two rear leg parts, it is not restricted to this, It is good also as a structure which has 2 (pair) or 6 (3 pairs) or more. However, it is preferable that the leg portion can be moved to a position higher than the ground contact portion of the wheel (or a position that does not hinder wheel traveling) during traveling movement using only the wheels.

また、上記実施の形態においては、各車輪20に対して車輪モータ50を設ける構成(4輪駆動)としたが、これに限らず、2本の後脚部又は2本の前脚部のいずれか一方に設ける構成としてもよい。これにより、モータ2つ分の重量を減らすことが可能となる。
また、上記実施の形態においては、車輪20のみを用いた移動時において、4本の脚部12の全ての車輪モータ50を駆動制御して移動を行う構成としたが、これに限らず、環境に応じて、前方の2輪又は後方の2輪のいずれか一方を駆動する車輪モータ50のみを駆動して走行を行うことができる構成としても良い。
Moreover, in the said embodiment, although it was set as the structure which provides the wheel motor 50 with respect to each wheel 20 (4 wheel drive), it is not restricted to this, either of two rear leg parts or two front leg parts It is good also as a structure provided in one side. As a result, the weight of two motors can be reduced.
Moreover, in the said embodiment, it was set as the structure which drive-controls all the wheel motors 50 of the four leg parts 12 at the time of the movement using only the wheel 20, but it is not restricted to this, Environment Accordingly, the vehicle may be driven by driving only the wheel motor 50 that drives either the front two wheels or the rear two wheels.

また、上記実施の形態においては、第1及び第2プーリ16a及び16b並びに第1ベルト16cを介して、関節モータ40の第1の回転軸の回転駆動力を、シャフト15及び第2ギアボックス16dに伝達する構成としたが、これに限らず、複数の歯車を介して、第1の回転軸の回転駆動力を、シャフト15及び第2ギアボックス16dへと伝達する構成としても良い。   In the above embodiment, the rotational driving force of the first rotating shaft of the joint motor 40 is converted to the shaft 15 and the second gear box 16d via the first and second pulleys 16a and 16b and the first belt 16c. However, the present invention is not limited to this, and the configuration may be such that the rotational driving force of the first rotating shaft is transmitted to the shaft 15 and the second gear box 16d via a plurality of gears.

また、上記実施の形態においては、第3及び第4プーリ17a及び17b並びに第2ベルト17cを介して、車輪モータ50の第2の回転軸の回転駆動力を、車輪20に伝達する構成としたが、これに限らず、複数の歯車を介して、第2の回転軸の回転駆動力を、車輪20へと伝達する構成としても良い。
〔第2の実施の形態〕
次に、本発明の第2の実施の形態を図面を参照しながら説明する。図13ないし図31は、本発明に係る脚車輪型ロボット、物体認識装置および物体認識方法の第2の実施の形態を示す図である。
Moreover, in the said embodiment, it was set as the structure which transmits the rotational driving force of the 2nd rotating shaft of the wheel motor 50 to the wheel 20 via the 3rd and 4th pulleys 17a and 17b and the 2nd belt 17c. However, the configuration is not limited to this, and the rotational driving force of the second rotating shaft may be transmitted to the wheels 20 via a plurality of gears.
[Second Embodiment]
Next, a second embodiment of the present invention will be described with reference to the drawings. 13 to 31 are diagrams showing a second embodiment of the leg-wheel type robot, the object recognition apparatus, and the object recognition method according to the present invention.

まず、本発明を適用する脚車輪型ロボット100の構成を説明する。
図13は、脚車輪型ロボット100の正面図である。
図14は、脚車輪型ロボット100の側面図である。
脚車輪型ロボット100は、図13および図14に示すように、基体10と、基体10に連結された4つの脚部12とを有して構成されている。
First, the configuration of a leg wheel type robot 100 to which the present invention is applied will be described.
FIG. 13 is a front view of the leg wheel type robot 100.
FIG. 14 is a side view of the leg wheel type robot 100.
As shown in FIGS. 13 and 14, the leg-wheel type robot 100 includes a base body 10 and four leg portions 12 connected to the base body 10.

基体10の前部には、2本の脚部12が回転関節14を介して左右対称の位置に連結されている。また、基体10の後部には、2本の脚部12が回転関節14を介して左右対称の位置に連結されている。回転関節14は、脚車輪型ロボット100の底面と直交する方向を軸方向として回転する。すなわち、ヨー軸回りに回転する。
各脚部12には、2つの回転関節16、18が設けられている。回転関節14は、下方を軸方向として回転し、回転関節16、18は、回転関節14が図13の状態であるときは、脚車輪型ロボット100の側面と直交する方向を軸方向として回転する。すなわち、回転関節14が図13の状態であるときは、ピッチ軸回りに回転し、回転関節14が図13の状態から90度回転した状態であるときは、ロール軸回りに回転する。したがって、脚部12は、それぞれ3自由度を有する。
Two legs 12 are connected to the front portion of the base body 10 via a rotary joint 14 at symmetrical positions. In addition, two legs 12 are connected to the rear part of the base body 10 via a rotary joint 14 at symmetrical positions. The rotary joint 14 rotates with the direction orthogonal to the bottom surface of the leg wheel type robot 100 as an axial direction. That is, it rotates around the yaw axis.
Each leg portion 12 is provided with two rotary joints 16 and 18. The rotary joint 14 rotates with the lower side as the axial direction, and the rotary joints 16 and 18 rotate with the direction orthogonal to the side surface of the leg wheel type robot 100 as the axial direction when the rotary joint 14 is in the state of FIG. . That is, when the rotary joint 14 is in the state of FIG. 13, it rotates about the pitch axis, and when the rotary joint 14 is rotated 90 degrees from the state of FIG. 13, it rotates about the roll axis. Therefore, each leg 12 has three degrees of freedom.

各脚部12の先端には、回転関節16、18と軸方向を同一にして駆動輪20が回転可能に設けられている。
各脚部12の先端には、脚車輪型ロボット100の移動経路上に存在する物体までの距離を測定する前方脚先センサ22と、接地面までの距離を測定する下方脚先センサ24とが設けられている。
A driving wheel 20 is rotatably provided at the tip of each leg 12 with the same axial direction as the rotary joints 16 and 18.
At the tip of each leg 12, a front leg tip sensor 22 for measuring the distance to an object existing on the movement path of the leg wheel type robot 100 and a lower leg tip sensor 24 for measuring the distance to the ground plane are provided. Is provided.

一方、基体10の正面には、3次元距離測定装置200が取り付けられている。3次元距離測定装置200の座標系(以下、センサ座標系という。)は、基体10の奥行き(前後の長さ)方向をxrs軸、基体10の幅(左右の長さ)方向をyrs軸、基体10の高さ方向をzrs軸とし、xrs軸は基体10の前方を、yrs軸は基体10の右方を、zrs軸は基体10の上方をそれぞれ正の方向とする。   On the other hand, a three-dimensional distance measuring device 200 is attached to the front surface of the base body 10. The coordinate system (hereinafter referred to as a sensor coordinate system) of the three-dimensional distance measuring apparatus 200 has a depth (front-rear length) direction of the base body 10 as an xrs axis, and a width (left-right length) direction of the base body 10 as a yrs axis. The height direction of the substrate 10 is the zrs axis, the xrs axis is the front of the substrate 10, the yrs axis is the right side of the substrate 10, and the zrs axis is the positive direction above the substrate 10.

次に、3次元距離測定装置200の外観構造を説明する。
図15は、3次元距離測定装置200の正面図(yrs−zrs平面)である。
図16は、3次元距離測定装置200の側面図(xrs−zrs平面)である。
図17は、3次元距離測定装置200の上面図(yrs−xrs平面)である。
3次元距離測定装置200は、図15ないし図17に示すように、下側支持板204と、下側支持板204の上方に設けられた上側支持板206と、上側支持板206の上方に設けられたカメラ支持板208とを有して構成されている。下側支持板204と上側支持板206、および上側支持板206とカメラ支持板208は、それぞれ複数の支柱により支持されている。
Next, the external structure of the three-dimensional distance measuring device 200 will be described.
FIG. 15 is a front view (yrs-zrs plane) of the three-dimensional distance measuring apparatus 200.
FIG. 16 is a side view (xrs-zrs plane) of the three-dimensional distance measuring apparatus 200.
FIG. 17 is a top view (yrs-xrs plane) of the three-dimensional distance measuring apparatus 200.
As shown in FIGS. 15 to 17, the three-dimensional distance measuring apparatus 200 is provided with a lower support plate 204, an upper support plate 206 provided above the lower support plate 204, and an upper support plate 206. The camera support plate 208 is configured. The lower support plate 204 and the upper support plate 206, and the upper support plate 206 and the camera support plate 208 are supported by a plurality of columns, respectively.

カメラ支持板208は、図16に示すように、下側支持板204および上側支持板206に対してxrs軸の正の方向に迫り出して設けられている。カメラ支持板208の迫り出した部分には、カメラ222が取り付けられている。
下側支持板204の下面には、モータ216が取り付けられている。モータ216の回転軸(以下、駆動回転軸という。)は、下側支持板204を下方から貫通し、下側支持板204と上側支持板206の間に配置されたプーリ220aに連結している。
As shown in FIG. 16, the camera support plate 208 is provided so as to protrude in the positive direction of the xrs axis with respect to the lower support plate 204 and the upper support plate 206. A camera 222 is attached to the protruding portion of the camera support plate 208.
A motor 216 is attached to the lower surface of the lower support plate 204. A rotation shaft of the motor 216 (hereinafter referred to as a drive rotation shaft) penetrates the lower support plate 204 from below and is connected to a pulley 220 a disposed between the lower support plate 204 and the upper support plate 206. .

一方、下側支持板204の下面であってモータ216から水平方向に所定距離隔てた位置には、2次元距離測定装置212が取り付けられている。2次元距離測定装置212は、回転軸(以下、従動回転軸という。)を有し、従動回転軸が下側支持板204を下方から貫通し、下側支持板204と上側支持板206の間に配置されたプーリ220bに連結している。   On the other hand, a two-dimensional distance measuring device 212 is attached to a lower surface of the lower support plate 204 at a position spaced apart from the motor 216 in the horizontal direction by a predetermined distance. The two-dimensional distance measuring device 212 has a rotation shaft (hereinafter referred to as a driven rotation shaft), and the driven rotation shaft passes through the lower support plate 204 from below, and is between the lower support plate 204 and the upper support plate 206. The pulley 220b is connected to the pulley 220b.

プーリ220a、220bには、ベルト221が巻き掛けられている。したがって、モータ216によりプーリ220aが回転し、プーリ220aに巻き掛けたベルト221によりプーリ220bが回転することにより、2次元距離測定装置212は、図17に示すように、zrs軸回りに回転する。
図18は、測距センサの走査範囲を示す図である。
A belt 221 is wound around the pulleys 220a and 220b. Accordingly, when the pulley 220a is rotated by the motor 216 and the pulley 220b is rotated by the belt 221 wound around the pulley 220a, the two-dimensional distance measuring device 212 rotates around the zrs axis as shown in FIG.
FIG. 18 is a diagram illustrating a scanning range of the distance measuring sensor.

2次元距離測定装置212は、測距センサを内蔵し、図18に示すように、測距センサを、zrs軸およびその測定方向に対して直交する軸回りに回転させながら所定の走査単位角度ごとに測距センサの測定結果を取得する。測距センサの走査範囲は、脚車輪型ロボット100が階段の昇降や障害物の回避を行うことを目的としているため、脚車輪型ロボット100の下方を重点的に走査するように設定されている。なお、2次元距離測定装置212および測距センサの原点位置(走査角度θおよびφが0°の位置)においては、測距センサの測定方向がxrs軸と一致し、測距センサの回転軸がyrs軸と一致する。測距センサの回転軸は、2次元距離測定装置212の走査角度によって向きが変化するが、原点位置においてyrs軸と一致するため、説明の便宜上、測距センサの回転軸をyrs’軸と表記する。   The two-dimensional distance measuring device 212 has a built-in distance measuring sensor. As shown in FIG. 18, the two-dimensional distance measuring device 212 rotates at a predetermined scanning unit angle while rotating the distance measuring sensor about the zrs axis and an axis orthogonal to the measurement direction. The measurement result of the distance measuring sensor is acquired. The scanning range of the distance measuring sensor is set so that the leg wheel type robot 100 scans mainly below the leg wheel type robot 100 because the leg wheel type robot 100 is intended to move up and down stairs and avoid obstacles. . At the origin position of the two-dimensional distance measuring device 212 and the distance measuring sensor (the positions where the scanning angles θ and φ are 0 °), the measuring direction of the distance measuring sensor coincides with the xrs axis, and the rotation axis of the distance measuring sensor is It matches the yrs axis. Although the direction of the rotation axis of the distance measurement sensor changes depending on the scanning angle of the two-dimensional distance measurement device 212, it coincides with the yrs axis at the origin position. Therefore, for convenience of explanation, the rotation axis of the distance measurement sensor is expressed as the yrs' axis. To do.

3次元距離測定装置200は、2次元距離測定装置212を回転駆動する回転駆動機構(モータ216、エンコーダ218、プーリ220a、220b、ベルト221および下側支持板204)が、図18に示す走査範囲外に設けられているため、図18に示す走査範囲であれば、3次元距離測定装置200を構成する各機構部によって、測距センサ212aの走査が阻害されない。   In the three-dimensional distance measuring device 200, the rotation driving mechanism (motor 216, encoder 218, pulleys 220a and 220b, belt 221 and lower support plate 204) that rotates and drives the two-dimensional distance measuring device 212 has a scanning range shown in FIG. Since it is provided outside, within the scanning range shown in FIG. 18, the scanning of the distance measuring sensor 212 a is not hindered by each mechanism unit constituting the three-dimensional distance measuring apparatus 200.

また、脚車輪型ロボット100の走行経路上の障害物を認識できればよいので、zrs軸回りの回転駆動による走査範囲も、前方180°までをカバーする必要はなく、2次元距離測定装置212から水平方向に所定距離隔てて配置されたモータ216およびエンコーダ218を走査範囲外とする範囲でも十分である。したがって、2次元距離測定装置212の回転駆動範囲を、モータ216およびエンコーダ218を含まない範囲とする。   Further, since it is only necessary to be able to recognize an obstacle on the travel route of the leg-wheel type robot 100, the scanning range by the rotational drive around the zrs axis does not need to cover up to 180 ° forward, and the horizontal range from the two-dimensional distance measuring device 212 is not necessary. A range in which the motor 216 and the encoder 218 arranged at a predetermined distance in the direction are out of the scanning range is also sufficient. Therefore, the rotational driving range of the two-dimensional distance measuring device 212 is set to a range not including the motor 216 and the encoder 218.

次に、脚車輪型ロボット100の移動制御システムを説明する。
図19は、脚車輪型ロボット100の移動制御システムを示すブロック図である。
各脚部12の回転関節14〜18には、図19に示すように、回転関節14〜18を回転駆動する関節モータ40がそれぞれ設けられている。各関節モータ40には、関節モータ40の回転角度位置を検出するエンコーダ42と、モータ指令信号およびエンコーダ42の出力信号に基づいて関節モータ40の駆動を制御するドライバ44が設けられている。
Next, the movement control system of the leg wheel type robot 100 will be described.
FIG. 19 is a block diagram showing a movement control system of the leg wheel type robot 100.
As shown in FIG. 19, joint motors 40 that rotationally drive the rotary joints 14 to 18 are provided in the rotary joints 14 to 18 of the respective leg portions 12. Each joint motor 40 is provided with an encoder 42 that detects the rotational angle position of the joint motor 40, and a driver 44 that controls the driving of the joint motor 40 based on the motor command signal and the output signal of the encoder 42.

各脚部12の駆動輪20には、駆動輪20を回転駆動する車輪モータ50がそれぞれ設けられている。各車輪モータ50には、車輪モータ50の回転角度位置を検出するエンコーダ52と、モータ指令信号およびエンコーダ52の出力信号に基づいて車輪モータ50の駆動を制御するドライバ54が設けられている。
脚車輪型ロボット100は、さらに、CPU60と、脚車輪型ロボット100の姿勢を検出する3軸姿勢センサ70と、外部のPC等と無線通信を行う無線通信部74と、無線通信部74とCPU60の入出力を中継するハブ76と、警告音等を出力するスピーカ78とを有して構成されている。
A wheel motor 50 that rotationally drives the drive wheel 20 is provided on the drive wheel 20 of each leg 12. Each wheel motor 50 is provided with an encoder 52 that detects the rotational angle position of the wheel motor 50, and a driver 54 that controls the driving of the wheel motor 50 based on the motor command signal and the output signal of the encoder 52.
The leg-wheel type robot 100 further includes a CPU 60, a three-axis attitude sensor 70 that detects the attitude of the leg-wheel type robot 100, a wireless communication unit 74 that performs wireless communication with an external PC, the wireless communication unit 74, and the CPU 60. Are provided with a hub 76 that relays the input / output of the sound and a speaker 78 that outputs a warning sound or the like.

3軸姿勢センサ70は、ジャイロ若しくは加速度センサ、またはその両方を有し、地軸に対して脚車輪型ロボット100の姿勢の傾きを検出する。
CPU60は、モータ指令出力I/F61を介してドライバ44、54にモータ指令信号を出力し、角度取込I/F62を介してエンコーダ42、52の出力信号を入力する。また、センサ入力I/F63を介して、3次元距離測定装置200、前方脚先センサ22、下方脚先センサ24および3軸姿勢センサ70からそれぞれセンサ信号を入力する。また、通信I/F64を介してハブ76と信号の入出力を行い、サウンド出力I/F65を介してスピーカ78に音声信号を出力する。
The triaxial attitude sensor 70 includes a gyroscope or an acceleration sensor, or both, and detects the inclination of the attitude of the leg wheel type robot 100 with respect to the ground axis.
The CPU 60 outputs motor command signals to the drivers 44 and 54 via the motor command output I / F 61 and inputs output signals of the encoders 42 and 52 via the angle fetch I / F 62. In addition, sensor signals are input from the three-dimensional distance measuring device 200, the front leg tip sensor 22, the lower leg tip sensor 24, and the three-axis posture sensor 70 via the sensor input I / F 63, respectively. Further, signals are input / output to / from the hub 76 via the communication I / F 64, and an audio signal is output to the speaker 78 via the sound output I / F 65.

次に、2次元距離測定装置212の制御構造を説明する。
図20は、2次元距離測定装置212の制御構造を示すブロック図である。
2次元距離測定装置212は、図20に示すように、測定範囲内に存在する物体上の測定点までの距離を測定する測距センサ212aと、測距センサ212aを回転駆動するモータ212cと、モータ212cの回転角度位置を検出するエンコーダ212dと、指令信号およびエンコーダ212dの出力信号に基づいてモータ212cの駆動を制御するドライバ212bとを有して構成されている。
Next, the control structure of the two-dimensional distance measuring device 212 will be described.
FIG. 20 is a block diagram showing a control structure of the two-dimensional distance measuring device 212.
As shown in FIG. 20, the two-dimensional distance measuring device 212 includes a distance measuring sensor 212a that measures a distance to a measurement point on an object that exists within the measurement range, a motor 212c that rotates the distance measuring sensor 212a, The encoder 212d is configured to detect the rotational angle position of the motor 212c, and the driver 212b is configured to control the driving of the motor 212c based on the command signal and the output signal of the encoder 212d.

ドライバ212bは、センシングプロセッサ210からの指令信号において設定された走査角度範囲(例えば、−40°〜+40°等の所定の角度範囲)および走査単位角度(例えば、0.36°等の所定の単位角度)に基づいて、モータ212cの回転軸を走査単位角度ずつ回転させる制御を行う。
モータ212cは、測距センサ212aのレーザ出力部(不図示)および受光部(不図示)をyrs’軸回りに回転駆動するように設けられており、ドライバ212bからの制御信号に応じて、自己の回転軸を走査単位角度(Δθ)ずつ回転駆動する。
The driver 212b has a scanning angle range (for example, a predetermined angle range such as −40 ° to + 40 °) and a scanning unit angle (for example, a predetermined unit such as 0.36 °) set in the command signal from the sensing processor 210. Based on the angle, control is performed to rotate the rotation axis of the motor 212c by a scanning unit angle.
The motor 212c is provided so as to rotate and drive a laser output unit (not shown) and a light receiving unit (not shown) of the distance measuring sensor 212a around the yrs' axis. Are rotated by a scanning unit angle (Δθ).

次に、3次元距離測定装置200の制御構造を説明する。
図21は、3次元距離測定装置200の制御構造を示すブロック図である。
3次元距離測定装置200は、図21に示すように、センシングプロセッサ210と、2次元距離測定装置212と、モータ216と、エンコーダ218と、指令信号およびエンコーダ218の出力信号に基づいてモータ216の駆動を制御するドライバ214と、カメラ222とを有して構成されている。
Next, the control structure of the three-dimensional distance measuring apparatus 200 will be described.
FIG. 21 is a block diagram showing a control structure of the three-dimensional distance measuring apparatus 200.
As shown in FIG. 21, the three-dimensional distance measuring apparatus 200 includes a sensing processor 210, a two-dimensional distance measuring apparatus 212, a motor 216, an encoder 218, a command signal, and an output signal of the encoder 218. A driver 214 that controls driving and a camera 222 are included.

センシングプロセッサ210は、専用のプログラムを実行し、ドライバ212bに指令信号を与えて測距センサ212aを回転させ、測距センサ212aの走査範囲で測定可能な領域(以下、走査平面という。)内に存在する物体上の測定点までの距離を測定する第1走査処理を実行するとともに、1つの走査平面に対する第1走査処理が終了するごとに、ドライバ214に指令信号を与えて2次元距離測定装置212を回転させる第2走査処理を実行する。   The sensing processor 210 executes a dedicated program, gives a command signal to the driver 212b, rotates the distance measuring sensor 212a, and is within an area that can be measured within the scanning range of the distance measuring sensor 212a (hereinafter referred to as a scanning plane). A two-dimensional distance measuring device that executes a first scanning process for measuring a distance to a measurement point on an existing object and gives a command signal to the driver 214 each time the first scanning process for one scanning plane is completed. A second scanning process for rotating 212 is executed.

センシングプロセッサ210は、さらに、第1走査処理および第2走査処理を経て2次元距離測定装置212で測定した距離の情報(以下、距離情報という。)に基づいて、測定範囲内に存在する物体上の連続面を認識する処理を実行する。
次に、3次元距離測定装置200の距離測定の原理を説明する。
図22は、2次元距離測定装置212の距離測定の原理を説明するための図である。
The sensing processor 210 further operates on the object existing in the measurement range based on the distance information (hereinafter referred to as distance information) measured by the two-dimensional distance measurement device 212 through the first scanning process and the second scanning process. The process of recognizing the continuous surface is executed.
Next, the principle of distance measurement of the three-dimensional distance measuring apparatus 200 will be described.
FIG. 22 is a diagram for explaining the principle of distance measurement of the two-dimensional distance measuring device 212.

2次元距離測定装置212は、測距センサ212aが、モータ212cの回転軸の回転駆動に応じて、yrs’軸回りに走査単位角度ずつ回転し、かつ、回転するごとに、図22に示すように、レーザ出力部からレーザ光を出力するとともに、出力光に対する物体(図22中の障害物)からの反射光を受光部で受光し、各走査角度に応じた距離(図22中の測定距離L(物体と受光部との間の距離))を測定する。   The two-dimensional distance measuring device 212 is as shown in FIG. 22 every time the distance measuring sensor 212a rotates by the scanning unit angle around the yrs' axis according to the rotational drive of the rotating shaft of the motor 212c. In addition, laser light is output from the laser output unit, and reflected light from an object (obstacle in FIG. 22) with respect to the output light is received by the light receiving unit, and a distance corresponding to each scanning angle (measurement distance in FIG. 22) L (distance between the object and the light receiving unit)) is measured.

図23は、第1走査処理および第2走査処理により走査を行った場合を示す図である。同図(a)は、測距センサ212aをyrs’軸回りに回転させたときの測定距離Lと走査角度θとの関係を示す図であり、同図(b)は、2次元距離測定装置212をzrs軸回りに回転させたときの走査平面と走査角度φとの関係を示す図である。
第1走査処理は、例えば、図23(a)に示すように、測距センサ212aをyrs’軸回りに走査単位角度ずつ回転させながら、原点位置に対する各走査角度(図23(a)中のθ1、θ2、θ3)に応じた距離情報(図23(a)中のL(θ1)、L(θ2)、L(θ3))を測定する処理となる。
FIG. 23 is a diagram illustrating a case where scanning is performed by the first scanning process and the second scanning process. FIG. 6A is a diagram showing the relationship between the measurement distance L and the scanning angle θ when the distance measurement sensor 212a is rotated about the yrs ′ axis, and FIG. 6B is a two-dimensional distance measurement device. It is a figure which shows the relationship between the scanning plane when 212 is rotated around the zrs axis, and the scanning angle φ.
In the first scanning process, for example, as shown in FIG. 23A, the distance measuring sensor 212a is rotated by the scanning unit angle around the yrs' axis while each scanning angle with respect to the origin position (in FIG. 23A). This is a process of measuring distance information (L (θ 1 ), L (θ 2 ), L (θ 3 ) in FIG. 23A) according to θ 1 , θ 2 , θ 3 ).

また、第1走査処理における、モータ212cの回転軸の回転中心と、レーザの走査軌道線の両端とを結んで形成される平面が、走査平面(物体が存在しない場合は扇形の平面)となる。
ドライバ214は、センシングプロセッサ210からの指令信号において設定された走査角度範囲および走査単位角度(Δφ)に基づいて、モータ216の回転軸を走査単位角度ずつ回転させる制御を行う。
In the first scanning process, a plane formed by connecting the rotation center of the rotating shaft of the motor 212c and both ends of the scanning trajectory line of the laser is a scanning plane (a fan-shaped plane when no object is present). .
The driver 214 performs control to rotate the rotation axis of the motor 216 by the scanning unit angle based on the scanning angle range and the scanning unit angle (Δφ) set in the command signal from the sensing processor 210.

モータ216は、減速機(不図示)、プーリ220a、220bおよびベルト221を介して、2次元距離測定装置212をzrs軸回りに回転駆動するように設けられており、ドライバ214からの制御信号に応じて、自己の回転軸を走査単位角度ずつ回転駆動する。これにより、モータ216の回転軸の回転駆動に応じて、プーリ220a、220bを介して従動回転軸に回転駆動力が伝達され、2次元距離測定装置212がzrs軸回りに走査単位角度ずつ回転する。   The motor 216 is provided to rotationally drive the two-dimensional distance measuring device 212 around the zrs axis via a speed reducer (not shown), pulleys 220a and 220b, and a belt 221, and receives a control signal from the driver 214. Correspondingly, the rotation axis of the self is rotated by the scanning unit angle. As a result, the rotational driving force is transmitted to the driven rotational shaft via the pulleys 220a and 220b in accordance with the rotational driving of the rotational shaft of the motor 216, and the two-dimensional distance measuring device 212 rotates about the zrs axis by a scanning unit angle. .

すなわち、第2走査処理は、図23(b)に示すように、2次元距離測定装置212をzrs軸回りに走査単位角度ずつ回転させる処理となる。そして、第1走査処理と第2走査処理とを交互に連続して行うことにより、第1走査処理によって形成される走査平面をzrs軸回りに連続して形成する。
図24は、3次元距離測定装置200の距離の計測例を示す図である。
That is, the second scanning process is a process of rotating the two-dimensional distance measuring device 212 by the scanning unit angle around the zrs axis as shown in FIG. Then, by performing the first scanning process and the second scanning process alternately and continuously, the scanning plane formed by the first scanning process is continuously formed around the zrs axis.
FIG. 24 is a diagram illustrating a distance measurement example of the three-dimensional distance measurement apparatus 200.

これにより、例えば、図24に示すように、壁、ついたて、スタンド、棚等の物体の立体的な形状を把握することができる。
また、図23(b)に示すように、第2走査処理後の各測定点の距離情報をL(θi,φj)と表記する。ここで、iは、yrs’軸回りの走査角度に応じて各測定点に付与される通し番号であり、jは、zrs軸回りの走査角度に応じて各測定点に付与される通し番号である。
Thereby, for example, as shown in FIG. 24, the three-dimensional shape of an object such as a wall, a wall, a stand, or a shelf can be grasped.
Further, as shown in FIG. 23 (b), the distance information of each measurement point after the second scanning process is expressed as L (θ i , φ j ). Here, i is a serial number given to each measurement point according to the scanning angle around the yrs' axis, and j is a serial number given to each measurement point according to the scanning angle around the zrs axis.

次に、3次元距離測定装置200で実行される物体認識処理を説明する。
図25は、3次元距離測定装置200で実行される物体認識処理を示すフローチャートである。
物体認識処理は、CPU60からの指令信号に基づいて、センシングプロセッサ210が、ROM(不図示)に記憶された専用のプログラムを読み出し、読み出したプログラムを実行することで実現される処理であって、処理が実行されると、図25に示すように、まず、ステップS300に移行する。
Next, an object recognition process executed by the three-dimensional distance measuring apparatus 200 will be described.
FIG. 25 is a flowchart showing object recognition processing executed by the three-dimensional distance measuring apparatus 200.
The object recognition process is a process realized by the sensing processor 210 reading a dedicated program stored in a ROM (not shown) based on a command signal from the CPU 60 and executing the read program. When the process is executed, the process first proceeds to step S300 as shown in FIG.

ステップS300では、3次元距離測定装置200において、CPU60からの指令信号に基づいて、測距センサ212aおよび2次元距離測定装置212の走査角度範囲および走査単位角度を設定し、ステップS302に移行する。ここで、CPU60からの指令信号には、走査角度範囲および走査単位角度の情報が含まれている。
ステップS302では、2次元距離測定装置212に指令信号を出力することにより、ドライバ212b、モータ212cおよびエンコーダ212dを駆動し、測距センサ212aを、ステップS300で設定されたyrs’軸回りの走査角度範囲内において、ステップS300で設定された走査単位角度ずつyrs’軸回りに回転させるとともに、各走査角度に応じた距離情報を測定する第1走査処理を実行し、ステップS304に移行する。
In step S300, in the three-dimensional distance measuring apparatus 200, the scanning angle range and the scanning unit angle of the distance measuring sensor 212a and the two-dimensional distance measuring apparatus 212 are set based on the command signal from the CPU 60, and the process proceeds to step S302. Here, the command signal from the CPU 60 includes information on the scanning angle range and the scanning unit angle.
In step S302, by outputting a command signal to the two-dimensional distance measuring device 212, the driver 212b, the motor 212c, and the encoder 212d are driven, and the distance measuring sensor 212a is scanned around the yrs' axis set in step S300. Within the range, the scanning unit angle set in step S300 is rotated about the yrs' axis, and the first scanning process for measuring the distance information corresponding to each scanning angle is executed, and the process proceeds to step S304.

ステップS304では、ステップS302で測定した距離情報に対して、メディアンフィルタを用いたフィルタリング処理を実行してノイズ成分を除去し、ステップS306に移行する。
ステップS306では、ステップS304でノイズ除去後の回転座標系の距離情報を直交座標系の座標情報に変換する。これにより、第1走査処理で得られた各測定点の距離情報は、その第1走査処理の走査平面を2次元平面とする直交座標系(以下、走査平面座標系という。)の座標情報に変換される。
In step S304, a filtering process using a median filter is performed on the distance information measured in step S302 to remove noise components, and the process proceeds to step S306.
In step S306, the distance information of the rotating coordinate system after noise removal in step S304 is converted into the coordinate information of the orthogonal coordinate system. Thereby, the distance information of each measurement point obtained by the first scanning process is converted into coordinate information of an orthogonal coordinate system (hereinafter referred to as a scanning plane coordinate system) in which the scanning plane of the first scanning process is a two-dimensional plane. Converted.

次いで、ステップS310に移行して、ステップS306で変換された座標情報に基づいてハフ変換により直交座標系における線分を検出する。
図26は、ハフ変換の原理を説明するための図である。同図(a)は、x−y平面を示し、同図(b)は、ρ−θ平面を示す。なお、同図(a)のx軸、y軸は、走査平面座標系における軸を示し、センサ座標系における軸とは別個のものである。
Next, the process proceeds to step S310, and a line segment in the orthogonal coordinate system is detected by Hough transform based on the coordinate information transformed in step S306.
FIG. 26 is a diagram for explaining the principle of the Hough transform. FIG. 4A shows the xy plane, and FIG. 4B shows the ρ-θ plane. Note that the x-axis and y-axis in FIG. 5A indicate axes in the scanning plane coordinate system and are separate from the axes in the sensor coordinate system.

ハフ変換は、デジタル画像処理で用いられる特徴抽出法の一つである。古典的には直線の検出を行うものだったが、さらに一般化されて様々な形態(円や楕円等の方程式の形で表現できるもの)に対して用いられている。ハフ変換の特徴は、画像中の直線が途中で切断されている場合や、雑音が存在する場合でも、比較的良好な結果を得ることができる点である。   The Hough transform is one of feature extraction methods used in digital image processing. Classically, it used to detect straight lines, but it is more generalized and used for various forms (those that can be expressed in the form of equations such as circles and ellipses). A feature of the Hough transform is that a relatively good result can be obtained even when a straight line in the image is cut off in the middle or when noise exists.

図26(a)に示すように、走査平面座標系における直線ax+by+c=0を考える。
この直線から原点に垂線を下ろし、垂線の長さをρ、垂線とx軸とのなす角をθとしたとき、この直線は、下式(2)により表すことができる。
Consider a straight line ax + by + c = 0 in the scanning plane coordinate system, as shown in FIG.
When a perpendicular is drawn from this straight line to the origin, the length of the perpendicular is ρ, and the angle between the perpendicular and the x axis is θ, this straight line can be expressed by the following equation (2).

Figure 2008260117
Figure 2008260117

上式(2)は、下式(3)に変形することができる。

ρ=xcosθ+ysinθ …(3)

したがって、1組の(ρ、θ)に対して1本の直線が対応することとなる。ここで、点(ρ、θ)を直線ax+by+c=0のハフ変換と呼ぶ。また、走査平面座標系の任意の点(x0、y0)を通る直線群は、下式(4)により表すことができる。

ρ=x0cosθ+y0sinθ …(4)

ここで、x−y平面において3点P1、P2、P3を通るそれぞれの直線群の軌跡をρ−θ平面に描くと、図26(b)に示すように正弦曲線となる。この3点がx−y平面において同一直線上に存在するのであれば、ρとθの値は同一となり、ρ−θ平面において、3点に対応する曲線は1点で交わることになる。
The above equation (2) can be transformed into the following equation (3).

ρ = xcosθ + ysinθ (3)

Therefore, one straight line corresponds to one set of (ρ, θ). Here, the point (ρ, θ) is referred to as the Hough transform of the straight line ax + by + c = 0. A straight line group passing through an arbitrary point (x0, y0) in the scanning plane coordinate system can be expressed by the following equation (4).

ρ = x0cosθ + y0sinθ (4)

Here, when the locus of each straight line group passing through the three points P1, P2, and P3 on the xy plane is drawn on the ρ-θ plane, a sinusoidal curve is obtained as shown in FIG. If these three points exist on the same line in the xy plane, the values of ρ and θ are the same, and the curves corresponding to the three points intersect at one point on the ρ-θ plane.

ハフ変換の原理を利用すれば、複数の測定点の座標に基づいて線分を検出することができる。すなわち、n(n≧2)個の測定点に対して、ρ−θ平面上ではn個の曲線が描かれ、このうちm(n≧m≧2)個の曲線が1点で交わっていれば、このm個の曲線に対応するm個の測定点は、x−y平面において同一直線上にあるということになる。
次いで、図25に示すように、ステップS320に移行して、検出した線分の端点を連続面の境界(凹凸のエッジ)として判定する。複数の線分が重なり合っているとき、または複数の線分が所定距離内に存在するときは、1つの線分であるとみなし、それら線分の端点のうち最も離れた2点を連続面の境界として判定する。
If the principle of the Hough transform is used, a line segment can be detected based on the coordinates of a plurality of measurement points. That is, for n (n ≧ 2) measurement points, n curves are drawn on the ρ-θ plane, and m (n ≧ m ≧ 2) curves among them intersect at one point. For example, the m measurement points corresponding to the m curves are on the same straight line in the xy plane.
Next, as shown in FIG. 25, the process proceeds to step S320, and the end point of the detected line segment is determined as the boundary (continuous edge) of the continuous surface. When multiple line segments overlap or when multiple line segments exist within a predetermined distance, it is considered as one line segment, and the two farthest points among the end points of these line segments are Judge as a boundary.

次いで、ステップS324に移行して、連続面の境界として判定した端点の座標情報をセンサ座標系に変換し、変換された座標情報を各線分ごとに対応付けてRAM等のメモリ(不図示)に記憶し、ステップS326に移行する。
ステップS326では、第2走査処理の走査角度範囲および走査単位角度に対応するすべての走査平面についてステップS302〜S324の処理が終了したか否かを判定し、処理が終了したと判定したとき(Yes)は、ステップS336に移行する。
Next, the process proceeds to step S324, where the coordinate information of the end point determined as the boundary of the continuous surface is converted into a sensor coordinate system, and the converted coordinate information is associated with each line segment in a memory (not shown) such as a RAM. Store, and the process proceeds to step S326.
In step S326, it is determined whether or not the processing in steps S302 to S324 has been completed for all scanning planes corresponding to the scanning angle range and scanning unit angle of the second scanning processing, and when it is determined that the processing has been completed (Yes) ) Proceeds to step S336.

ステップS336では、メモリに記憶された座標情報に基づいて面データを生成する。連続面の境界として判定した端点を結ぶ線分(ステップS320で、1つの線分であるとみなしたもの)は、連続面と走査平面が交わる交線であるので、面データの生成は、例えば、ある走査平面において、連続面の境界として判定した端点を結ぶ線分と、zrs軸回りに隣接する走査平面において、連続面の境界として判定した端点を結ぶ線分との傾きおよび座標が所定範囲にあるものを連続面と判定し、それら線分に対応する座標情報を対応付けたり、公知の補間法を用いてつなぎ合わせたりすることにより行う。例えば、傾きが0に近い連続面は、水平面とみなすことができるので、そこが歩行可能な面であると判定することができる。   In step S336, surface data is generated based on the coordinate information stored in the memory. Since the line segment connecting the end points determined as the boundary of the continuous plane (which is regarded as one line segment in step S320) is an intersection line where the continuous plane and the scanning plane intersect, generation of plane data is, for example, The slope and coordinates of the line segment connecting the end points determined as the boundary of the continuous surface in a certain scanning plane and the line segment connecting the end points determined as the boundary of the continuous surface in the scanning plane adjacent to the zrs axis are within a predetermined range. Are determined as continuous surfaces, coordinate information corresponding to these line segments is associated, or connected by using a known interpolation method. For example, since a continuous surface having an inclination close to 0 can be regarded as a horizontal surface, it can be determined that the surface is a walking surface.

次いで、ステップS338に移行して、ハブ76および通信I/F64を介して、ステップS336で生成した面データをCPU60に出力し、一連の処理を終了する。
一方、ステップS326で、すべての走査平面についてステップS302〜S324の処理が終了しないと判定したとき(No)は、ステップS340に移行して、3次元距離測定装置200に指令信号を出力することにより、ドライバ214、モータ216およびエンコーダ218を駆動し、2次元距離測定装置212を、ステップS300で設定されたzrs軸回りの走査角度範囲内において、ステップS300で設定された走査単位角度ずつzrs軸回りに回転させる第2走査処理を実行し、ステップS302に移行する。
Next, the process proceeds to step S338, and the surface data generated in step S336 is output to the CPU 60 via the hub 76 and the communication I / F 64, and the series of processing ends.
On the other hand, when it is determined in step S326 that the processes in steps S302 to S324 are not completed for all scanning planes (No), the process proceeds to step S340, and a command signal is output to the three-dimensional distance measuring apparatus 200. The driver 214, the motor 216, and the encoder 218 are driven, and the two-dimensional distance measuring device 212 is rotated around the zrs axis by the scanning unit angle set in step S300 within the scanning angle range around the zrs axis set in step S300. The second scanning process is performed to rotate to step S302, and the process proceeds to step S302.

次に、CPU60で実行される処理を説明する。
CPU60は、ROM等の所定領域に格納されている制御プログラムを起動させ、その制御プログラムに従って、図27のフローチャートに示す昇降制御処理を実行する。
図27は、昇降制御処理を示すフローチャートである。
昇降制御処理は、脚部12の昇降制御を行う処理であって、CPU60において実行されると、まず、図27に示すように、ステップS400に移行する。
Next, processing executed by the CPU 60 will be described.
The CPU 60 activates a control program stored in a predetermined area such as a ROM, and executes the elevation control process shown in the flowchart of FIG. 27 according to the control program.
FIG. 27 is a flowchart showing the elevation control process.
The elevation control process is a process for performing the elevation control of the leg portion 12. When the elevation control process is executed by the CPU 60, the process first proceeds to step S400 as shown in FIG.

ステップS400では、3次元距離測定装置200から面データを入力し、ステップS402に移行して、入力した面データに基づいて、センサ座標系における各測定点の座標をグローバル座標系の座標に変換し、連続面の周縁上の点を階段の特徴点として検出する。
次いで、ステップS404に移行して、検出した階段の特徴点に基づいて階段の幅を算出し、ステップS406に移行して、検出した階段の特徴点に基づいて階段の段鼻部の実座標を算出し、ステップS408に移行する。
In step S400, surface data is input from the three-dimensional distance measuring apparatus 200, the process proceeds to step S402, and the coordinates of each measurement point in the sensor coordinate system are converted into coordinates in the global coordinate system based on the input surface data. A point on the periphery of the continuous surface is detected as a feature point of the staircase.
Next, the process proceeds to step S404, the width of the staircase is calculated based on the detected feature point of the staircase, and the process proceeds to step S406, where the actual coordinates of the stair nosing part of the staircase are calculated based on the detected feature point of the staircase. Then, the process proceeds to step S408.

ステップS408では、算出した階段の幅および段鼻部の実座標、並びに3軸姿勢センサ70のセンサ信号に基づいて逆運動学計算および重心計算を行い、ステップS410に移行して、ステップS408の計算結果に基づいて脚先(駆動輪20)の着地位置を決定し、ステップS412に移行する。
ステップS412では、前方脚先センサ22および下方脚先センサ24からそれぞれセンサ信号を入力し、ステップS414に移行して、入力した前方脚先センサ22のセンサ信号に基づいて蹴込板までの距離を算出し、ステップS416に移行して、入力した下方脚先センサ24のセンサ信号に基づいて脚先と踏板の位置関係を算出し、ステップS418に移行する。
In step S408, inverse kinematics calculation and centroid calculation are performed based on the calculated width of the staircase and the actual coordinates of the stair nose and the sensor signal of the three-axis posture sensor 70, the process proceeds to step S410, and the calculation result of step S408 The landing position of the leg tip (drive wheel 20) is determined based on the above, and the process proceeds to step S412.
In step S412, sensor signals are input from the front leg tip sensor 22 and the lower leg tip sensor 24, respectively, and the process proceeds to step S414 to calculate the distance to the kick plate based on the input sensor signal of the front leg tip sensor 22. Then, the process proceeds to step S416, the positional relationship between the leg tip and the tread is calculated based on the input sensor signal of the lower leg tip sensor 24, and the process proceeds to step S418.

ステップS418では、決定した着地位置および算出した両距離に基づいてドライバ44、54へのモータ指令信号を生成し、ステップS420に移行して、生成したモータ指令信号をドライバ44、54に出力し、ステップS422に移行する。
ステップS422では、脚先が踏板に着地したか否かを判定し、脚先が着地したと判定したとき(Yes)は、一連の処理を終了して元の処理に復帰させる。
In step S418, a motor command signal to the drivers 44 and 54 is generated based on the determined landing position and the calculated both distances, the process proceeds to step S420, and the generated motor command signal is output to the drivers 44 and 54. The process proceeds to step S422.
In step S422, it is determined whether or not the leg tip has landed on the tread. When it is determined that the leg tip has landed (Yes), the series of processes is terminated and the original process is restored.

一方、ステップS422で、脚先が着地しないと判定したとき(No)は、ステップS412に移行する。
次に、本実施の形態の動作を説明する。
脚車輪型ロボット100の移動経路上に階段が存在し、これを乗り越える場合を説明する。
On the other hand, when it is determined in step S422 that the leg tip does not land (No), the process proceeds to step S412.
Next, the operation of the present embodiment will be described.
A case will be described in which a stairway exists on the movement path of the leg-wheel type robot 100 and the stairs are overcome.

センシングプロセッサ210では、まず、ステップS300を経て、CPU60からの指令信号に基づいて、センシングプロセッサ210において走査角度範囲および走査単位角度が設定される。
ここで、2次元距離測定装置212は、測距範囲20〜4095[mm]、最大走査角度範囲240°、角度分解能0.36°の2次元レンジセンサであることとする。走査角度範囲が240°であれば、図18に示す走査平面を形成する走査角度範囲と同じとなり、2次元距離測定装置212の上方にある下側支持板204、プーリ220a、220bおよびベルト221が走査範囲に含まれないことになる。
In the sensing processor 210, first, through step S300, the scanning angle range and the scanning unit angle are set in the sensing processor 210 based on the command signal from the CPU 60.
Here, it is assumed that the two-dimensional distance measuring device 212 is a two-dimensional range sensor having a distance measurement range of 20 to 4095 [mm], a maximum scanning angle range of 240 °, and an angular resolution of 0.36 °. If the scanning angle range is 240 °, it is the same as the scanning angle range forming the scanning plane shown in FIG. 18, and the lower support plate 204, the pulleys 220a and 220b, and the belt 221 above the two-dimensional distance measuring device 212 It will not be included in the scanning range.

また、第1走査処理に対して、走査角度範囲240°および走査単位角度0.36°が設定され、第2走査処理に対して、走査角度範囲−40°〜+40°および走査単位角度10°が設定されたとする(この場合は、走査平面が9つ形成される)。走査角度範囲−40°〜+40°であれば、2次元距離測定装置212から水平方向に所定距離隔てて配置されたモータ216およびエンコーダ218が走査範囲に含まれないことになる。   Further, a scanning angle range of 240 ° and a scanning unit angle of 0.36 ° are set for the first scanning process, and a scanning angle range of −40 ° to + 40 ° and a scanning unit angle of 10 ° are set for the second scanning process. Is set (in this case, nine scanning planes are formed). If the scanning angle range is −40 ° to + 40 °, the motor 216 and the encoder 218 arranged at a predetermined distance in the horizontal direction from the two-dimensional distance measuring device 212 are not included in the scanning range.

次いで、ステップS302を経て、第1走査処理に対して設定された走査角度範囲および走査単位角度に基づいて、ドライバ212bに指令信号が出力されることにより第1走査処理が実行される。最初は、zrs軸回りの走査角度φが0°の位置(原点位置)に対する第1走査処理が実行される。
その結果、ドライバ212bにより、センシングプロセッサ210からの指令信号およびエンコーダ212dからの出力信号に基づいて、モータ212cの回転軸が回転駆動し、測距センサ212aがyrs’軸回りに走査単位角度Δθ=0.36°ずつ回転するとともに、各走査角度に応じた距離が測定される。各距離情報は、データ列L(θi,φj)としてセンシングプロセッサ210に出力される。
Next, through step S302, a command signal is output to the driver 212b based on the scan angle range and scan unit angle set for the first scan process, whereby the first scan process is executed. Initially, a first scanning process is performed on a position (origin position) where the scanning angle φ around the zrs axis is 0 °.
As a result, based on the command signal from the sensing processor 210 and the output signal from the encoder 212d, the driver 212b drives the rotation shaft of the motor 212c to rotate, and the distance measuring sensor 212a scan unit angle Δθ = about the yrs ′ axis. While rotating by 0.36 °, the distance corresponding to each scanning angle is measured. Each distance information is output to the sensing processor 210 as a data string L (θ i , φ j ).

なお、yrs’軸回りの走査範囲内には、基体10以外に、2次元距離測定装置212の駆動機構等の走査を阻害する物が一切存在しないため、走査範囲内に存在する物体の正確な距離情報を得ることができる。
1つの走査平面に対する第1走査処理が終了すると、ステップS304を経て、第1走査処理で測定された距離情報に対してフィルタリング処理が行われる。これにより、測定情報におけるノイズ成分が除去される。
In the scanning range around the yrs' axis, there is no object other than the base 10 that obstructs scanning, such as the driving mechanism of the two-dimensional distance measuring device 212. Distance information can be obtained.
When the first scanning process for one scanning plane is completed, the filtering process is performed on the distance information measured in the first scanning process through step S304. Thereby, the noise component in measurement information is removed.

図28は、第1走査処理による測定結果を示すグラフである。
ここで、ノイズ成分除去後の各測定点の測定距離L[mm]は、例えば、図28に示すようになる。図28において、横軸は、各走査角度に応じた測定点の番号(第1走査角度番号)であり、縦軸は、各走査角度番号の測定点に対する測定距離L[mm]である。
図28の例では、脚車輪型ロボット100の歩行経路上に、段差が一定でかつ踏板が連続面となっている階段が存在することが分かる。
FIG. 28 is a graph showing a measurement result by the first scanning process.
Here, the measurement distance L [mm] of each measurement point after removing the noise component is as shown in FIG. 28, for example. In FIG. 28, the horizontal axis represents the number of the measurement point corresponding to each scanning angle (first scanning angle number), and the vertical axis represents the measurement distance L [mm] to the measurement point of each scanning angle number.
In the example of FIG. 28, it can be seen that there are stairs on the walking path of the leg-wheel type robot 100 with a constant step and a continuous tread board.

次いで、ステップS306を経て、フィルタリング処理後の回転座標系の距離情報が直交座標系の座標情報に変換される。
図29は、図28の各測定点の回転座標系の距離情報を直交座標系の座標情報に変換した結果を示すグラフである。
図28の各測定点の回転座標系の距離情報は、座標変換により、図29に示すように、各走査角度に対応するxrs軸方向の距離[mm]とzrs軸方向の距離[mm]とで表される2次元の座標情報となる。図29において、横軸は、xrs軸方向の距離Lx[mm]であり、縦軸は、zrs軸方向の距離Lz[mm]である。
Next, through step S306, the distance information of the rotated coordinate system after the filtering process is converted into the coordinate information of the orthogonal coordinate system.
FIG. 29 is a graph showing the result of converting the distance information of the rotating coordinate system of each measurement point of FIG. 28 into the coordinate information of the orthogonal coordinate system.
The distance information of the rotating coordinate system of each measurement point in FIG. 28 is obtained by coordinate conversion, as shown in FIG. 29, the distance [mm] in the xrs axis direction and the distance [mm] in the zrs axis direction corresponding to each scanning angle. Is two-dimensional coordinate information. In FIG. 29, the horizontal axis represents the distance L x [mm] in the xrs axis direction, and the vertical axis represents the distance L z [mm] in the zrs axis direction.

次いで、ステップS310を経て、変換された座標情報に基づいてハフ変換により直交座標系における線分が検出される。
図30は、直交座標系における測定点およびハフ変換の結果を示すグラフである。
直交座標系において各測定点は、図30(a)に示すように、蹴込板および踏板の輪郭に沿った複数の点の集合として表される。図30(a)の例では、1段目の踏板に対応する領域において、いくつかの測定点が連続面から外れた領域に分布しているが、これは、測定面である踏板の光沢等の影響により測定結果にばらつきが生じたものであり、誤差領域A1である。また、領域A2は、他の領域と比べて測定解像度が低くなっている。
Next, through step S310, a line segment in the orthogonal coordinate system is detected by Hough transform based on the transformed coordinate information.
FIG. 30 is a graph showing measurement points in the orthogonal coordinate system and the results of the Hough transform.
In the orthogonal coordinate system, each measurement point is represented as a set of a plurality of points along the contours of the kick board and the tread board as shown in FIG. In the example of FIG. 30 (a), in the region corresponding to the first step tread, some measurement points are distributed in a region deviating from the continuous surface. The measurement results vary due to the influence of the error area A1. The area A2 has a lower measurement resolution than the other areas.

この測定結果に対してハフ変換を行うと、図30(b)に示すように、各踏板の輪郭に沿った線分が検出される。
複数の測定点に基づいて線分を検出する他の方法として、最小二乗法が知られている。
しかしながら、最小二乗法では、1つ1つの測定点を辿って線分を検出するため、低解像度領域A2では、踏板の輪郭とは沿わない線分を検出してしまうことがある。これに対し、ハフ変換では、測定解像度の影響を受けにくく、低解像度領域A2を含んでいても、図30(b)に示すように、踏板の輪郭に比較的沿った線分を検出することができる。
When the Hough transform is performed on the measurement result, as shown in FIG. 30B, a line segment along the contour of each tread is detected.
As another method for detecting a line segment based on a plurality of measurement points, a least square method is known.
However, in the least square method, line segments are detected by tracing each measurement point, and therefore, in the low resolution area A2, a line segment that does not follow the contour of the tread may be detected. On the other hand, in the Hough transform, it is difficult to be affected by the measurement resolution, and even if the low resolution region A2 is included, as shown in FIG. Can do.

また、最小二乗法では、1つ1つの測定点を辿って線分を検出するため、誤差領域A1について、実際は平坦な線分であるところ斜めの線分として検出してしまう。これに対し、ハフ変換では、ばらつきの影響を受けにくく、ばらつきの数が少なければ、図30(b)に示すように、誤差領域A1およびその両側の領域を平坦な線分として検出することができる。   Further, in the least square method, line segments are detected by tracing each measurement point, so that the error region A1 is detected as an oblique line segment that is actually a flat line segment. On the other hand, in the Hough transform, if it is not easily affected by variations and the number of variations is small, the error region A1 and the regions on both sides thereof can be detected as flat line segments as shown in FIG. it can.

また、最小二乗法では、どこからどこまでの領域を1つの連続面であるかを認識するかについて問題がある。この場合、例えば、検出した線分の傾きが急激に変化した箇所を連続面の境界として認識することが考えられるが、この認識方法では、誤差領域A1について、実際は誤差領域A1およびその両側の領域が1つの連続面であるところ両側の領域を別々の連続面として認識してしまう。これに対し、ハフ変換では、ばらつきの影響を受けにくく、ばらつきの数が少なければ、図30(b)に示すように、誤差領域A1およびその両側の領域を1つの平坦な線分として検出することができる。   Further, the least square method has a problem as to whether to recognize a region from where to where is one continuous surface. In this case, for example, it is conceivable to recognize a point where the slope of the detected line segment changes abruptly as the boundary of the continuous surface. However, in this recognition method, the error region A1 is actually the error region A1 and the regions on both sides thereof. Is a single continuous surface, the regions on both sides are recognized as separate continuous surfaces. On the other hand, in the Hough transform, if it is not easily affected by variations and the number of variations is small, the error region A1 and the regions on both sides thereof are detected as one flat line segment as shown in FIG. be able to.

次いで、ステップS320、S324を経て、検出された線分の端点が連続面の境界として判定され、連続面の境界として判定された端点の座標情報がセンサ座標系に変換され、変換された座標情報がメモリに記憶される。
1つの走査平面について測定が終了すると、ステップS340を経て、第2走査処理に対して設定された走査角度範囲および走査単位角度に基づいて、ドライバ214に指令信号が出力されることにより第2走査処理が実行される。
Next, through steps S320 and S324, the end point of the detected line segment is determined as the boundary of the continuous surface, the coordinate information of the end point determined as the boundary of the continuous surface is converted into the sensor coordinate system, and the converted coordinate information Is stored in the memory.
When the measurement is completed for one scanning plane, the second scanning is performed by outputting a command signal to the driver 214 based on the scanning angle range and the scanning unit angle set for the second scanning process through step S340. Processing is executed.

その結果、ドライバ214により、センシングプロセッサ210からの指令信号およびエンコーダ218からの出力信号に基づいて、モータ216の回転軸が回転駆動し、2次元距離測定装置212がzrs軸回りに走査単位角度10°ずつ回転する。第2走査処理によって、2次元距離測定装置212の向きが1つ前の状態に対してzrs軸回りに10°だけ変化する。そして、この状態で、ステップS302を経て、第1走査処理が再び実行される。すなわち、zrs軸回りに10°ずれた位置に新たな走査平面が形成され、この走査平面について第1走査処理が実行される。   As a result, based on the command signal from the sensing processor 210 and the output signal from the encoder 218, the driver 214 rotates the rotation axis of the motor 216, and the two-dimensional distance measurement device 212 has a scanning unit angle of 10 around the zrs axis. Rotate by °. By the second scanning process, the orientation of the two-dimensional distance measuring device 212 changes by 10 ° around the zrs axis with respect to the previous state. In this state, the first scanning process is executed again through step S302. That is, a new scanning plane is formed at a position shifted by 10 ° around the zrs axis, and the first scanning process is performed on this scanning plane.

ここで、2次元距離測定装置212が基体10の正面に取り付けられているため、基体10が走査範囲内に含まれてしまうが、脚車輪型ロボット100の前方および歩行経路上を含む範囲においては阻害物が一切ないため、脚車輪型ロボット100の歩行制御を行うのに十分な走査範囲が確保できているといえる。
すべての走査平面について測定が終了すると、ステップS336を経て、メモリに記憶された座標情報に基づいて面データが生成される。
Here, since the two-dimensional distance measuring device 212 is attached to the front surface of the base body 10, the base body 10 is included in the scanning range, but in the range including the front of the leg wheel type robot 100 and the walking path. Since there are no obstructions, it can be said that a sufficient scanning range for performing the walking control of the leg-wheel type robot 100 can be secured.
When measurement is completed for all scanning planes, surface data is generated based on the coordinate information stored in the memory through step S336.

図31は、連続面の判定結果を示す図である。
面データは、図31に示すように、zrs軸回りに隣接する走査平面間において、傾きおよび座標が近い線分をつなぎ合わせることで生成される。図31の例では、例えば、走査平面φ0において、1段目の踏板に対応する領域(φ0、2)の線分と、走査平面φ1において、1段目の踏板に対応する領域(φ1、2)の線分とが1つの連続面を構成すると判定されるので、その連続面については、それら線分の端点の座標情報を対応付けた面データが生成される。
FIG. 31 is a diagram illustrating the determination result of the continuous surface.
As shown in FIG. 31, the plane data is generated by connecting line segments having similar inclinations and coordinates between adjacent scanning planes around the zrs axis. In the example of FIG. 31, for example, the line segment of the region (φ0, 2) corresponding to the first step plate on the scanning plane φ0 and the region (φ1, 2) corresponding to the first step plate on the scanning plane φ1. ) Is determined to constitute one continuous surface, surface data in which the coordinate information of the end points of the line segments is associated is generated for the continuous surface.

なお、同様に、走査平面φ0における領域(φ0、2i(iは2以上の整数))の線分および走査平面φ1における領域(φ1、2i)の線分が1つの連続面を、走査平面φ0における領域(φ0、2j(jは1以上の整数)−1)の線分および走査平面φ1における領域(φ1、2j−1)の線分が1つの連続面を構成すると判定され、面データが生成される。   Similarly, the line segment of the region (φ0, 2i (i is an integer greater than or equal to 2)) in the scan plane φ0 and the line segment of the region (φ1, 2i) in the scan plane φ1 represent one continuous plane, and the scan plane φ0 It is determined that the line segment of the region (φ0, 2j (j is an integer equal to or greater than 1) -1) and the line segment of the region (φ1, 2j-1) on the scanning plane φ1 constitute one continuous surface, and the plane data is Generated.

面データは、ステップS338を経て、ハブ76および通信I/F64を介してCPU60に出力される。
CPU60では、面データを入力すると、ステップS402を経て、入力された面データに基づいて階段の特徴点が検出される。また、入力された面データが解析され、例えば、傾きが0に近い連続面が水平面とみなされ、脚車輪型ロボット100が歩行可能な面であると判定される。
The surface data is output to the CPU 60 via the hub 76 and the communication I / F 64 through step S338.
When the surface data is input, the CPU 60 detects the staircase feature point based on the input surface data through step S402. In addition, the input surface data is analyzed, and for example, a continuous surface whose inclination is close to 0 is regarded as a horizontal surface, and it is determined that the leg-wheel type robot 100 can walk.

歩行可能な面であると判定されると、ステップS404〜S410を経て、検出された階段の特徴点に基づいて階段の幅および段鼻部の実座標が算出され、算出された階段の幅および段鼻部の実座標に基づいて脚先の着地位置が決定される。
さらに、ステップS412〜S416を経て、脚先センサ22、24からそれぞれセンサ信号が入力され、蹴込板までの距離および脚先と踏板の位置関係が算出される。そして、ステップS418、S420を経て、決定された着地位置および算出された両距離に基づいてモータ指令信号が生成され、生成されたモータ指令信号がドライバ44、54に出力される。これにより、駆動輪20が回転するとともに回転関節14〜18が駆動し、脚車輪型ロボット100が姿勢を適切に保ちつつ階段を乗り越える。また、状況によっては階段を回避、停止する。したがって、脚型ロボットと同様に階段への適応性が高い。
If it is determined that the surface is a walkable surface, the width of the staircase and the actual coordinates of the stair nose are calculated based on the detected feature points of the staircase through steps S404 to S410. The landing position of the leg tip is determined based on the real coordinates of the part.
Further, through steps S412 to S416, sensor signals are input from the leg tip sensors 22 and 24, respectively, and the distance to the kick plate and the positional relationship between the leg tip and the tread plate are calculated. Then, through steps S418 and S420, a motor command signal is generated based on the determined landing position and the calculated both distances, and the generated motor command signal is output to the drivers 44 and 54. As a result, the driving wheel 20 rotates and the rotary joints 14 to 18 are driven, and the leg-wheel type robot 100 gets over the stairs while keeping its posture properly. Depending on the situation, the stairs are avoided and stopped. Therefore, the adaptability to the stairs is high like the legged robot.

なお、段差が一定でかつ踏板が連続面となる階段を例に挙げたが、段差が一定でない階段、蹴込板の無い階段等に対しても、正確にその面を認識することができるので、脚車輪型ロボット100の階段への適応性を高めることができる。
一方、平地では、脚車輪型ロボット100は、車輪走行で移動することができる。したがって、車輪型ロボットと同様に平地での移動性が高い。
In addition, although the step is given as an example, the staircase where the step board is a continuous surface is given as an example, but the step can be accurately recognized even for a staircase where the step is not constant, a staircase without a kick plate, etc. The adaptability to the stairs of the leg wheel type robot 100 can be improved.
On the other hand, on a flat ground, the leg-wheel type robot 100 can move by wheel running. Therefore, the mobility on the flat ground is high like the wheel type robot.

このようにして、本実施の形態では、物体上の測定点までの距離を測定する測距センサ212aを備え、測距センサ212aを走査し、その走査範囲で測定可能な測定点について測距センサ212aの測定結果を取得し、取得した測定結果を直交座標系の座標に変換し、変換された少なくとも2つの測定点の座標に基づいてハフ変換により直交座標系における線分を検出し、検出した線分に基づいて連続面または連続面の境界を認識する。   As described above, in this embodiment, the distance measuring sensor 212a that measures the distance to the measurement point on the object is provided, the distance measurement sensor 212a is scanned, and the distance measurement sensor can be measured for the measurement points that can be measured in the scanning range. The measurement result of 212a is acquired, the acquired measurement result is converted into the coordinates of the orthogonal coordinate system, and the line segment in the orthogonal coordinate system is detected by the Hough transform based on the converted coordinates of the at least two measurement points, and detected. Recognize continuous faces or boundaries of continuous faces based on line segments.

これにより、連続面または連続面の境界として物体の少なくとも平面的な形状を把握することができるので、脚型ロボットや脚車輪型ロボット100のように複雑な姿勢制御を必要とするロボットの姿勢制御に好適な認識結果を得ることができる。また、ハフ変換により線分を検出するので、測距センサ212aを用いた2次元距離測定装置212により物体認識を行う場合に、測定解像度の低下または測定結果のばらつきにより認識精度が低下する可能性を低減することができる。   Accordingly, since at least the planar shape of the object can be grasped as a continuous surface or a boundary between continuous surfaces, the posture control of a robot that requires complicated posture control, such as the legged robot or the legged wheel type robot 100, is possible. A suitable recognition result can be obtained. Further, since the line segment is detected by the Hough transform, when the object recognition is performed by the two-dimensional distance measuring device 212 using the distance measuring sensor 212a, there is a possibility that the recognition accuracy may be lowered due to a decrease in measurement resolution or a variation in measurement results. Can be reduced.

さらに、最小二乗法に比して、検出が困難となるエッジに対してロバストな検出が可能となる。
さらに、本実施の形態では、検出した線分の端点の座標に基づいて連続面または連続面の境界を認識する。
これにより、連続面または連続面の境界を比較的正確に認識することができる。
Furthermore, as compared with the least square method, robust detection can be performed for an edge that is difficult to detect.
Furthermore, in this embodiment, the continuous surface or the boundary of the continuous surface is recognized based on the coordinates of the end points of the detected line segment.
Thereby, the continuous surface or the boundary of the continuous surface can be recognized relatively accurately.

さらに、本実施の形態では、測距センサ212aをyrs’軸回りに回転させるモータ212c等からなるyrs’軸回転機構と、測距センサ212aをzrs軸回りに回転させるモータ216等からなるzrs軸回転機構とを備え、yrs’軸回転機構により測距センサ212aを回転させながらyrs’軸回転機構の走査単位角度ごとに測距センサ212aの測定結果を取得する第1走査を、zrs軸回転機構により測距センサ212aを回転させながらzrs軸回転機構の走査単位角度ごとに行う第2走査を行うことにより、yrs’軸回転機構の走査単位角度ごとおよびzrs軸回転機構の走査単位角度ごとの測定結果を取得する。   Further, in the present embodiment, a yrs′-axis rotation mechanism including a motor 212c and the like that rotates the ranging sensor 212a around the yrs ′ axis, and a zrs axis including a motor 216 and the like that rotates the ranging sensor 212a around the zrs axis. A first scanning for obtaining a measurement result of the distance measuring sensor 212a for each scanning unit angle of the yrs 'axis rotating mechanism while rotating the distance measuring sensor 212a by the yrs' axis rotating mechanism. By performing the second scanning performed for each scanning unit angle of the zrs axis rotation mechanism while rotating the distance measuring sensor 212a, the measurement is performed for each scanning unit angle of the yrs' axis rotation mechanism and for each scanning unit angle of the zrs axis rotation mechanism. Get the result.

これにより、連続面または連続面の境界として物体の立体的な形状を把握することができるので、脚型ロボットや脚車輪型ロボット100のように複雑な姿勢制御を必要とするロボットの姿勢制御にさらに好適な認識結果を得ることができる。また、測距センサ212aを回転させる回転機構を採用したので、移動機構に比して、走査に必要なスペースが小さくてすみ、走査のための機構が簡素となり、しかも高速な走査を実現することができる。   As a result, the three-dimensional shape of the object can be grasped as a continuous surface or a boundary between the continuous surfaces, so that the posture control of a robot that requires complicated posture control, such as the legged robot or the leg-wheel type robot 100, is possible. A more suitable recognition result can be obtained. In addition, since a rotation mechanism that rotates the distance measuring sensor 212a is adopted, a space required for scanning is smaller than that of the moving mechanism, the scanning mechanism is simplified, and high-speed scanning is realized. Can do.

さらに、本実施の形態では、モータ216およびエンコーダ218と、2次元距離測定装置212とを水平方向に所定距離隔てて配置し、駆動回転軸の回転駆動力を、プーリ220a、ベルト221およびプーリ220bを介して従動回転軸へと伝達し、2次元距離測定装置212をzrs軸回りに回転駆動する構成とした。
これにより、2次元距離測定装置212の走査角度範囲内には、走査を阻害するものが一切なくなるので、正確な距離情報を得ることができる。また、モータ216およびエンコーダ218と、2次元距離測定装置212とを水平方向に配置したので、3次元距離測定装置200の高さ方向の占有率を低減することができる。
Furthermore, in this embodiment, the motor 216 and the encoder 218 and the two-dimensional distance measuring device 212 are arranged at a predetermined distance in the horizontal direction, and the rotational driving force of the driving rotary shaft is set to the pulley 220a, the belt 221 and the pulley 220b. The two-dimensional distance measuring device 212 is driven to rotate about the zrs axis.
As a result, there is no obstacle to scanning within the scanning angle range of the two-dimensional distance measuring device 212, so that accurate distance information can be obtained. Further, since the motor 216 and the encoder 218 and the two-dimensional distance measuring device 212 are arranged in the horizontal direction, the occupation ratio in the height direction of the three-dimensional distance measuring device 200 can be reduced.

さらに、本実施の形態では、脚先センサ22、24を備え、脚先センサ22、24で測定した距離に基づいて階段を認識し、その認識結果に基づいてモータ40、50を制御する。
これにより、脚先センサ22、24を用いて未知の階段を認識しながら脚部12の昇降制御を行うので、従来に比して、未知の階段に対して高い適応性を実現することができる。また、人が活動する環境での動作を行えるので、人と一緒に行動する用途に用いられるホームロボット、パーソナルロボット等に好適である。
Further, in the present embodiment, leg tip sensors 22 and 24 are provided, the stairs are recognized based on the distance measured by the leg tip sensors 22 and 24, and the motors 40 and 50 are controlled based on the recognition result.
Thereby, since the raising / lowering control of the leg part 12 is performed while recognizing the unknown staircase using the leg tip sensors 22 and 24, it is possible to realize higher adaptability to the unknown staircase than in the past. . In addition, since it can operate in an environment where people are active, it is suitable for home robots, personal robots, and the like that are used for acting with people.

さらに、本実施の形態では、3次元距離測定装置200を基体10の正面に設け、脚先センサ22、24を脚部12の先端に設けた。
これにより、脚車輪型ロボット100の移動経路上に存在する物体を広い視野で検出することができるとともに、階段昇降時に駆動輪20と階段の距離を精度よく測定することができる。
Further, in the present embodiment, the three-dimensional distance measuring device 200 is provided on the front surface of the base body 10, and the leg tip sensors 22 and 24 are provided on the tip of the leg portion 12.
As a result, it is possible to detect an object existing on the movement path of the leg wheel type robot 100 with a wide field of view, and to accurately measure the distance between the drive wheel 20 and the staircase when moving up and down the stairs.

さらに、本実施の形態では、前方脚先センサ22の測定結果に基づいて階段の蹴込板までの距離を算出し、下方脚先センサ24の測定結果に基づいて駆動輪20と階段の踏板の位置関係を算出する。
これにより、階段の特徴のうち脚部12の昇降制御にさらに有効な特徴を検出することができるので、未知の階段に対してさらに高い適応性を実現することができる。
Further, in the present embodiment, the distance to the stair riser plate is calculated based on the measurement result of the front leg tip sensor 22, and the positions of the drive wheels 20 and the step board of the staircase are calculated based on the measurement result of the lower leg tip sensor 24. Calculate the relationship.
Thereby, since the characteristic more effective for the raising / lowering control of the leg part 12 can be detected among the characteristics of the staircase, higher adaptability can be realized for the unknown staircase.

上記第2の実施の形態において、ステップS302、S340は、発明12、15若しくは17の測定結果取得手段、または発明28の測定結果取得ステップに対応し、ステップS306は、発明12の座標変換手段、または発明28の座標変換ステップに対応している。また、ステップS310は、発明12、14若しくは16の線分検出手段、または発明28の線分検出ステップに対応し、ステップS320、S336は、発明12、14若しくは16の認識手段、または発明28の認識ステップに対応している。   In the second embodiment, steps S302 and S340 correspond to the measurement result acquisition unit of the invention 12, 15 or 17, or the measurement result acquisition step of the invention 28, and step S306 includes the coordinate conversion unit of the invention 12, Alternatively, this corresponds to the coordinate conversion step of the invention 28. Step S310 corresponds to the line segment detecting means of the invention 12, 14 or 16, or the line segment detecting step of the invention 28, and steps S320 and S336 are the recognizing means of the invention 12, 14 or 16, or the invention 28. It corresponds to the recognition step.

また、上記第2の実施の形態において、yrs’軸は、発明17の第1走査軸に対応し、zrs軸は、発明17の第2走査軸に対応し、yrs’軸回転機構は、発明15若しくは17の第1走査手段、または発明17の第1回転手段に対応し、zrs軸回転機構は、発明15若しくは17の第2走査手段、または発明17の第2回転手段に対応している。   In the second embodiment, the yrs 'axis corresponds to the first scanning axis of the invention 17, the zrs axis corresponds to the second scanning axis of the invention 17, and the yrs' axis rotation mechanism is the invention. The zrs axis rotation mechanism corresponds to the second scanning means of the fifteenth or seventeenth aspect or the second rotating means of the seventeenth aspect. .

〔第3の実施の形態〕
次に、本発明の第3の実施の形態を図面を参照しながら説明する。図32および図33は、本発明に係る脚車輪型ロボット、物体認識装置および物体認識方法の第3の実施の形態を示す図である。
本実施の形態は、上記第2の実施の形態に対して、直交座標系において、測定点間を線分で接続した上でハフ変換を行う点が異なる。なお、以下、上記第2の実施の形態と異なる部分についてのみ説明し、上記第2の実施の形態と重複する部分については同一の符号を付して説明を省略する。
まず、3次元距離測定装置200で実行される物体認識処理を説明する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described with reference to the drawings. 32 and 33 are diagrams showing a third embodiment of the leg-wheel type robot, the object recognition apparatus, and the object recognition method according to the present invention.
This embodiment is different from the second embodiment in that the Hough transform is performed after connecting the measurement points with line segments in the orthogonal coordinate system. Hereinafter, only the parts different from the second embodiment will be described, and the same parts as those in the second embodiment will be denoted by the same reference numerals and the description thereof will be omitted.
First, an object recognition process executed by the three-dimensional distance measuring apparatus 200 will be described.

図32は、3次元距離測定装置200で実行される物体認識処理を示すフローチャートである。
物体認識処理は、センシングプロセッサ210において実行されると、図32に示すように、ステップS300〜S306を経て、ステップS308に移行する。
ステップS308では、ステップS306で変換された座標情報に基づいて、走査平面座標系においてx軸方向に隣接する測定点の間を線分で接続し、ステップS310に移行して、得られた線上の点の座標情報に基づいてハフ変換により直交座標系における線分を検出する。
FIG. 32 is a flowchart showing object recognition processing executed by the three-dimensional distance measuring apparatus 200.
When the object recognition process is executed in the sensing processor 210, the process proceeds to step S308 through steps S300 to S306 as shown in FIG.
In step S308, based on the coordinate information converted in step S306, measurement points adjacent in the x-axis direction in the scanning plane coordinate system are connected with line segments, and the process proceeds to step S310 and the obtained line is changed. A line segment in the orthogonal coordinate system is detected by Hough transform based on the coordinate information of the point.

そして、ステップS320、S324を経て、ステップS326に移行して、すべての走査平面についてステップS302〜S324の処理が終了したか否かを判定し、処理が終了したと判定したとき(Yes)は、ステップS336、S338を経て、一連の処理を終了する。
一方、ステップS326で、すべての走査平面についてステップS302〜S324の処理が終了しないと判定したとき(No)は、ステップS340を経て、ステップS302に移行する。
Then, after steps S320 and S324, the process proceeds to step S326, where it is determined whether or not the processing of steps S302 to S324 has been completed for all the scanning planes, and when it is determined that the processing has been completed (Yes) Through steps S336 and S338, a series of processing is completed.
On the other hand, when it is determined in step S326 that the processes in steps S302 to S324 are not completed for all scanning planes (No), the process proceeds to step S302 through step S340.

次に、本実施の形態の動作を説明する。
脚車輪型ロボット100の移動経路上に階段が存在し、これを乗り越える場合を説明する。上記第2の実施の形態とは、ハフ変換により線分を検出する点が異なるので、異なる部分についてのみ説明する。
ステップS308、S310を経て、変換された座標情報に基づいて測定点間が線分で接続され、得られた線上の点の座標情報に基づいてハフ変換により直交座標系における線分が検出される。
Next, the operation of the present embodiment will be described.
A case will be described in which a stairway exists on the movement path of the leg-wheel type robot 100 and the stairs are overcome. Since the second embodiment is different from the second embodiment in that a line segment is detected by Hough transform, only different portions will be described.
Through steps S308 and S310, measurement points are connected by line segments based on the converted coordinate information, and line segments in the orthogonal coordinate system are detected by Hough transform based on the coordinate information of the points on the obtained line. .

図33は、直交座標系における測定点、線分接続の結果およびハフ変換の結果を示すグラフである。
直交座標系において各測定点は、図33(a)に示すように、蹴込板および踏板の輪郭に沿った複数の点の集合として表される。図33(a)の例では、1段目の踏板に対応する領域において、いくつかの測定点が連続面から外れた領域に分布しているが、これは、測定面である踏板の光沢等の影響により測定結果にばらつきが生じたものであり、誤差領域A1である。また、領域A2は、他の領域と比べて測定解像度が低くなっている。
FIG. 33 is a graph showing measurement points, line segment connection results, and Hough transform results in an orthogonal coordinate system.
In the orthogonal coordinate system, each measurement point is represented as a set of a plurality of points along the contours of the kick board and the tread board as shown in FIG. In the example of FIG. 33 (a), in the region corresponding to the first step tread, some measurement points are distributed in a region deviating from the continuous surface. The measurement results vary due to the influence of the error area A1. The area A2 has a lower measurement resolution than the other areas.

この測定結果に対して線分接続を行うと、図33(b)に示すように、各測定点が1つの線で接続される。これにより、測定点が存在しない測定点間は、線上の点で補間されることになる。
この接続結果に対してハフ変換を行うと、図33(c)に示すように、各蹴込板および各踏板の輪郭に沿った線分が検出される。
When a line segment connection is made for this measurement result, each measurement point is connected by one line as shown in FIG. As a result, between the measurement points where no measurement point exists, the points on the line are interpolated.
When the Hough transform is performed on the connection result, as shown in FIG. 33 (c), a line segment along the outline of each kick board and each tread board is detected.

なお、線分接続を行わず、図33(a)の測定結果に対してハフ変換を行うと、図30(b)に示すように、各踏板の輪郭に沿った線分が検出されるが、各蹴込板に沿った線分は検出することができない。
このようにして、本実施の形態では、物体上の測定点までの距離を測定する測距センサ212aを備え、測距センサ212aを走査し、その走査範囲で測定可能な測定点について測距センサ212aの測定結果を取得し、取得した測定結果を直交座標系の座標に変換し、変換された測定点間を線分で接続し、得られた線上の点の座標に基づいてハフ変換により直交座標系における線分を検出し、検出した線分に基づいて連続面または連続面の境界を認識する。
When the Hough transform is performed on the measurement result of FIG. 33A without connecting the line segments, as shown in FIG. 30B, the line segments along the contours of the treads are detected. The line segment along each kick plate cannot be detected.
As described above, in this embodiment, the distance measuring sensor 212a that measures the distance to the measurement point on the object is provided, the distance measurement sensor 212a is scanned, and the distance measurement sensor can be measured for the measurement points that can be measured in the scanning range. The measurement result of 212a is acquired, the acquired measurement result is converted into coordinates in an orthogonal coordinate system, the converted measurement points are connected by line segments, and orthogonality is obtained by Hough transform based on the coordinates of the points on the obtained line A line segment in the coordinate system is detected, and a continuous surface or a boundary of the continuous surface is recognized based on the detected line segment.

これにより、物体上の連続面または連続面の境界として物体の少なくとも平面的な形状を把握することができるので、脚型ロボットや脚車輪型ロボット100のように複雑な姿勢制御を必要とするロボットの姿勢制御に好適な認識結果を得ることができる。また、ハフ変換により線分を検出するので、測距センサ212aを用いた2次元距離測定装置212により物体認識を行う場合に、測定解像度の低下または測定結果のばらつきにより認識精度が低下する可能性を低減することができる。さらに、測定点間を線分で接続して得られた線上の点の座標に基づいて線分を検出するので、測定解像度の低下または測定結果のばらつきが生じても比較的正確な認識結果を得ることができ、認識精度が低下する可能性をさらに低減することができる。   Accordingly, since at least a planar shape of the object can be grasped as a continuous surface on the object or a boundary between the continuous surfaces, a robot that requires complicated posture control, such as the legged robot or the leg wheel type robot 100. A recognition result suitable for posture control can be obtained. Further, since the line segment is detected by the Hough transform, when the object recognition is performed by the two-dimensional distance measuring device 212 using the distance measuring sensor 212a, there is a possibility that the recognition accuracy may be lowered due to a decrease in measurement resolution or a variation in measurement results. Can be reduced. In addition, since line segments are detected based on the coordinates of points on the line obtained by connecting the measurement points with line segments, relatively accurate recognition results can be obtained even if measurement resolution decreases or measurement results vary. The possibility that the recognition accuracy is lowered can be further reduced.

さらに、最小二乗法に比して、検出が困難となるエッジに対してロバストな検出が可能となる。
上記第3の実施の形態において、ステップS302、S332は、発明13の測定結果取得手段、または発明29の測定結果取得ステップに対応し、ステップS306は、発明13の座標変換手段、または発明29の座標変換ステップに対応し、ステップS310は、発明13の線分検出手段、または発明29の線分検出ステップに対応している。また、ステップS320、S328は、発明13の認識手段、または発明29の認識ステップに対応している。
Furthermore, as compared with the least square method, robust detection can be performed for an edge that is difficult to detect.
In the third embodiment, steps S302 and S332 correspond to the measurement result acquisition means of the invention 13 or the measurement result acquisition step of the invention 29, and the step S306 corresponds to the coordinate conversion means of the invention 13 or the invention 29. Corresponding to the coordinate conversion step, step S310 corresponds to the line segment detection means of the invention 13 or the line segment detection step of the invention 29. Steps S320 and S328 correspond to the recognition means of the invention 13 or the recognition step of the invention 29.

〔第4の実施の形態〕
次に、本発明の第4の実施の形態を図面を参照しながら説明する。図34ないし図41は、本発明に係る脚車輪型ロボット、物体認識装置および物体認識方法の第4の実施の形態を示す図である。
本実施の形態は、上記第2の実施の形態に対して、測距センサ212aの測定結果およびカメラ222から取得した画像(以下、カメラ画像という。)に基づいて連続面の境界を認識する点が異なる。なお、以下、上記第2の実施の形態と異なる部分についてのみ説明し、上記第2の実施の形態と重複する部分については同一の符号を付して説明を省略する。
[Fourth Embodiment]
Next, a fourth embodiment of the present invention will be described with reference to the drawings. 34 to 41 are diagrams showing a fourth embodiment of the leg-wheel type robot, the object recognition apparatus, and the object recognition method according to the present invention.
The present embodiment is different from the second embodiment in that the boundary of the continuous surface is recognized based on the measurement result of the distance measuring sensor 212a and an image acquired from the camera 222 (hereinafter referred to as a camera image). Is different. Hereinafter, only the parts different from the second embodiment will be described, and the same parts as those in the second embodiment will be denoted by the same reference numerals and the description thereof will be omitted.

まず、3次元距離測定装置200の外観構造を説明する。
カメラ222は、zrs軸の負の方向を向いており、脚車輪型ロボット100の足元およびその周辺の画像を撮影することができる。カメラ222の座標系(以下、カメラ座標系という。)は、センサ座標系と同様に、xrs軸、yrs軸、zrs軸と同一方向をそれぞれxca軸、yca軸、zca軸とし、センサ座標系とは原点位置が異なる。すなわち、カメラ222は、センサ座標系におけるxrs−yrs平面と、カメラ座標系におけるxca−yca平面とが平行となるように配置されている。なお、xrs−zrs平面とxca−zca平面、およびyrs−zrs平面とyca−zca平面も同様に平行の関係にある。
First, the external structure of the three-dimensional distance measuring apparatus 200 will be described.
The camera 222 faces the negative direction of the zrs axis, and can capture images of the feet and surroundings of the leg wheel type robot 100. As in the sensor coordinate system, the coordinate system of the camera 222 (hereinafter referred to as the camera coordinate system) has the same direction as the xrs axis, yrs axis, and zrs axis as the xca axis, yca axis, and zca axis, respectively. Have different origin positions. That is, the camera 222 is arranged so that the xrs-yrs plane in the sensor coordinate system and the xca-yca plane in the camera coordinate system are parallel. The xrs-zrs plane and the xca-zca plane, and the yrs-zrs plane and the yca-zca plane are also in a parallel relationship.

次に、3次元距離測定装置200の制御構造を説明する。
センシングプロセッサ210は、さらに、測距センサ212aの測定結果およびカメラ画像に基づいて連続面の境界を認識する処理を実行する。
次に、カメラ222および3次元距離測定装置200を用いた物体認識の原理を説明する。
Next, the control structure of the three-dimensional distance measuring apparatus 200 will be described.
The sensing processor 210 further executes processing for recognizing the boundary of the continuous surface based on the measurement result of the distance measuring sensor 212a and the camera image.
Next, the principle of object recognition using the camera 222 and the three-dimensional distance measuring device 200 will be described.

図34は、カメラ222および3次元距離測定装置200を用いた物体認識の原理を説明するための図である。
まず、図34に示すように、カメラ222により、脚車輪型ロボット100の足元およびその周辺の画像を撮影し、カメラ画像から線分を検出する。
次いで、3次元距離測定装置200により、各走査平面ごとに測定された測定点の座標から連続面の境界をセンサ特徴点として判定し、座標変換によりセンサ特徴点をカメラ画像に投影する。
FIG. 34 is a diagram for explaining the principle of object recognition using the camera 222 and the three-dimensional distance measuring apparatus 200.
First, as shown in FIG. 34, images of the feet and surroundings of the leg wheel type robot 100 are taken by the camera 222, and line segments are detected from the camera images.
Next, the boundary of the continuous surface is determined as a sensor feature point from the coordinates of the measurement point measured for each scanning plane by the three-dimensional distance measuring apparatus 200, and the sensor feature point is projected onto the camera image by coordinate conversion.

そして、カメラ画像から検出した線分(以下、カメラ画像の線分という。)と、センサ特徴点の投影点との位置関係に基づいて連続面の境界を認識する。
これにより、3次元距離測定装置200により得られたセンサ特徴点にのみ基づいて認識を行う場合、およびカメラ画像にのみ基づいて認識を行う場合よりも、認識精度を向上することができる。
And the boundary of a continuous surface is recognized based on the positional relationship of the line segment detected from the camera image (henceforth a line segment of a camera image) and the projection point of a sensor feature point.
Accordingly, the recognition accuracy can be improved as compared with the case where the recognition is performed based only on the sensor feature points obtained by the three-dimensional distance measuring apparatus 200 and the case where the recognition is performed based only on the camera image.

次に、3次元距離測定装置200で実行される物体認識処理を説明する。
図35は、3次元距離測定装置200で実行される物体認識処理を示すフローチャートである。
物体認識処理は、センシングプロセッサ210において実行されると、図35に示すように、まず、ステップS150に移行する。
Next, an object recognition process executed by the three-dimensional distance measuring apparatus 200 will be described.
FIG. 35 is a flowchart showing object recognition processing executed by the three-dimensional distance measuring apparatus 200.
When the object recognition process is executed in the sensing processor 210, the process first proceeds to step S150 as shown in FIG.

ステップS150では、カメラ222から画像を取得し、ステップS152に移行して、カメラ画像に対して歪み補正処理を実行し、ステップS154に移行して、歪み補正されたカメラ画像からSobel、Cannyフィルタ等によりエッジを抽出するエッジ抽出処理を実行し、ステップS156に移行して、エッジ抽出されたカメラ画像からハフ変換により線分を検出する。   In step S150, an image is acquired from the camera 222, the process proceeds to step S152, distortion correction processing is executed on the camera image, and the process proceeds to step S154, from which the distortion-corrected camera image is subjected to Sobel, Canny filter, and the like. In step S156, an edge extraction process for extracting edges is performed, and a line segment is detected from the camera image from which the edges have been extracted by Hough transform.

次いで、ステップS300〜S320を経て、ステップS324に移行して、連続面の境界として判定した端点の座標情報をセンサ座標系に変換し、変換された座標情報をメモリに記憶し、ステップS326に移行する。
ステップS326では、第2走査処理の走査角度範囲および走査単位角度に対応するすべての走査平面についてステップS302〜S324の処理が終了したか否かを判定し、処理が終了したと判定したとき(Yes)は、ステップS328に移行する。
Subsequently, the process proceeds to step S324 through steps S300 to S320, and the coordinate information of the end point determined as the boundary of the continuous surface is converted into the sensor coordinate system, and the converted coordinate information is stored in the memory, and the process proceeds to step S326. To do.
In step S326, it is determined whether or not the processing in steps S302 to S324 has been completed for all scanning planes corresponding to the scanning angle range and scanning unit angle of the second scanning processing, and when it is determined that the processing has been completed (Yes) ) Proceeds to step S328.

ステップS328では、メモリに記憶された座標情報に基づいて、連続面の境界として判定した端点をセンサ特徴点とし、座標変換によりセンサ特徴点をカメラ画像に投影する。
図36は、センサ座標系、カメラ座標系およびカメラ222の撮像素子面の座標系を示す図である。
In step S328, based on the coordinate information stored in the memory, the end point determined as the boundary of the continuous surface is used as the sensor feature point, and the sensor feature point is projected onto the camera image by coordinate conversion.
FIG. 36 is a diagram illustrating a sensor coordinate system, a camera coordinate system, and a coordinate system of the image sensor surface of the camera 222.

センサ特徴点は、一般的なピンホールモデルを用いてカメラ画像に投影することができる。
カメラ222の撮像素子面の座標系をΣcm、測距センサ212aとカメラ222との相対位置をr=(rx、ry、rz)、カメラ222のレンズの焦点距離をf、撮像素子の有効画素幅をW、撮像素子の有効画素高さをHすると、センサ座標系におけるP(xrs1、yrs1、zrs1)rs=(xrs1−rx、yrs1−ry、zrs1−rz)caは、図36(a)、(b)に示すように、撮像素子面の座標系における座標P’に投影することができる。座標P’は、下式(5)により求めることができる。
Sensor feature points can be projected onto a camera image using a general pinhole model.
The coordinate system of the image sensor surface of the camera 222 is Σ cm, the relative position between the distance measuring sensor 212a and the camera 222 is r = (rx, ry, rz), the focal length of the lens of the camera 222 is f, and the effective pixel width of the image sensor Is W and the effective pixel height of the image sensor is H, P (xrs1, yrs1, zrs1) rs = (xrs1-rx, yrs1-ry, zrs1-rz) ca in the sensor coordinate system is shown in FIG. As shown in (b), the image can be projected onto a coordinate P ′ in the coordinate system of the imaging element surface. The coordinate P ′ can be obtained by the following equation (5).

Figure 2008260117
Figure 2008260117

なお、図36および上式(5)において、センサ座標系Σrs、カメラ座標系Σca、撮像素子面の座標系Σcmでの座標(a、b、c)をそれぞれ(a、b、c)rs、(a、b、c)ca、(a、b、c)cmと表記する。   36 and the above equation (5), the coordinates (a, b, c) in the sensor coordinate system Σrs, the camera coordinate system Σca, and the coordinate system Σcm of the image sensor surface are respectively represented by (a, b, c) rs, (A, b, c) ca, (a, b, c) cm.

次いで、図35に示すように、ステップS330に移行して、カメラ画像において、カメラ画像の各線分ごとに、その線分と、その線分を延長した直線から所定距離内に存在するセンサ特徴点とを対応付け、ステップS332に移行して、同一のセンサ特徴点が対応付けられた線分をグループ化し、ステップS334に移行して、同一グループに属する線分の端点の座標に基づいて連続面の境界線を判定する。   Next, as shown in FIG. 35, the process proceeds to step S330, and in the camera image, for each line segment of the camera image, the line segment and the sensor feature points existing within a predetermined distance from the straight line obtained by extending the line segment. And the process moves to step S332 to group the line segments associated with the same sensor feature point, and the process moves to step S334 to determine the continuous surface based on the coordinates of the end points of the line segments belonging to the same group. Determine the boundary line.

図37は、カメラ画像の線分およびセンサ特徴点の対応付け、グループ化および境界線の判定を行う場合を説明するための図である。
図37(a)に示すように、カメラ画像から傾きが近い2つの線分l1、l2が検出され、線分l1、l2の周辺に4つの投影点P1〜P4が得られたとする。この場合、線分l1を延長した直線から所定距離内に投影点P2、P3、P4が存在するため、同図(b)に示すように、線分l1に対して投影点P2、P3、P4が対応付けられる。また、線分l2を延長した直線から所定距離内に投影点P1、P2、P3が存在するため、線分l2に対して投影点P1、P2、P3が対応付けられる。
FIG. 37 is a diagram for explaining a case in which line segments of camera images and sensor feature points are associated, grouped, and boundary lines are determined.
As shown in FIG. 37A, it is assumed that two line segments l1 and l2 having close inclinations are detected from the camera image, and four projection points P1 to P4 are obtained around the line segments l1 and l2. In this case, since projection points P2, P3, and P4 exist within a predetermined distance from a straight line obtained by extending the line segment l1, the projection points P2, P3, and P4 with respect to the line segment l1 as shown in FIG. Are associated. Further, since the projection points P1, P2, and P3 exist within a predetermined distance from the straight line obtained by extending the line segment l2, the projection points P1, P2, and P3 are associated with the line segment l2.

次いで、線分l1、l2には、投影点P2、P3が共通して対応付けられているので、線分l1、l2が1つのグループとしてグループ化される。
そして、同一グループに属する線分l1の端点P5、P6および線分l2の端点P7、P8の座標に基づいて、同図(c)に示すように、最小二乗法により直線近似が行われ、得られた直線が連続面の境界線として判定される。
Next, since the projection points P2 and P3 are associated in common with the line segments l1 and l2, the line segments l1 and l2 are grouped as one group.
Then, based on the coordinates of the end points P5 and P6 of the line segment l1 and the end points P7 and P8 of the line segment l2 belonging to the same group, as shown in FIG. The determined straight line is determined as the boundary line of the continuous surface.

これにより、コントラスト等の影響により、カメラ画像から、実際は一つの線分として検出されるべきところ複数の線分として検出されても、センサ特徴点との対応関係に基づいて複数の線分を1つの線分としてグループ化し、連続面の境界線を判定することができる。
次いで、図35に示すように、ステップS337に移行して、連続面の境界線として判定した直線に関する情報に基づいて境界データを生成し、ステップS339に移行して、ハブ76および通信I/F64を介して、生成した境界データをCPU60に出力し、一連の処理を終了する。
As a result, due to the influence of contrast or the like, even though a plurality of line segments should be detected from the camera image as actually one line segment, a plurality of line segments are set to 1 based on the correspondence with sensor feature points. It can be grouped as one line segment and the boundary line of the continuous surface can be determined.
Next, as shown in FIG. 35, the process proceeds to step S337, where boundary data is generated based on the information regarding the straight line determined as the boundary line of the continuous surface, and the process proceeds to step S339, where the hub 76 and the communication I / F 64 are processed. Then, the generated boundary data is output to the CPU 60, and the series of processes is terminated.

一方、ステップS326で、すべての走査平面についてステップS302〜S324の処理が終了しないと判定したとき(No)は、ステップS340を経て、ステップS302に移行する。
次に、昇降制御処理を説明する。
図38は、昇降制御処理を示すフローチャートである。
On the other hand, when it is determined in step S326 that the processes in steps S302 to S324 are not completed for all scanning planes (No), the process proceeds to step S302 through step S340.
Next, the elevation control process will be described.
FIG. 38 is a flowchart showing the elevation control process.

昇降制御処理は、CPU60において実行されると、まず、図38に示すように、ステップS401に移行する。
ステップS401では、3次元距離測定装置200から境界データを入力し、ステップS402に移行して、入力した境界データに基づいて、カメラ座標系の座標をグローバル座標系の座標に変換し、連続面の境界線上の点を階段の特徴点として検出する。
When the elevation control process is executed by the CPU 60, first, the process proceeds to step S401 as shown in FIG.
In step S401, boundary data is input from the three-dimensional distance measuring apparatus 200, and the process proceeds to step S402. Based on the input boundary data, the coordinates of the camera coordinate system are converted to the coordinates of the global coordinate system, and A point on the boundary line is detected as a feature point of the staircase.

次いで、ステップS402〜S420を経て、ステップS422に移行して、脚先が踏板に着地したか否かを判定し、脚先が着地したと判定したとき(Yes)は、一連の処理を終了して元の処理に復帰させる。
一方、ステップS422で、脚先が着地しないと判定したとき(No)は、ステップS412に移行する。
Next, after steps S402 to S420, the process proceeds to step S422, where it is determined whether the leg tip has landed on the tread. If it is determined that the leg tip has landed (Yes), the series of processing is terminated. To return to the original process.
On the other hand, when it is determined in step S422 that the leg tip does not land (No), the process proceeds to step S412.

次に、本実施の形態の動作を説明する。
脚車輪型ロボット100の移動経路上に階段が存在し、これを乗り越える場合を説明する。上記第2の実施の形態とは、測距センサ212aの測定結果およびカメラ画像に基づいて連続面の境界を認識する点が異なるので、異なる部分についてのみ説明する。
図39は、カメラ画像の処理結果を示す図である。
Next, the operation of the present embodiment will be described.
A case will be described in which a stairway exists on the movement path of the leg-wheel type robot 100 and the stairs are overcome. Since the second embodiment is different from the second embodiment in that the boundary of the continuous surface is recognized based on the measurement result of the distance measuring sensor 212a and the camera image, only different portions will be described.
FIG. 39 is a diagram illustrating the processing result of the camera image.

センシングプロセッサ210では、まず、ステップS150を経て、カメラ222から画像が取得される。例えば、図39(a)に示すような画像が得られたとする。次いで、ステップS152を経て、カメラ画像に対して歪み補正処理が実行され、同図(b)に示すように、歪みが補正された画像が得られる。次いで、ステップS154を経て、歪み補正されたカメラ画像に対してエッジ抽出処理が実行され、同図(c)に示すように、エッジだけが抽出された画像が得られる。そして、ステップS156を経て、エッジ抽出されたカメラ画像から線分が検出される。その結果、同図(d)に示すように、6つの線分が得られる。   In the sensing processor 210, first, an image is acquired from the camera 222 through step S150. For example, assume that an image as shown in FIG. Next, through step S152, distortion correction processing is performed on the camera image, and an image with corrected distortion is obtained as shown in FIG. Next, through step S154, edge extraction processing is executed on the camera image whose distortion has been corrected, and an image in which only edges are extracted is obtained as shown in FIG. Then, through step S156, a line segment is detected from the edge-extracted camera image. As a result, six line segments are obtained as shown in FIG.

次いで、ステップS300〜S326を経て、すべての走査平面について第1走査処理による測定結果が得られる。
すべての走査平面について測定が終了すると、ステップS328を経て、メモリに記憶された座標情報に基づいて座標変換によりセンサ特徴点がカメラ画像に投影される。
図40は、連続面の判定結果を示す図である。
Next, through steps S300 to S326, measurement results by the first scanning process are obtained for all scanning planes.
When the measurement is completed for all the scanning planes, the sensor feature points are projected onto the camera image through coordinate transformation based on the coordinate information stored in the memory through step S328.
FIG. 40 is a diagram illustrating determination results of continuous surfaces.

図41は、センサ特徴点のカメラ画像への投影結果を示す図である。
走査平面φ0については、図40に示すように、(1)床面に対応する領域(φ0、0)と1段目の蹴込板に対応する領域(φ0、1)との交点、(2)領域(φ0、1)と1段目の踏板に対応する領域(φ0、2)との交点、(3)領域(φ0、2)と2段目の蹴込板に対応する領域(φ0、3)との交点、および(4)領域(φ0、3)と2段目の踏板に対応する領域(φ0、4)との交点の4つの交点がセンサ特徴点として判定される。したがって、この4つのセンサ特徴点は、図41に示すように、カメラ画像を中央右上から中央左下にきる走査平面φ0上の投影点としてカメラ画像に投影される。
FIG. 41 is a diagram illustrating a result of projecting sensor feature points onto a camera image.
For the scanning plane φ0, as shown in FIG. 40, (1) the intersection of the region (φ0, 0) corresponding to the floor surface and the region (φ0, 1) corresponding to the first stage kick plate, (2) The intersection of the region (φ0, 1) and the region (φ0, 2) corresponding to the first step plate, (3) the region (φ0, 2) and the region (φ0, 3) corresponding to the second step kick plate And four intersections of (4) the intersection of the region (φ0, 3) and the region (φ0, 4) corresponding to the second step board are determined as sensor feature points. Therefore, as shown in FIG. 41, the four sensor feature points are projected onto the camera image as projection points on the scanning plane φ0 that extends from the upper right corner to the lower left corner.

走査平面φ1については、図40に示すように、(1)床面に対応する領域(φ1、0)と1段目の蹴込板に対応する領域(φ1、1)との交点、(2)領域(φ1、1)と1段目の踏板に対応する領域(φ1、2)との交点、(3)領域(φ1、2)と2段目の蹴込板に対応する領域(φ1、3)との交点、および(4)領域(φ1、3)と2段目の踏板に対応する領域(φ1、4)との交点の4つの交点がセンサ特徴点として判定される。したがって、この4つのセンサ特徴点は、図41に示すように、カメラ画像を中央真上から中央真下にきる走査平面φ1上の投影点としてカメラ画像に投影される。   For the scanning plane φ1, as shown in FIG. 40, (1) the intersection of the region (φ1, 0) corresponding to the floor surface and the region (φ1, 1) corresponding to the first-stage kick plate, (2) The intersection of the region (φ1, 1) and the region (φ1, 2) corresponding to the first step board, (3) the region (φ1, 2) and the region (φ1, 3) corresponding to the second step kick plate And four intersections of (4) the intersection of the region (φ1, 3) and the region (φ1, 4) corresponding to the second step board are determined as sensor feature points. Accordingly, as shown in FIG. 41, the four sensor feature points are projected onto the camera image as projection points on the scanning plane φ1 that extends from the position directly above the center to the position directly below the center.

走査平面φ2については、図40に示すように、(1)床面に対応する領域(φ2、0)と1段目の蹴込板に対応する領域(φ2、1)との交点、(2)領域(φ2、1)と1段目の踏板に対応する領域(φ2、2)との交点、(3)領域(φ2、2)と2段目の蹴込板に対応する領域(φ2、3)との交点、および(4)領域(φ2、3)と2段目の踏板に対応する領域(φ2、4)との交点の4つの交点がセンサ特徴点として判定される。したがって、この4つのセンサ特徴点は、図41に示すように、カメラ画像を中央左上から中央右下にきる走査平面φ2上の投影点としてカメラ画像に投影される。   For the scanning plane φ2, as shown in FIG. 40, (1) the intersection of the region (φ2, 0) corresponding to the floor surface and the region (φ2, 1) corresponding to the first stage kick plate, (2) The intersection of the region (φ2, 1) and the region (φ2, 2) corresponding to the first step plate, (3) The region (φ2, 2) and the region (φ2, 3) corresponding to the second step kick plate And four intersections of (4) the intersection of the area (φ2, 3) and the area (φ2, 4) corresponding to the second step board are determined as sensor feature points. Accordingly, as shown in FIG. 41, the four sensor feature points are projected onto the camera image as projection points on the scanning plane φ2 that extends from the center upper left to the center lower right.

次いで、ステップS330〜S334を経て、カメラ画像において、カメラ画像の線分とセンサ特徴点が対応付けられ、同一のセンサ特徴点が対応付けられた線分がグループ化され、同一グループに属する線分の端点の座標に基づいて直線近似により連続面の境界線が判定される。図41の例では、カメラ画像の線分と各投影点の位置関係から2つの直線が連続面の境界線として判定される。   Next, through steps S330 to S334, in the camera image, the line segment of the camera image is associated with the sensor feature point, the line segments associated with the same sensor feature point are grouped, and the line segments belonging to the same group are grouped. The boundary line of the continuous surface is determined by linear approximation based on the coordinates of the end points. In the example of FIG. 41, two straight lines are determined as the boundary line of the continuous surface from the positional relationship between the line segment of the camera image and each projection point.

そして、ステップS337、S339を経て、連続面の境界線として判定された直線に関する情報に基づいて境界データが生成され、生成された境界データがCPU60に出力される。
CPU60では、境界データを入力すると、ステップS402を経て、入力された境界データに基づいて階段の特徴点が検出される。また、入力された境界データが解析され、例えば、傾きが0に近い連続面が水平面とみなされ、脚車輪型ロボット100が歩行可能な面であると判定される。
Then, through steps S337 and S339, boundary data is generated based on the information about the straight line determined as the boundary line of the continuous surface, and the generated boundary data is output to the CPU 60.
When the boundary data is input, the CPU 60 detects the feature points of the stairs based on the input boundary data through step S402. Further, the input boundary data is analyzed, and for example, a continuous surface having an inclination close to 0 is regarded as a horizontal surface, and it is determined that the leg-wheel type robot 100 is a surface on which walking is possible.

このようにして、本実施の形態では、物体上の測定点までの距離を測定する測距センサ212aと、測距センサ212aの走査範囲で測定可能な測定点を含む画像を撮影するカメラ222とを備え、測距センサ212aを走査し、その走査範囲で測定可能な測定点について測距センサ212aの測定結果を取得し、取得した測定結果に基づいてセンサ特徴点を検出し、カメラ222から画像を取得し、カメラ画像から線分を検出し、検出したカメラ画像の線分およびセンサ特徴点に基づいて連続面の境界を認識する。   Thus, in this embodiment, the distance measuring sensor 212a that measures the distance to the measurement point on the object, and the camera 222 that captures an image including the measurement point that can be measured in the scanning range of the distance measuring sensor 212a. The distance measurement sensor 212a is scanned, the measurement result of the distance measurement sensor 212a is obtained for the measurement points that can be measured in the scanning range, the sensor feature point is detected based on the obtained measurement result, and the image is taken from the camera 222. , The line segment is detected from the camera image, and the boundary of the continuous surface is recognized based on the line segment of the detected camera image and the sensor feature point.

これにより、測距センサ212aのほか、これとは異なる方式のカメラ222を用いて物体上の特徴をそれぞれ検出し、それら2つの検出結果に基づいて連続面の境界を認識するので、測距センサ212aによる方式の短所をカメラ222による方式で補うことができ、測距センサ212aを用いた2次元距離測定装置212により物体認識を行う場合に、認識精度が低下する可能性を低減することができる。また、第2走査処理の走査回数を増やさなくてすむので、測定時間を短縮することができる。   Thereby, in addition to the distance measurement sensor 212a, a feature on the object is detected using a camera 222 of a different system, and the boundary of the continuous surface is recognized based on the two detection results. The shortcomings of the system based on 212a can be compensated for by the system based on the camera 222, and the possibility of a decrease in recognition accuracy can be reduced when object recognition is performed by the two-dimensional distance measuring device 212 using the distance measuring sensor 212a. . In addition, since it is not necessary to increase the number of scans in the second scanning process, the measurement time can be shortened.

さらに、本実施の形態では、測距センサ212aを走査し、その走査範囲で測定可能な測定点について測距センサ212aの測定結果を取得し、取得した測定結果を直交座標系の座標に変換し、変換された少なくとも2つの測定点の座標に基づいてハフ変換により直交座標系における線分を検出し、検出した線分に基づいてセンサ特徴点を検出する。
これにより、連続面の境界として物体の少なくとも平面的な形状を把握することができるので、脚型ロボットや脚車輪型ロボット100のように複雑な姿勢制御を必要とするロボットの姿勢制御に好適な認識結果を得ることができる。また、ハフ変換により線分を検出するので、測距センサ212aを用いた2次元距離測定装置212により物体認識を行う場合に、測定解像度の低下または測定結果のばらつきにより認識精度が低下する可能性を低減することができる。
Further, in the present embodiment, the distance measurement sensor 212a is scanned, the measurement result of the distance measurement sensor 212a is obtained for the measurement points that can be measured in the scanning range, and the obtained measurement result is converted into the coordinates of the orthogonal coordinate system. The line segment in the orthogonal coordinate system is detected by the Hough transform based on the converted coordinates of at least two measurement points, and the sensor feature point is detected based on the detected line segment.
This makes it possible to grasp at least the planar shape of an object as a boundary between continuous surfaces, which is suitable for posture control of robots that require complex posture control, such as legged robots and leg-wheel type robots 100. A recognition result can be obtained. Further, since the line segment is detected by the Hough transform, when the object recognition is performed by the two-dimensional distance measuring device 212 using the distance measuring sensor 212a, there is a possibility that the recognition accuracy may be lowered due to a decrease in measurement resolution or a variation in measurement results. Can be reduced.

さらに、最小二乗法に比して、検出が困難となるエッジに対してロバストな検出が可能となる。
さらに、本実施の形態では、検出した線分の端点の座標に基づいてセンサ特徴点を検出する。
これにより、連続面の境界を比較的正確に認識することができる。
Furthermore, as compared with the least square method, robust detection can be performed for an edge that is difficult to detect.
Furthermore, in this embodiment, sensor feature points are detected based on the coordinates of the end points of the detected line segment.
Thereby, the boundary of a continuous surface can be recognized comparatively correctly.

さらに、本実施の形態では、カメラ画像から線分を検出し、カメラ画像において、カメラ画像の線分とセンサ特徴点の位置関係に基づいて連続面の境界を認識する。
これにより、認識精度が低下する可能性をさらに低減することができる。
さらに、本実施の形態では、カメラ画像の各線分ごとに、その線分と、その線分を延長した直線から所定距離内に存在するセンサ特徴点とを対応付け、同一のセンサ特徴点が対応付けられた線分をグループ化し、同一グループに属する線分の端点の座標に基づいて連続面の境界線を判定する。
Furthermore, in this embodiment, a line segment is detected from the camera image, and the boundary of the continuous surface is recognized in the camera image based on the positional relationship between the line segment of the camera image and the sensor feature point.
Thereby, possibility that recognition accuracy will fall can further be reduced.
Furthermore, in this embodiment, for each line segment of the camera image, the line segment is associated with a sensor feature point existing within a predetermined distance from a straight line obtained by extending the line segment, and the same sensor feature point corresponds The attached line segments are grouped, and the boundary line of the continuous surface is determined based on the coordinates of the end points of the line segments belonging to the same group.

これにより、コントラスト等の影響により、カメラ画像から、実際は一つの線分として検出されるべきところ複数の線分として検出されても、センサ特徴点との対応関係に基づいて複数の線分を1つの線分としてグループ化し、連続面の境界線を判定するので、認識精度が低下する可能性をさらに低減することができる。
上記第4の実施の形態において、カメラ222は、発明18、25または27の撮像手段に対応し、yrs’軸回転機構は、発明22若しくは23の第1走査手段、または発明23の第1回転手段に対応し、zrs軸回転機構は、発明22若しくは23の第2走査手段、または発明23の第2回転手段に対応している。また、ステップS150は、発明30の撮像ステップに対応し、ステップS152〜S156は、発明18、19若しくは25の第2特徴検出手段、または発明30の第2特徴検出ステップに対応し、ステップS156は、発明25または26の画像線分検出手段に対応している。
As a result, due to the influence of contrast or the like, even though a plurality of line segments should be detected from the camera image as actually one line segment, a plurality of line segments are set to 1 based on the correspondence with sensor feature points. Since it is grouped as one line segment and the boundary line of the continuous surface is determined, the possibility that the recognition accuracy is lowered can be further reduced.
In the fourth embodiment, the camera 222 corresponds to the imaging means of the invention 18, 25 or 27, and the yrs' axis rotation mechanism is the first scanning means of the invention 22 or 23 or the first rotation of the invention 23. The zrs axis rotation mechanism corresponds to the second scanning means of the invention 22 or 23 or the second rotation means of the invention 23. Step S150 corresponds to the imaging step of the invention 30, steps S152 to S156 correspond to the second feature detection means of the invention 18, 19 or 25, or the second feature detection step of the invention 30, and step S156 This corresponds to the image line segment detecting means of the invention 25 or 26.

また、上記第4の実施の形態において、ステップS306、S310、S320は、発明18、19若しくは25の第1特徴検出手段、または発明30の第1特徴検出ステップに対応し、ステップS302、S340は、発明18、19、22、23若しくは25の測定結果取得手段、または発明30の測定結果取得ステップに対応している。また、ステップS306は、発明19の座標変換手段に対応し、ステップS310は、発明19の線分検出手段に対応し、ステップS334は、発明18、19、25若しくは26の認識手段、または発明30の認識ステップに対応している。   In the fourth embodiment, steps S306, S310, and S320 correspond to the first feature detecting means of the invention 18, 19 or 25, or the first feature detecting step of the invention 30, and steps S302 and S340 are This corresponds to the measurement result acquisition means of the invention 18, 19, 22, 23 or 25, or the measurement result acquisition step of the invention 30. Step S306 corresponds to the coordinate transformation means of the invention 19, step S310 corresponds to the line segment detection means of the invention 19, and step S334 corresponds to the recognition means of the invention 18, 19, 25 or 26, or the invention 30. This corresponds to the recognition step.

また、上記第4の実施の形態において、yrs’軸は、発明23の第1走査軸に対応し、zrs軸は、発明23の第2走査軸に対応している。   In the fourth embodiment, the yrs' axis corresponds to the first scanning axis of the invention 23, and the zrs axis corresponds to the second scanning axis of the invention 23.

〔第5の実施の形態〕
次に、本発明の第5の実施の形態を図面を参照しながら説明する。図42は、本発明に係る脚車輪型ロボット、物体認識装置および物体認識方法の第5の実施の形態を示す図である。
本実施の形態は、上記第4の実施の形態に対して、直交座標系において、測定点間を線分で接続した上でハフ変換を行う点が異なる。なお、以下、上記第4の実施の形態と異なる部分についてのみ説明し、上記第4の実施の形態と重複する部分については同一の符号を付して説明を省略する。
まず、3次元距離測定装置200で実行される物体認識処理を説明する。
[Fifth Embodiment]
Next, a fifth embodiment of the present invention will be described with reference to the drawings. FIG. 42 is a diagram showing a fifth embodiment of the leg-wheel robot, object recognition device, and object recognition method according to the present invention.
This embodiment differs from the fourth embodiment in that the Hough transform is performed after connecting the measurement points with line segments in the orthogonal coordinate system. Hereinafter, only the parts different from the fourth embodiment will be described, and the same parts as those in the fourth embodiment will be denoted by the same reference numerals and the description thereof will be omitted.
First, an object recognition process executed by the three-dimensional distance measuring apparatus 200 will be described.

図42は、3次元距離測定装置200で実行される物体認識処理を示すフローチャートである。
物体認識処理は、センシングプロセッサ210において実行されると、図42に示すように、ステップS150〜S306を経て、ステップS308に移行する。
ステップS308では、ステップS306で変換された座標情報に基づいて、走査平面座標系においてx軸方向に隣接する測定点の間を線分で接続し、ステップS310に移行して、得られた線上の点の座標情報に基づいてハフ変換により直交座標系における線分を検出する。
FIG. 42 is a flowchart showing object recognition processing executed by the three-dimensional distance measuring apparatus 200.
When the object recognition process is executed in the sensing processor 210, as shown in FIG. 42, the process proceeds to step S308 through steps S150 to S306.
In step S308, based on the coordinate information converted in step S306, measurement points adjacent in the x-axis direction in the scanning plane coordinate system are connected with line segments, and the process proceeds to step S310 and the obtained line is changed. A line segment in the orthogonal coordinate system is detected by Hough transform based on the coordinate information of the point.

そして、ステップS320、S324を経て、ステップS326に移行して、すべての走査平面についてステップS302〜S324の処理が終了したか否かを判定し、処理が終了したと判定したとき(Yes)は、ステップS328〜S339を経て、一連の処理を終了する。
一方、ステップS326で、すべての走査平面についてステップS302〜S324の処理が終了しないと判定したとき(No)は、ステップS340を経て、ステップS302に移行する。
Then, after steps S320 and S324, the process proceeds to step S326, where it is determined whether or not the processing of steps S302 to S324 has been completed for all the scanning planes, and when it is determined that the processing has been completed (Yes) Through steps S328 to S339, the series of processes is terminated.
On the other hand, when it is determined in step S326 that the processes in steps S302 to S324 are not completed for all scanning planes (No), the process proceeds to step S302 through step S340.

次に、本実施の形態の動作を説明する。
脚車輪型ロボット100の移動経路上に階段が存在し、これを乗り越える場合を説明する。上記第4の実施の形態とは、ハフ変換により線分を検出する点が異なるので、異なる部分についてのみ説明する。
ステップS308、S310を経て、変換された座標情報に基づいて測定点間が線分で接続され、得られた線上の点の座標情報に基づいてハフ変換により直交座標系における線分が検出される。
Next, the operation of the present embodiment will be described.
A case will be described in which a stairway exists on the movement path of the leg-wheel type robot 100 and the stairs are overcome. Since the fourth embodiment is different from the fourth embodiment in that a line segment is detected by Hough transform, only different portions will be described.
Through steps S308 and S310, measurement points are connected by line segments based on the converted coordinate information, and line segments in the orthogonal coordinate system are detected by Hough transform based on the coordinate information of the points on the obtained line. .

直交座標系において各測定点は、図33(a)に示すように、蹴込板および踏板の輪郭に沿った複数の点の集合として表される。図33(a)の例では、1段目の踏板に対応する領域において、いくつかの測定点が連続面から外れた領域に分布しているが、これは、測定面である踏板の光沢等の影響により測定結果にばらつきが生じたものであり、誤差領域A1である。また、領域A2は、他の領域と比べて測定解像度が低くなっている。   In the orthogonal coordinate system, each measurement point is represented as a set of a plurality of points along the contours of the kick board and the tread board as shown in FIG. In the example of FIG. 33 (a), in the region corresponding to the first step tread, some measurement points are distributed in a region deviating from the continuous surface. The measurement results vary due to the influence of the error area A1. The area A2 has a lower measurement resolution than the other areas.

この測定結果に対して線分接続を行うと、図33(b)に示すように、各測定点が1つの線で接続される。これにより、測定点が存在しない測定点間は、線上の点で補間されることになる。
この接続結果に対してハフ変換を行うと、図33(c)に示すように、各蹴込板および各踏板の輪郭に沿った線分が検出される。
When a line segment connection is made for this measurement result, each measurement point is connected by one line as shown in FIG. As a result, between the measurement points where no measurement point exists, the points on the line are interpolated.
When the Hough transform is performed on the connection result, as shown in FIG. 33 (c), a line segment along the outline of each kick board and each tread board is detected.

なお、線分接続を行わず、図33(a)の測定結果に対してハフ変換を行うと、図30(b)に示すように、各踏板の輪郭に沿った線分が検出されるが、各蹴込板に沿った線分は検出することができない。
このようにして、本実施の形態では、物体上の測定点までの距離を測定する測距センサ212aを備え、測距センサ212aを走査し、その走査範囲で測定可能な測定点について測距センサ212aの測定結果を取得し、取得した測定結果を直交座標系の座標に変換し、変換された測定点間を線分で接続し、得られた線上の点の座標に基づいてハフ変換により直交座標系における線分を検出し、検出した線分に基づいて連続面の境界を認識する。
When the Hough transform is performed on the measurement result of FIG. 33A without connecting the line segments, as shown in FIG. 30B, the line segments along the contours of the treads are detected. The line segment along each kick plate cannot be detected.
As described above, in this embodiment, the distance measuring sensor 212a that measures the distance to the measurement point on the object is provided, the distance measurement sensor 212a is scanned, and the distance measurement sensor can be measured for the measurement points that can be measured in the scanning range. The measurement result of 212a is acquired, the acquired measurement result is converted into coordinates in an orthogonal coordinate system, the converted measurement points are connected by line segments, and orthogonality is obtained by Hough transform based on the coordinates of the points on the obtained line A line segment in the coordinate system is detected, and the boundary of the continuous surface is recognized based on the detected line segment.

これにより、連続面の境界として物体の少なくとも平面的な形状を把握することができるので、脚型ロボットや脚車輪型ロボット100のように複雑な姿勢制御を必要とするロボットの姿勢制御に好適な認識結果を得ることができる。また、ハフ変換により線分を検出するので、測距センサ212aを用いた2次元距離測定装置212により物体認識を行う場合に、測定解像度の低下または測定結果のばらつきにより認識精度が低下する可能性を低減することができる。さらに、測定点間を線分で接続して得られた線上の点の座標に基づいて線分を検出するので、測定解像度の低下または測定結果のばらつきが生じても比較的正確な認識結果を得ることができ、認識精度が低下する可能性をさらに低減することができる。   This makes it possible to grasp at least the planar shape of an object as a boundary between continuous surfaces, which is suitable for posture control of robots that require complex posture control, such as legged robots and leg-wheel type robots 100. A recognition result can be obtained. Further, since the line segment is detected by the Hough transform, when the object recognition is performed by the two-dimensional distance measuring device 212 using the distance measuring sensor 212a, there is a possibility that the recognition accuracy may be lowered due to a decrease in measurement resolution or a variation in measurement results. Can be reduced. In addition, since line segments are detected based on the coordinates of points on the line obtained by connecting the measurement points with line segments, relatively accurate recognition results can be obtained even if measurement resolution decreases or measurement results vary. The possibility that the recognition accuracy is lowered can be further reduced.

さらに、最小二乗法に比して、検出が困難となるエッジに対してロバストな検出が可能となる。
上記第5の実施の形態において、ステップS152〜S156は、発明20の第2特徴検出手段に対応し、ステップS306〜S310、S320は、発明20の第1特徴検出手段に対応し、ステップS302、S340は、発明20の測定結果取得手段に対応している。また、ステップS306は、発明20の座標変換手段に対応し、ステップS308は、発明20の測定点間補間手段に対応し、ステップS310は、発明20の線分検出手段に対応し、ステップS334は、発明20の認識手段に対応している。
〔第6の実施の形態〕
次に、本発明の第6の実施の形態を図面を参照しながら説明する。図43ないし図46は、本発明に係る脚車輪型ロボット、物体認識装置および物体認識方法の第6の実施の形態を示す図である。
Furthermore, as compared with the least square method, robust detection can be performed for an edge that is difficult to detect.
In the fifth embodiment, steps S152 to S156 correspond to the second feature detection unit of the invention 20, steps S306 to S310, S320 correspond to the first feature detection unit of the invention 20, and steps S302, S340 corresponds to the measurement result acquisition means of the twentieth aspect. Step S306 corresponds to the coordinate conversion means of the twentieth aspect, step S308 corresponds to the interpolating means between measurement points of the twentieth aspect, step S310 corresponds to the line segment detection means of the twentieth aspect, and step S334 corresponds to the step S334. This corresponds to the recognition means of the twentieth aspect.
[Sixth Embodiment]
Next, a sixth embodiment of the present invention will be described with reference to the drawings. FIGS. 43 to 46 are views showing a sixth embodiment of the leg-wheel type robot, the object recognition apparatus, and the object recognition method according to the present invention.

本実施の形態は、上記第4の実施の形態に対して、直交座標系における各測定点での傾きを算出し、各傾きの出現頻度を算出し、算出した出現頻度および各測定点の座標に基づいて連続面の境界を認識する点が異なる。なお、以下、上記第4の実施の形態と異なる部分についてのみ説明し、上記第4の実施の形態と重複する部分については同一の符号を付して説明を省略する。   Compared to the fourth embodiment, the present embodiment calculates the inclination at each measurement point in the orthogonal coordinate system, calculates the appearance frequency of each inclination, the calculated appearance frequency and the coordinates of each measurement point The point of recognizing the boundary of the continuous surface is different. Hereinafter, only the parts different from the fourth embodiment will be described, and the same parts as those in the fourth embodiment will be denoted by the same reference numerals and the description thereof will be omitted.

まず、3次元距離測定装置200で実行される物体認識処理を説明する。
図43は、3次元距離測定装置200で実行される物体認識処理を示すフローチャートである。
物体認識処理は、センシングプロセッサ210において実行されると、図43に示すように、ステップS150〜S306を経て、ステップS408に移行する。
First, an object recognition process executed by the three-dimensional distance measuring apparatus 200 will be described.
FIG. 43 is a flowchart showing object recognition processing executed by the three-dimensional distance measuring apparatus 200.
When the object recognition process is executed in the sensing processor 210, as shown in FIG. 43, the process proceeds to step S408 through steps S150 to S306.

ステップS408では、ステップS306で変換された座標情報に基づいて、直交座標系における各測定点での傾きを算出する。
図44は、傾きの算出例を示す図である。なお、同図のx軸、z軸は、走査平面座標系における軸を示し、センサ座標系およびカメラ座標系における軸とは別個のものである。
測定点での傾きは、走査平面座標系において、各測定点ごとに、その測定点の座標と、x軸方向に隣接する所定数の測定点の座標とに基づいて、図44(a)に示すように、最小二乗法により算出することができる。
In step S408, the inclination at each measurement point in the orthogonal coordinate system is calculated based on the coordinate information converted in step S306.
FIG. 44 is a diagram illustrating an example of calculating the inclination. In the figure, the x-axis and z-axis indicate axes in the scanning plane coordinate system, and are separate from the axes in the sensor coordinate system and the camera coordinate system.
The inclination at the measurement point is shown in FIG. 44 (a) based on the coordinates of the measurement point and the coordinates of a predetermined number of measurement points adjacent in the x-axis direction for each measurement point in the scanning plane coordinate system. As shown, it can be calculated by the least square method.

図44(a)に示すように、最小二乗法により、傾きの算出対象の測定点(図44(a)中の白丸)を含む前後所定数の測定点に対する回帰直線を近似し、回帰直線の傾きを対象の測定点での傾きとする。最小二乗法は、データのばらつきによる影響は少ないが、計算量が比較的多くなる。
また、別の方法として、各測定点に対して、所定数の他の測定点を挟む前後2つの測定点の座標の差分値に基づいて傾きを算出することもできる。
As shown in FIG. 44 (a), a regression line is approximated to a predetermined number of measurement points before and after the measurement points (white circles in FIG. 44 (a)) to be calculated by the least square method. The inclination is the inclination at the target measurement point. The least squares method is less affected by data variations but has a relatively large amount of calculation.
As another method, for each measurement point, an inclination can be calculated based on a difference value between coordinates of two measurement points before and after a predetermined number of other measurement points.

図44(b)に示すように、前後2つの測定点のz座標の差分値である第1差分値(例えば、注目する測定点のz座標をziとすると、zi+2−zi-2)を算出するとともに、前後2つの測定点のx座標の差分値である第2差分値(例えば、注目する測定点のx座標をxiとすると、xi+2−xi-2)を算出し、これら算出結果から、注目する測定点での傾き(第1差分値/第2差分値)を求める。この方法では、データのばらつきによる影響が最小二乗法よりも大きくなるが、計算が、単純な引き算と割り算のみで済むため最小二乗法よりも高速に傾きを算出することができる。 As shown in FIG. 44 (b), a first difference value that is a difference value between z coordinates of two measurement points before and after (for example, if the z coordinate of the measurement point of interest is z i , z i + 2 −z i -2) calculates the second difference value is a difference value between the x-coordinate of the front and rear two measurement points (e.g., the x-coordinate of the measurement point of interest When x i, x i + 2 -x i-2 ) And the inclination (first difference value / second difference value) at the measurement point of interest is obtained from these calculation results. In this method, the influence of data variation is greater than that in the least squares method, but since the calculation requires only simple subtraction and division, the slope can be calculated faster than in the least squares method.

次いで、図43に示すように、ステップS410に移行して、ステップS408で算出した傾きの総数に対する各傾きの出現頻度を算出する。例えば、測定点の総数に対する各傾きの測定点の個数を出現頻度として算出する。
次いで、ステップS412に移行して、ステップS410で算出した各傾きの出現頻度のなかから未処理の傾きの出現頻度を選択し、ステップS414に移行して、選択した出現頻度とあらかじめ設定された閾値とを比較し、選択した出現頻度が閾値以上であるか否かを判定し、閾値以上であると判定したとき(Yes)は、ステップS416に移行する。
Next, as shown in FIG. 43, the process proceeds to step S410, and the appearance frequency of each inclination with respect to the total number of inclinations calculated in step S408 is calculated. For example, the number of measurement points at each inclination with respect to the total number of measurement points is calculated as the appearance frequency.
Next, the process proceeds to step S412, where the appearance frequency of the unprocessed slope is selected from the appearance frequencies of the respective slopes calculated in step S410, and the process proceeds to step S414, where the selected appearance frequency and a preset threshold value are selected. Are determined, and it is determined whether or not the selected appearance frequency is equal to or higher than the threshold value. When it is determined that the selected appearance frequency is equal to or higher than the threshold value (Yes), the process proceeds to step S416.

ステップS416では、選択した出現頻度に係る傾きおよびその所定範囲の傾きを有する測定点の座標情報に基づいて、それら測定点のうち座標が連続するものを含む領域を連続面であると判定し、連続面であると判定した領域において、傾きが急激に変化する測定点を連続面の境界として判定する。
次いで、ステップS418に移行して、連続面の境界として判定した測定点の座標情報をセンサ座標系に変換し、変換された座標情報をメモリに記憶し、ステップS420に移行する。
In step S416, based on the coordinate information of the measurement points having the inclination related to the selected appearance frequency and the inclination of the predetermined range, it is determined that the region including the measurement points having continuous coordinates is a continuous surface. In a region determined to be a continuous surface, a measurement point whose inclination changes abruptly is determined as a boundary of the continuous surface.
Next, the process proceeds to step S418, where the coordinate information of the measurement point determined as the boundary of the continuous surface is converted into the sensor coordinate system, the converted coordinate information is stored in the memory, and the process proceeds to step S420.

ステップS420では、すべての傾きについてステップS414〜S418、S434の処理が終了したか否かを判定し、終了したと判定したとき(Yes)は、ステップS326に移行する。
ステップS326では、すべての走査平面についてステップS302〜S420の処理が終了したか否かを判定し、処理が終了したと判定したとき(Yes)は、ステップS328〜S339を経て、一連の処理を終了する。
In step S420, it is determined whether or not the processes in steps S414 to S418 and S434 have been completed for all inclinations. If it is determined that the process has been completed (Yes), the process proceeds to step S326.
In step S326, it is determined whether or not the processing in steps S302 to S420 has been completed for all the scanning planes. When it is determined that the processing has been completed (Yes), the series of processing is terminated through steps S328 to S339. To do.

一方、ステップS326で、すべての走査平面についてステップS302〜S420の処理が終了しないと判定したとき(No)は、ステップS340を経て、ステップS302に移行する。
一方、ステップS420で、すべての傾きについてステップS414〜S418、S434の処理が終了しないと判定したとき(No)は、ステップS412に移行する。
On the other hand, when it is determined in step S326 that the processing of steps S302 to S420 is not completed for all scanning planes (No), the process proceeds to step S302 via step S340.
On the other hand, when it is determined in step S420 that the processes in steps S414 to S418 and S434 are not completed for all inclinations (No), the process proceeds to step S412.

一方、ステップS414で、選択した出現頻度が閾値未満であると判定したとき(No)は、ステップS434に移行して、選択した出現頻度に係る傾きを有する測定点の座標情報を測定ノイズとして除外し、ステップS420に移行する。
次に、本実施の形態の動作を説明する。
脚車輪型ロボット100の移動経路上に階段が存在し、これを乗り越える場合を説明する。上記第4の実施の形態とは、傾きの出現頻度に基づいて連続面の境界を判定する点が異なるので、異なる部分についてのみ説明する。
On the other hand, when it is determined in step S414 that the selected appearance frequency is less than the threshold value (No), the process proceeds to step S434, and the coordinate information of the measurement point having the inclination related to the selected appearance frequency is excluded as measurement noise. Then, the process proceeds to step S420.
Next, the operation of the present embodiment will be described.
A case will be described in which a stairway exists on the movement path of the leg-wheel type robot 100 and the stairs are overcome. Since the fourth embodiment is different from the fourth embodiment in that the boundary of the continuous surface is determined based on the appearance frequency of the inclination, only different portions will be described.

まず、ステップS408を経て、変換された座標情報に基づいて各測定点での傾きが算出される。
図45は、最小二乗法により算出したx軸方向およびz軸方向の傾きの一例を示す図である。
ここでは、最小二乗法により各測定点での傾きを算出する。ここで、最小二乗法を用いた場合に、図45(a)および(b)に示すように、最小二乗法を適用する複数の測定点に対して、x軸方向の傾きと、z軸方向の傾きとが異なる場合がある。そこで、下式(6)および(7)に示すように、x軸方向およびz軸方向の傾きを求める2つの直線の方程式を用いて最小二乗法計算を行う。

z=ax・x+bx …(6)
x=az・z+bz …(7)

そして、上式(6)におけるaxおよびbxを下式(8)により算出し、上式(7)におけるazおよびbzを下式(9)により算出する。
First, through step S408, the inclination at each measurement point is calculated based on the converted coordinate information.
FIG. 45 is a diagram illustrating an example of inclinations in the x-axis direction and the z-axis direction calculated by the least square method.
Here, the slope at each measurement point is calculated by the least square method. Here, when the least square method is used, as shown in FIGS. 45A and 45B, the inclination in the x-axis direction and the z-axis direction with respect to a plurality of measurement points to which the least square method is applied. May be different from the slope. Therefore, as shown in the following formulas (6) and (7), the least square method calculation is performed using two linear equations for obtaining inclinations in the x-axis direction and the z-axis direction.

z = a x · x + b x (6)
x = a z · z + b z (7)

Then, a x and b x in the above equation (6) are calculated by the following equation (8), and a z and b z in the above equation (7) are calculated by the following equation (9).

Figure 2008260117
Figure 2008260117

xおよびbx、並びにazおよびbzを算出すると、これらの算出結果を代入した、上式(6)および(7)の直線と、最小二乗計算に用いた各測定点との距離を残差hxおよびhzとして算出するとともに、前記各測定点に対する残差hxの二乗和と、残差hzの二乗和とを算出する(下式(10))。 When a x and b x and a z and b z are calculated, the distances between the straight lines of the above equations (6) and (7) and the respective measurement points used for the least square calculation are calculated. and calculates a residual h x and h z, calculates the square sum of the residual h x wherein for each measuring point, and a sum of squares of residuals h z (following formula (10)).

Figure 2008260117
Figure 2008260117

残差hxの二乗和および残差hzの二乗和が算出されると、両者を比較して値の小さい方の直線を、正しい直線として採用し、この直線の傾きに基づいて、算出対象の測定点での傾きを求める。具体的に、残差hxの二乗和の方が小さければ、「a=ax、b=bx」とし、残差hzの二乗和の方が小さければ、「a=1/az、b=1/bz」とする。 When the square sum of the residual h x and the square sum of the residual h z are calculated, the straight line with the smaller value is compared as the correct straight line, and the calculation target is calculated based on the slope of this straight line. Find the slope at the measurement point. Specifically, if the square sum of the residual h x is smaller, “a = a x , b = b x ”. If the square sum of the residual h z is smaller, “a = 1 / az”. , B = 1 / b z ”.

次いで、ステップS410〜S414を経て、各傾きの出現頻度が算出され、未判定の傾きの出現頻度が選択され、選択された出現頻度が閾値以上であるか否かが判定される。このとき、閾値以上であれば、ステップS416を経て、選択された出現頻度に係る傾きおよびその所定範囲の傾きを有する測定点の座標情報に基づいて連続面の境界が判定される。   Next, through steps S410 to S414, the appearance frequency of each inclination is calculated, the appearance frequency of the undetermined inclination is selected, and it is determined whether or not the selected appearance frequency is equal to or greater than a threshold value. At this time, if it is equal to or greater than the threshold value, the boundary of the continuous surface is determined through step S416 based on the selected inclination of the appearance frequency and the coordinate information of the measurement point having the predetermined range of inclination.

図46は、ある走査平面に対する傾きの出現頻度の一例を示す図である。
例えば、図46に示すような出現頻度が得られたとする。図46の例では、傾きが0近傍の出現頻度が比較的高くなっており、これらの傾きを有する測定点の座標が連続していれば、その連続する測定点を含む領域が連続面であると判定される。脚車輪型ロボット100の移動経路上には、段差が一定でかつ踏板が連続面となっている階段が存在しているため、踏板に対応する水平面が、傾き0および略0の測定点の連続する座標として現われる。この場合、そこに水平面があると推定することができる。
FIG. 46 is a diagram illustrating an example of the appearance frequency of the inclination with respect to a certain scanning plane.
For example, it is assumed that the appearance frequency as shown in FIG. 46 is obtained. In the example of FIG. 46, the appearance frequency near the inclination of 0 is relatively high, and if the coordinates of the measurement points having these inclinations are continuous, the region including the continuous measurement points is a continuous surface. It is determined. On the movement path of the leg-wheel type robot 100, there is a staircase having a constant step and a tread plate as a continuous surface. Therefore, the horizontal plane corresponding to the tread plate has a series of measurement points with zero inclination and substantially zero. Appear as coordinates. In this case, it can be estimated that there is a horizontal plane there.

そして、連続面であると判定された領域において、傾きが急激に変化する測定点が連続面の境界として判定される。図40の例では、ある走査平面について、(1)床面に対応する領域と1段目の蹴込板に対応する領域との交点、(2)領域と1段目の踏板に対応する領域との交点、(3)領域と2段目の蹴込板に対応する領域との交点、(4)領域と2段目の踏板に対応する領域との交点の4つの交点が、連続面の境界として判定される。   And in the area | region determined to be a continuous surface, the measurement point in which inclination changes rapidly is determined as a boundary of a continuous surface. In the example of FIG. 40, for a certain scanning plane, (1) an intersection of an area corresponding to the floor surface and an area corresponding to the first-stage kick board, (2) an area corresponding to the area and the first-stage tread board, and The four intersections of the intersection of (3) the area and the area corresponding to the second-stage kick board, and (4) the intersection of the area and the area corresponding to the second-stage tread are Determined.

次いで、ステップS418を経て、連続面の境界として判定された測定点の座標情報がセンサ座標系に変換され、変換された座標情報がメモリに記憶される。
一方、閾値未満であれば、ステップS434を経て、測定ノイズとして測定点の座標情報が除外される。
ステップS414〜S418、S434の処理は、すべての傾きについて行われる。
Next, through step S418, the coordinate information of the measurement point determined as the boundary of the continuous surface is converted into the sensor coordinate system, and the converted coordinate information is stored in the memory.
On the other hand, if it is less than the threshold value, the coordinate information of the measurement point is excluded as measurement noise through step S434.
The processes in steps S414 to S418 and S434 are performed for all inclinations.

このようにして、本実施の形態では、物体上の測定点までの距離を測定する測距センサ212aを備え、測距センサ212aを走査し、その走査範囲で測定可能な測定点について測距センサ212aの測定結果を取得し、取得した測定結果を直交座標系の座標に変換し、変換された各測定点ごとに、その測定点の座標およびその周辺の測定点の座標に基づいて直交座標系におけるその測定点での傾きを算出し、算出した傾きの総数に対する各傾きの出現頻度を算出し、算出した出現頻度および変換された各測定点の座標に基づいて連続面の境界を認識する。   As described above, in this embodiment, the distance measuring sensor 212a that measures the distance to the measurement point on the object is provided, the distance measurement sensor 212a is scanned, and the distance measurement sensor can be measured for the measurement points that can be measured in the scanning range. The measurement result of 212a is acquired, the acquired measurement result is converted into the coordinates of the orthogonal coordinate system, and for each converted measurement point, the orthogonal coordinate system is based on the coordinates of the measurement point and the coordinates of the surrounding measurement points. The slope at the measurement point is calculated, the appearance frequency of each slope with respect to the calculated total number of slopes is calculated, and the boundary of the continuous surface is recognized based on the calculated appearance frequency and the converted coordinates of each measurement point.

これにより、連続面の境界として物体の少なくとも平面的な形状を把握することができるので、脚型ロボットや脚車輪型ロボット100のように複雑な姿勢制御を必要とするロボットの姿勢制御に好適な認識結果を得ることができる。また、測定点での傾きの出現頻度および各測定点の座標に基づいて連続面の境界を認識するので、測距センサ212aを用いた2次元距離測定装置212により物体認識を行う場合に、認識精度が低下する可能性を低減することができる。   This makes it possible to grasp at least the planar shape of an object as a boundary between continuous surfaces, which is suitable for posture control of robots that require complex posture control, such as legged robots and leg-wheel type robots 100. A recognition result can be obtained. Further, since the boundary of the continuous surface is recognized based on the appearance frequency of the inclination at the measurement point and the coordinates of each measurement point, the recognition is performed when the object is recognized by the two-dimensional distance measuring device 212 using the distance measuring sensor 212a. The possibility that the accuracy is lowered can be reduced.

上記第6の実施の形態において、ステップS152〜S156は、発明21の第2特徴検出手段に対応し、ステップS306、S408〜S416は、発明21の第1特徴検出手段に対応し、ステップS302、S340は、発明21の測定結果取得手段に対応している。また、ステップS306は、発明21の座標変換手段に対応し、ステップS408は、発明21の傾き算出手段に対応し、ステップS410は、発明21の出現頻度算出手段に対応し、ステップS334は、発明21の認識手段に対応している。   In the sixth embodiment, steps S152 to S156 correspond to the second feature detection means of the invention 21, steps S306 and S408 to S416 correspond to the first feature detection means of the invention 21, and steps S302, S340 corresponds to the measurement result acquisition means of the invention 21. Step S306 corresponds to the coordinate conversion means of the invention 21, step S408 corresponds to the inclination calculation means of the invention 21, step S410 corresponds to the appearance frequency calculation means of the invention 21, and step S334 corresponds to the invention. This corresponds to 21 recognition means.

なお、上記第2および第3の実施の形態においては、物体上の連続面または連続面の境界を認識するように構成したが、これに限らず、物体上の断続面その他の面またはその境界を認識するように構成することもできる。
また、上記第3および第5の実施の形態においては、隣接する測定点の間を線分で接続するように構成したが、これに限らず、直線、多次曲線その他の曲線で測定点間を接続し、または直線、線分、多次曲線その他の曲線で測定点間を近似するように構成することもできる。この場合、必ずしも、測定点が線上に位置しなくてもよいし、隣接する測定点同士を対象としなくてもよい。
In the second and third embodiments, the configuration is such that the continuous surface on the object or the boundary of the continuous surface is recognized. However, the present invention is not limited to this. It can also be configured to recognize.
In the third and fifth embodiments, the adjacent measurement points are connected by line segments. However, the present invention is not limited to this. May be connected, or the measurement points may be approximated by a straight line, a line segment, a multi-order curve, or other curves. In this case, the measurement points do not necessarily have to be located on the line, and adjacent measurement points need not be targeted.

また、上記第3および第5の実施の形態においては、線分接続により得られた線上の点の座標に基づいてハフ変換により線分を検出するように構成したが、これに限らず、得られた線から所定距離内に存在する点の座標に基づいてハフ変換により線分を検出するように構成することもできる。
また、上記第4ないし第6の実施の形態において、3次元距離測定装置200は、測距センサ212aをyrs’軸回りに回転させ、2次元距離測定装置212をzrs軸回りに回転させる構成としたが、これに限らず、複数の測距センサ212aと、測距センサ212aの測定方向に対して直交する走査軸の回りに測距センサ212aをそれぞれ回転させる複数の回転機構とを備え、各測距センサ212aをzrs軸回りに配置する構成とすることもできる。
Further, in the third and fifth embodiments, the line segment is detected by the Hough transform based on the coordinates of the point on the line obtained by the line segment connection. However, the present invention is not limited to this. A line segment may be detected by Hough transform based on the coordinates of a point existing within a predetermined distance from the given line.
In the fourth to sixth embodiments, the three-dimensional distance measuring device 200 rotates the distance measuring sensor 212a around the yrs' axis and rotates the two-dimensional distance measuring device 212 around the zrs axis. However, the present invention is not limited to this, and includes a plurality of distance measuring sensors 212a and a plurality of rotation mechanisms that respectively rotate the distance measuring sensors 212a around a scanning axis orthogonal to the measurement direction of the distance measuring sensor 212a. The distance measuring sensor 212a may be arranged around the zrs axis.

これにより、上記第4ないし第6の実施の形態と同様に、連続面の境界として物体の立体的な形状を把握することができるので、脚型ロボットや脚車輪型ロボット100のように複雑な姿勢制御を必要とするロボットの姿勢制御に好適な認識結果を得ることができる。
また、上記第4ないし第6の実施の形態においては、カメラ画像からハフ変換により線分を検出するように構成したが、これに限らず、次のような検出方法により線分を検出するように構成することもできる。
As a result, as in the fourth to sixth embodiments, the three-dimensional shape of the object can be grasped as the boundary of the continuous surface, so that it is complicated as in the legged robot and legged wheel type robot 100. A recognition result suitable for posture control of a robot that requires posture control can be obtained.
In the fourth to sixth embodiments, the line segment is detected from the camera image by the Hough transform. However, the present invention is not limited to this, and the line segment is detected by the following detection method. It can also be configured.

第1の検出方法としては、エッジ抽出処理のパラメータを変えてエッジ抽出処理を複数回実行し、エッジ抽出された各カメラ画像からハフ変換により線分を検出する。そして、検出したすべての線分に基づいて連続面の境界を認識する。これにより、認識精度が低下する可能性をさらに低減することができる。
第2の検出方法としては、シャッター速度や絞り等のカメラ222の撮影条件を変えて複数の画像をカメラ222から取得し、それらカメラ画像に対して歪み補正処理およびエッジ抽出処理をそれぞれ実行し、エッジ抽出された各カメラ画像からハフ変換により線分を検出する。そして、検出したすべての線分に基づいて連続面の境界を認識する。これにより、認識精度が低下する可能性をさらに低減することができる。
As a first detection method, the edge extraction process is executed a plurality of times while changing the parameters of the edge extraction process, and a line segment is detected by Hough transform from each edge-extracted camera image. And the boundary of a continuous surface is recognized based on all the detected line segments. Thereby, possibility that recognition accuracy will fall can further be reduced.
As a second detection method, a plurality of images are acquired from the camera 222 by changing the shooting conditions of the camera 222 such as a shutter speed and an aperture, and distortion correction processing and edge extraction processing are respectively performed on the camera images. A line segment is detected by Hough transform from each camera image obtained by edge extraction. And the boundary of a continuous surface is recognized based on all the detected line segments. Thereby, possibility that recognition accuracy will fall can further be reduced.

また、上記第4ないし第6の実施の形態においては、物体上の連続面の境界を認識するように構成したが、これに限らず、物体上の連続面、断続面その他の面またはその境界を認識するように構成することもできる。
また、上記第4ないし第6の実施の形態においては、連続面の境界線として判定した直線に関する情報に基づいて境界データを生成するように構成したが、これに限らず、例えば、連続面の境界線として判定した直線に関する情報およびセンサ特徴点の座標情報に基づいて面データを生成するように構成することもできる。
In the fourth to sixth embodiments, the configuration is such that the boundary of the continuous surface on the object is recognized. However, the present invention is not limited to this. It can also be configured to recognize.
Moreover, in the said 4th thru | or 6th Embodiment, although comprised so that boundary data might be produced | generated based on the information regarding the straight line determined as the boundary line of a continuous surface, it is not restricted to this, For example, of a continuous surface It can also be configured to generate the surface data based on the information regarding the straight line determined as the boundary line and the coordinate information of the sensor feature point.

連続面の境界として判定したセンサ特徴点を結ぶ線分は、連続面と走査平面が交わる交線であるので、面データの生成は、例えば、ある走査平面においてセンサ特徴点を結ぶ線分と、z軸回りに隣接する走査平面においてセンサ特徴点を結ぶ線分との傾きおよび座標が所定範囲にあるものを連続面と判定し、それら線分および連続面の境界線として判定した直線に対応する座標情報を対応付けたり、公知の補間法を用いてつなぎ合わせたりすることにより行う。例えば、傾きが0に近い連続面は、水平面とみなすことができるので、そこが歩行可能な面であると判定することができる。   Since the line segment connecting the sensor feature points determined as the boundary of the continuous surface is an intersection line where the continuous surface and the scanning plane intersect, generation of the surface data includes, for example, a line segment connecting the sensor feature points in a certain scanning plane, In the scanning plane adjacent to the z-axis, those having inclinations and coordinates with a line segment connecting sensor feature points within a predetermined range are determined as continuous surfaces, and correspond to the straight line determined as the boundary line between these line segments and the continuous surface. This is performed by associating coordinate information or connecting them using a known interpolation method. For example, since a continuous surface having an inclination close to 0 can be regarded as a horizontal surface, it can be determined that the surface is a walking surface.

また、上記第4ないし第6の実施の形態においては、座標変換によりセンサ特徴点をカメラ画像に投影するように構成したが、これに限らず、カメラ画像の線分を走査平面座標系の平面に投影してもよいし、センサ特徴点およびカメラ画像の線分を他の座標系の平面または空間に投影してもよい。すなわち、カメラ画像の線分とセンサ特徴点の位置関係を判定する座標系は任意とすることができる。   In the fourth to sixth embodiments, the sensor feature points are projected onto the camera image by coordinate transformation. However, the present invention is not limited to this, and the line segment of the camera image is a plane of the scanning plane coordinate system. The sensor feature point and the line segment of the camera image may be projected onto a plane or space of another coordinate system. That is, the coordinate system for determining the positional relationship between the line segment of the camera image and the sensor feature point can be arbitrary.

また、上記第4ないし第6の実施の形態においては、カメラ画像から線分を検出し、検出した線分に基づいて連続面の境界を認識するように構成したが、これに限らず、物体上の特徴を示す点、直線、多次曲線、円、楕円その他の曲線、平面、曲面その他の面、立方体、球体その他の立体的特徴をカメラ画像から検出し、検出した特徴に基づいて連続面の境界を認識するように構成することもできる。   In the fourth to sixth embodiments, the line segment is detected from the camera image and the boundary of the continuous surface is recognized based on the detected line segment. However, the present invention is not limited to this. Detect points, straight lines, multi-dimensional curves, circles, ellipses and other curves, planes, curved surfaces and other surfaces, cubes, spheres and other three-dimensional features from the camera image, and continuous surfaces based on the detected features It is also possible to configure so as to recognize the boundary.

また、上記第4ないし第6の実施の形態においては、測距センサ212aの測定結果に基づいてセンサ特徴点を検出し、検出したセンサ特徴点に基づいて連続面の境界を認識するように構成したが、これに限らず、物体上の特徴を示す直線、線分、多次曲線、円、楕円その他の曲線、平面、曲面その他の面、立方体、球体その他の立体的特徴を検出し、検出した特徴に基づいて連続面の境界を認識するように構成することもできる。   In the fourth to sixth embodiments, the sensor feature point is detected based on the measurement result of the distance measuring sensor 212a, and the boundary of the continuous surface is recognized based on the detected sensor feature point. However, the present invention is not limited to this, and straight lines, line segments, multi-order curves, circles, ellipses and other curves, planes, curved surfaces and other surfaces, cubes, spheres, and other three-dimensional features that indicate features on the object are detected and detected. The boundary of the continuous surface can be recognized based on the feature.

また、上記第4ないし第6の実施の形態においては、センサ座標系におけるxrs−yrs平面と、カメラ座標系におけるxca−yca平面とが平行となるようにカメラ222を配置したが、これに限らず、測距センサ212aの走査範囲で測定可能な測定点を含む画像を撮影できれば、測距センサ212aに対して任意の位置および向きで配置することができる。   In the fourth to sixth embodiments, the camera 222 is arranged so that the xrs-yrs plane in the sensor coordinate system is parallel to the xca-yca plane in the camera coordinate system. First, if an image including a measurement point that can be measured within the scanning range of the distance measuring sensor 212a can be taken, the image can be arranged at an arbitrary position and orientation with respect to the distance measuring sensor 212a.

また、上記第2ないし第6の実施の形態においては、エンコーダ218を駆動回転軸に設けて構成としたが、これに限らず、従動回転軸に設けて構成とすることもできる。
これにより、伝達誤差の影響を受けずに第2走査処理における走査角度を高精度に検出することができる。
また、上記第2ないし第6の実施の形態においては、プーリ220a、220bおよびベルト221を介して、駆動回転軸の回転駆動力を従動回転軸へと伝達するように構成としたが、これに限らず、複数の歯車を介して、駆動回転軸の回転駆動力を従動回転軸へと伝達するように構成とすることもできる。
In the second to sixth embodiments, the encoder 218 is provided on the drive rotating shaft. However, the present invention is not limited to this, and the encoder 218 may be provided on the driven rotating shaft.
Thereby, the scanning angle in the second scanning process can be detected with high accuracy without being affected by the transmission error.
In the second to sixth embodiments, the rotational driving force of the driving rotating shaft is transmitted to the driven rotating shaft via the pulleys 220a and 220b and the belt 221. Not limited to this, the configuration may be such that the rotational driving force of the drive rotary shaft is transmitted to the driven rotary shaft via a plurality of gears.

また、上記第2ないし第6の実施の形態においては、第1走査処理における距離情報の取得を離散的(第2走査処理で回転させてから第1走査処理で距離情報を取得)に行う構成としたが、これに限らず、走査角度と測定距離との対応付けを行うことで連続的(第2走査処理で回転させつつ、第1走査処理で距離情報を取得)に行う構成とすることもできる。   In the second to sixth embodiments, the distance information is acquired in the first scanning process discretely (distance information is acquired in the first scanning process after being rotated in the second scanning process). However, the present invention is not limited to this, and the configuration is such that the scanning angle and the measurement distance are associated with each other continuously (distance information is acquired by the first scanning process while being rotated by the second scanning process). You can also.

また、上記第2ないし第6の実施の形態においては、CPU60からの指令信号に基づいて、走査角度範囲および走査単位角度を設定するように構成としたが、これに限らず、3次元距離測定装置200にあらかじめ設定しておく構成とすることもできる。
また、上記第2ないし第6の実施の形態において、3次元距離測定装置200は、測距センサ212aをyrs’軸回りに回転させ、2次元距離測定装置212をzrs軸回りに回転させる構成としたが、これに限らず、測距センサ212aをzrs軸回りに回転させ、2次元距離測定装置212をyrs’軸回りに回転させる構成とすることもできる。また、yrs’軸およびzrs軸回りに限らず、測距センサ212aの測定方向に対して互いに直交する2つの軸であれば、どの方向の軸回りでもよい。さらに、このような回転機構に限らず、測距センサ212aの測定方向とは異なる第1走査方向に測距センサ212aを移動させ、測距センサ212aの測定方向および第1走査方向とは異なる第2走査方向に測距センサ212aを移動させるように移動機構として構成することもできる。この場合、移動経路の形状としては、直線のほか円弧その他の曲線を採用することができる。回転機構と移動機構の組み合わせることもできる。
In the second to sixth embodiments, the scanning angle range and the scanning unit angle are set based on the command signal from the CPU 60. However, the present invention is not limited to this, and the three-dimensional distance measurement is performed. A configuration in which the apparatus 200 is set in advance may be employed.
In the second to sixth embodiments, the three-dimensional distance measuring device 200 rotates the distance measuring sensor 212a around the yrs' axis and rotates the two-dimensional distance measuring device 212 around the zrs axis. However, the present invention is not limited to this, and the distance measuring sensor 212a may be rotated about the zrs axis, and the two-dimensional distance measuring device 212 may be rotated about the yrs' axis. Further, not only about the yrs ′ axis and the zrs axis, but any two axes that are orthogonal to the measurement direction of the distance measuring sensor 212a may be used. Further, not limited to such a rotation mechanism, the distance measuring sensor 212a is moved in a first scanning direction that is different from the measuring direction of the distance measuring sensor 212a, and the measuring direction of the distance measuring sensor 212a is different from the first scanning direction. It can also be configured as a moving mechanism so as to move the distance measuring sensor 212a in two scanning directions. In this case, as the shape of the movement path, a circular arc or other curve can be adopted in addition to a straight line. A combination of a rotating mechanism and a moving mechanism can also be used.

このような構成の変更は、複数の測距センサ212aおよび回転機構を備える上記構成についても同様に適用することができる。
また、上記第4ないし第6の実施の形態においては、図47(a)に示すように、2次元距離測定装置212自身を回転させているが、これに限らず、光学式の測距センサを有する2次元距離測定装置であれば、図47(b)に示すように、測定方向の光軸上に挿入したミラーを回転させてもよい。
Such a configuration change can be similarly applied to the above-described configuration including the plurality of distance measuring sensors 212a and the rotation mechanism.
In the fourth to sixth embodiments, as shown in FIG. 47A, the two-dimensional distance measuring device 212 itself is rotated. However, the present invention is not limited to this, and an optical distance measuring sensor is used. As shown in FIG. 47B, a mirror inserted on the optical axis in the measurement direction may be rotated.

図47は、測距センサの測定方向を変更する場合の構成を示す図である。
また、上記第2ないし第6の実施の形態は、独立の実施の形態として説明したが、上記第1の実施の形態に対して上記第2ないし第6の実施の形態を適用することもできる。
また、上記第2ないし第6の実施の形態においては、本発明に係る脚車輪型ロボット、物体認識装置および物体認識方法を、階段を乗り越える場合について適用したが、これに限らず、階段以外の段差を乗り越える場合についても同様に適用することができる。
FIG. 47 is a diagram showing a configuration in the case where the measurement direction of the distance measuring sensor is changed.
Moreover, although the said 2nd thru | or 6th embodiment was demonstrated as an independent embodiment, the said 2nd thru | or 6th embodiment can also be applied with respect to the said 1st Embodiment. .
In the second to sixth embodiments, the leg-wheel type robot, the object recognition device, and the object recognition method according to the present invention are applied to the case of going over the stairs. The same applies to the case of overcoming the step.

また、上記第2ないし第6の実施の形態においては、本発明に係る脚車輪型ロボット、物体認識装置および物体認識方法を脚車輪型ロボット100に適用したが、これに限らず、本発明の主旨を逸脱しない範囲で他の場合にも適用可能である。例えば、直動関節で脚構造を実現する脚車輪型ロボットや他の構成のロボット、車両その他の装置に適用することができる。また、認識情報の伝達手段と組み合わせることにより視覚障害者が外界を認識するための手段としての装置、認識方法への展開も考えられる。   In the second to sixth embodiments, the leg-wheel type robot, the object recognition device, and the object recognition method according to the present invention are applied to the leg-wheel type robot 100. However, the present invention is not limited to this. The present invention can be applied to other cases without departing from the spirit of the invention. For example, the present invention can be applied to a leg-wheel type robot that realizes a leg structure with a linear motion joint, a robot having another configuration, a vehicle, and other devices. Further, by combining with a means for transmitting recognition information, development to a device and a recognition method as a means for a visually impaired person to recognize the outside world is also conceivable.

(a)〜(c)は、本発明に係る脚車輪装置11の構成を示す図である。(A)-(c) is a figure which shows the structure of the leg wheel apparatus 11 which concerns on this invention. 本発明に係る脚車輪型ロボット100の正面図である。1 is a front view of a leg wheel type robot 100 according to the present invention. 本発明に係る脚車輪型ロボット100の側面図である。1 is a side view of a leg wheel type robot 100 according to the present invention. 障害物センサ34、36の構成を示す図である。It is a figure which shows the structure of the obstruction sensors 34 and 36. FIG. 脚車輪型ロボット100の移動制御システムを示すブロック図である。2 is a block diagram showing a movement control system of a leg wheel type robot 100. FIG. 車輪走行モードへの変換処理を示すフローチャートである。It is a flowchart which shows the conversion process to wheel drive mode. 脚部12が待避位置にある場合の一例を示す図であり、(b)は、脚部12が待避位置にない場合の一例を示す図である。It is a figure which shows an example in case the leg part 12 exists in a retracted position, (b) is a figure which shows an example in case the leg part 12 is not in a retracted position. 昇降制御処理を示すフローチャートである。It is a flowchart which shows a raising / lowering control process. 光切断法の原理を説明するための図である。It is a figure for demonstrating the principle of a light cutting method. 段差にレーザ光を照射した状態およびカメラ32の撮像素子の画像を示す図である。It is a figure which shows the state which irradiated the laser beam to the level | step difference, and the image of the image pick-up element of the camera. (a)〜(e)は、脚車輪型ロボット100の段差を乗り越えるときの移動動作の一例を示す図である。(A)-(e) is a figure which shows an example of the movement operation | movement when getting over the level | step difference of the leg wheel type robot 100. FIG. 高い段差を乗り越えるときの移動動作の一例を示す図である。It is a figure which shows an example of the movement operation | movement when getting over a high level | step difference. 脚車輪型ロボット100の正面図である。1 is a front view of a leg wheel type robot 100. FIG. 脚車輪型ロボット100の側面図である。1 is a side view of a leg wheel type robot 100. FIG. 3次元距離測定装置200の正面図(yrs−zrs平面)である。It is a front view (yrs-zrs plane) of the three-dimensional distance measuring apparatus 200. 3次元距離測定装置200の側面図(xrs−zrs平面)である。It is a side view (xrs-zrs plane) of the three-dimensional distance measuring apparatus 200. 3次元距離測定装置200の上面図(yrs−xrs平面)である。It is a top view (yrs-xrs plane) of the three-dimensional distance measuring apparatus 200. 測距センサの走査範囲を示す図である。It is a figure which shows the scanning range of a ranging sensor. 脚車輪型ロボット100の移動制御システムを示すブロック図である。2 is a block diagram showing a movement control system of a leg wheel type robot 100. FIG. 2次元距離測定装置212の制御構造を示すブロック図である。It is a block diagram which shows the control structure of the two-dimensional distance measuring apparatus 212. 3次元距離測定装置200の制御構造を示すブロック図である。3 is a block diagram showing a control structure of a three-dimensional distance measuring apparatus 200. FIG. 2次元距離測定装置212の距離測定の原理を説明するための図である。It is a figure for demonstrating the principle of the distance measurement of the two-dimensional distance measuring apparatus 212. FIG. 第1走査処理および第2走査処理により走査を行った場合を示す図である。It is a figure which shows the case where it scans by the 1st scanning process and the 2nd scanning process. 3次元距離測定装置200の距離の計測例を示す図である。It is a figure which shows the example of a distance measurement of the three-dimensional distance measuring apparatus 200. FIG. 3次元距離測定装置200で実行される物体認識処理を示すフローチャートである。4 is a flowchart showing object recognition processing executed by the three-dimensional distance measuring apparatus 200. ハフ変換の原理を説明するための図である。It is a figure for demonstrating the principle of Hough conversion. 昇降制御処理を示すフローチャートである。It is a flowchart which shows a raising / lowering control process. 第1走査処理による測定結果を示すグラフである。It is a graph which shows the measurement result by the 1st scanning process. 図28の各測定点の回転座標系の距離情報を直交座標系の座標情報に変換した結果を示すグラフである。It is a graph which shows the result of having converted the distance information of the rotation coordinate system of each measurement point of FIG. 28 into the coordinate information of a rectangular coordinate system. 直交座標系における測定点およびハフ変換の結果を示すグラフである。It is a graph which shows the measurement point in a rectangular coordinate system, and the result of Hough transform. 連続面の判定結果を示す図である。It is a figure which shows the determination result of a continuous surface. 3次元距離測定装置200で実行される物体認識処理を示すフローチャートである。5 is a flowchart showing object recognition processing executed by the three-dimensional distance measuring apparatus 200. 直交座標系における測定点、線分接続の結果およびハフ変換の結果を示すグラフである。It is a graph which shows the measurement point in a rectangular coordinate system, the result of line segment connection, and the result of Hough transform. カメラ222および3次元距離測定装置200を用いた物体認識の原理を説明するための図である。It is a figure for demonstrating the principle of the object recognition using the camera 222 and the three-dimensional distance measuring apparatus 200. FIG. 3次元距離測定装置200で実行される物体認識処理を示すフローチャートである。4 is a flowchart showing object recognition processing executed by the three-dimensional distance measuring apparatus 200. センサ座標系、カメラ座標系およびカメラ222の撮像素子面の座標系を示す図である。2 is a diagram illustrating a sensor coordinate system, a camera coordinate system, and a coordinate system of an image sensor surface of a camera 222. FIG. カメラ画像の線分およびセンサ特徴点の対応付け、グループ化および境界線の判定を行う場合を説明するための図である。It is a figure for demonstrating the case where the matching of the segment of a camera image and a sensor feature point, grouping, and the determination of a boundary line are performed. 昇降制御処理を示すフローチャートである。It is a flowchart which shows a raising / lowering control process. カメラ画像の処理結果を示す図である。It is a figure which shows the processing result of a camera image. 連続面の判定結果を示す図である。It is a figure which shows the determination result of a continuous surface. センサ特徴点のカメラ画像への投影結果を示す図である。It is a figure which shows the projection result to the camera image of a sensor feature point. 3次元距離測定装置200で実行される物体認識処理を示すフローチャートである。4 is a flowchart showing object recognition processing executed by the three-dimensional distance measuring apparatus 200. 3次元距離測定装置200で実行される物体認識処理を示すフローチャートである。4 is a flowchart showing object recognition processing executed by the three-dimensional distance measuring apparatus 200. 傾きの算出例を示す図である。It is a figure which shows the example of calculation of inclination. 最小二乗法により算出したx軸方向およびz軸方向の傾きの一例を示す図である。It is a figure which shows an example of the inclination of the x-axis direction computed by the least square method, and az-axis direction. ある走査平面に対する傾きの出現頻度の一例を示す図である。It is a figure which shows an example of the appearance frequency of the inclination with respect to a certain scanning plane. 測距センサの測定方向を変更する場合の構成を示す図である。It is a figure which shows the structure in the case of changing the measurement direction of a ranging sensor.

符号の説明Explanation of symbols

100 脚車輪型ロボット
10 基体
11 脚車輪装置
13 第1リンク
14 第1ギアボックス(第1回転関節)
15 シャフト
16 脚駆動機構部(第2回転関節)
17 車輪駆動機構部
16a,16b,17a,17b 第1〜第2プーリ
16c,17c 第1〜第2ベルト
19 第2リンク
20 車輪
22、24 脚先センサ
26 水平レーザ
28、30 垂直レーザ
32 カメラ
34、36 障害物センサ
40 関節モータ
50 車輪モータ
42、52 エンコーダ
44、54 ドライバ
60 CPU
62 角度取込I/F
64 通信I/F
70 3軸姿勢センサ
76 ハブ
200 3次元距離測定装置
204 下側支持板
206 上側支持板
208 カメラ支持板
210 センシングプロセッサ
212 2次元距離測定装置
212a 測距センサ
212c、216 モータ
212d、218 エンコーダ
212b、214 ドライバ
220a、220b プーリ
221 ベルト
32、222 カメラ
100 leg wheel type robot 10 base 11 leg wheel device 13 first link 14 first gear box (first rotation joint)
15 Shaft 16 Leg drive mechanism (second rotary joint)
17 Wheel drive mechanisms 16a, 16b, 17a, 17b First to second pulleys 16c, 17c First to second belts 19 Second link 20 Wheels 22, 24 Leg tip sensors 26 Horizontal lasers 28, 30 Vertical lasers 32 Cameras 34 36 Obstacle sensor 40 Joint motor 50 Wheel motor 42, 52 Encoder 44, 54 Driver 60 CPU
62 Angle capture I / F
64 Communication I / F
70 Three-axis attitude sensor 76 Hub 200 Three-dimensional distance measurement device 204 Lower support plate 206 Upper support plate 208 Camera support plate 210 Sensing processor 212 Two-dimensional distance measurement device 212a Distance sensor 212c, 216 Motor 212d, 218 Encoder 212b, 214 Driver 220a, 220b Pulley 221 Belt 32, 222 Camera

Claims (11)

基体と、前記基体に対して関節を介して支持された複数の脚部と、各脚部に回転自在に設けられた車輪と、前記各脚部及び前記車輪を駆動する動力を付与するアクチュエータと、前記アクチュエータを制御する制御手段とを備え、環境に応じて前記脚部及び前記車輪の少なくとも一方を駆動することにより移動する脚車輪型ロボットであって、
前記車輪を、前記脚部の前記基体に支持された端部側に構成された股関節部に設けると共に、前記車輪を駆動するアクチュエータを、前記車輪の近傍に設け、
前記制御手段は、前記脚部及び前記車輪を駆動するアクチュエータのうち前記移動に用いていないアクチュエータに対して、供給する駆動電力量を節減する制御を行うことを特徴とする脚車輪型ロボット。
A base, a plurality of legs supported to the base via joints, wheels provided rotatably on the legs, and an actuator for applying power to drive the legs and the wheels; A leg wheel type robot that includes a control means for controlling the actuator and moves by driving at least one of the leg portion and the wheel according to the environment,
The wheel is provided in a hip joint portion configured on an end side supported by the base body of the leg portion, and an actuator for driving the wheel is provided in the vicinity of the wheel,
The said control means performs the control which reduces the drive electric energy supplied with respect to the actuator which is not used for the said movement among the actuators which drive the said leg part and the said wheel, The leg wheel type robot characterized by the above-mentioned.
前記アクチュエータとして、前記脚部を駆動する第1アクチュエータと前記車輪を駆動する第2アクチュエータとをそれぞれ独立に備えることを特徴とする請求項1に記載の脚車輪型ロボット。   The leg-wheel type robot according to claim 1, wherein the actuator includes a first actuator that drives the leg and a second actuator that drives the wheel independently. 前記制御手段は、前記車輪のみを用いて移動を行うときに、前記複数の脚部を前記車輪の接地面よりも上方の位置に移動且つ保持するように前記第1アクチュエータを制御することを特徴とする請求項2に記載の脚車輪型ロボット。   The control means controls the first actuator so as to move and hold the plurality of legs at a position above the ground contact surface of the wheel when moving using only the wheel. The leg-wheel type robot according to claim 2. 前記制御手段は、前記複数の脚部を前記車輪の接地面よりも上方の位置に移動後に、前記車輪のみで移動を行っている間は、前記第1アクチュエータに対する駆動電力の供給を断つ制御を行うことを特徴とする請求項3に記載の脚車輪型ロボット。   The control means performs control to cut off the supply of driving power to the first actuator while the plurality of legs are moved only by the wheel after being moved to a position above the ground contact surface of the wheel. The leg-wheel type robot according to claim 3, wherein the leg-wheel type robot is performed. 前記制御手段は、前記複数の脚部を前記車輪の接地面よりも上方の位置に移動後に、前記車輪のみで移動を行っている間は、前記第1アクチュエータに対して、前記上方に位置する脚部の姿勢保持に必要な最小限の量の駆動電力を供給するように制御を行うことを特徴とする請求項3に記載の脚車輪型ロボット。   The control means is positioned above the first actuator while the plurality of legs are moved only by the wheel after being moved to a position above the ground contact surface of the wheel. 4. The leg-wheel type robot according to claim 3, wherein control is performed so as to supply a minimum amount of driving power necessary for maintaining the posture of the leg. 前記制御手段は、前記脚部のみを用いた移動を行っている間は、前記第2アクチュエータに対する駆動電力の供給を断つ制御を行うことを特徴とする請求項2乃至請求項5のいずれか1項に記載の脚車輪型ロボット。   6. The control device according to claim 2, wherein the control unit performs control to cut off the supply of driving power to the second actuator while the movement using only the leg portion is performed. The leg-wheel type robot described in the item. 前記制御手段は、前記脚部を駆動して障害物を乗り越えるときに、当該障害物を乗り越える脚部に設けられた前記車輪が前記障害物に接触するように、前記第1アクチュエータを制御することを特徴とする請求項2乃至請求項6のいずれか1項に記載の脚車輪型ロボット。   The control means controls the first actuator such that when the leg is driven to get over an obstacle, the wheel provided on the leg that gets over the obstacle comes into contact with the obstacle. The leg-wheel type robot according to any one of claims 2 to 6, wherein the leg-wheel type robot is provided. 脚車輪型ロボットの基体に対して関節を介して支持される脚部と、前記脚部に回転自在に設けられた車輪と、前記脚部及び前記車輪を駆動する動力を付与するアクチュエータとを備え、前記脚部及び前記車輪の少なくとも一方の駆動により前記脚車輪型ロボットを移動させる脚車輪装置であって、
前記車輪を、前記脚部の前記基体に支持される端部側に構成された股関節部に設ける構成とし、前記車輪を駆動するアクチュエータを、前記車輪の近傍に設ける構成としたことを特徴とする脚車輪装置。
A leg portion supported via a joint with respect to a base of a leg-wheel type robot, a wheel rotatably provided on the leg portion, and an actuator for applying power for driving the leg portion and the wheel A leg wheel device for moving the leg wheel type robot by driving at least one of the leg portion and the wheel,
The wheel is configured to be provided in a hip joint portion configured on an end side supported by the base body of the leg portion, and an actuator for driving the wheel is configured to be provided in the vicinity of the wheel. Leg wheel device.
前記車輪を回転駆動するアクチュエータを、前記脚部を駆動するアクチュエータとは独立に設けたことを特徴とする請求項8に記載の脚車輪装置。   The leg wheel device according to claim 8, wherein an actuator that rotationally drives the wheel is provided independently of an actuator that drives the leg portion. 請求項8又は請求項9に記載の脚車輪装置を備えた脚車輪型ロボット。   A leg-wheel type robot comprising the leg-wheel device according to claim 8 or 9. 前記車輪のみによる走行時に、環境に応じて脚部の姿勢を変更する脚部姿勢変更手段を備えることを特徴とする請求項1乃至請求項7並びに請求項10のいずれか1項に記載の脚車輪型ロボット。   The leg according to any one of claims 1 to 7, further comprising leg posture changing means for changing the posture of the leg in accordance with an environment during travel using only the wheels. Wheeled robot.
JP2007270136A 2007-03-16 2007-10-17 Leg-wheel type robot and leg-wheel device Pending JP2008260117A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007270136A JP2008260117A (en) 2007-03-16 2007-10-17 Leg-wheel type robot and leg-wheel device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2007069086 2007-03-16
JP2007270136A JP2008260117A (en) 2007-03-16 2007-10-17 Leg-wheel type robot and leg-wheel device

Publications (1)

Publication Number Publication Date
JP2008260117A true JP2008260117A (en) 2008-10-30

Family

ID=39982994

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007270136A Pending JP2008260117A (en) 2007-03-16 2007-10-17 Leg-wheel type robot and leg-wheel device

Country Status (1)

Country Link
JP (1) JP2008260117A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015016549A (en) * 2010-05-20 2015-01-29 アイロボット コーポレイション Mobile Human interface robot
WO2019131696A1 (en) * 2017-12-28 2019-07-04 Groove X株式会社 Robot housing movement mechanism
EP3827936A1 (en) 2019-11-29 2021-06-02 Seiko Epson Corporation Control method for robot system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015016549A (en) * 2010-05-20 2015-01-29 アイロボット コーポレイション Mobile Human interface robot
WO2019131696A1 (en) * 2017-12-28 2019-07-04 Groove X株式会社 Robot housing movement mechanism
CN111526972A (en) * 2017-12-28 2020-08-11 Groove X 株式会社 Robot with moving mechanism
JPWO2019131696A1 (en) * 2017-12-28 2020-12-24 Groove X株式会社 Robot that houses the moving mechanism
US11547947B2 (en) 2017-12-28 2023-01-10 Groove X, Inc. Robot housing movement mechanism
CN111526972B (en) * 2017-12-28 2023-07-18 Groove X 株式会社 Robot with moving mechanism
JP7444433B2 (en) 2017-12-28 2024-03-06 Groove X株式会社 Robot housing the movement mechanism
EP3827936A1 (en) 2019-11-29 2021-06-02 Seiko Epson Corporation Control method for robot system
US11633851B2 (en) 2019-11-29 2023-04-25 Seiko Epson Corporation Control method for robot system

Similar Documents

Publication Publication Date Title
JP2009096335A (en) Legged robot
JP5510081B2 (en) Obstacle avoidance support device, obstacle avoidance support method, and moving object
JP4241651B2 (en) Mobile device
JP2009008648A (en) Three-dimensional distance measuring device and caster-type robot
JP5310285B2 (en) Self-position estimation apparatus and self-position estimation method
JP2009050936A (en) Interference determination device and leg wheel type robot
JP5278283B2 (en) Autonomous mobile device and control method thereof
WO2014064990A1 (en) Plane detection device, autonomous locomotion device provided with plane detection device, method for detecting road level difference, device for detecting road level difference, and vehicle provided with device for detecting road level difference
JP2011209845A (en) Autonomous mobile body, self-position estimation method and map information creation system
JP5067215B2 (en) Mobile robot and environmental map generation method
JP2009136987A (en) Mobile robot and method of correcting floor surface shape data
KR20100098997A (en) Robot cleaner and method for detecting position thereof
JP2008139035A (en) 3-d environment measurement device and mobile robot provided with the same
JP2009095957A (en) Joint module and legged robot
JP4476468B2 (en) Legged mobile robot
JP2009174898A (en) Moving body and environmental information generation method
JP2007190654A (en) Leg-wheel robot
JP2009006984A (en) Leg wheel type robot
JP2008260117A (en) Leg-wheel type robot and leg-wheel device
JP5358961B2 (en) Method for controlling scanning speed of mobile robot and laser range sensor
JP2010005718A (en) Leg type robot
JP2009006466A (en) Leg wheel type robot
EP1768008A1 (en) Mobile vehicle
JP2009006982A (en) Leg wheel type robot
JP2009042147A (en) Apparatus and method for recognizing object