JP2009008647A - 物体認識装置及び物体認識方法 - Google Patents

物体認識装置及び物体認識方法 Download PDF

Info

Publication number
JP2009008647A
JP2009008647A JP2007270137A JP2007270137A JP2009008647A JP 2009008647 A JP2009008647 A JP 2009008647A JP 2007270137 A JP2007270137 A JP 2007270137A JP 2007270137 A JP2007270137 A JP 2007270137A JP 2009008647 A JP2009008647 A JP 2009008647A
Authority
JP
Japan
Prior art keywords
measurement
gradient
calculated
distance
leg
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007270137A
Other languages
English (en)
Inventor
Kazuteru Hida
和輝 飛田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NSK Ltd
Original Assignee
NSK Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NSK Ltd filed Critical NSK Ltd
Priority to JP2007270137A priority Critical patent/JP2009008647A/ja
Publication of JP2009008647A publication Critical patent/JP2009008647A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】2次元距離測定装置の測定情報を用いて物体の形状を認識するのに好適な物体認識装置及び物体認識方法を提供する。
【解決手段】物体認識装置200を、センシングプロセッサ110と、2次元距離測定装置112と、2次元距離測定装置112を回転駆動するモータ116と、モータ116の回転角度位置を検出するエンコーダ118とを含んだ構成とし、2次元距離測定装置112を、測距センサ112aと、モータ112cと、モータ112cの回転角度位置を検出するエンコーダ112dとを含んだ構成とした。そして、測距センサ112aを水平方向の軸まわりに回転させながら距離を測定すると共に2次元距離測定装置112を垂直方向の軸まわりに回転させることで複数の測定平面における距離を測定し、当該測定した距離情報に基づき各測定点の勾配及び勾配の出現頻度を算出し、当該出現頻度に基づき測定範囲内に存在する物体の形状を認識する。
【選択図】図4

Description

本発明は、未知の物体の形状を認識する技術に係り、特に、測定平面内に存在する物体上の測定点までの距離を測定する測距センサを用いて、物体の形状を認識する物体認識装置及び物体認識方法に関する。
従来、2次元距離測定装置として、2次元レンジセンサ、レーザレンジファインダ、測域センサ、平面センサなどがある。また、これら2次元距離測定装置を用いて外界認識を行う技術として、非特許文献1に記載の技術、及び特許文献1に記載の技術が開示されている。
非特許文献1には、2次元距離測定装置を、水平方向と垂直方向の2方向に走査し、これにより得られる3次元の距離情報を用いて、マップの生成及び自己位置の認識を行う技術が開示されている。この技術は、例えば、不整地を移動するためのクローラ機構を有するレスキューロボットなどへの利用を想定したものであり、2次元距離測定装置の測定情報を用いて、人が入り込めない空間などにおける、自己位置を推定すると共に、その周辺のマップ情報を生成する。このマップ情報には、移動できる空間があるかどうかを知るための、大まかな位置や形状の情報が含まれており、そこに何があるのかという周辺物体の詳しい形状情報までは含まれていない。
また、特許文献1には、2次元距離測定装置により測定した測定値を用いて、搬送ロボットの前方にある階段を認識する技術が開示されている。この技術は、2次元距離測定装置を鉛直方向に走査して測定した距離の測定値のうち、鉛直方向に等距離の測定値が断続的に複数回続く場合に階段があると認識するものである。
特開2004−136418号公報 石田宏、永谷圭司、五福明夫「不整地移動ロボットのための3次元自己位置推定と環境地図の構築」、第21回 日本ロボット学会学術講演会予稿集、112a、(2003−09)
しかしながら、上記非特許文献1の従来技術では、不整地を複雑な姿勢制御を必要とせずに移動できるロボットなどに対して有効な情報を得る方法は記載されているが、例えば、人が活動する環境を動作環境とする脚型ロボット、脚車輪型ロボットなどの、階段の昇降動作などの複雑な姿勢制御を必要とする動作を行うロボットに対して有効である、階段の詳細な形状など、物体の機能的な意味が判る形状情報を得る方法までは記載されていない。
また、上記特許文献1の従来技術では、鉛直方向の等距離の測定値が断続的に複数回続くことで階段を認識しているため、段差が一定でない階段、建物の非常階段のように蹴込が連続面でない階段、非常用の外階段のように階段踏板のみの階段など、様々な形状の階段に対応するのは困難である。
そこで、本発明は、このような従来の技術の有する未解決の課題に着目してなされたものであって、2次元距離測定装置(測距センサ)の測定情報を用いて物体の形状を認識するのに好適な物体認識装置及び物体認識方法を提供することを目的としている。
〔発明1〕 上記目的を達成するために、発明1の物体認識装置は、測定距離範囲内に存在する物体上の測定点までの距離を測定する測距センサと、前記測距センサを、その測定方向に対して直交する2つの軸のうち一方の軸まわりに回転駆動させる第1回転機構と、前記第1回転機構を制御して、前記測距センサを、前記第1回転機構の回転方向に、所定の回転角度ずつ回動させると共に、前記測距センサによって各回転角度に応じた距離情報を測定する処理である第1走査処理を行う第1走査手段と、前記第1走査手段によって測定された、各測定点の距離情報とその周辺の測定点の距離情報とに基づき、各測定点に対する勾配を算出する勾配算出手段と、前記勾配算出手段で算出した各測定点の勾配に基づき、各勾配の出現頻度を算出する出現頻度算出手段と、前記出現頻度算出手段で算出した各勾配の出現頻度と、各勾配に対応する測定点の座標情報とに基づき、前記測距センサの測定平面内に存在する物体の形状を認識する形状認識手段と、を備えることを特徴とする。
このような構成であれば、測距センサによって、測定距離範囲内に存在する物体上の測定点までの距離を測定することが可能であり、第1回転機構によって、測距センサを、その測定方向に対して直交する2つの軸のうち一方の軸まわりに回転駆動させることが可能である。
また、第1走査手段によって、第1回転機構を制御して、前記測距センサを、前記第1回転機構の回転方向に、所定の回転角度ずつ回動させると共に、前記測距センサによって各回転角度に応じた距離情報を測定する処理である第1走査処理を行うことが可能である。
また、勾配算出手段によって、第1走査手段によって測定された、各測定点の距離情報とその周辺の測定点の距離情報とに基づき、各測定点に対する勾配を算出することが可能であり、出現頻度算出手段によって、勾配算出手段で算出した各測定点の勾配に基づき、各勾配の出現頻度を算出することが可能であり、形状認識手段によって、出現頻度算出手段で算出した各勾配の出現頻度と、各勾配に対応する測定点の座標情報とに基づき、前記測距センサの測定平面内に存在する物体の形状を認識することが可能である。
ここで、勾配算出手段は、例えば、直交座標系において複数個の測定値に対する回帰直線を公知の最小二乗法で近似すると共に、この回帰直線から勾配を算出したり、直交座標系において一方の軸方向の複数の測定点を間に挟む両端2つの測定値の差分値と、他方の軸方向の複数の測定点を間に挟む両端2つの測定値の差分値とを用いて勾配を算出したりする。以下、発明7の勾配算出ステップにおいて同様である。
また、形状認識手段は、各勾配の出現頻度と、各勾配に対応する測定点の座標情報とに基づき、測定平面内に存在する物体の凹凸を認識する。例えば、勾配が0又は略0の測定点が連続する場合は、そこに平面があると認識することが可能である。以下、発明7の形状認識ステップについても同様である。
〔発明2〕 更に、発明2の物体認識装置は、発明1の物体認識装置において、前記測距センサを、前記第1回転機構と共に、前記測定方向に対して直交する2つの軸のうち前記第1回転機構とは異なる方向の軸まわりに回転駆動させる第2回転機構と、1つの前記測定平面に対する前記第1走査処理が終了する毎に、前記第2回転機構を制御して、前記測距センサを前記第1回転機構と共に、前記第2回転機構の回転方向に所定の回転角度ずつ回動させる処理である第2走査処理を行う第2走査手段と、を備え、前記第1走査手段は、前記第2走査処理において、前記測距センサが前記所定の回転角度の回動をする毎に前記第1走査処理を実行し、前記勾配算出手段は、前記測定平面毎に、前記第1走査処理によって測定された、各測定点の距離情報と、その周辺の測定点の距離情報とに基づき、各測定点に対する勾配を算出し、前記出現頻度算出手段は、前記測定平面毎に、前記勾配算出手段で算出した各測定点の勾配に基づき、各勾配の出現頻度を算出し、前記形状認識手段は、前記測定平面毎に、前記出現頻度算出手段で算出した各勾配の出現頻度と、各勾配に対応する測定点の座標情報とに基づき、前記測定平面内に存在する物体の形状を認識することを特徴とする。
このような構成であれば、第2回転機構によって、測距センサを、第1回転機構と共に、測距センサの測定方向に対して直交する2つの軸のうち第1回転機構とは異なる方向の軸まわりに回転駆動させることが可能である。
また、第2走査手段によって、1つの測定平面に対する第1走査処理が終了する毎に、第2回転機構を制御して、測距センサを第1回転機構と共に、第2回転機構の回転方向に所定の回転角度ずつ回動させる処理である第2走査処理を行うことが可能である。
また、勾配算出手段は、測定平面毎に、第1走査処理によって測定された、各測定点の距離情報と、その周辺の測定点の距離情報とに基づき、各測定点に対する勾配を算出し、出現頻度算出手段は、測定平面毎に、勾配算出手段で算出した各測定点の勾配に基づき、各勾配の出現頻度を算出し、形状認識手段は、測定平面毎に、出現頻度算出手段で算出した各勾配の出現頻度と、各勾配に対応する測定点の座標情報とに基づき、測定平面内に存在する物体の形状を認識することが可能である。
ここで、形状認識手段は、測距センサを、例えば、ピッチ回転させたときの距離情報、及びヨー回転させたときの距離情報の双方から算出した各測定点の勾配情報と、各測定点の座標情報とから物体の形状を認識することができるので、物体の面形状を認識することが可能である。以下、発明8の形状認識ステップについても同様である。
〔発明3〕 更に、発明3の物体認識装置は、発明2の物体認識装置において、前記形状認識手段は、前記第2回転機構の軸まわりに連続する複数の前記測定平面における、各隣り合う2つの測定平面について、双方の出現頻度を比較し、当該比較結果に基づき前記複数の測定平面のつながりを推定し、当該推定結果に基づき前記物体の面の形状を認識することを特徴とする。
このような構成であれば、形状認識手段によって、第2回転機構の軸まわりに連続する複数の前記測定平面における、各隣り合う2つの測定平面について、双方の出現頻度を比較し、当該比較結果に基づき前記複数の測定平面のつながりを推定し、当該推定結果に基づき前記物体の面の形状を認識することが可能である。
〔発明4〕 更に、発明4の物体認識装置は、発明1乃至3のいずれか1の物体認識装置において、前記形状認識手段は、前記出現頻度が所定の出現頻度よりも高い勾配に対する、各測定点の距離情報及び座標情報に基づき、前記物体の形状を認識することを特徴とする。
このような構成であれば、形状認識手段は、出現頻度が所定の出現頻度よりも高い勾配に対する、各測定点の距離情報及び座標情報に基づき、前記物体の形状を認識することが可能である。
〔発明5〕 一方、上記目的を達成するために、発明5の物体認識方法は、測定距離範囲内に存在する物体上の測定点までの距離を測定する測距センサを、その測定方向に対して直交する2つの軸のうち一方の軸まわりに、所定の回転角度ずつ回動させると共に、前記測距センサによって各回転角度に応じた距離情報を測定する処理である第1走査処理を行う第1走査ステップと、前記第1走査ステップによって測定された、各測定点の距離情報と、その周辺の測定点の距離情報とに基づき、各測定点に対する勾配を算出する勾配算出ステップと、前記勾配算出ステップで算出した各測定点の勾配に基づき、各勾配の出現頻度を算出する出現頻度算出ステップと、前記出現頻度算出ステップで算出した各勾配の出現頻度と、各勾配に対応する測定点の座標情報とに基づき、前記測距センサの測定平面内に存在する物体の形状を認識する形状認識ステップと、を含むことを特徴とする。
〔発明6〕 更に、発明6の物体認識方法は、発明5の物体認識方法において、1つの前記測定平面に対する前記第1走査処理が終了する毎に、前記測距センサを、前記第1回転機構と共に、前記測定方向に対して直交する2つの軸のうち前記第1回転機構とは異なる方向の軸まわりに、所定の回転角度ずつ回動させる処理である第2走査処理を行う第2走査ステップを含み、前記第1走査ステップにおいては、前記第2走査処理において、前記測距センサが前記所定の回転角度の回動をする毎に前記第1走査処理を実行し、前記勾配算出ステップにおいては、前記測定平面毎に、前記第1走査処理によって測定された、各測定点の距離情報と、その周辺の測定点の距離情報とに基づき、各測定点に対する勾配を算出し、前記出現頻度算出ステップにおいては、前記測定平面毎に、前記勾配算出ステップで算出した各測定点の勾配に基づき、各勾配の出現頻度を算出し、前記形状認識ステップにおいては、前記測定平面毎に、前記出現頻度算出ステップで算出した各勾配の出現頻度と、各勾配に対応する測定点の座標情報とに基づき、前記測定平面内に存在する物体の形状を認識することを特徴とする。
〔発明7〕 また、上記目的を達成するために、発明7の脚車輪型ロボットは、基体と、前記基体に対してヨー軸回りの自由度およびピッチ軸またはロール軸回りの自由度を有して連結された脚部と、前記脚部に回転可能に設けられた車輪と、前記ヨー軸回りの自由度の範囲で前記脚部を駆動するための動力を付与する第1アクチュエータと、前記ピッチ軸またはロール軸回りの自由度の範囲で前記脚部を駆動するための動力を付与する第2アクチュエータと、前記第1アクチュエータおよび前記第2アクチュエータを制御する制御手段と、発明1乃至発明4のいずれか1に記載の物体認識装置とを備え、前記脚部の駆動および前記車輪の回転により移動する脚型ロボットであって、
前記制御手段は、前記基体の向きを一定方向に保ちながら、自脚車輪型ロボットの進行方向と、前記各車輪の進行方向とが一致するように、前記第2アクチュエータを制御する。
このような構成であれば、脚車輪型ロボットの移動時において、その基体の向きを一定方向に保ちながら、自脚車輪型ロボットの進行方向と各車輪の進行方向とが一致するように第2アクチュエータが制御される。
〔発明8〕 また、上記目的を達成するために、発明8の脚車輪型ロボットは、基体と、前記基体に対してヨー軸回りの自由度およびピッチ軸またはロール軸回りの自由度を有して連結された複数の脚部と、前記各脚部に回転可能に設けられた車輪と、前記ヨー軸回りの自由度の範囲で前記各脚部を駆動するための動力を付与する第1アクチュエータと、前記ピッチ軸またはロール軸回りの自由度の範囲で前記各脚部を駆動するための動力を付与する第2アクチュエータと、前記第1アクチュエータおよび前記第2アクチュエータを制御する制御手段と、発明1乃至発明4のいずれか1に記載の物体認識装置とを備え、前記脚部の駆動および前記車輪の回転により移動する脚車輪型ロボットであって、
前記制御手段は、旋回時に、前記基体を所定の回転中心位置でヨー軸周りに自転運動させたときの前記各車輪の操舵時の回転中心の描く円弧軌道と前記操舵時の回転中心との接点位置における該回転中心の運動方向と、前記各車輪の進行方向とが一致するように、前記第2アクチュエータを制御する。
このような構成であれば、旋回時は、制御手段により、基体を所定の回転中心位置でヨー軸(垂直軸)周りに自転運動させたときの各車輪の操舵時の回転中心の描く円弧軌道と操舵時の回転中心との接点位置における該回転中心の運動方向と、各車輪の進行方向とが一致するように、第2アクチュエータが制御される。
〔発明9〕 さらに、発明9の脚車輪型ロボットは、発明8の脚車輪型ロボットにおいて、前記制御手段は、前記基体の向きを一定方向に保ちながら、自脚車輪型ロボットの進行方向と、前記各車輪の進行方向とが一致するように、前記第2アクチュエータを制御する。
このような構成であれば、脚車輪型ロボットの移動時において、その基体の向きを一定方向に保ちながら、自脚車輪型ロボットの進行方向と各車輪の進行方向とが一致するように第2アクチュエータが制御される。
以上説明したように、発明1〜発明4の物体認識装置によれば、物体の面の形状を認識(又は推定)することができるので、これにより、段差が一定でない階段、建物の非常階段のように蹴込が連続面でない階段、非常用の外階段のように階段踏板のみの階段など、様々な形状の物体を認識できるという効果が得られる。また、例えば、ヒューマンアシストロボットの外界認識などに適用することで、移動ロボットが接地可能な面のデータを提供することができる。また、例えば、認識した情報の伝達手段と組み合わせることで、視覚障害者が外界を認識するための手段など幅広い応用が可能である。
一方、発明5及び発明6の物体認識方法によれば、上記発明1及び発明2の物体認識装置と同等の効果が得られる。
一方、発明7、9の脚車輪型ロボットによれば、脚車輪型ロボットを、その向きとは関係なく自由な方向へと移動させることができるので、各方向への素早い移動を実現できると共に、例えば、脚車輪型ロボットの各構成部が妨げとなって旋回できないような狭くて入り組んだエリアなど、脚車輪型ロボットの向きを変更することが困難なエリアにおいても活動が可能となるという効果が得られる。
また、発明8の脚車輪型ロボットによれば、旋回時に、脚車輪型ロボットの基体を所定の回転中心位置でヨー軸周りに自転運動させたときの各車輪の操舵時の回転中心の描く円弧軌道と操舵時の回転中心との接点における該回転中心の運動方向と、各車輪の進行方向とを一致させることができるので、脚車輪型ロボットを、所定の旋回中心位置で前後移動させずに旋回(クローラなどによる超信地旋回と同等の旋回)をさせることができるという効果が得られる。また、基体の中心位置を、自転させる時の回転中心位置とすることで、最小の旋回半径で脚車輪型ロボットを旋回させることが可能である。
〔第1の実施の形態〕
以下、本発明の第1の実施の形態を図面に基づき説明する。図1〜図12は、本発明に係る物体認識装置及び物体認識方法の第1の実施の形態を示す図である。
本実施の形態は、本発明に係る物体認識装置を、脚車輪型ロボットに適用したものである。
まず、図1に基づき、本実施の形態に係る物体認識装置の構成を説明する。
図1(a)は、本実施の形態に係る物体認識装置200の構成を示すブロック図であり、(b)は、本実施の形態に係る2次元距離測定装置112の詳細な構成を示すブロック図である。
物体認識装置200は、図1(a)に示すように、センシングプロセッサ110と、2次元距離測定装置112と、指令信号及び後述するエンコーダ118の出力信号に基づき後述するモータ116を制御するドライバ114と、2次元距離測定装置112を回転駆動するモータ116と、モータ116の回転角度位置を検出するエンコーダ118とを含んで構成されている。
センシングプロセッサ110は、専用のプログラムを実行し、後述するドライバ112bに指令信号を与えて、後述する測距センサ112aを回転駆動し、その測定平面内に存在する物体上の距離を測定する第1走査処理を実行すると共に、1つの測定平面に対する第1走査処理が終了する毎に、ドライバ114に指令信号を与えて、2次元距離測定装置112を回転駆動する第2走査処理を実行する。
更に、センシングプロセッサ110は、上記第1走査処理及び上記第2走査処理を経て、2次元距離測定装置112で測定した距離の情報(以下、距離情報という)に基づき、各測定平面の各測定点の勾配の出現頻度を算出する処理を実行すると共に、当該算出した出現頻度及び各測定点の座標情報に基づき、各測定平面における物体の1次元の形状(凹凸)及び測定範囲における物体の面の形状を認識する処理を実行する。
2次元距離測定装置112は、図1(b)に示すように、測定範囲内に存在する物体上の測定点までの距離を測定する測距センサ112aと、指令信号及び後述するエンコーダ112dの出力信号に基づきモータ112cの駆動を制御するドライバ112bと、モータ112cと、モータ112cの回転角度位置を検出するエンコーダ112dとを含んで構成されている。
ドライバ112bは、センシングプロセッサ110からの指令信号において指定された走査角度範囲及び走査角度単位(例えば、0.36[°]などの所定の回転角度)に基づき、モータ112cの回転軸を、指定された走査角度単位ずつ回転させる制御を行う。
ここで、測距センサ112aの原点位置(走査角度が0[°]の位置)における、レーザの出力方向の軸をx軸、x軸に対して直交する2つの軸のうち一方の軸をy軸(本実施の形態では、センサの横方向と水平方向の軸となる)、他方の軸をz軸(本実施の形態では、垂直方向の軸となる)とする。
モータ112cは、測距センサ112aのレーザ出力部(不図示)及び受光部(不図示)を、水平方向の軸(y軸)まわりに回転駆動するように設けられており、ドライバ112bからの制御信号に応じて、自己の回転軸を指定された走査角度単位(回転角度θ)ずつ回転駆動する。
ここで、図2は、2次元距離測定装置112の距離測定の原理を説明する図である。
2次元距離測定装置は、測距センサ112aが、モータ112cの回転軸の回転駆動に応じて、水平方向の軸(y軸)まわりに指定された走査角度単位ずつ回動し、且つ、回動する毎に、図2に示すように、レーザ出力部からレーザ光を出力すると共に、出力光に対する物体(図2中の障害物)からの反射光を受光部で受光して、各回転角度(走査角度)に応じた距離(図2中の測定距離L(物体と受光部との間の距離))を測定する。
また、図3(a)は、測距センサ112aを、水平方向の軸(y軸)まわりに回転駆動させたときの測定距離と回転角度θとの関係を示す図であり、(b)は、2次元距離測定装置112を、垂直方向の軸(z軸)まわりに回転駆動したときの測定平面と回転角度φとの関係を示す図である。
つまり、上記第1走査処理は、例えば、図3(a)に示すように、測距センサ112aを、水平方向の軸(y軸)まわりに指定された走査角度単位ずつ回動させながら、原点位置に対する各回転角度(図3(a)中のθ1、θ2、θ3)に応じた距離情報(図3(a)中のL(θ1)、L(θ2)、L(θ3))を測定する処理となる。
また、第1走査処理における、モータ112cの回転軸の回転中心と、レーザの走査軌道線の両端とを結んで形成される平面が、測定平面(物体が存在しない場合は扇形の平面)となる。
図1(a)に戻って、ドライバ114は、センシングプロセッサ110からの指令信号において指定された走査角度範囲及び走査角度単位(回転角度φ)に基づき、モータ116の回転軸を、指定された走査角度単位ずつ回転させる制御を行う。
モータ116は、減速機(不図示)及びプーリ(不図示)を介して、2次元距離測定装置112を、垂直方向の軸(z軸)まわりに回転駆動するように設けられており、ドライバ114からの制御信号に応じて、自己の回転軸を指定された走査角度単位ずつ回転駆動する。これにより、2次元距離測定装置112は、モータ116の回転軸の回転駆動に応じて、垂直方向の軸まわりに指定された走査角度単位ずつ回動する。
つまり、上記第2走査処理は、図3(b)に示すように、2次元距離測定装置
12を、垂直方向の軸(z軸)まわりに指定された走査角度単位(φ)ずつ回動させる処理となる。
そして、上記第1走査処理と上記第2走査処理とを交互に連続して行うことにより、第1走査処理によって形成される測定平面を、垂直方向の軸(z軸)まわりに連続して形成する。これにより、測定範囲内(走査角度範囲内)に存在する物体の3次元の距離情報を測定することが可能である。
また、図3(b)に示すように、第2走査処理後の各測定点の距離情報を、L(θi,φj)と表記する。ここで、iは、水平方向の軸(y軸)まわりの走査角度に応じて各測定点に付与される通し番号であり、jは、垂直方向の軸(z軸)まわりの走査角度に応じて各測定点に付与される通し番号である。
次に、図4に基づき、物体認識装置200における物体認識処理の流れを説明する。ここで、図4は、物体認識装置200における物体認識処理を示すフローチャートである。
物体認識処理は、後述するCPU60からの指令信号に応じて、センシングプロセッサ110が、ROM(不図示)に記憶された専用のプログラムを読み出し、当該読み出したプログラムを実行することで実現される処理であり、処理が開始されると、図4に示すように、まずステップS100に移行する。
ステップS100では、物体認識装置200において、CPU60からの指令信号に基づき、測距センサ112a及び2次元距離測定装置112の走査角度範囲及び走査角度単位を設定して、ステップS102に移行する。ここで、CPU60からの指令信号には、走査角度範囲及び走査角度単位の情報が含まれている。
ステップS102では、2次元距離測定装置112において、センシングプロセッサ110からの指令信号に応じて、ドライバ112b、モータ112c及びエンコーダ112dを駆動し、測距センサ112aを、ステップS100で設定されたy軸まわりの走査角度範囲内において、同じくステップS100で設定された走査角度単位ずつy軸まわりに回動させると共に、各回転角度に応じた距離情報を測定する処理(第1走査処理)を実行して、ステップS104に移行する。
ステップS104では、センシングプロセッサ110において、ステップS102で測定した距離情報に対して、メディアンフィルタを用いたフィルタリング処理を実行してノイズ成分を除去し、ステップS106に移行する。
ここで、ノイズ成分除去後の各測定点の測定距離L[mm]は、例えば、図5に示すようになる。図5は、測定範囲内に階段がある場合の、第1走査処理による測定結果を示す図である。図5において、横軸は各走査角度に応じた測定点の番号(第1走査角度番号)であり、縦軸は各走査角度番号の測定点に対する測定距離L[mm]である。
ステップS106では、センシングプロセッサ110において、ステップS104でノイズ除去後の回転座標系の距離情報を直交座標系の距離情報に変換して、ステップS108に移行する。
ここで、図7は、測距センサ112aの回転座標系の測定データをセンサ測定平面上の直交座標系のデータに変換する場合を示す図である。
回転座標系から直交座標系への変換は、図7に示すように、第1走査処理による各測定点の座標は、z−x平面上の座標となり、x軸は、第2走査処理によって、z軸まわりに走査角度単位ずつ座標位置が変化する。従って、直交座標系への変換は、図7に示すように、z軸まわりの各回転角度毎に行われる。
また、図5に示す各測定点の回転座標系の測定距離を、直交座標系の測定距離へと変換することで、図6に示すように、各回転角度に対応するx軸方向の距離[mm]とz軸方向の距離[mm]とで表現される2次元の座標情報となる。ここで、図6は、図5の各測定点の回転座標系の測定距離を直交座標系の測定距離に変換した場合の測定結果を示す図である。図6において、横軸はx軸方向の距離Lx[mm]であり、縦軸はz軸方向の距離Lz[mm]である。
ステップS108では、センシングプロセッサ110において、ステップS106で直交座標系に変換された距離情報に基づき、各測定点の勾配を算出してステップS110に移行する。
ここで、図8(a)及び(b)は、勾配の算出例を示す図である。
各測定点の勾配は、各測定点の測定距離と、その前後の所定数の測定点の距離情報とを用いて、図8(a)に示すように、最小二乗法を用いて算出する。
図8(a)に示すように、最小二乗法を用いて、勾配の算出対象の測定点(図8(a)中の白丸)を含む前後所定数の測定点に対する回帰直線を近似し、当該回帰直線の勾配を、対象の測定点の勾配とする。最小二乗法は、データのばらつきによって受ける影響は少ないが、計算量が比較的多くなる。
また、別の方法として、図8(b)に示すように、各測定点に対して、所定数の他の測定点を挟む前後2つの測定点の距離情報の差分値を用いて勾配を算出する。
具体的に、図8(b)に示すように、前後2つの測定点のz軸方向の測定距離の差分値である第1差分値(例えば、注目する測定点のz軸方向の距離をziとすると、zi+2−zi-2)を算出すると共に、前後2つの測定点のx軸方向の測定距離の差分値である第2差分値(例えば、注目する測定点のx軸方向の距離をxiとすると、xi+2−xi-2)を算出し、これら算出結果から、注目する測定点の勾配(第1差分値/第2差分値)を求める。この方法では、データのばらつきによる影響が最小二乗法よりも大きくなるが、計算が、単純な引き算と割り算のみで済むため最小二乗法よりも高速に勾配を算出することができる。
ステップS110では、センシングプロセッサ110において、ステップS108で算出した勾配に基づき、各勾配の出現頻度を算出して、ステップS112に移行する。
本実施の形態では、勾配毎の測定点の個数を出現頻度として算出する。
ステップS112では、センシングプロセッサ110において、ステップS110で算出した各勾配の出現頻度に基づき、出現頻度の判定処理が未処理の勾配の出現頻度を選択して、ステップS114に移行する。
ステップS114では、センシングプロセッサ110において、ステップS112で選択した勾配の出現頻度と予め設定された閾値とを比較すると共に選択された出現頻度は、閾値以上か否かを判定し、閾値以上と判定された場合(Yes)は、ステップS116に移行し、そうでない場合(No)は、ステップS134に移行する。
ステップS116に移行した場合は、センシングプロセッサ110において、上記選択した勾配とこの勾配を有する各測定点の座標情報とを対応付けて不図示のRAM等の記録媒体に記録し、ステップS118に移行する。
ステップS118では、センシングプロセッサ110において、全ての勾配についてステップS114の判定処理が終了したか否かを判定し、終了したと判定された場合(Yes)は、ステップS120に移行し、そうでない場合(No)は、ステップS112に移行する。
ステップS120に移行した場合は、センシングプロセッサ110において、ステップS116で記録した勾配と各測定点の座標情報とに基づき、連続面(実際は、連続面と測定平面とが交差する線)の有無を判断して、ステップS122に移行する。
ここで、連続面の判断は、例えば、所定の勾配範囲に含まれる勾配に対応する各測定点の座標情報に基づき、当該測定点の座標が連続しているときに、これらの座標位置と交差する連続面があると判断する。所定の勾配範囲に含まれる勾配に対応する測定点の座標が連続していないときは、連続面がないと判断する。
ステップS122では、センシングプロセッサ110において、ステップS120の判断結果に基づき連続面があるか否かを判定し、連続面があると判定された場合(Yes)は、ステップS124に移行し、そうでない場合(No)は、ステップS126に移行する。
ステップS124に移行した場合は、センシングプロセッサ110において、連続面に対応する各測定点の測定距離の座標系をセンサ座標系(3次元座標)に変換して、変換後のセンサ座標系の測定距離の情報を勾配の情報と対応付けて、不図示のRAM等の記録媒体に記録して、ステップS126に移行する。
ステップS126では、センシングプロセッサ110において、第2走査処理の走査角度範囲及び走査角度単位に対応する、全ての測定平面に対して、連続面の判断処理が終了したか否かを判定し、終了したと判定された場合(Yes)は、ステップS128に移行し、そうでない場合(No)は、ステップS132に移行する。
ステップS128に移行した場合は、センシングプロセッサ110において、ステップS124においてRAM等の記録媒体に記録した連続面と判断された測定距離の情報に基づき、面データを生成して、ステップS130に移行する。
ここで、面データの生成は、例えば、各測定平面間において、連続面と判断された勾配及びその測定点の座標情報とを比較し、座標値と勾配とが近いものを面と判断して、これらの座標情報を対応付けたり、公知の補完法を用いてつなぎ合わせたりすることで行う。
例えば、勾配が0に近い測定点の連続する座標情報から構成される面データの面は、水平面と判断できるので、そこが歩行可能な面だと判断できる。
ステップS130では、物体認識装置200において、後述するハブ76及び通信I/F64を介して、ステップS128で生成した面データを、CPU60に出力して処理を終了する。
一方、ステップS126において、全ての測定平面に対して連続面の判断処理が終了しておらず、ステップS132に移行した場合は、物体認識装置200において、センシングプロセッサ110からの指令信号に応じて、ドライバ114、モータ116及びエンコーダ118を駆動し、2次元距離測定装置112を、ステップS100で設定されたz軸まわりの走査角度範囲内において、同じくステップS100で設定された走査角度単位ずつz軸まわりに回動させる処理(第2走査処理)を実行して、ステップS102に移行する。
また、ステップS114において、出現頻度が閾値以上ではなく、ステップS134に移行した場合は、センシングプロセッサ110において、ステップS112で選択した勾配に対応する測定点の測定距離を測定ノイズとして除外し、ステップS118に移行する。
次に、図9及び図10に基づき、上記物体認識装置200を搭載した脚車輪型ロボット100について説明する。
ここで、図9(a)は、物体認識装置200の搭載位置を示す図であり、(b)は、カメラ32と物体認識装置200との配置関係を示す図である。また、図10は、脚車輪型ロボット100の移動制御システムを示すブロック図である。
物体認識装置200は、図9(a)に示すように、脚車輪型ロボット100の基体上部に、後述するカメラ32と共に配設されている。
図9(a)に示すように、物体認識装置200及び測距センサ112aの原点位置(回転角度θ及びφが0[°]の位置)における、測距センサ112aの測定方向の軸がx軸、測定方向に対して水平方向の軸と直行する軸がz軸となる。
また、カメラ32と物体認識装置200とは、図9(b)に示すように、支持部材及びプーリを介して、カメラ32が上側に、物体認識装置200が下側に配設された構成となっている。
次に、図10に基づき、脚車輪型ロボット100の移動制御システムを説明する。
脚車輪型ロボット100の4本の各脚部の回転関節には、図10に示すように、各回転関節を回転駆動する関節モータ40がそれぞれ設けられている。各関節モータ40には、関節モータ40の回転角度位置を検出するエンコーダ42と、モータ指令信号およびエンコーダ42の出力信号に基づいて関節モータ40の駆動を制御するドライバ44が設けられている。
各脚部の駆動輪には、駆動輪を回転駆動する車輪モータ50がそれぞれ設けられている。各車輪モータ50には、車輪モータ50の回転角度位置を検出するエンコーダ52と、モータ指令信号およびエンコーダ52の出力信号に基づいて車輪モータ50の駆動を制御するドライバ54が設けられている。
脚車輪型ロボット100は、さらに、CPU60と、脚車輪型ロボット100の姿勢を検出する3軸姿勢センサ70と、カメラ32の画像信号を処理するビジョンプロセッサ72と、物体認識装置200と、外部のPC等と無線通信を行う無線通信部74と、ビジョンプロセッサ72、無線通信部74およびセンシングプロセッサ110とCPU60の入出力を中継するハブ76と、警告音等を出力するスピーカ78とを有して構成される。
3軸姿勢センサ70は、ジャイロ若しくは加速度センサ、またはその両方を有し、地軸に対して脚車輪型ロボット100の姿勢の傾きを検出する。
CPU60は、モータ指令出力I/F61を介してドライバ44、54にモータ指令信号を出力し、角度取込I/F62を介してエンコーダ42、52の出力信号を入力する。なお、図示しないが、モータ指令出力I/F61を介してモータ82のドライバにモータ指令信号を出力する。
CPU60は、センサ入力I/F63を介して、平面内走査脚先センサ38、物体認識装置200および3軸姿勢センサ70からそれぞれセンサ信号を入力する。また、通信I/F64を介してハブ76と信号の入出力を行い、サウンド出力I/F65を介してスピーカ78に音声信号を出力する。
次に、CPU60で実行される処理を説明する。
CPU60は、物体認識装置200から面データが入力されると、そのセンサ座標系の座標をグローバル座標系に変換する座標変換処理を行う。座標変換処理では、脚車輪型ロボット100中心のグローバル座標をXc、Yc、Zc、脚車輪型ロボット100の姿勢(ロール角、ピッチ角、ヨー角)をφ、θ、ψとして、センサ座標系における各測定点を、グローバル座標系の測定点(Xs、Ys、Zs)に変換する。
更に、3軸姿勢センサ70のセンサ信号、並びにグローバル座標系に変換された各測定点に基づいて逆運動学計算および重心計算を行い、この計算結果に基づいて脚先(駆動輪)の着地位置を決定し、物体平面までの距離を算出し、脚先と物体平面の位置関係を算出し、決定した着地位置および算出した両距離に基づいてドライバ44、54へのモータ指令信号を生成し、生成したモータ指令信号をドライバ44、54に出力する。
更に、脚先が物体平面に着地したか否かを判定し、脚先が着地したと判定したときは、一連の処理を終了して元の処理に復帰させる。 一方、脚先が着地しないと判定したときは、面データを入力する処理から上記一連の処理を行う。
次に、図11及び図12に基づき、本実施の形態の動作を説明する。
ここで、図11(a)及び(b)は、最小二乗法を用いて算出したx方向及びz方向の勾配の一例を示す図である。また、図12は、ある測定平面に対する勾配の出現頻度の一例を示す図である。
まず、物体認識装置200は、CPU60からの指令信号に応じて、センシングプロセッサ110において走査角度範囲及び走査角度単位を設定する(ステップS100)。
ここで、2次元距離測定装置112は、測距範囲20〜4095[mm]、最大走査角度範囲240[°]、角度分解能0.36[°]の2次元レンジセンサであることとする。
また、第1走査処理に対して、走査角度範囲240[°]及び走査角度単位0.36[°]が設定され、第2走査処理に対して、走査角度範囲−40[°]〜+40[°]及び走査角度単位10[°]が設定されたとする(この場合は、測定平面が9つ形成される)。
センシングプロセッサ110は、まず、第1走査処理に対して設定された走査角度範囲及び走査角度単位(θ)に基づき、ドライバ112bに指令信号を出力する。
2次元距離測定装置112は、ドライバ112bにおいて、センシングプロセッサ110からの指令信号及びエンコーダ112dからの出力信号に基づき、モータ112cの回転軸を回転駆動して、測距センサ112aを、水平方向の軸(y軸)まわりに、回転角度0.36[°]ずつ回動すると共に、各回転角度に応じた距離を測定する処理(第1走査処理)を実行する(ステップS102)。最初は、垂直方向の軸(z軸)まわりに対して回転角度0[°]の位置(初期位置)に対する第1走査処理を実行する。また、各測定距離の情報(回転座標系)は、データ列L(θi,φj)として、センシングプロセッサ110へと出力される。
そして、1つの測定平面に対する第1走査処理が終了すると、センシングプロセッサ110は、第1走査処理において測定された距離情報に対して、メディアンフィルタを用いたフィルタリング処理を行う(ステップS104)。これにより、測定情報におけるノイズ成分を除去する。
次に、センシングプロセッサ110は、フィルタリング処理後の回転座標系の距離情報を、直交座標系の距離情報に変換し(ステップS106)、直交座標系に変換された距離情報に基づき、各測定点の勾配を算出する(ステップS108)。
ここでは、最小二乗法を用いて、各測定点の勾配を算出する。ここで、最小二乗法を用いた場合に、図11(a)及び(b)に示すように、最小二乗法を適用する複数の測定点に対して、x方向の勾配と、z方向の勾配とが異なる場合がある。そこで、本実施の形態においては、下式(1)及び(2)に示す、x方向及びz方向の勾配を求める2つの直線の方程式を用いて最小二乗法計算を行う。

z=ax・x+bx ・・・(1)
x=az・z+bz ・・・(2)

そして、上式(1)におけるax及びbxを、下式(3)に従って算出し、上式(2)におけるaz及びbzを、下式(4)に従って算出する。
Figure 2009008647
x及びbx、並びにaz及びbzを算出すると、これらの算出結果を代入した、上式(1)及び(2)の直線と、最小二乗計算に用いた各測定点との距離を残差hx及びhzとして算出すると共に、前記各測定点に対する残差hxの二乗和と、残差hzの二乗和とを算出する(下式(5))。
Figure 2009008647
残差hxの二乗和及び残差hzの二乗和が算出されると、両者を比較して値の小さい方の直線を、正しい直線として採用し、この直線の勾配に基づき、算出対象の測定点の勾配を求める。具体的に、残差hxの二乗和の方が小さければ、「a=ax、b=bx」とし、残差hzの二乗和の方が小さければ、「a=1/az、b=1/bz」とする。
上記のようにして、測定平面に対する全測定点の勾配が算出されると、次に、各勾配の出現頻度を算出する(ステップS110)。
ここでは、図12に示すような、出現頻度が得られたとする。
図12に示すように、勾配が0近傍の出現頻度が比較的高くなっており、これらの勾配に対応する測定点の座標情報が連続していれば、そこに水平面があると推定することができる。
出現頻度が算出されると、センシングプロセッサ110は、次に、未判定の勾配の出現頻度を選択し(ステップS112)、その出現頻度が、予め設定された閾値以上か否かを判定する(ステップS114)。そして、閾値以上であれば(ステップS114の「Yes」の分岐)、勾配と測定点の座標情報とを対応付けてRAM(不図示)に記録する(ステップS116)。一方、閾値未満であれば(ステップS114の「No」の分岐)、測定ノイズとして、測定点の距離情報を除外する(ステップS134)。
上記の判定処理が、全ての勾配に対して終了すると(ステップS118の「Yes」の分岐)、次に、RAMに記録された、出現頻度が閾値以上の勾配及び測定点の座標情報に基づき、連続面の有無を判断する(ステップS120)。
例えば、脚車輪型ロボット100の移動経路上に、段差が一定で且つ蹴込板が連続面となっている階段が存在する場合は、階段部分にある水平面などが、勾配0及び略0の測定点の連続する座標として現われる。このような場合に、センシングプロセッサ110は、連続面(実際は、面と測定平面との交差線)がある(ステップS122の「Yes」の分岐)と判断する。一方、座標の途中で勾配がいきなり外れた値となったときは、そこで面(実際は、面と走査平面との交差線)が途切れていると判断する。これらの判断結果から、物体の凹凸を認識(推定)することが可能である。
そして、連続面に対応する直交座標系の測定距離を、センサ座標系(3次元)の測定距離に変換し、RAMに記録する(ステップS124)。
連続面の判断が終了すると、物体認識装置200は、ドライバ114において、センシングプロセッサ110からの指令信号及びエンコーダ118からの出力信号に基づき、モータ116の回転軸を回転駆動して、2次元距離測定装置112を、垂直方向の軸(z軸)まわりに、回転角度10[°]ずつ回動する処理(第2走査処理)を実行する(ステップS132)。この第2走査処理によって、z軸はそのままで、x軸の位置が1つ前の位置に対して垂直方向の軸(z軸)まわりに10[°]だけ変化する。そして、2次元距離測定装置112は、この状態で、再び、上記第1走査処理を実行する(ステップS102)。これにより、z軸まわりに10[°]ずれた位置に新たな測定平面が形成される。
そして、設定された走査角度範囲(−40[°]〜+40[°])に対して、設定された走査角度単位10[°]で、2次元距離測定装置112を回動させ、各回転角度φにおいて、上記第1走査処理を実行し、9つの測定平面に対する距離の測定が終了すると(ステップS126の「Yes」の分岐)、次に、RAMに記録された連続面の情報に基づき、面データを生成する(ステップS128)。
面データは、先述したように、z軸まわりに連続する各隣り合う測定平面間において、勾配及び座標の近い連続面をつなぎ合わせる(対応付ける)ことで生成される。生成した面データは、ハブ76および通信I/F64を介して、CPU60に出力される(ステップS130)。この面データによって、測定範囲内に存在する階段などの物体の構成面の形状を認識することが可能である。
一方、CPU60では、入力された面データを解析して、特に、勾配が0に近い交差線を有する面がある場合は、それを水平面とみなし、脚車輪型ロボット100が歩行可能な面であると判断する。
面データの示す面が歩行可能な面であると判断された場合は、入力された面データのセンサ座標系をグローバル座標系に変換し、この変換結果と、3軸姿勢センサ70のセンサ信号などとに基づき、脚先の着地位置を決定する。
更に、脚先センサ38からのセンサ信号に基づき、蹴込板までの距離および脚先と踏板の位置関係とを算出する。そして、決定された着地位置および算出された両距離に基づいてモータ指令信号が生成され、生成されたモータ指令信号がドライバ44、54に出力される。これにより、駆動輪が回転すると共に回転関節が駆動し、脚車輪型ロボット100が姿勢を適切に保ちつつ階段を乗り越える。また、状況によっては階段を回避、停止する。
なお、段差が一定で且つ蹴込板が連続面となる階段を例に挙げたが、段差が一定でない階段、蹴込板が連続面とならない階段、蹴込板の無い階段などに対しても、正確にその面形状を認識することができるので、脚車輪型ロボット100の階段への適応性を高めることが可能である。
また、脚車輪型ロボット100は、平地では、車輪走行で移動することができる。したがって、車輪型と同様に平地での移動性が高い。
このようにして、本実施の形態の脚車輪型ロボット100は、物体認識装置200において、水平方向の軸まわりに測距センサ112aを、設定された走査角度単位ずつ回動させると共に、各回転角度における距離を測定する第1走査処理を実行し、測定距離の情報に基づき、各測定点の勾配及び勾配の出現頻度を算出することで、測定平面内に存在する物体の凹凸を認識することができる。これにより、連続面が存在することを推定することができる。
更に、1つの測定平面に対する第1走査処理が終了する毎に、2次元距離測定装置112を、垂直方向の軸まわりに、設定された走査角度単位だけ回動させる第2走査処理を実行することができる。これにより、複数の測定平面に対して第1走査処理を実行することができるので、測定範囲内に存在する物体の面形状を認識することができる。また、面形状が認識できるので、脚車輪型ロボット100は、未知の障害物に対して高い適応性を実現することができる。また、人が活動する環境での動作を行えるので、人と一緒に行動する用途に用いられるホームロボット、パーソナルロボットなどのヒューマンアシストロボットに好適である。
上記実施の形態において、ドライバ112b、モータ112c及びエンコーダ112dによる測距センサ112aの回転機構は、発明1又は2の第1回転機構に対応し、センシングプロセッサ110によって2次元距離測定装置112を制御することで第1走査処理を実行する機能は、発明1又は2の第1走査手段に対応し、センシングプロセッサ110における各測定点の勾配を算出する機能は、発明1又は2の勾配算出手段に対応し、センシングプロセッサ110における各勾配の出現頻度を算出する機能は、発明1又は2の出現頻度算出手段に対応し、センシングプロセッサ110における連続面の判断処理は、発明1又は4の形状認識手段に対応する。
また、上記実施の形態において、ドライバ114、モータ116、エンコーダ118、不図示の減速機及びプーリによる2次元距離測定装置112の回転機構は、発明2の第2回転機構に対応し、センシングプロセッサ110によってドライバ114を制御することで第2走査処理を実行する機能は、発明2の第2走査手段に対応し、物体認識装置200における面データの生成機能及びCPU60による面形状の認識機能は、発明2、3及び4のいずれか1の形状認識手段に対応する。
また、上記実施の形態において、ステップS102は、発明5又は6の第1走査ステップに対応し、ステップS104〜S108は、発明5又は6の勾配算出ステップに対応し、ステップS110は、発明5又は6の出現頻度算出ステップに対応し、ステップS112〜S124は、発明5又は6の形状認識ステップに対応し、ステップS126〜S132は、発明6の第2走査ステップに対応する。
〔第2の実施の形態〕
次に、本発明の第2の実施の形態を図面を参照しながら説明する。図14ないし図20は、本発明に係る物体認識装置及び物体認識方法の第2の実施の形態を示す図である。
本実施の形態においては、上記第1の実施の形態と同様に、上記第1の実施の形態で説明した物体認識装置200を脚車輪型ロボットに適用する。
本実施の形態の脚車輪型ロボットは、上記第1の実施の形態で説明した物体認識装置200を搭載した脚車輪型ロボット100の各機能に加え、脚車輪型ロボット100を、基体10の向きを一定方向に保持した状態で任意の進行方向に走行移動させる機能と、脚車輪型ロボット100を、所定の旋回中心位置で前後移動させずに旋回させる(超信地旋回させる)機能とを有している。
つまり、本実施の形態における脚車輪型ロボット100は、上記各機能を実現するためのアクチュエータの制御処理(CPU60の制御プログラムの実行による制御処理)が追加されたのみで、力センサ82の設置構造など、その他の構成は、上記第1の実施の形態の脚車輪型ロボット100と同様となる。従って、上記第1の実施の形態と同様の機能については説明を適宜省略し、追加された機能部分については詳細に説明する。
まず、本発明を適用する脚車輪型ロボット100の詳細な構成を説明する。
図14は、脚車輪型ロボット100の正面図である。
図15は、脚車輪型ロボット100の側面図である。
脚車輪型ロボット100は、図14および図15に示すように、基体10と、基体10に連結された4つの脚部12とを有して構成されている。
基体10の前方には、2本の脚部12が回転関節14を介して左右対称の位置に連結されている。また、基体10の後方には、2本の脚部12が回転関節14を介して左右対称の位置に連結されている。
回転関節14は、脚車輪型ロボット100の底面と直交する方向を軸方向として回転する。すなわち、ヨー軸回りに回転する。
各脚部12には、2つの回転関節16、18が設けられている。回転関節16、18は、回転関節14が図14のような状態であるときは、脚車輪型ロボット100の側面と直交する方向を軸方向として回転する。したがって、脚部12は、それぞれ3自由度を有する。
各脚部12の先端には、回転関節16、18と軸方向を同一にして駆動輪20が回転可能に設けられている。駆動輪20は、回転関節14の回転によりヨー軸周りに回動する。つまり、回転関節14の回転を制御することで、走行移動時の操舵制御が行われる。
各脚部12の先端には、脚車輪型ロボット100の移動経路上に存在する物体までの脚先からの距離を測定する脚先センサ38が設けられている。
一方、基体10の正面の下部中央には、水平面レーザ光を照射する水平レーザ26が設けられている。また、基体10の正面の中央左右には、垂直面レーザ光を照射する垂直レーザ28、30がそれぞれ設けられている。
基体10の正面の上部中央には、水平面レーザ光および垂直面レーザ光の反射光を含む画像を撮影するカメラ32が設けられている。
また、上記第1の実施の形態で述べたように、カメラ32と物体認識装置200とは、支持部材及びプーリを介して、カメラ32が上側に、物体認識装置200が下側に配設されている。
水平レーザ26は、カメラ32で水平面レーザ光の反射光を含む画像が撮影できるように下方に所定角度傾けて設けられている。同様に、垂直レーザ28は、カメラ32で垂直面レーザ光の反射光を含む画像が撮影できるように右方に所定角度傾けて設けられ、垂直レーザ30は、左方に所定角度傾けて設けられている。
カメラ32の左右には、障害物を検出する障害物センサ34、36がそれぞれ設けられている。
なお、各脚部12の回転関節14〜18には、上記第1の実施の形態における図10に示すように、回転関節14〜18を回転駆動する関節モータ40がそれぞれ設けられている。また、各脚部12の駆動輪20には、図10に示すように、駆動輪20を回転駆動する車輪モータ50がそれぞれ設けられている。
次に、図16ないし図18に基づき、本実施の形態のCPU60で実行される走行制御処理を説明する。
ここで、図16(a)及び(b)は、脚車輪型ロボット100の車輪走行移動時の姿勢を示す図である。
以下の、各走行制御処理においては、脚車輪型ロボット100の姿勢が、図16(b)に示すように、膝屈曲姿勢となるように各関節モータ40を制御する。但し、膝屈曲姿勢における走行制御時に、脚部12が互いに干渉する(接触などする)場合は、図16(a)に示すように、膝伸展姿勢となるように各関節モータ40を制御する。
まず、基体10の向きを一定の方向に保持(固定)した状態で、脚車輪型ロボット100を目的の進行方向に向けて走行させる走行制御処理(以下、無変向走行制御処理と称す)について説明する。
CPU60は、ROM等の所定領域に格納されている制御プログラムを起動させ、その制御プログラムに従って、無変向走行制御処理を実行する。
ここで、無変向走行制御処理は、脚車輪型ロボット100を、その基体10の向きを一定の方向に保持した状態で、目的の進行方向に移動させるものであるため、基体10の前方側に設けられたカメラ32、物体認識装置200、障害物センサ34、36などを、後方や側方などにも設けることが望ましい。これら後方及び側方をカバーできるカメラ、物体認識装置及び障害物センサなどによって、脚車輪型ロボット100を、基体10の向きとは異なる方向に移動させるときに、その進行方向の環境(地形の状態等)を把握し、適切な制御を行うことができる。
また、無変向走行制御処理は、具体的に、無変向走行制御指令があったときに実行され、時々刻々の、ロボットの進行方向(角度α)、ロボット進行方向速度Vcを入力として、基体10の向きを一定の方向に保持した状態で、脚車輪型ロボット100を前記入力された進行方向へと走行させるための、各脚部12の回転関節14(joint0)の角度(操舵角度)θi0(i=0,1,2,3,・・・)、各脚部12の各駆動輪20の回転角速度ωi(i=0,1,2,3,・・・)を算出し、各アクチュエータに指令を与えるものである。
本実施の形態の脚車輪型ロボット100は、先述したように、基体10の前方に左右一対及び後方に左右一対の計4本の脚部12を有している。
従って、ここでは、各脚部12の駆動輪20の操舵角度θi0を、基体10の上面側から見て、左前輪操舵角度θ00、右前輪操舵角度θ10、左後輪操舵角度θ20、右後輪操舵角度θ30とする。なお、回転関節14によって各脚部12をヨー軸周りに回動させたときに、基体10の上面側から見て、左前輪操舵角度θ00及び右後輪操舵角度θ30は、反時計回り方向を正方向とし、右前輪操舵角度θ10及び左後輪操舵角度θ20は、時計回り方向を正方向とする。
また、各脚部12の駆動輪20の回転角速度ωiを、左前輪回転角速度ω0、右前輪回転角速度ω1、左後輪回転角速度ω2、右後輪回転角速度ω3とする。
また、各脚部12の駆動輪20の線速度Vi(i=0,1,2,3,・・・)を、左前輪線速度V0、右前輪線速度V1、左後輪線速度V2、右後輪線速度V3とする。
ここで、図17(a)〜(c)は、無変向走行制御時の脚車輪型ロボット100の走行状態例を示す図である。なお、図17(a)〜(c)は、脚車輪型ロボット100を上面側から見た図であり、各駆動輪20に付けられた黒塗りの半円の目印は、「θ00=θ10=θ20=θ30=0[°]」のときの基準となる向きを示す。
また、左右前輪は上記目印のある方向に進行する回転方向が正回転方向となり、左右後輪は目印の無い方向に進行する回転方向が正回転方向となる。
まず、図17(a)に基づき、基体10の向きを一定方向に保持(固定)した状態で、脚車輪型ロボット100を、基体10の向いている方向(前方向)に直進走行させる場合の無変向走行制御処理を説明する。
本実施の形態では、基体10の向いている方向(前方向)をロボットの進行方向とした場合に、進行方向を表す角度αを「0[°]」とする。そして、前方向の0[°]を基準に、各進行方向に対応するαを決定する。
ここでは、脚車輪型ロボット100を、基体10の前方向に直進させるので、進行方向αとして「0[°]」が入力され、更に、進行方向速度Vcが入力される。
進行方向α(0[°])及び進行方向速度Vcが入力されると、各駆動輪20の操舵角度θ00、θ10、θ20、θ30、及び各駆動輪20の線速度V0、V1、V2、V3が算出される。
基体10の向きを保持した状態のまま、脚車輪型ロボット100を前方向に直進走行させるためには、図17(a)の各駆動輪20から伸びる矢印に示すように、各駆動輪20の進行方向を基体10の向いている方向(前方向)に全て揃える必要がある。従って、操舵角度θ00、θ10、θ20、θ30は、例えば、「θ00=θ10=θ20=θ30=0[°]」と算出される。
また、この場合に、直進走行させるための各駆動輪20の線速度V0、V1、V2、V3は、「V0=V1=Vc」、「V2=V3=−Vc」と算出される。
なお、各脚部12が互いに干渉しなければ、例えば、「θ00=θ10=0[°]」、「θ20=θ30=π(180[°])又は−π(−180[°])」、「V0=V1=V2=V3=Vc」などの組み合わせとしても良い。
更に、線速度V0、V1、V2、V3は、下式(6)に従って、回転角速度ω0、ω1、ω2、ω3に変換される。

ωi=2Vi/D ・・・(6)

但し、上式(6)において、Dは車輪径である。
各駆動輪20の操舵角度θ00、θ10、θ20、θ30、及び各駆動輪20の回転角速度ω0、ω1、ω2、ω3が算出されると、次に、各駆動輪20の現在の操舵角度及び回転角速度を取得する。そして、現在の操舵角度と、上記算出した前方向に直進させるための操舵角度とから回転関節14の関節モータ40を駆動する指令値を算出する。更に、現在の回転角速度と、上記算出した前方向に直進させるときの回転角速度とから、駆動輪20の車輪モータ50を駆動する指令値を算出する。
このようにして、各駆動輪20の操舵制御の指令値及び速度制御の指令値を算出すると、これらの指令値を各モータのドライバに入力する。そして、入力された指令値に基づき各関節モータ40及び車輪モータ50が駆動されると、これにより、脚車輪型ロボット100の各駆動輪20の操舵角度及び回転角速度が変化し、脚車輪型ロボット100は、基体10の向きを保持した状態で、その向いている方向(前方向)に直進走行する。
なお、基体10の向きを一定方向に保持した状態で、脚車輪型ロボット100を、その向いている方向に対して反対側(真後ろ)の方向に直進走行させる場合は、上記前方向のときと駆動輪20の回転方向を正反対とすればよい。
例えば、「θ00=θ10=θ20=θ30=0[°]」及び「V0=V1=V2=V3=−Vc」、又は「θ00=θ10=0[°]」、「θ20=θ30=π若しくは−π[°]」、「「V0=V1=−Vc」及び「V2=V3=Vc」などとする。
次に、図17(b)に基づき、基体10の向きを保持した状態(前方向に向けたままの状態)で、脚車輪型ロボット100を、その向いている方向に対して右斜め前方向に直進走行させる場合の無変向走行制御処理を説明する。
ここでは、脚車輪型ロボット100を、基体10の右斜め前方向に直進させるので、進行方向αとして「α(−90<α<0)[°](但し、反時計回りが正方向)」が入力され、更に、進行方向速度Vcが入力される。
そして、進行方向α[°]及び進行方向速度Vcが入力されると、各駆動輪20の操舵角度θ00、θ10、θ20、θ30、及び各駆動輪20の線速度V0、V1、V2、V3が算出される。
基体10の向きを保持した状態で、脚車輪型ロボット100を右斜め前方向(α[°]の方向)に直進走行させるためには、図17(b)の各駆動輪20から伸びる矢印に示すように、各駆動輪20の進行方向を、基体10の向いている方向に対して右斜め前方向に全て揃える必要がある。
従って、操舵角度θ00、θ10、θ20、θ30は、例えば、「θ00=θ30=α[°]」、「θ10=θ20=−α[°]」と算出される。
また、この場合に、直進走行させるための各駆動輪20の線速度V0、V1、V2、V3は、「V0=V1=Vc」、「V2=V3=−Vc」と算出される。
なお、各脚部12が互いに干渉しなければ、例えば、「θ00=θ30=α[°]」、「θ10=θ20=−α−π[°]」、「V0=V2=Vc」、「V1=V3=−Vc」などの組み合わせとしても良い。
更に、線速度V0、V1、V2、V3は、上式(6)に従って、回転角速度ω0、ω1、ω2、ω3に変換される。
操舵角度θ00、θ10、θ20、θ30、及び各駆動輪20の回転角速度ω0、ω1、ω2、ω3が算出されると、次に、上記前方向への直進走行のときと同様に、回転関節14の関節モータ40を駆動する指令値と、駆動輪20の車輪モータ50を駆動する指令値とを算出する。
このようにして、各駆動輪20の操舵制御の指令値及び速度制御の指令値を算出すると、これらの指令値を各モータのドライバに入力する。そして、入力された指令値に基づき各関節モータ40及び車輪モータ50が駆動されると、これにより、脚車輪型ロボット100の各駆動輪20の操舵角度及び回転角速度が変化し、脚車輪型ロボット100は、基体10の向きを保持した状態で、その向いている方向に対して右斜め前方向に直進走行する。
なお、基体10の向きを保持した状態で、脚車輪型ロボット100を、その向いている方向に対して左斜め後方に直進走行させる場合は、上記右斜め前方向のときの各駆動輪20の回転方向を正反対とすればよい。また、左斜め前方向に直進移動させる場合は、進行方向αを「0<α<90[°]」の範囲で設定し、更に、操舵角度の符号を正反対とすればよい。また、右斜め後方に直進走行させる場合は、左斜め前方向のときの各駆動輪20の回転方向を正反対とすればよい。
次に、図17(c)に基づき、基体10の向きを保持した状態で、脚車輪型ロボット100を、その向いている方向に対して左真横方向に直進走行させる場合の無変向走行制御処理を説明する。
ここでは、脚車輪型ロボット100を、基体10の左真横方向に直進させるので、進行方向αとして「α(90(π/2))[°]」が入力され、更に、進行方向速度Vcが入力される。
そして、進行方向α[°]及び進行方向速度Vcが入力されると、各駆動輪20の操舵角度θ00、θ10、θ20、θ30、及び各駆動輪20の線速度V0、V1、V2、V3が算出される。
基体10の向きを保持した状態で、脚車輪型ロボット100を、その向いている方向に対して左真横方向(π/2[°]の方向)に直進走行させるためには、図17(c)の各駆動輪20から伸びる矢印に示すように、各駆動輪20の進行方向を左真横方向に全て揃える必要がある。
従って、操舵角度θ00、θ10、θ20、θ30は、例えば、「θ00=θ10=θ20=θ30=π/2[°]」と算出される。
また、この場合に、直進走行させるための各駆動輪20の線速度V0、V1、V2、V3は、「V0=V2=Vc」、「V1=V3=−Vc」と算出される。
なお、各脚部12が互いに干渉しなければ、例えば、「θ00=θ20=π/2[°]」、「θ10=θ30=−π/2[°]」、「V0=V1=V2=V3=Vc」などの組み合わせとしても良い。
更に、線速度V0、V1、V2、V3は、上式(6)に従って、回転角速度ω0、ω1、ω2、ω3に変換される。
操舵角度θ00、θ10、θ20、θ30、及び各駆動輪20の回転角速度ω0、ω1、ω2、ω3が算出されると、次に、上記前方向への直進走行のときと同様に、回転関節14の関節モータ40を駆動する指令値と、駆動輪20の車輪モータ50を駆動する指令値とを算出する。
このようにして、各駆動輪20の操舵制御の指令値及び速度制御の指令値を算出すると、これらの指令値を各モータのドライバに入力する。そして、入力された指令値に基づき各関節モータ40及び車輪モータ50が駆動されると、これにより、脚車輪型ロボット100の各駆動輪20の操舵角度及び回転角速度が変化し、脚車輪型ロボット100は、基体10の向きを保持した状態で、その向いている方向に対して左真横方向に直進走行する。
なお、基体10の向きを保持した状態で、脚車輪型ロボット100を、その向いている方向に対して右真横方向に直進走行させる場合は、上記左真横方向のときの各駆動輪20の回転方向を正反対とすればよい。
次に、脚車輪型ロボット100を、所定の旋回中心位置で前後移動させずに旋回させる走行制御処理(以下、超信地旋回制御処理と称す)について説明する。
CPU60は、ROM等の所定領域に格納されている制御プログラムを起動させ、その制御プログラムに従って、超信地旋回制御処理を実行する。
ここで、図18(a)及び(b)は、基体10の座標(0,0)及び座標(xc,yc)を回転中心とした場合の超信地旋回制御時の脚車輪型ロボット100の走行状態を示す図である。
なお、図18(a)及び(b)においては、基体10を上面側から見た平面において、長手方向の軸をx軸、それと直交する方向の軸をy軸とし、基体10の中心位置の座標を(x,y)=(0,0)とする。
超信地旋回制御処理は、クローラ機構を有したパワーショベルや戦車などの車両が行う超信地旋回と同等の旋回動作を脚車輪型ロボット100に行わせるものである。
ここで、超信地旋回とは、クローラ機構を有した車両が、左右のクローラを同速度で互いに反対方向に回転させることで、前後に進まず、車体の向きを変える旋回方法であり、これは、クローラ機構に限らず、左右に最低2輪の独立した駆動輪を有する車両であれば実現可能な旋回方法である。
本実施の形態においては、具体的に、超信地旋回制御指令があったときに実行され、ロボットの旋回角速度Ω、旋回中心(xc,yc)を入力として、脚車輪型ロボット100を旋回中心(xc,yc)で超信地旋回させるための、各脚部12の回転関節14(joint0)の角度(操舵角度)θ00、θ10、θ20、θ30、各脚部12の各駆動輪20の回転角速度ω0、ω1、ω2、ω3を算出し、各アクチュエータに指令を与えるものである。
脚車輪型ロボット100を超信地旋回させるためには、基体10を、旋回中心(xc,yc)でヨー軸周りに自転させたときに、各駆動輪20の操舵時のヨー軸周りの回転中心が描く円弧軌道と各駆動輪20の前記回転中心との接点における運動方向と、各駆動輪20の進行方向とが一致するように各回転関節14の関節モータ40を制御すると共に、各駆動輪20が前記運動方向に応じた回転方向に一定速度で回転するように各車輪モータ50を制御する必要がある。
まず、図18(a)に基づき、基体10の中心位置の座標(0,0)を旋回中心とした場合の超信地旋回制御処理について説明する。
この場合は、旋回角速度Ωと、旋回中心座標(0,0)とが入力される。
旋回角速度Ω及び旋回中心座標(0,0)が入力されると、下式(7)に基づき、基体10のx軸と各駆動輪20の回転中心とのなす角度φ0、φ1、φ2、φ3が算出される。

tanφ=Wt/Wb ・・・(7)

但し、上式(7)は、基体10の中心座標(0,0)を旋回中心とした場合の式である。また、上式(7)において、Wtはトレッド(車輪間隔)であり、Wbはホイールベースである。
なお、φ0〜φ3は、x軸と、各駆動輪20の回転中心とのなす角度のうち最小の角度とし、φの正方向は、駆動輪によってはΩの正方向とは異なる。
t及びWbは既知であるため、上式(7)から、上記角度φ0、φ1、φ2、φ3を算出することができる。
なお、旋回中心が基体10の中心座標(0,0)であるので、角度φ0、φ1、φ2、φ3はいずれも等角度「φ0=φ1=φ2=φ3=φ」となる。
また、基体10が旋回座標(0,0)でヨー軸周りに自転時に、各駆動輪20の操舵時のヨー軸周りの回転中心の描く円弧軌道と該回転中心との接点における運動方向は、図18(a)の各駆動輪20から伸びる矢印線に示すように、円弧軌道上の各回転中心を通る接線方向(図中の矢印線方向)となる。
各駆動輪20の回転中心に対する角度「φ0=φ1=φ2=φ3=φ」が算出されると、次に、各回転中心の運動方向と各駆動輪20の進行方向とを一致させるための操舵角度θ00、θ10、θ20、θ30を算出する。
各回転中心の運動方向と各駆動輪20の進行方向とを一致させるためには、図18(a)に示すように、各駆動輪20の進行方向と、旋回中心と回転中心とを結ぶ線分との成す角度が直角(π/2(90[°]))となるように操舵すれば良く、従って、操舵角度θ00、θ10、θ20、θ30は、「θ00=θ10=θ20=θ30=−(π/2−φ)」と算出される。
一方、下式(8)に基づき、各駆動輪20の操舵時のヨー軸周りの回転中心と旋回中心(0,0)との距離L0、L1、L2、L3が算出される。
Figure 2009008647
但し、上式(8)は、基体10の中心座標(0,0)を旋回中心とした場合の式である。
なお、トレッドWt及びホイールベースWbから、左前輪の回転中心の座標は(Wb/2,Wt/2)、右前輪の回転中心の座標は(Wb/2,−Wt/2)、左後輪の回転中心の座標は(−Wb/2,Wt/2)、右後輪の回転中心の座標は(−Wb/2,−Wt/2)と表すことができる。
なお、旋回中心が基体10の中心座標(0,0)であるので、距離L0、L1、L2、L3は、等距離「L0=L1=L2=L3=L」となる。
距離L0、L1、L2、L3が算出されると、次に、これらの距離Lと旋回角速度Ωとから、下式(9)に基づき、各駆動輪20の線速度V0、V1、V2、V3を算出する。

0=V1=V2=V3=LΩ (9)

但し、上式(9)は、基体10の中心座標(0,0)を旋回中心とした場合の式である。
ここで、先述したように、左右前輪は黒半円の目印のある方向に進行する回転方向が正回転方向となり、左右後輪は目印の無い方向に進行する回転方向が正回転方向となる。
また、各駆動輪20の向きは、図18(a)に示すようになるので、線速度V0、V1、V2、V3は、「V0=V3=−LΩ」、「V1=V2=LΩ」と算出される。
更に、線速度V0、V1、V2、V3は、上式(6)に従って、回転角速度ω0、ω1、ω2、ω3に変換される。
操舵角度θ00、θ10、θ20、θ30、及び各駆動輪20の回転角速度ω0、ω1、ω2、ω3が算出されると、次に、各駆動輪20の現在の操舵角度及び回転角速度を取得する。そして、現在の操舵角度と、上記算出した操舵角度とから回転関節14の関節モータ40を駆動する指令値を算出する。更に、現在の回転角速度と、上記算出した回転角速度とから、駆動輪20の車輪モータ50を駆動する指令値を算出する。
このようにして、各駆動輪20の操舵制御の指令値及び速度制御の指令値を算出すると、これらの指令値を各モータのドライバに入力する。そして、入力された指令値に基づき各関節モータ40及び車輪モータ50が駆動されると、これにより、脚車輪型ロボット100の各駆動輪20の操舵角度及び回転角速度が変化し、基体10の中心座標(0,0)を旋回中心として、脚車輪型ロボット100が前後移動せずにその場で旋回(超信地旋回)する。
次に、基体10の中心座標(0,0)以外の座標を旋回中心とした場合の超信地旋回制御処理について説明する。以下、この超信地旋回制御処理を、旋回中心オフセット型超信地旋回制御処理と称す。
この場合は、旋回角速度Ωと、基体10の中心座標(0,0)以外の座標である旋回中心座標(xc,yc)≠(0,0)とが入力される。
そして、旋回角速度Ω及び旋回中心座標(xc,yc)が入力されると、下式(10)に基づき、基体10のx軸と各駆動輪20の回転中心とのなす角度φ0、φ1、φ2、φ3が算出される。

tanφ0=(Wt/2−yc)/(Wb/2−xc)
tanφ1=(Wt/2+yc)/(Wb/2−xc)
tanφ2=(Wt/2−yc)/(Wb/2+xc)
tanφ3=(Wt/2+yc)/(Wb/2+xc) ・・・(10)

但し、上式(10)は、脚車輪型ロボット100の脚部12が、基体10の前方に左右一対及び後方に左右一対の計4本の場合の式である。
具体的に、入力された旋回中心座標(xc,yc)と、既知のWt及びWbとを、上式(10)に代入して、基体10のx軸と各駆動輪20の回転中心とのなす角度φ0、φ1、φ2、φ3を算出する。
なお、旋回中心が基体10の中心座標以外の座標となるので、角度φ0、φ1、φ2、φ3はそれぞれ異なる角度となる。
また、基体10が、旋回中心座標(xc,yc)でヨー軸周りに自転時に、各駆動輪20の操舵時のヨー軸周りの回転中心の描く円弧軌道と該回転中心との接点における運動方向は、図18(b)の各駆動輪20から伸びる矢印線に示すように、各円弧軌道上の各回転中心を通る接線方向(図中の矢印線方向)となる。また、旋回中心と各駆動輪20の回転中心との距離はそれぞれ異なるため、各回転中心の描く円弧軌道も異なる。
各駆動輪20の回転中心に対する角度φ0、φ1、φ2、φ3が算出されると、次に、各回転中心の運動方向と各駆動輪20の進行方向とを一致させるための操舵角度θ00、θ10、θ20、θ30を算出する。
各回転中心の運動方向と各駆動輪20の進行方向とを一致させるためには、図18(b)に示すように、各駆動輪20の回転方向と、旋回中心と回転中心とを結ぶ線分との成す角度が直角(π/2(90[°]))となるように操舵すれば良く、従って、操舵角度θ00、θ10、θ20、θ30は、「θi0=−(π/2−φi)(i=0,1,2,3)」と算出される。
一方、下式(11)に基づき、各駆動輪20の操舵時のヨー軸周りの回転中心と旋回中心(xc,yc)との距離L0、L1、L2、L3が算出される。
Figure 2009008647
先述したように、旋回中心が基体10の中心座標(0,0)以外の座標であるので、距離L0、L1、L2、L3は、それぞれ異なる距離となる。
距離L0、L1、L2、L3が算出されると、次に、これらの距離と旋回角速度Ωとから、下式(12)に基づき、各駆動輪20の線速度V0、V1、V2、V3を算出する。

|Vi|=|LiΩ| (12)

従って、線速度V0、V1、V2、V3は、「V0=−L0Ω」、「V1=L1Ω」、「V2=L2Ω」、「V3=−L3Ω」と算出される。
更に、線速度V0、V1、V2、V3は、上式(6)に従って、回転角速度ω0、ω1、ω2、ω3に変換される。
操舵角度θ00、θ10、θ20、θ30、及び各駆動輪20の回転角速度ω0、ω1、ω2、ω3が算出されると、次に、各駆動輪20の現在の操舵角度及び回転角速度を取得する。そして、現在の操舵角度と、上記算出した操舵角度とから回転関節14の関節モータ40を駆動する指令値を算出する。更に、現在の回転角速度と、上記算出した回転角速度とから、駆動輪20の車輪モータ50を駆動する指令値を算出する。
このようにして、各駆動輪20の操舵制御の指令値及び速度制御の指令値を算出すると、これらの指令値を各モータのドライバに入力する。そして、入力された指令値に基づき各関節モータ40及び車輪モータ50が駆動されると、これにより、脚車輪型ロボット100の各駆動輪20の操舵角度及び回転角速度が変化し、基体10における中心位置(0,0)以外の座標(xc,yc)を旋回中心として、脚車輪型ロボット100が旋回(超信地旋回)する。
次に、図19及び図20に基づき、本実施の形態の動作を説明する。
ここで、図19(a)及び(b)は、脚車輪型ロボット100の走行経路の一例を示す図である。また、図20は、ロボットの重心位置の一例を示す図である。
脚車輪型ロボット100は、障害物センサ34、36によって、脚車輪型ロボット100の移動経路上に障害物(ここでは階段とする)が存在することを確認すると、物体認識装置200によって、上記第1の実施の形態で説明した距離測定及び面データの生成処理を行い、生成した面データをハブ76及び通信I/F64を介してCPU60に入力する。一方、CPU60は、入力された面データを解析して、特に、勾配が0に近い交差線を有する面がある場合は、それを水平面とみなし、脚車輪型ロボット100が歩行可能な面であると判断する。面データの示す面が歩行可能な面であると判断された場合は、入力された面データのセンサ座標系をグローバル座標系に変換し、この変換結果と、3軸姿勢センサ70のセンサ信号などとに基づき、脚先の着地位置を決定する。更に、脚先センサ38からのセンサ信号に基づき、蹴込板までの距離および脚先と踏板の位置関係とを算出する。そして、決定された着地位置および算出された両距離に基づいてモータ指令信号が生成され、生成されたモータ指令信号がドライバ44に出力される。これにより、各関節モータが駆動し、脚車輪型ロボット100が姿勢を適切に保ちつつ階段を乗り越える。また、状況によっては階段を回避、停止する。したがって、脚型ロボットと同様に階段への適応性が高い。
一方、脚車輪型ロボット100は、障害物センサ34、36のセンサ信号などに基づき、自己の移動経路上に何も障害物が存在しない(平地である)と判断すると、移動モードを、脚部12を用いる脚部移動モードから駆動輪20を用いる車輪走行移動モードへと切り替える。
平地では、脚車輪型ロボット100は、上記した無変向走行で移動することができる。さらに、上記した超信地旋回及び旋回中心オフセット型超信地旋回を行うことができる。
車輪走行移動モードへと切り替えられると、脚車輪型ロボット100は、脚部12の各関節モータ40を制御して膝屈曲姿勢へと移行する。そして、脚車輪型ロボット100が膝屈曲姿勢へと移行すると、各種走行制御が開始される。
まず、無変向走行制御時の脚車輪型ロボット100の動作について説明する。
ここでは、図19(a)に示すような通路を、脚車輪型ロボット100で走行移動させることとする。なお、図19(a)及び(b)は、走行経路の一部を真上から見た俯瞰図である。
図19(a)に示すように、通路は、最初、基体10の向いている方向(前方向)に直進しないと通れないほど幅が狭くなっているので、まず、通路への進入前において、通路の伸びる方向と基体10の向きとを合わせると共に、進入位置及び進入角度を調整する。
そして、無変向走行制御指令を入力し、脚車輪型ロボット100を、無変向走行制御モードへと移行させる。これにより、脚車輪型ロボット100は、CPU60において、基体10の向きを保持した状態で、目的の進行方向へと走行移動する制御を行う。
まず最初は、脚車輪型ロボット100を、前方向に直進移動させたいので、ロボットの進行方向α=0[°]、及びロボット進行方向速度Vcを入力する。これにより、各駆動輪20の操舵角度が「θ00=θ10=θ20=θ30=0[°]」と算出され、各駆動輪20の線速度が「V0=V1=V2=V3=Vc」と算出される。
更に、線速度V0、V1、V2、V3は、上式(6)に従って、回転角速度ω0、ω1、ω2、ω3に変換される。
CPU60は、操舵角度θ00、θ10、θ20、θ30、及び各駆動輪20の回転角速度ω0、ω1、ω2、ω3を算出すると、次に、角度取込I/F62を介して、現在の各駆動輪20の操舵角度及び回転角速度を取得する。ここでは、取得した操舵角度と上記算出した操舵角度との差分値を算出し、該差分値に基づき回転関節14の関節モータ40を駆動する指令値を算出する。更に、取得した現在の回転角速度と、上記算出した回転角速度との差分値を算出し、該差分値に基づき駆動輪20の車輪モータ50を駆動する指令値を算出する。
CPU60は、上記算出した、各駆動輪20の操舵制御の指令値及び速度制御の指令値を各モータのドライバに入力する。この指令値により、各関節モータ40が駆動され、各脚部12の回転関節14がヨー軸周りに回動して目標の操舵角度へと変化する。その後、各車輪モータ50が駆動され、各駆動輪20が指令値に応じた回転角速度で回転駆動する。これにより、脚車輪型ロボット100は、基体10の向きを保持した状態で、基体10の向いている方向(前方向)に通路へと進入すると共に通路内を直進走行する。
脚車輪型ロボット100が前方向にしばらく直進すると、通路は右に略直角に折れ曲がり、更に路幅も広くなるので、基体10の向きを保持した状態で、その向いている方向に対して右真横方向に直進移動するように制御する。つまり、進行方向として、α=−90(−π/2)[°]を入力し、更に、進行方向速度Vcを入力する。
これにより、操舵角度として、「θ00=θ10=θ20=θ30=α[°]」が算出され、線速度として、「V0=V2=−Vc」、「V1=V3=Vc」が算出される。
更に、線速度V0、V1、V2、V3は、上式(6)に従って、回転角速度ω0、ω1、ω2、ω3に変換される。
CPU60は、各駆動輪20の現在の操舵角度及び回転角速度を取得し、これらと上記算出した操舵角度及び回転角速度とから各指令値を算出する。この指令値により、各関節モータ40及び各車輪モータ50が駆動され、これにより、脚車輪型ロボット100は、基体10の向きを保持した状態で、その向いている方向に対して右真横方向に直進走行する。これにより、通路の曲がり角で脚車輪型ロボット100を旋回せずに、その曲がった先へと走行させることができる。
脚車輪型ロボット100が右真横方向にしばらく直進すると、通路は右斜め下方向に折れ曲がるので、今度は、基体10の向きを保持した状態で、その向いている方向に対して右斜め後ろ方向に直進移動するように制御する。つまり、進行方向として、α(通路の角度<0)[°]を入力し、更に、進行方向速度Vcを入力する。
これにより、操舵角度として、「θ00=θ30=π+α[°]」及び「θ10=θ20=−(π+α)[°]」が算出され、線速度として、「V0=V1=−Vc」及び「V2=V3=Vc」が算出される。
更に、線速度V0、V1、V2、V3は、上式(6)に従って、回転角速度ω0、ω1、ω2、ω3に変換される。
そして、各駆動輪20の現在の操舵角度及び回転角速度を取得し、これらと上記算出した操舵角度及び回転角速度とから各指令値を算出する。この指令値により、各関節モータ40及び各車輪モータ50が駆動され、これにより、脚車輪型ロボット100は、基体10の向きを保持した状態で、その向いている方向に対して右斜め後ろ方向に直進走行する。
次に、超信地旋回制御時の脚車輪型ロボット100の動作について説明する。
ここでは、図19(b)に示すような通路を、脚車輪型ロボット100で走行移動させることとする。
図19(b)に示すように、通路は、最初真っ直ぐに伸びており、その後、略直角に右に折れ曲がり、その先で行き止まりとなっている。
まず、通路の伸びる方向と基体10の向きとを合わせ、進入位置を微調整した後に、脚車輪型ロボット100を前方向に直進走行させる。これにより、脚車輪型ロボット100は、通路へと進入すると共に通路内を直進走行する。
脚車輪型ロボット100は、しばらく直進すると、やがて曲がり角へと到達するので、時計回りに旋回して、基体10の向きを脚車輪型ロボット100が進行できる向きへと変更する。
図19(b)に示す曲がり角であれば、前移動を伴う旋回動作でも十分に右折できるが、ここでは、超信地旋回により右折することとする。そのため、超信地旋回制御指令を入力し、この指令により、脚車輪型ロボット100を、超信地旋回制御モードへと移行させる。これにより、脚車輪型ロボット100は、CPU60において、前後移動を行わずに所定の旋回中心位置でロボットを旋回する制御処理を行う。
まず、旋回角速度Ω(基体10を時計回りに回転させる角速度)と、旋回中心座標(0,0)とを入力する。更に、略直角に右折させるので、旋回角度−90[°]を入力する。
旋回角速度Ω、旋回中心座標(0,0)及び旋回角度(−90[°])が入力されると、上式(7)に基づき、基体10のx軸と各駆動輪20の回転中心とのなす角度φ0、φ1、φ2、φ3が算出される。
各駆動輪20の回転中心に対する角度「φ0=φ1=φ2=φ3=φ」が算出されると、次に、各回転中心の運動方向と各駆動輪20の進行方向とを一致させるための操舵角度θ00、θ10、θ20、θ30が算出される。
具体的に、操舵角度θ00、θ10、θ20、θ30は、「θ00=θ10=θ20=θ30=−(π/2−φ)」が算出される。
また、上式(8)に基づき、各駆動輪20の操舵時のヨー軸周りの回転中心と旋回中心(0,0)との距離L0、L1、L2、L3が算出される。
旋回中心が基体10の中心座標(0,0)となっているので、距離L0、L1、L2、L3は、等距離「L0=L1=L2=L3=L」となる。
次に、距離Lと旋回角速度Ωとから、上式(9)に基づき、各駆動輪20の線速度V0、V1、V2、V3を算出する。
ここでは、脚車輪型ロボット100を、時計回りに旋回(Ω<0)させるので、線速度V0、V1、V2、V3は、「V1=V2=LΩ」、「V0=V3=−LΩ」と算出される。
更に、線速度V0、V1、V2、V3は、上式(6)に従って、回転角速度ω0、ω1、ω2、ω3に変換される。
操舵角度θ00、θ10、θ20、θ30、及び各駆動輪20の回転角速度ω0、ω1、ω2、ω3が算出されると、次に、角度取込I/F62を介して、現在の各駆動輪20の操舵角度及び回転角速度を取得する。ここでは、取得した操舵角度と上記算出した操舵角度との差分値を算出し、該差分値に基づき回転関節14の関節モータ40を駆動する指令値を算出する。更に、取得した現在の回転角速度と、上記算出した回転角速度との差分値を算出し、該差分値に基づき駆動輪20の車輪モータ50を駆動する指令値を算出する。
CPU60は、上記算出した、各駆動輪20の操舵制御の指令値及び速度制御の指令値を各モータのドライバに入力する。この指令値により、各関節モータ40が駆動され、各脚部12の回転関節14がヨー軸周りに回動して目標の操舵角度へと変化する。その後、各車輪モータ50が駆動され、各駆動輪20が指令値に応じた回転角速度で回転駆動する。これにより、脚車輪型ロボット100は、基体10の中心座標(0,0)を旋回中心として、前後移動せずにその場で時計回りに90[°]旋回(超信地旋回)する。
そして、脚車輪型ロボット100を、時計回りに90[°]旋回して右折させると、その先の通路を、前方向へと直進走行させる。
図19(b)に示すように、右折した先の通路は袋小路となっているため、脚車輪型ロボット100は、やがて通路の行き止まりへと到達する。
脚車輪型ロボット100は、これ以上先に進めないため(各種センサにより状況を把握)、180[°]旋回して通路を引き返すことになる。
ここでは、通路の幅が前後移動を伴う旋回動作(例えば、Uターン)を行えるほど広くないため、上記右折のときと同様に、超信地旋回制御モードへと移行し、超信地旋回により180[°]旋回して、脚車輪型ロボット100の向きを変更し、引き返すこととする。
また、図19(b)に示すように、通路幅が自転ぎりぎりの幅となっているので、脚車輪型ロボット100を最小の旋回半径で旋回させる必要がある。従って、旋回中心座標(0,0)と、旋回角速度Ω(基体10を時計回りに回転させる角速度)と、旋回角度180[°]とを入力する。なお、脚部12が通路にぶつからないように、脚車輪型ロボット100の各脚部12の姿勢を膝伸展姿勢へと変更する。
旋回中心座標(0,0)、旋回角速度Ω及び旋回角度180[°]が入力されると、上記右折のときと同様に、操舵角度θ00、θ10、θ20、θ30として、「θ00=θ10=θ20=θ30=−(π/2−φ)」が算出され、線速度V0、V1、V2、V3として、「V1=V2=LΩ」、「V0=V3=−LΩ」が算出される。
更に、線速度V0、V1、V2、V3は、上式(6)に従って、回転角速度ω0、ω1、ω2、ω3に変換される。
操舵角度θ00、θ10、θ20、θ30、及び各駆動輪20の回転角速度ω0、ω1、ω2、ω3が算出されると、各指令値が算出され、関節モータ40及び車輪モータ50が駆動される。
これにより、基体10の中心座標(0,0)を旋回中心として、脚車輪型ロボット100が前後移動せずにその場で時計回りに180[°]旋回(超信地旋回)し、真後ろ方向へと向きを変える。
ここで、脚車輪型ロボット100が、例えば、遠隔操作で人手により走行制御される場合や、自動制御で且つ基体10の後ろ側にも各種センサやカメラを備えている場合などは、無変向走行制御により、前を向いたまま真後ろに走行させて通路を引き返させることも可能である。しかし、自動制御の場合で且つ各種センサが基体10の前側にしか備わっていない場合は、基体10の向きと進行方向とを合わせる必要がある。従って、後者の場合などに、超信地旋回は有用な旋回手段となる。
次に、旋回中心オフセット型超信地旋回制御時の脚車輪型ロボット100の動作について説明する。
いま、車輪走行移動モードへと移行し、脚車輪型ロボット100の各関節モータ40が制御され、ロボットの姿勢が膝屈曲姿勢に変更されたとする。このとき、ロボットの重心が図20に示すように、基体10の中心位置の座標から外れた位置となるとする。
この場合は、重心位置が基体10の中心位置の座標(0,0)から外れているため、中心位置を旋回中心として超信地旋回を行わせると旋回がアンバランスとなり、不具合が発生する恐れがある。
このようなときに、本実施の形態の超信地旋回制御指令モードにおいては、任意の旋回中心で超信地旋回させることができるので、旋回角速度Ωを入力すると共に、基体10における、脚車輪型ロボット100の重心位置に対応する座標(xg,yg)を旋回中心座標(xc,yc)として入力する。 そして、旋回角速度Ω及び旋回中心座標(xc,yc)=(xg,yg)が入力されると、上式(10)に基づき、基体10のx軸と各駆動輪20の回転中心とのなす角度φ0、φ1、φ2、φ3が算出される。
各駆動輪20の回転中心に対する角度φ0、φ1、φ2、φ3が算出されると、次に、各回転中心の運動方向と各駆動輪20の進行方向とを一致させるための操舵角度θ00、θ10、θ20、θ30を算出する。
操舵角度θ00、θ10、θ20、θ30は、「θi0=−(π/2−φi)(i=0,1,2,3)」と算出される。
次に、上式(11)に基づき、各駆動輪20の操舵時のヨー軸周りの回転中心と旋回中心(xc,yc)との距離L0、L1、L2、L3を算出する。
距離L0、L1、L2、L3が算出されると、次に、これらの距離と旋回角速度Ωとから、上式(12)に基づき、各駆動輪20の線速度V0、V1、V2、V3を算出する。
ここでは、脚車輪型ロボット100を反時計回りに旋回(Ω>0)させるとして、線速度V0、V1、V2、V3は、「V0=−L0Ω」、「V1=L1Ω」、「V2=L2Ω」、「V3=−L3Ω」と算出される。
更に、線速度V0、V1、V2、V3は、上式(6)に従って、回転角速度ω0、ω1、ω2、ω3に変換される。
操舵角度θ00、θ10、θ20、θ30、及び各駆動輪20の回転角速度ω0、ω1、ω2、ω3が算出されると、次に、角度取込I/F62を介して、現在の各駆動輪20の操舵角度及び回転角速度を取得する。ここでは、取得した操舵角度と上記算出した操舵角度との差分値を算出し、該差分値に基づき回転関節14の関節モータ40を駆動する指令値を算出する。更に、取得した現在の回転角速度と、上記算出した回転角速度との差分値を算出し、該差分値に基づき駆動輪20の車輪モータ50を駆動する指令値を算出する。
CPU60は、上記算出した、各駆動輪20の操舵制御の指令値及び速度制御の指令値を各モータのドライバに入力する。この指令値により、各関節モータ40及び各車輪モータ50が駆動され、これにより、基体10における重心座標と対応する座標(xg,yg)を旋回中心として、脚車輪型ロボット100がバランスのとれた状態で反時計回りに超信地旋回する。
このようにして、本実施の形態では、物体認識装置200において、測定平面内に存在する物体の凹凸を認識することができる。これにより、連続面が存在することを推定することができる。更に、複数の測定平面に対して第1走査処理を実行することができるので、測定範囲内に存在する物体の面形状を認識することができる。
これにより、障害物(通路の壁等を含む)までの距離及び障害物の形状を正確に把握することができるので、脚車輪型ロボット100の障害物の回避、通路内の走行等の移動動作をより安全且つ確実に行うことができる。
さらに、本実施の形態では、基体10の向きを一定の方向に保持した状態で、脚車輪型ロボット100が目的の進行方向に走行するように関節モータ40及び車輪モータ50を制御する。
これにより、旋回を行わず(向きを変えず)に自由な方向へ移動できるので、各方向への素早い移動を実現できると共に、脚車輪型ロボット100の各構成部が妨げとなって旋回できないような狭くて入り組んだエリアなど、脚車輪型ロボットの向きを変更することが困難なエリアにおいても活動が可能となる。
さらに、本実施の形態では、脚車輪型ロボット100を所定の旋回中心位置で前後移動させずに旋回(超信地旋回)するように関節モータ40及び車輪モータ50を制御する。このとき、基体10における中心位置の座標を旋回中心座標とする制御(超信地旋回制御)と、基体10における中心位置以外の座標を旋回中心座標とする制御(旋回中心オフセット型超信地旋回制御)とを行うことが可能である。
これにより、基体10の中心位置を旋回中心位置とする場合は、最小の旋回半径で脚車輪型ロボットを旋回をさせることが可能である。また、基体10の中心位置以外を旋回中心位置とする場合は、基体10の中心位置と重心位置とが異なる場合などに、重心位置を旋回中心として超信地旋回させることができるので、脚車輪型ロボット100を、バランスよく超信地旋回させることが可能である。
上記第2の実施の形態において、脚車輪型ロボット100は、発明7ないし9の脚車輪型ロボットに対応し、駆動輪20は、発明7乃至9の車輪に対応し、関節モータ40は、発明7ないし9の第1アクチュエータ及び第2アクチュエータに対応し、CPU60は、発明7ないし9の制御手段に対応している。
なお、上記第1及び第2の実施の形態においては、物体認識装置200で生成した面データに基づき、CPU60において、物体の面形状を認識する構成としたが、これに限らず、物体認識装置200において、面形状の認識まで行い、CPU60には、面形状の認識結果を示すデータを出力する構成としても良い。
また、上記第1及び第2の実施の形態においては、CPU60からの指令信号に基づき、走査角度範囲及び走査角度単位を設定する構成としたが、これに限らず、物体認識装置200に予め設定しておくなど別の構成としても良い。
また、上記第1及び第2の実施の形態においては、本発明に係る物体認識装置200を、脚車輪型ロボットに適用する例を説明したが、これに限らず、本発明に係る物体認識装置200を、視覚障害者が外界を認識するためのアシストを行う装置などに適用することも可能である。
また、上記第1及び第2の実施の形態においては、物体認識装置200を、測距センサ112aを水平方向の軸(y軸)まわりに回転駆動し、2次元距離測定装置112を垂直方向の軸(z軸)まわりに回転駆動する構成としたが、この構成に限らず、測距センサ112aを垂直方向の軸まわりに回転駆動し、2次元距離測定装置112を水平方向の軸まわりに回転駆動する構成としても良い。また、水平方向及び垂直方向の軸まわりに限らず、測距センサ112aの測定方向に対して直交する2つの軸であれば、どの方向の軸まわりでも良い。
また、上記第1及び第2の実施の形態においては、図13(a)に示すように、2次元距離測定装置112自身を回転させているが、これに限らず、光学式の測距センサを有する2次元距離測定装置であれば、図13(b)に示すように、測定方向の光軸上に挿入したミラーを回転させてもよい。
また、上記第1及び第2の実施の形態においては、本発明に係る脚車輪型ロボット100の構成を、基体10の前方に左右一対及び後方に左右一対の4本の脚部12を有する構成としたが、これに限らず、基体10の中央に左右一対の脚部12を設ける構成や、3本の脚部12を対称に設ける構成、5本以上の脚部12を設ける構成など、本発明の趣旨を逸脱しない範囲で他の構成としても良い。また、多脚とした場合には、不要な脚部12を走行制御に用いないように制御するようにしても良い。
(a)は、本実施の形態に係る物体認識装置200の構成を示すブロック図であり、(b)は、本実施の形態に係る2次元距離測定装置112の詳細な構成を示すブロック図である。 測距センサ112aの距離測定の原理を説明する図である。 (a)は、測距センサ112aを、水平方向の軸(y軸)まわりに回転駆動させたときの測定距離と回転角度θとの関係を示す図であり、(b)は、2次元距離測定装置112を、垂直方向の軸(z軸)まわりに回転駆動したときの測定平面と回転角度φとの関係を示す図である。 物体認識装置200における物体認識処理を示すフローチャートである。 測定範囲内に階段がある場合の、第1走査処理による測定結果を示す図である。 図5の各測定点の回転座標系の測定距離を直交座標系の測定距離に変換した場合の測定結果を示す図である。 測距センサ112aの回転座標系の測定データをセンサ測定平面上の直交座標に変換する場合を示す図である。 (a)及び(b)は、勾配の算出例を示す図である。 (a)は、物体認識装置200の搭載位置を示す図であり、(b)は、カメラ32と物体認識装置200との配置関係を示す図である。 脚車輪型ロボット100の移動制御システムを示すブロック図である。 (a)及び(b)は、最小二乗法を用いて算出したx方向及びz方向の勾配の一例を示す図である。 ある測定平面に対する勾配の出現頻度の一例を示す図である。 2次元距離測定装置の測定方向を変更する場合の構成を示す図である。 脚車輪型ロボット100の正面図である。 脚車輪型ロボット100の側面図である。 (a)及び(b)は、脚車輪型ロボット100の車輪走行移動時の姿勢を示す図である。 無変向走行制御時の脚車輪型ロボット100の走行状態例を示す図である。 a)及び(b)は、基体10の座標(0,0)及び座標(xc,yc)を回転中心とした場合の超信地旋回制御時の脚車輪型ロボット100の走行状態を示す図である。 (a)及び(b)は、脚車輪型ロボット100の走行経路の一例を示す図である。 ロボットの重心位置の一例を示す図である。
符号の説明
100 脚車輪型ロボット
200 物体認識装置
110 センシングプロセッサ
112 2次元距離測定装置
112a 測距センサ
110 基体
112 脚部
14〜18 回転関節
20 駆動輪
26 水平レーザ
28、30 垂直レーザ
32 カメラ
34、36 障害物センサ
38 脚先センサ
112c、116、40、50 モータ
112d、118、42、52 エンコーダ
112b、114、44、54 ドライバ
60 CPU
64 通信I/F
70 3軸姿勢センサ
76 ハブ

Claims (6)

  1. 測定距離範囲内に存在する物体上の測定点までの距離を測定する測距センサと、
    前記測距センサを、その測定方向に対して直交する2つの軸のうち一方の軸まわりに回転駆動させる第1回転機構と、
    前記第1回転機構を制御して、前記測距センサを、前記第1回転機構の回転方向に、所定の回転角度ずつ回動させると共に、前記測距センサによって各回転角度に応じた距離情報を測定する処理である第1走査処理を行う第1走査手段と、
    前記第1走査手段によって測定された、各測定点の距離情報とその周辺の測定点の距離情報とに基づき、各測定点に対する勾配を算出する勾配算出手段と、
    前記勾配算出手段で算出した各測定点の勾配に基づき、各勾配の出現頻度を算出する出現頻度算出手段と、
    前記出現頻度算出手段で算出した各勾配の出現頻度と、各勾配に対応する測定点の座標情報とに基づき、前記測距センサの測定平面内に存在する物体の形状を認識する形状認識手段と、を備えることを特徴とする物体認識装置。
  2. 前記測距センサを、前記第1回転機構と共に、前記測定方向に対して直交する2つの軸のうち前記第1回転機構とは異なる方向の軸まわりに回転駆動させる第2回転機構と、
    1つの前記測定平面に対する前記第1走査処理が終了する毎に、前記第2回転機構を制御して、前記測距センサを前記第1回転機構と共に、前記第2回転機構の回転方向に所定の回転角度ずつ回動させる処理である第2走査処理を行う第2走査手段と、を備え、
    前記第1走査手段は、前記第2走査処理において、前記測距センサが前記所定の回転角度の回動をする毎に前記第1走査処理を実行し、
    前記勾配算出手段は、前記測定平面毎に、前記第1走査処理によって測定された、各測定点の距離情報と、その周辺の測定点の距離情報とに基づき、各測定点に対する勾配を算出し、
    前記出現頻度算出手段は、前記測定平面毎に、前記勾配算出手段で算出した各測定点の勾配に基づき、各勾配の出現頻度を算出し、
    前記形状認識手段は、前記測定平面毎に、前記出現頻度算出手段で算出した各勾配の出現頻度と、各勾配に対応する測定点の座標情報とに基づき、前記測定平面内に存在する物体の形状を認識することを特徴とする請求項1記載の物体認識装置。
  3. 前記形状認識手段は、前記第2回転機構の軸まわりに連続する複数の前記測定平面における、各隣り合う2つの測定平面について、双方の出現頻度を比較し、当該比較結果に基づき前記複数の測定平面のつながりを推定し、当該推定結果に基づき前記物体の面の形状を認識することを特徴とする請求項2記載の物体認識装置。
  4. 前記形状認識手段は、前記出現頻度が所定の出現頻度よりも高い勾配に対する、各測定点の距離情報及び座標情報に基づき、前記物体の形状を認識することを特徴とする請求項1乃至請求項3のいずれか1項に記載の物体認識装置。
  5. 測定距離範囲内に存在する物体上の測定点までの距離を測定する測距センサを、その測定方向に対して直交する2つの軸のうち一方の軸まわりに、所定の回転角度ずつ回動させると共に、前記測距センサによって各回転角度に応じた距離情報を測定する処理である第1走査処理を行う第1走査ステップと、
    前記第1走査ステップによって測定された、各測定点の距離情報と、その周辺の測定点の距離情報とに基づき、各測定点に対する勾配を算出する勾配算出ステップと、
    前記勾配算出ステップで算出した各測定点の勾配に基づき、各勾配の出現頻度を算出する出現頻度算出ステップと、
    前記出現頻度算出ステップで算出した各勾配の出現頻度と、各勾配に対応する測定点の座標情報とに基づき、前記測距センサの測定平面内に存在する物体の形状を認識する形状認識ステップと、を含むことを特徴とする物体認識方法。
  6. 1つの前記測定平面に対する前記第1走査処理が終了する毎に、前記測距センサを、前記第1回転機構と共に、前記測定方向に対して直交する2つの軸のうち前記第1回転機構とは異なる方向の軸まわりに、所定の回転角度ずつ回動させる処理である第2走査処理を行う第2走査ステップを含み、
    前記第1走査ステップにおいては、前記第2走査処理において、前記測距センサが前記所定の回転角度の回動をする毎に前記第1走査処理を実行し、
    前記勾配算出ステップにおいては、前記測定平面毎に、前記第1走査処理によって測定された、各測定点の距離情報と、その周辺の測定点の距離情報とに基づき、各測定点に対する勾配を算出し、
    前記出現頻度算出ステップにおいては、前記測定平面毎に、前記勾配算出ステップで算出した各測定点の勾配に基づき、各勾配の出現頻度を算出し、
    前記形状認識ステップにおいては、前記測定平面毎に、前記出現頻度算出ステップで算出した各勾配の出現頻度と、各勾配に対応する測定点の座標情報とに基づき、前記測定平面内に存在する物体の形状を認識することを特徴とする請求項7記載の物体認識方法。
JP2007270137A 2007-02-14 2007-10-17 物体認識装置及び物体認識方法 Pending JP2009008647A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007270137A JP2009008647A (ja) 2007-02-14 2007-10-17 物体認識装置及び物体認識方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007033212 2007-02-14
JP2007145570 2007-05-31
JP2007270137A JP2009008647A (ja) 2007-02-14 2007-10-17 物体認識装置及び物体認識方法

Publications (1)

Publication Number Publication Date
JP2009008647A true JP2009008647A (ja) 2009-01-15

Family

ID=40323859

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007270137A Pending JP2009008647A (ja) 2007-02-14 2007-10-17 物体認識装置及び物体認識方法

Country Status (1)

Country Link
JP (1) JP2009008647A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102636365A (zh) * 2012-04-12 2012-08-15 东南大学 核化侦察机器人地面适应能力的实验装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102636365A (zh) * 2012-04-12 2012-08-15 东南大学 核化侦察机器人地面适应能力的实验装置

Similar Documents

Publication Publication Date Title
JP2009008648A (ja) 3次元距離測定装置及び脚車輪型ロボット
JP5510081B2 (ja) 障害物回避支援装置、障害物回避支援方法及び移動体
JP2009096335A (ja) 脚型ロボット
CA2836290C (en) Holonomic motion vehicle for travel on non-level surfaces
KR100772912B1 (ko) 절대 방위각을 이용한 로봇 및 이를 이용한 맵 작성 방법
JP4738472B2 (ja) 障害物回避機能を有する移動制御装置
JP5310285B2 (ja) 自己位置推定装置及び自己位置推定方法
AU2012290702A1 (en) Holonomic motion vehicle for travel on non-level surfaces
Loc et al. Sensing and gait planning of quadruped walking and climbing robot for traversing in complex environment
Nagatani et al. Semi-autonomous traversal on uneven terrain for a tracked vehicle using autonomous control of active flippers
JP2009050936A (ja) 干渉判定装置および脚車輪型ロボット
JP5429986B2 (ja) 移動ロボットの遠方環境認識装置及び方法
JP2008152599A (ja) 移動経路作成方法、自律移動体および自律移動体制御システム
Nagatani et al. Continuous acquisition of three-dimensional environment information for tracked vehicles on uneven terrain
JP2007190654A (ja) 脚車輪型ロボット
JP2009006984A (ja) 脚車輪型ロボット
JP6601670B2 (ja) 路面状況認識装置、そのプログラム、及び移動体システム
JP2010005718A (ja) 脚式ロボット
Aman et al. A sensor fusion methodology for obstacle avoidance robot
JP2009006466A (ja) 脚車輪型ロボット
JP2009006982A (ja) 脚車輪型ロボット
JP2009008647A (ja) 物体認識装置及び物体認識方法
JP5895682B2 (ja) 障害物検出装置及びそれを備えた移動体
JP2009042146A (ja) 物体認識装置および物体認識方法
JP2009008649A (ja) 脚車輪型ロボット