JP2009008649A - 脚車輪型ロボット - Google Patents

脚車輪型ロボット Download PDF

Info

Publication number
JP2009008649A
JP2009008649A JP2007270140A JP2007270140A JP2009008649A JP 2009008649 A JP2009008649 A JP 2009008649A JP 2007270140 A JP2007270140 A JP 2007270140A JP 2007270140 A JP2007270140 A JP 2007270140A JP 2009008649 A JP2009008649 A JP 2009008649A
Authority
JP
Japan
Prior art keywords
leg
wheel
image
measurement
angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007270140A
Other languages
English (en)
Inventor
Kazuteru Hida
和輝 飛田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NSK Ltd
Original Assignee
NSK Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NSK Ltd filed Critical NSK Ltd
Priority to JP2007270140A priority Critical patent/JP2009008649A/ja
Publication of JP2009008649A publication Critical patent/JP2009008649A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

【課題】 広範囲の測定および高分解能の測定を行うのに好適な多点測距センサを備えた脚車輪型ロボットを提供する。
【解決手段】 多点測距センサは、レンズ位置を変更しながら複数の画像を撮像素子112から取り込み、取り込んだ各画像に対応するレンズ位置を取得する。そして、画像の各区分領域について、取り込んだ各画像ごとに空間周波数が所定以上の成分を抽出し、抽出した空間周波数成分が最も大きい画像に対応するレンズ位置に基づいて、区分領域に撮影された対象物までの距離を算出する。広範囲の測定を行う場合、測定に先立って、同一の焦点位置に対する画角を所定の広角の領域に変更する。これに対し、高分解能の測定を行う場合は、測定に先立って、同一の焦点位置に対する画角を所定の望遠の領域に変更する。
【選択図】図7

Description

本発明は、複数の測定点についてその測定点までの距離を測定する多点測距センサを備えた脚車輪型ロボットに関する。
従来、自律移動型ロボットに搭載される多点測距センサとしては、例えば、赤外線測距センサや超音波測距センサ等を複数アレイ状に配列したもの、光源と1台のカメラを用いて三角測量法により多点の距離を測定する光切断法を用いた画像センサ、2台のカメラを用いたステレオビジョンによる画像センサが知られている。これらの技術は、例えば、特許文献1〜4に開示されている。
特開2004−151069号公報 特開2004−61120号公報 特開2001−227943号公報 特開2000−283753号公報
しかしながら、赤外線測距センサにあっては、太陽光等の強力な光では受光量が飽和し測定不能になる。また、超音波測距センサにあっては、物体に対して正対していない場合は、測定精度が低下し、複数アレイ状に配列した場合は、異なるセンサから出力された音波の反射波同士が干渉するため、高速かつ正確な測定が難しい。また、光切断法を用いた三角測量法による画像センサにあっては、明るいところでは対象物からの反射光と周囲とのコントラストが十分に得られない。また、カメラと光源との距離、つまり基線長が十分に長くなければ測定分解能が低下するため、検出精度が低下する。したがって、環境の影響を受けやすいという問題があった。
また、ステレオビジョンによる画像センサにあっては、コストおよび処理時間を要し、環境が変わるごとに煩雑なキャリブレーションを行わなければならないという問題があった。
この問題を解決するため、レンズ焦点法を用いることが考えられる。レンズ焦点法は、レンズと物体がピントの合う位置にある関係から距離を求める測定方法である。そのため、上記各従来の測定方法に対して耐環境性やコスト等の点で優れている。
しかしながら、レンズ焦点法で広範囲の測定を行うためには、画角の広い広角レンズが必要となり、測定領域内の多点の測距を行う際には、複雑な形状の対象物に対して十分な分解能で測定を行うことができない。その逆に、高い分解能で測定を行うために画角の狭い望遠レンズを用いると、広範囲をカバーすることができない。
図22は、レンズ焦点法を用いた多点測距センサの測定分解能を説明するための図である。
図22において、撮像素子の水平方向の画素数をH、撮像素子の水平方向の長さをh、撮像素子から対象物までの距離をL、レンズの焦点位置(焦点距離)をf、レンズの画角をθとすると、撮像素子におけるi番目の素子の位置xiは、下式(1)により表すことができる。
Figure 2009008649
また、xiに対応する距離Lでの位置Xiは、下式(2)により表すことができる。
Figure 2009008649
水平方向の分解能ΔXi,i-1は、上式(1)、(2)から下式(3)として導くことができる。
Figure 2009008649
また、焦点位置fは、上式(3)から下式(4)として導くことができる。
Figure 2009008649
なお、焦点位置fと画角θの関係は、下式(5)により表すことができる。
Figure 2009008649
図23は、Hが512、hが10[mm]、Lが1000[mm]の場合に、焦点位置fの変化に対する画角θと分解能の変化を示すグラフである。
図23に示すように、画角θが狭くなれば分解能が高くなり、画角θが広くなれば分解能が低くなることが分かる。つまり、分解能はレンズの基本性能(広角か望遠か)に依存することになる。
そこで、本発明は、このような従来の技術の有する未解決の課題に着目してなされたものであって、広範囲の測定および高分解能の測定を行うのに好適な多点測距センサを備えた脚車輪型ロボットを提供することを目的としている。
〔発明1〕 上記目的を達成するために、発明1の脚車輪型ロボットは、基体と、前記基体に対してヨー軸回りの自由度およびピッチ軸またはロール軸回りの自由度を有して連結された脚部と、前記脚部に回転可能に設けられた車輪と、各前記脚部を駆動するための動力を付与する第1アクチュエータと、各前記車輪を駆動するための動力を付与する第2アクチュエータと、複数の測定点までの距離を測定する多点測距センサと、前記第1アクチュエータおよび前記第2アクチュエータを制御する制御手段とを備え、前記脚部の駆動および前記車輪の回転により移動する脚車輪型ロボットであって、前記多点測距センサは、光学系を介して画像を撮影する撮像手段と、同一の焦点位置に対する画角が変化するように前記光学系の画角を変更する画角変更手段と、前記光学系の焦点位置を変更する焦点位置変更手段と、前記焦点位置変更手段で前記焦点位置を変更しながら前記焦点位置の異なる複数の画像を前記撮像手段から取り込む画像取込手段と、前記画像取込手段で取り込んだ各画像に対応する焦点位置を取得する焦点位置取得手段と、前記画像の一部の領域として設定された所定の第1測定領域について、前記画像取込手段で取り込んだ各画像ごとに空間周波数が所定以上の成分を抽出する第1周波数成分抽出手段と、前記第1測定領域とは異なる前記画像の一部の領域として設定された所定の第2測定領域について、前記画像取込手段で取り込んだ各画像ごとに空間周波数が所定以上の成分を抽出する第2周波数成分抽出手段と、前記第1周波数成分抽出手段で前記第1測定領域について前記各画像ごとに抽出した空間周波数成分および前記焦点位置取得手段で取得した各焦点位置に基づいて、前記第1測定領域に撮影された第1測定点までの距離を算出する第1距離算出手段と、前記第2周波数成分抽出手段で前記第2測定領域について前記各画像ごとに抽出した空間周波数成分および前記焦点位置取得手段で取得した各焦点位置に基づいて、前記第2測定領域に撮影された第2測定点までの距離を算出する第2距離算出手段とを備え、前記制御手段は、前記基体の向きを一定方向に保ちながら、自脚車輪型ロボットの進行方向と、前記各車輪の進行方向とが一致するように、前記第1アクチュエータおよび前記第2アクチュエータを制御することを特徴とする。
このような構成であれば、画像取込手段により、焦点位置の異なる複数の画像が撮像手段から取り込まれ、焦点位置取得手段により、取り込まれた各画像に対応する焦点位置が取得される。
そして、第1周波数成分抽出手段により、取り込まれた各画像ごとに第1測定領域について空間周波数が所定以上の成分が抽出され、第1距離算出手段により、抽出された空間周波数成分および取得された各焦点位置に基づいて第1測定点までの距離が算出される。
また、第2周波数成分抽出手段により、取り込まれた各画像ごとに第2測定領域について空間周波数が所定以上の成分が抽出され、第2距離算出手段により、抽出された空間周波数成分および取得された各焦点位置に基づいて第2測定点までの距離が算出される。
広範囲の測定を行う場合は、測定に先立って、画角変更手段により、同一の焦点位置に対する画角が広がるように光学系の画角が変更される。これにより、例えば、対象物までの距離が大きい場合は、分解能を落として広範囲の測定を行うことができる。
また、高分解能の測定を行う場合は、測定に先立って、画角変更手段により、同一の焦点位置に対する画角が狭くなるように光学系の画角が変更される。これにより、例えば、対象物までの距離が小さい場合は、対象物に測定範囲を絞って高分解能の測定を行うことができる。
さらに、脚車輪型ロボットの走行移動時において、その基体の向きを一定方向に保ちながら、脚車輪型ロボットの進行方向と各車輪の進行方向とが一致するように第2アクチュエータを制御することができる。
〔発明2〕 一方、上記目的を達成するために、発明2の脚車輪型ロボットは、基体と、前記基体に対してヨー軸回りの自由度およびピッチ軸またはロール軸回りの自由度を有して連結された複数の脚部と、前記各脚部に回転可能に設けられた車輪と、各前記脚部を駆動するための動力を付与する第1アクチュエータと、各前記車輪を駆動するための動力を付与する第2アクチュエータと、複数の測定点までの距離を測定する多点測距センサと、前記第1アクチュエータおよび前記第2アクチュエータを制御する制御手段とを備え、前記脚部の駆動および前記車輪の回転により移動する脚車輪型ロボットであって、前記多点測距センサは、光学系を介して画像を撮影する撮像手段と、同一の焦点位置に対する画角が変化するように前記光学系の画角を変更する画角変更手段と、前記光学系の焦点位置を変更する焦点位置変更手段と、前記焦点位置変更手段で前記焦点位置を変更しながら前記焦点位置の異なる複数の画像を前記撮像手段から取り込む画像取込手段と、前記画像取込手段で取り込んだ各画像に対応する焦点位置を取得する焦点位置取得手段と、前記画像の一部の領域として設定された所定の第1測定領域について、前記画像取込手段で取り込んだ各画像ごとに空間周波数が所定以上の成分を抽出する第1周波数成分抽出手段と、前記第1測定領域とは異なる前記画像の一部の領域として設定された所定の第2測定領域について、前記画像取込手段で取り込んだ各画像ごとに空間周波数が所定以上の成分を抽出する第2周波数成分抽出手段と、前記第1周波数成分抽出手段で前記第1測定領域について前記各画像ごとに抽出した空間周波数成分および前記焦点位置取得手段で取得した各焦点位置に基づいて、前記第1測定領域に撮影された第1測定点までの距離を算出する第1距離算出手段と、前記第2周波数成分抽出手段で前記第2測定領域について前記各画像ごとに抽出した空間周波数成分および前記焦点位置取得手段で取得した各焦点位置に基づいて、前記第2測定領域に撮影された第2測定点までの距離を算出する第2距離算出手段と、を備え、前記制御手段は、旋回時に、前記基体を所定の回転中心位置でヨー軸周りに自転運動させたときの前記各車輪の操舵時の回転中心の描く円弧軌道と前記操舵時の回転中心との接点位置における該回転中心の運動方向と、前記各車輪の進行方向とが一致するように、前記第1アクチュエータおよび前記第2アクチュエータを制御することを特徴とする。
このような構成であれば、画像取込手段により、焦点位置の異なる複数の画像が撮像手段から取り込まれ、焦点位置取得手段により、取り込まれた各画像に対応する焦点位置が取得される。
そして、第1周波数成分抽出手段により、取り込まれた各画像ごとに第1測定領域について空間周波数が所定以上の成分が抽出され、第1距離算出手段により、抽出された空間周波数成分および取得された各焦点位置に基づいて第1測定点までの距離が算出される。
また、第2周波数成分抽出手段により、取り込まれた各画像ごとに第2測定領域について空間周波数が所定以上の成分が抽出され、第2距離算出手段により、抽出された空間周波数成分および取得された各焦点位置に基づいて第2測定点までの距離が算出される。
広範囲の測定を行う場合は、測定に先立って、画角変更手段により、同一の焦点位置に対する画角が広がるように光学系の画角が変更される。これにより、例えば、対象物までの距離が大きい場合は、分解能を落として広範囲の測定を行うことができる。
また、高分解能の測定を行う場合は、測定に先立って、画角変更手段により、同一の焦点位置に対する画角が狭くなるように光学系の画角が変更される。これにより、例えば、対象物までの距離が小さい場合は、対象物に測定範囲を絞って高分解能の測定を行うことができる。
また、旋回時は、制御手段により、基体を所定の回転中心位置でヨー軸(垂直軸)周りに自転運動させたときの各車輪の操舵時の回転中心の描く円弧軌道と操舵時の回転中心との接点位置における該回転中心の運動方向と、各車輪の進行方向とが一致するように、第2アクチュエータを制御することができる。
〔発明3〕 さらに、発明3の脚車輪型ロボットは、発明2の脚車輪型ロボットにおいて、前記制御手段は、前記基体の向きを一定方向に保ちながら、自脚車輪型ロボットの進行方向と、前記各車輪の進行方向とが一致するように、前記第1アクチュエータおよび前記第2アクチュエータを制御することを特徴とする。
このような構成であれば、脚車輪型ロボットの移動時において、その基体の向きを一定方向に保ちながら、脚車輪型ロボットの進行方向と各車輪の進行方向とが一致するように第2アクチュエータが制御される。
〔発明4〕 さらに、発明4の脚車輪型ロボットは、発明1ないし3のいずれか1の脚車輪型ロボットにおいて、前記画角変更手段で画角を所定の広角の領域に変更し、前記焦点位置変更手段、前記画像取込手段、前記焦点位置取得手段、前記第1周波数成分抽出手段、前記第2周波数成分抽出手段、前記第1距離算出手段および前記第2距離算出手段を実行して測定を行う広範囲測定手段と、前記画角変更手段で画角を所定の望遠の領域に変更し、前記焦点位置変更手段、前記画像取込手段、前記焦点位置取得手段、前記第1周波数成分抽出手段、前記第2周波数成分抽出手段、前記第1距離算出手段および前記第2距離算出手段を実行して測定を行う高分解能測定手段とを備える。
このような構成であれば、広範囲の測定を行う場合は、広範囲測定手段により、画角変更手段で画角が所定の広角の領域に変更され、焦点位置変更手段、画像取込手段、焦点位置取得手段、第1周波数成分抽出手段、第2周波数成分抽出手段、第1距離算出手段および第2距離算出手段が実行されて測定が行われる。
また、高分解能の測定を行う場合は、高分解能測定手段により、画角変更手段で画角が所定の望遠の領域に変更され、焦点位置変更手段、画像取込手段、焦点位置取得手段、第1周波数成分抽出手段、第2周波数成分抽出手段、第1距離算出手段および第2距離算出手段が実行されて測定が行われる。
〔発明5〕 さらに、発明5の脚車輪型ロボットは、発明1ないし4のいずれか1の脚車輪型ロボットにおいて、前記第1距離算出手段は、前記複数の画像のうち前記第1測定領域について抽出した空間周波数の高次の成分が最も大きい画像に対応する前記焦点位置に基づいて前記第1測定点までの距離を算出し、前記第2距離算出手段は、前記複数の画像のうち前記第2測定領域について抽出した空間周波数の高次の成分が最も大きい画像に対応する前記焦点位置に基づいて前記第2測定点までの距離を算出する。
このような構成であれば、第1距離算出手段により、複数の画像のうち第1測定領域について抽出された空間周波数の高次の成分が最も大きい画像に対応する焦点位置に基づいて第1測定点までの距離が算出される。また、第2距離算出手段により、複数の画像のうち第2測定領域について抽出された空間周波数の高次の成分が最も大きい画像に対応する焦点位置に基づいて第2測定点までの距離が算出される。
以上説明したように、発明1の脚車輪型ロボットによれば、画角変更手段で画角を変更することで広範囲の測定と高分解能の測定を切り換えて行うことができるので、従来に比して、広範囲の測定および高分解能の測定を実現することができるという効果が得られる。また、少なくとも1つの撮像手段で画像を取り込む方式なので、ステレオビジョンによる画像センサのように複数のカメラを必要とせず、さらに、外乱光やセンサ間の干渉による影響が少ない。したがって、コストを低減することができ、環境の影響を受けにくいという効果も得られる。また、測定環境ごとのキャリブレーションを必要としないので、その手間が不要であるという効果も得られる。さらに、光学系の焦点位置を変更しながら画像を取り込むだけでよいので、高速な測定を実現することができるという効果も得られる。また、脚車輪型ロボットを、その向きとは関係なく自由な方向へと移動させることができるので、各方向への素早い移動を実現できると共に、例えば、脚車輪型ロボットの各構成部が妨げとなって旋回できないような狭くて入り組んだエリアなど、脚車輪型ロボットの向きを変更することが困難なエリアにおいても活動が可能となるという効果も得られる。
また、発明2の脚車輪型ロボットによれば、旋回時に、脚車輪型ロボットの基体を所定の回転中心位置でヨー軸回りに自転運動させたときの各車輪の操舵時の回転中心の描く円弧軌道と操舵時の回転中心との接点における該回転中心の運動方向と、各車輪の進行方向とを一致させることができるので、脚車輪型ロボットを、所定の旋回中心位置で前後移動させずに旋回(クローラなどによる超信地旋回と同等の旋回)をさせることができるという効果が得られる。また、基体の中心位置を、自転させる時の回転中心位置とすることで、最小の旋回半径で脚車輪型ロボットを旋回させることが可能である。
〔第1の実施の形態〕
以下、本発明の第1の実施の形態を図面を参照しながら説明する。図1ないし図7は、本発明に係る脚車輪型ロボットに搭載される多点測距センサの第1の実施の形態を示す図である。
本実施の形態は、本発明に係る多点測距センサを、撮像素子から取り込んだ画像に基づいて多点測距を行う場合について適用したものである。
まず、本実施の形態に係る多点測距の原理を説明する。
図1は、撮像画像と空間周波数の関係を説明するための図である。
本実施の形態では、CCD(Charge Coupled Device)等の高解像度な撮像素子と、焦点調節機構を有する焦点深度の十分に浅い光学系とからなるカメラ1台を用いて、合焦(レンズの焦点が対象物に合致することをいう。)時のレンズ位置に基づいて対象物までの距離を測定するレンズ焦点法を基本原理とする。
合焦時は、図1に示すように、対象物の画像が撮像素子に鮮明に投影されるため、画像のエッジが際立ち、空間周波数が高い領域でピークが発生する。これに対し、非合焦時は、対象物の画像が撮像素子にぼやけて投影されるので、画像のエッジがぼやけ、空間周波数が高い領域でピークが発生しない。
図2は、レンズの焦点位置に基づいて対象物までの距離を測定する原理を説明するための図である。
撮像素子の画像を格子状(図2の例では、横方向および縦方向にそれぞれ6つの矩形領域)に区分し、各区分領域ごとに空間周波数を算出すると、図2に示すように、対象物Aに合焦しているときは、対象物Aが撮影される区分領域の空間周波数が高い領域でピークが発生する。また、対象物Aと異なる位置に存在する対象物Bに合焦しているときは、対象物Bが撮影される区分領域の空間周波数が高い領域でピークが発生する。したがって、対象物A、Bへの合焦時の焦点位置をそれぞれ取得すれば、取得した焦点位置に基づいて対象物A、Bまでの距離をそれぞれ求めることができる。
通常、レンズ焦点法の場合は、プリズムを設けて位相差から焦点を検出する方法、またその発展型として、焦点の異なる光学系を2つ用意し、レンズの駆動を行わない方法等があるが、本実施の形態では、焦点調節機構以外の特別な光学系を用いない。
図3は、2枚のレンズの位置と焦点位置の関係を示す図である。
本実施の形態では、さらに、複数枚のレンズを用い、同一の焦点位置に対する画角を変化させる。以下、最も単純な2枚のレンズからなる光学系を取り上げて説明する。
図3において、2枚のレンズからなる光学系の合成焦点距離をf、2枚のレンズ間の距離をd、2枚のレンズのうち対象物側のレンズ(以下、前段レンズという。)の位置をl、焦点距離をf1、2枚のレンズのうち撮像素子側のレンズ(以下、後段レンズという。)の位置をs’、焦点距離をf2とすると、組み合わせレンズの式より下式(6)が得られる。
Figure 2009008649
上式(6)から下式(7)を導くことができる。
Figure 2009008649
また、下式(8)が得られる。
Figure 2009008649
上式(6)、(8)から下式(9)を導くことができる。
Figure 2009008649
上式(9)から下式(10)を導くことができる。
Figure 2009008649
したがって、2枚のレンズの位置を調整することにより、同一の焦点位置に対する画角を変更することができる。
なお、ズーム光学系では、通常、複数枚のレンズの移動が焦点位置と画角に対して相関性があるので、明示的に個々のレンズを焦点調整用、画角調整用と示すことはできない。
次に、本発明を適用する多点測距センサの構成を説明する。
図4は、多点測距センサの構成を示すブロック図である。
多点測距センサは、図4に示すように、前段レンズ110aと、後段レンズ110bと、前段レンズ110aおよび後段レンズ110bを介して画像を撮影する撮像素子112と、撮像素子112から取り込んだ画像を保持する画像メモリ114とを有して構成されている。
多点測距センサは、さらに、前段レンズ110aの位置調節機構に動力を付与して前段レンズ110aの焦点位置を調整するレンズ駆動アクチュエータ116aと、レンズ駆動アクチュエータ116aを駆動する駆動回路118aと、前段レンズ110aの位置を検出するレンズ位置センサ120aとを有して構成されている。
多点測距センサは、さらに、後段レンズ110bの位置調節機構に動力を付与して後段レンズ110bの焦点位置を調整するレンズ駆動アクチュエータ116bと、レンズ駆動アクチュエータ116bを駆動する駆動回路118bと、後段レンズ110bの位置を検出するレンズ位置センサ120bとを有して構成されている。
多点測距センサは、さらに、画像メモリ114の画像に基づいて多点測距を行うマイクロプロセッサ122を有して構成されている。
レンズ駆動アクチュエータ116a、116bとしては、例えば、圧電素子と変異拡大機構を一体化したアクチュエータを用いることができる。また、これに限らず、例えば、直動型のボイスコイルモータ、回転型のステッピングモータ、超音波モータを用いることもできる。
レンズ位置センサ120a、120bとしては、例えば、レンズ110a、110bの直線移動を検出する直線センサ、モータの回転動力をレンズ110a、110bの直線移動に変換する変換機構にあってはモータの回転を検出する回転センサを用いることができる。
次に、マイクロプロセッサ122で実行する処理を説明する。
マイクロプロセッサ122は、内部メモリの所定領域に格納されている所定のプログラムを起動させ、そのプログラムに従って、図5のフローチャートに示す画角切換測距処理を所定サンプリング時間ごとに実行する。
図5は、画角切換測距処理を示すフローチャートである。
画角切換測距処理は、同一の焦点位置に対する画角を変更し、複数の測定点についてその測定点までの距離を測定する処理であって、マイクロプロセッサ122において実行されると、図5に示すように、ステップS100に移行する。
ステップS100では、対象物までの距離が所定以上であるか否かを判定すること等により広範囲の測定を行うか否かを判定し、広範囲の測定を行うと判定したとき(Yes)は、ステップS102に移行する。
ステップS102では、画角が所定の広角の領域となるように、上式(6)、(9)、(10)により、基準となる前段レンズ110aの位置lおよび後段レンズ110bの位置s’を算出し、ステップS104に移行する。
ステップS104では、算出した基準レンズ位置lから基準レンズ位置s’の方向にΔl(Δlは、前段レンズ110aの所定の総移動範囲の1/2を示す。ただし、Δl<d。)近接した位置l−Δlに前段レンズ110aを移動すべき制御信号を駆動回路118aに、算出した基準レンズ位置s’に後段レンズ110bを移動すべき制御信号を駆動回路118bにそれぞれ出力し、ステップS106に移行して、複数の測定点についてその測定点までの距離を測定する多点測距処理を実行し、ステップS108に移行する。
ステップS108では、対象物までの距離が所定以下であるか否かを判定すること等により高分解能の測定を行うか否かを判定し、高分解能の測定を行うと判定したとき(Yes)は、ステップS110に移行する。
ステップS110では、画角が所定の望遠の領域となるように、上式(6)、(9)、(10)により、基準となる前段レンズ110aの位置lおよび後段レンズ110bの位置s’を算出し、ステップS112に移行する。
ステップS112では、算出した基準レンズ位置lから基準レンズ位置s’の方向にΔl近接した位置l−Δlに前段レンズ110aを移動すべき制御信号を駆動回路118aに、算出した基準レンズ位置s’に後段レンズ110bを移動すべき制御信号を駆動回路118bにそれぞれ出力し、ステップS114に移行して、ステップS106と同様の多点測距処理を実行し、一連の処理を終了して元の処理に復帰させる。
一方、ステップS108で、高分解能の測定を行わないと判定したとき(No)は、一連の処理を終了して元の処理に復帰させる。
一方、ステップS100で、広範囲の測定を行わないと判定したとき(No)は、ステップS108に移行する。
次に、ステップS106、S114の多点測距処理を説明する。
図6は、多点測距処理を示すフローチャートである。
多点測距処理は、後段レンズ110bを基準レンズ位置s’に固定し、基準レンズ位置lを中心に前段レンズ110aを前後に±Δl移動させることにより、複数の測定点についてその測定点までの距離を測定する処理であって、ステップS106、S114において実行されると、図6に示すように、ステップS200に移行する。
ステップS200では、画像メモリ114から画像を読み出し、ステップS202に移行して、読み出した画像に対応するレンズ位置をレンズ位置センサ120a、120bから取得し、ステップS204に移行する。
ステップS204では、読み出した画像の区分領域(xi、yj)(xiは、横方向i番目の区分領域を示し、yjは、縦方向j番目の区分領域を示す。)の空間周波数成分をフーリエ変換処理により算出し、ステップS206に移行して、算出した空間周波数成分および取得したレンズ位置を区分領域(xi、yj)と対応付けて内部メモリに格納し、ステップS208に移行する。
ステップS208では、横方向のすべての区分領域についてステップS204、S206の処理が終了したか否かを判定し、横方向のすべての区分領域について処理が終了したと判定したとき(Yes)は、ステップS210に移行して、縦方向のすべての区分領域についてステップS204、S206の処理が終了したか否かを判定し、縦方向のすべての区分領域について処理が終了したと判定したとき(Yes)は、ステップS212に移行する。
ステップS212では、レンズ位置が終端(l+Δl)か否かを判定し、レンズ位置が終端であると判定したとき(Yes)は、ステップS214に移行して、内部メモリの空間周波数成分に基づいて、レンズ位置の異なる区分領域(xi、yj)の画像のうち空間周波数が所定以上の成分がピークとなる画像を特定し、ステップS216に移行する。
ステップS216では、ピーク画像に対応するレンズ位置を内部メモリから読み出し、読み出したレンズ位置に基づいて、区分領域(xi、yj)に撮影された対象物までの距離を算出し、ステップS218に移行して、算出した対象物までの距離を示す距離情報を区分領域(xi、yj)と対応付けて内部メモリに格納し、ステップS220に移行する。
ステップS220では、横方向のすべての区分領域についてステップS214〜S218の処理が終了したか否かを判定し、横方向のすべての区分領域について処理が終了したと判定したとき(Yes)は、ステップS222に移行して、縦方向のすべての区分領域についてステップS214〜S218の処理が終了したか否かを判定し、縦方向のすべての区分領域について処理が終了したと判定したとき(Yes)は、一連の処理を終了して元の処理に復帰させる。
一方、ステップS222で、縦方向のすべての区分領域について処理が終了しないと判定したとき(No)は、ステップS224に移行して、処理対象とする区分領域を縦方向に1つ移動し、ステップS214に移行する。
一方、ステップS220で、横方向のすべての区分領域について処理が終了しないと判定したとき(No)は、ステップS226に移行して、処理対象とする区分領域を横方向に1つ移動し、ステップS214に移行する。
一方、ステップS212で、レンズ位置が終端でないと判定したとき(No)は、ステップS228に移行して、前段レンズ110aを所定量移動すべき制御信号を駆動回路118aに出力し、ステップS200に移行する。
一方、ステップS210で、縦方向のすべての区分領域について処理が終了しないと判定したとき(No)は、ステップS230に移行して、処理対象とする区分領域を縦方向に1つ移動し、ステップS204に移行する。
一方、ステップS208で、横方向のすべての区分領域について処理が終了しないと判定したとき(No)は、ステップS232に移行して、処理対象とする区分領域を横方向に1つ移動し、ステップS204に移行する。
次に、本実施の形態の動作を説明する。
図7は、多点測距を行う動作を説明するための図である。
広範囲の測定を行う場合は、ステップS102、S104を経て、画角が所定の広角の領域となるように、基準となる前段レンズ110aの位置lおよび後段レンズ110bの位置s’を算出し、前段レンズ110aを先端(l−Δl)に、後段レンズ110bを基準レンズ位置s’にそれぞれ移動させる。
そして、図7に示すように、ステップS200〜S212、S228〜S230を経て、後段レンズ110bを基準レンズ位置s’に固定し、前段レンズ110aを先端から終端に移動させ、その間、あらかじめ定めておいたレンズ移動距離ごと(l1、l2、l3)に撮像素子112から画像を取り込み記憶する。これを1スキャンとする。前段レンズ110aを初期位置に戻す際もスキャンを行う。スキャン中または1スキャン終了時に、ステップS214〜S226を経て、各区分領域ごとに空間周波数が所定以上の高次成分を抽出し、これがピークとなるレンズ位置を合焦とし、合焦点のレンズ位置を求め、対象物までの距離を算出する。このとき、レンズ110a、110bの画角が広角の領域となっているので、分解能を落として広範囲の測定を行うことができる。
次に、高分解能の測定を行う場合は、ステップS110、S112を経て、画角が所定の望遠の領域となるように、基準となる前段レンズ110aの位置lおよび後段レンズ110bの位置s’を算出し、前段レンズ110aを先端に、後段レンズ110bを基準レンズ位置s’にそれぞれ移動させる。
そして、広範囲の測定のときと同様に、後段レンズ110bを固定して前段レンズ110aを移動させ、合焦点のレンズ位置を求め、対象物までの距離を算出する。このとき、レンズ110a、110bの画角が望遠の領域となっているので、対象物に測定範囲を絞って高分解能の測定を行うことができる。
このようにして、本実施の形態では、同一の焦点位置に対する画角を変更し、レンズ位置を変更しながら複数の画像を撮像素子112から取り込み、取り込んだ各画像に対応するレンズ位置を取得し、画像の各区分領域について、取り込んだ各画像ごとに空間周波数が所定以上の成分を抽出し、抽出した空間周波数成分が最も大きい画像に対応するレンズ位置に基づいて、区分領域に撮影された対象物までの距離を算出する。
これにより、同一の焦点位置に対する画角を変更することで広範囲の測定と高分解能の測定を切り換えて行うことができるので、従来に比して、広範囲の測定および高分解能の測定を実現することができる。
また、1台のカメラで画像を取り込む方式なので、ステレオビジョンによる画像センサのように複数のカメラを必要とせず、また、外乱光やセンサ間の干渉による影響が少ない。したがって、コストを低減することができ、環境の影響を受けにくい。また、キャリブレーションを必要としないので、その手間が不要である。さらに、前段レンズ110aを先端から終端まで移動しながら画像を取り込むだけでよいので、高速な測定を実現することができる。
また、カメラのオートフォーカスでは、焦点を合わせることが最終目的なので、焦点が合っているか否かを常に確認しながらレンズを追従させようと制御するが、本実施の形態では、連続的に一定速度で前段レンズ110aを作動させ、その時々の画像を記憶し、スキャン後に合焦点を求めるという方法であるので、突然ロストすることもなければ、前段レンズ110aが焦点に追従しようと迷って動くこともない。
さらに、本実施の形態では、広範囲の測定を行うと判定したときは、画角を所定の広角の領域に変更して対象物までの位置を測定し、高分解能の測定を行うと判定したときは、画角を所定の望遠の領域に変更して対象物までの位置を測定する。
これにより、広範囲の測定と高分解能の測定を適切に切り換えて行うことができる。
さらに、本実施の形態では、フーリエ変換処理により空間周波数が所定以上の成分を抽出する。
これにより、精度の高い測定を実現することができる。
上記実施の形態において、レンズ110a、110bは、発明1または2の光学系に対応し、撮像素子112は、発明1または2の撮像手段に対応し、レンズ駆動アクチュエータ116a、116b、駆動回路118a、118bおよびステップS102、S104、S110、S112は、発明1、2または4の画角変更手段に対応している。また、ステップS100〜S106は、発明4の広範囲測定手段に対応し、ステップS108〜S114は、発明4の高分解能測定手段に対応している。
また、上記第1の実施の形態において、レンズ駆動アクチュエータ116a、駆動回路118aおよびステップS228は、発明1、2または4の焦点位置変更手段に対応し、ステップS200は、発明1、2または4の画像取込手段に対応し、レンズ位置センサ120a、120bおよびステップS202は、発明1、2または4の焦点位置取得手段に対応している。また、ステップS204は、発明1、2若しくは4の第1周波数成分抽出手段、または発明1、2若しくは4の第2周波数成分抽出手段に対応している。
また、上記第1の実施の形態において、ステップS214、S216は、発明1、2、4若しくは5の第1距離算出手段、または発明1、2、4若しくは5の第2距離算出手段に対応している。
なお、上記第1の実施の形態においては、多点測距センサを、後段レンズ110bを固定し、前段レンズ110aを移動させることにより焦点位置を変更するように構成したが、これに限らず、前段レンズ110aを固定し、後段レンズ110bを移動させることにより焦点位置を変更するように構成してもよいし、レンズ110a、110bの両方を移動させることにより焦点位置を変更するように構成してもよい。
また、上記第1の実施の形態においては、光学系を2枚のレンズ110a、110bから構成したが、これに限らず、3枚以上のレンズから構成してもよい。
また、上記第1の実施の形態においては、撮像素子112の画像を格子状に区分したが、これに限らず、図8に示すように、ハニカム状に区分してもよい。
図8は、撮像素子112の画像をハニカム状に区分した状態を示す図である。
これにより、見かけ上の分解能を向上することができる。
また、上記第1の実施の形態においては、フーリエ変換処理により空間周波数が所定以上の成分を抽出するように構成したが、これに限らず、ハイパスフィルタにより空間周波数が所定以上の成分を抽出するように構成することができる。
これにより、高速な測定を実現することができる。
また、上記第1の実施の形態においては、図6のフローチャートに示す多点測距処理を実行するように構成したが、これに代えて、図9のフローチャートに示す多点測距処理を実行するように構成することもできる。
図9は、多点測距処理を示すフローチャートである。
図9の多点測距処理は、図6の多点測距処理に対して、ステップS212、S228の処理をステップS202、S204の間に移動した点が異なる。
ステップS200、S202、S228、S212の処理は、前段レンズ110aを先端から終端に移動させながら各レンズ位置の画像を画像メモリ114から読み出す処理である。
ステップS204〜S210、S214〜S226、S230、S232の処理は、読み出した各レンズ位置の画像に基づいて、空間周波数成分の算出、ピーク画像の特定、対象物までの距離の算出等を行う処理である。
このように、画像のスキャンを一括で行った後に画像処理を行うことにより、高速な処理を実現するとともにリアルタイム性を向上することができる。
また、上記第1の実施の形態において、図5および図6のフローチャートに示す処理を実行するにあたってはいずれも、マイクロプロセッサ122の内部メモリにあらかじめ格納されている制御プログラムを実行する場合について説明したが、これに限らず、これらの手順を示したプログラムが記憶された記憶媒体から、そのプログラムをRAM等に読み込んで実行するようにしてもよい。図9のフローチャートに示す処理についても同様である。
ここで、記憶媒体とは、RAM、ROM等の半導体記憶媒体、FD、HD等の磁気記憶型記憶媒体、CD、CDV、LD、DVD等の光学的読取方式記憶媒体、MO等の磁気記憶型/光学的読取方式記憶媒体であって、電子的、磁気的、光学的等の読み取り方法のいかんにかかわらず、コンピュータで読み取り可能な記憶媒体であれば、あらゆる記憶媒体を含むものである。
〔第2の実施の形態〕
次に、本発明の第2の実施の形態を図面を参照しながら説明する。図10ないし図21は、本発明に係る脚車輪型ロボットの第2の実施の形態を示す図である。
まず、本発明に係る脚車輪型ロボット100の構成を説明する。
図10は、脚車輪型ロボット100の正面図である。
図11は、脚車輪型ロボット100の側面図である。
脚車輪型ロボット100は、図10および図11に示すように、基体10と、基体10に連結された4つの脚部12とを有して構成されている。
基体10の前方には、2本の脚部12が回転関節14を介して左右対称の位置に連結されている。また、基体10の後方には、2本の脚部12が回転関節14を介して左右対称の位置に連結されている。
回転関節14は、脚車輪型ロボット100の底面と直交する方向を軸方向として回転する。すなわち、ヨー軸回りに回転する。
各脚部12には、2つの回転関節16、18が設けられている。回転関節16、18は、回転関節14が図10のような状態であるときは、脚車輪型ロボット100の側面と直交する方向を軸方向として回転する。したがって、脚部12は、それぞれ3自由度を有する。
各脚部12の先端には、回転関節16、18と軸方向を同一にして駆動輪20が回転可能に設けられている。駆動輪20は、回転関節14の回転によりヨー軸周りに回動する。つまり、回転関節14の回転を制御することで、走行移動時の操舵制御が行われる。
各脚部12の先端には、脚車輪型ロボット100の移動経路上に存在する物体までの脚先からの距離を測定する前方脚先センサ22と、脚先から接地面までの距離を測定する下方脚先センサ24とが設けられている。
一方、基体10の正面の上部中央には、水平面レーザ光を照射する水平レーザ26が設けられている。また、基体10の正面の中央左右には、垂直面レーザ光を照射する垂直レーザ28、30がそれぞれ設けられている。
基体10の正面の下部中央には、上記第1の実施の形態で説明した多点測距センサを内蔵したカメラ32が設けられている。
カメラ32は、水平面レーザ光および垂直面レーザ光の反射光を含む画像を撮影し、該撮影した画像を後述するビジョンプロセッサ72へと出力する。
さらに、カメラ32に内蔵された多点測距センサは、同一の焦点位置に対する画角を変更し、レンズ位置を変更しながら複数の画像をカメラ32の有する撮像素子112から取り込み、取り込んだ各画像に対応するレンズ位置を取得し、画像の各区分領域について、取り込んだ各画像ごとに空間周波数が所定以上の成分を抽出し、抽出した空間周波数成分が最も大きい画像に対応するレンズ位置に基づいて、区分領域に撮影された対象物までの距離を算出する。なお、多点測距センサで測定された対象物までの距離を示す距離情報は、脚車輪型ロボット100の移動制御に用いられる。また、多点測距センサにおけるマイクロプロセッサ122の機能を後述するビジョンプロセッサ72に兼用させる構成としても良い。
水平レーザ26は、カメラ32で水平面レーザ光の反射光を含む画像が撮影できるように下方に所定角度傾けて設けられている。同様に、垂直レーザ28は、カメラ32で垂直面レーザ光の反射光を含む画像が撮影できるように右方に所定角度傾けて設けられ、垂直レーザ30は、左方に所定角度傾けて設けられている。
カメラ32の左右には、障害物を検出する障害物センサ34、36がそれぞれ設けられている。
図12は、障害物センサ34、36の構成を示す図である。
障害物センサ34、36は、図12(a)に示すように、指向性の低い超音波測距センサを複数アレイ状に配列して構成することができる。また、図12(b)に示すように、指向性の高い赤外線測距センサを複数アレイ状に配列して構成することもできる。アレイ状に配列する構成に限らず、単体で構成してもよい。また、超音波測距センサまたは赤外線測距センサを複数平面上に配列したエリアセンサで構成してもよい。これにより、脚車輪型ロボット100の移動経路上に存在する物体を大まかに検出することができる。
次に、脚車輪型ロボット100の移動制御システムを説明する。
図13は、脚車輪型ロボット100の移動制御システムを示すブロック図である。
各脚部12の回転関節14〜18には、図13に示すように、回転関節14〜18を回転駆動する関節モータ40がそれぞれ設けられている。各関節モータ40には、関節モータ40の回転角度位置を検出するエンコーダ42と、モータ指令信号およびエンコーダ42の出力信号に基づいて関節モータ40の駆動を制御するドライバ44が設けられている。
各脚部12の駆動輪20には、駆動輪20を回転駆動する車輪モータ50がそれぞれ設けられている。各車輪モータ50には、車輪モータ50の回転角度位置を検出するエンコーダ52と、モータ指令信号およびエンコーダ52の出力信号に基づいて車輪モータ50の駆動を制御するドライバ54が設けられている。
脚車輪型ロボット100は、さらに、CPU60と、脚車輪型ロボット100の姿勢を検出する3軸姿勢センサ70と、カメラ32の画像信号を処理するビジョンプロセッサ72と、外部のPC等と無線通信を行う無線通信部74と、ビジョンプロセッサ72および無線通信部74とCPU60の入出力を中継するハブ76と、警告音等を出力するスピーカ78とを有して構成される。
3軸姿勢センサ70は、ジャイロ若しくは加速度センサ、またはその両方を有し、地軸に対して脚車輪型ロボット100の姿勢の傾きを検出する。
CPU60は、モータ指令出力I/F61を介してドライバ44、54にモータ指令信号を出力し、角度取込I/F62を介してエンコーダ42、52の出力信号を入力する。また、センサ入力I/F63を介して、前方脚先センサ22、下方脚先センサ24、障害物センサ34および3軸姿勢センサ70からそれぞれセンサ信号を入力する。また、通信I/F64を介してハブ76と信号の入出力を行い、サウンド出力I/F65を介してスピーカ78に音声信号を出力する。
次に、CPU60で実行される処理を説明する。
CPU60は、ROM等の所定領域に格納されている制御プログラムを起動させ、その制御プログラムに従って、図14のフローチャートに示す昇降制御処理を実行する。
図14は、昇降制御処理を示すフローチャートである。
昇降制御処理は、脚部12の昇降制御を行う処理であって、CPU60において実行されると、まず、図14に示すように、ステップS300に移行する。
ステップS300では、ビジョンプロセッサ72から画像を取り込み、ステップS302に移行する。
ステップS302では、取り込んだ画像に基づいて光切断法により階段の特徴点を抽出する。
図15は、光切断法の原理を説明するための図である。
光切断法は、三角測量の原理により計測対象上の座標を求める計測法である。図15に計測座標系を示す。
計測対象上の座標P(x0、y0、z0)は、カメラ32の撮像素子上の任意の座標をPs(xi、yi、zi)とすると、下式(11)により求められる。
Figure 2009008649
次に、得られた三次元座標から、レーザ光の反射光の不連続点または屈曲点を階段の特徴点として抽出する。
図16は、階段にレーザ光を照射した状態およびカメラ32の撮像素子の画像を示す図である。
脚車輪型ロボット100の移動経路上に階段が存在すると、図16(a)左側に示すように、水平レーザ26から照射された水平面レーザ光が階段の蹴込板および床面で反射し、カメラ32により、その反射光を含む階段の画像が撮影される。その画像に対して画像処理を行うと、図16(a)右側に示すように、蹴込板での反射光エッジおよび床面での反射光エッジを抽出することができる。そして、そのエッジ画像および上式により得られた三次元座標に基づいて、反射光エッジの不連続点に対応する実座標を算出することができる。
また、図16(b)左側に示すように、垂直レーザ28から照射された垂直面レーザ光が階段の蹴込板および踏板で反射し、カメラ32により、その反射光を含む階段の画像が撮影される。その画像に対して画像処理を行うと、図16(b)右側に示すように、蹴込板での反射光エッジおよび踏板での反射光エッジを抽出することができる。また、垂直レーザ30についても同様であり、図16(c)右側に示すように、蹴込板での反射光エッジおよび踏板での反射光エッジを抽出することができる。そして、それらエッジ画像および上式により得られた三次元座標に基づいて、反射光エッジの屈曲点に対する実座標を算出することができる。
図14に戻り、次いで、ステップS304に移行して、抽出した特徴点に基づいて階段の幅を算出し、ステップS306に移行して、抽出した特徴点に基づいて階段の段鼻部の実座標を算出し、ステップS308に移行する。
ステップS308では、算出した階段の幅および段鼻部の実座標、並びに3軸姿勢センサ70のセンサ信号に基づいて逆運動学計算および重心計算を行い、ステップS310に移行して、ステップS308の計算結果に基づいて脚先(駆動輪20)の着地位置を決定し、ステップS312に移行する。
ステップS312では、カメラ32の多点測距センサ、前方脚先センサ22および下方脚先センサ24からそれぞれセンサ信号を入力し、ステップS314に移行して、入力した多点測距センサおよび前方脚先センサ22のセンサ信号に基づいて蹴込板までの距離を算出し、ステップS316に移行して、入力した下方脚先センサ24のセンサ信号に基づいて脚先と踏板の位置関係を算出し、ステップS318に移行する。
ステップS318では、決定した着地位置および算出した両距離に基づいてドライバ44、54へのモータ指令信号を生成し、ステップS320に移行して、生成したモータ指令信号をドライバ44、54に出力し、ステップS322に移行する。
ステップS322では、脚先が踏板に着地したか否かを判定し、脚先が着地したと判定したとき(Yes)は、一連の処理を終了して元の処理に復帰させる。
一方、ステップS322で、脚先が着地しないと判定したとき(No)は、ステップS312に移行する。
次に、図17ないし図19に基づき、本実施の形態のCPU60で実行される走行制御処理を説明する。
ここで、図17(a)及び(b)は、脚車輪型ロボット100の車輪走行移動時の姿勢を示す図である。
以下の、各走行制御処理においては、脚車輪型ロボット100の姿勢が、図17(b)に示すように、膝屈曲姿勢となるように各関節モータ40を制御する。但し、膝屈曲姿勢における走行制御時に、脚部12が互いに干渉する(接触などする)場合は、図17(a)に示すように、膝伸展姿勢となるように各関節モータ40を制御する。
まず、基体10の向きを一定の方向に保持(固定)した状態で、脚車輪型ロボット100を目的の進行方向に向けて走行させる走行制御処理(以下、無変向走行制御処理と称す)について説明する。
CPU60は、ROM等の所定領域に格納されている制御プログラムを起動させ、その制御プログラムに従って、無変向走行制御処理を実行する。
ここで、無変向走行制御処理は、脚車輪型ロボット100を、その基体10の向きを一定の方向に保持した状態で、目的の進行方向に移動させるものであるため、基体10の前方側に設けられたカメラ32や障害物センサ34、36などを、後方や側方などにも設けることが望ましい。これら後方及び側方をカバーできるカメラ及び障害物センサによって、脚車輪型ロボット100を、基体10の向きとは異なる方向に移動させるときに、その進行方向の環境(地形の状態等)を把握し、適切な制御を行うことができる。
また、無変向走行制御処理は、具体的に、無変向走行制御指令があったときに実行され、時々刻々の、ロボットの進行方向(角度α)、ロボット進行方向速度Vcを入力として、基体10の向きを一定の方向に保持した状態で、脚車輪型ロボット100を前記入力された進行方向へと走行させるための、各脚部12の回転関節14(joint0)の角度(操舵角度)θi0(i=0,1,2,3,・・・)、各脚部12の各駆動輪20の回転角速度ωi(i=0,1,2,3,・・・)を算出し、各アクチュエータに指令を与えるものである。
本実施の形態の脚車輪型ロボット100は、先述したように、基体10の前方に左右一対及び後方に左右一対の計4本の脚部12を有している。
従って、ここでは、各脚部12の駆動輪20の操舵角度θi0を、基体10の上面側から見て、左前輪操舵角度θ00、右前輪操舵角度θ10、左後輪操舵角度θ20、右後輪操舵角度θ30とする。なお、回転関節14によって各脚部12をヨー軸周りに回動させたときに、基体10の上面側から見て、左前輪操舵角度θ00及び右後輪操舵角度θ30は、反時計回り方向を正方向とし、右前輪操舵角度θ10及び左後輪操舵角度θ20は、時計回り方向を正方向とする。
また、各脚部12の駆動輪20の回転角速度ωiを、左前輪回転角速度ω0、右前輪回転角速度ω1、左後輪回転角速度ω2、右後輪回転角速度ω3とする。
また、各脚部12の駆動輪20の線速度Vi(i=0,1,2,3,・・・)を、左前輪線速度V0、右前輪線速度V1、左後輪線速度V2、右後輪線速度V3とする。
ここで、図18(a)〜(c)は、無変向走行制御時の脚車輪型ロボット100の走行状態例を示す図である。なお、図18(a)〜(c)は、脚車輪型ロボット100を上面側から見た図であり、各駆動輪20に付けられた黒塗りの半円の目印は、「θ00=θ10=θ20=θ30=0[°]」のときの基準となる向きを示す。
また、左右前輪は上記目印のある方向に進行する回転方向が正回転方向となり、左右後輪は目印の無い方向に進行する回転方向が正回転方向となる。
まず、図18(a)に基づき、基体10の向きを一定方向に保持(固定)した状態で、脚車輪型ロボット100を、基体10の向いている方向(前方向)に直進走行させる場合の無変向走行制御処理を説明する。
本実施の形態では、基体10の向いている方向(前方向)をロボットの進行方向とした場合に、進行方向を表す角度αを「0[°]」とする。そして、前方向の0[°]を基準に、各進行方向に対応するαを決定する。
ここでは、脚車輪型ロボット100を、基体10の前方向に直進させるので、進行方向αとして「0[°]」が入力され、更に、進行方向速度Vcが入力される。
進行方向α(0[°])及び進行方向速度Vcが入力されると、各駆動輪20の操舵角度θ00、θ10、θ20、θ30、及び各駆動輪20の線速度V0、V1、V2、V3が算出される。
基体10の向きを保持した状態のまま、脚車輪型ロボット100を前方向に直進走行させるためには、図18(a)の各駆動輪20から伸びる矢印に示すように、各駆動輪20の進行方向を基体10の向いている方向(前方向)に全て揃える必要がある。従って、操舵角度θ00、θ10、θ20、θ30は、例えば、「θ00=θ10=θ20=θ30=0[°]」と算出される。
また、この場合に、直進走行させるための各駆動輪20の線速度V0、V1、V2、V3は、「V0=V1=Vc」、「V2=V3=−Vc」と算出される。
なお、各脚部12が互いに干渉しなければ、例えば、「θ00=θ10=0[°]」、「θ20=θ30=π(180[°])又は−π(−180[°])」、「V0=V1=V2=V3=Vc」などの組み合わせとしても良い。
更に、線速度V0、V1、V2、V3は、下式(12)に従って、回転角速度ω0、ω1、ω2、ω3に変換される。

ωi=2Vi/D ・・・(12)

但し、上式(12)において、Dは車輪径である。
各駆動輪20の操舵角度θ00、θ10、θ20、θ30、及び各駆動輪20の回転角速度ω0、ω1、ω2、ω3が算出されると、次に、各駆動輪20の現在の操舵角度及び回転角速度を取得する。そして、現在の操舵角度と、上記算出した前方向に直進させるための操舵角度とから回転関節14の関節モータ40を駆動する指令値を算出する。更に、現在の回転角速度と、上記算出した前方向に直進させるときの回転角速度とから、駆動輪20の車輪モータ50を駆動する指令値を算出する。
このようにして、各駆動輪20の操舵制御の指令値及び速度制御の指令値を算出すると、これらの指令値を各モータのドライバに入力する。そして、入力された指令値に基づき各関節モータ40及び車輪モータ50が駆動されると、これにより、脚車輪型ロボット100の各駆動輪20の操舵角度及び回転角速度が変化し、脚車輪型ロボット100は、基体10の向きを保持した状態で、その向いている方向(前方向)に直進走行する。
なお、基体10の向きを一定方向に保持した状態で、脚車輪型ロボット100を、その向いている方向に対して反対側(真後ろ)の方向に直進走行させる場合は、上記前方向のときと駆動輪20の回転方向を正反対とすればよい。
例えば、「θ00=θ10=θ20=θ30=0[°]」及び「V0=V1=V2=V3=−Vc」、又は「θ00=θ10=0[°]」、「θ20=θ30=π若しくは−π[°]」、「「V0=V1=−Vc」及び「V2=V3=Vc」などとする。
次に、図18(b)に基づき、基体10の向きを保持した状態(前方向に向けたままの状態)で、脚車輪型ロボット100を、その向いている方向に対して右斜め前方向に直進走行させる場合の無変向走行制御処理を説明する。
ここでは、脚車輪型ロボット100を、基体10の右斜め前方向に直進させるので、進行方向αとして「α(−90<α<0)[°](但し、反時計回りが正方向)」が入力され、更に、進行方向速度Vcが入力される。
そして、進行方向α[°]及び進行方向速度Vcが入力されると、各駆動輪20の操舵角度θ00、θ10、θ20、θ30、及び各駆動輪20の線速度V0、V1、V2、V3が算出される。
基体10の向きを保持した状態で、脚車輪型ロボット100を右斜め前方向(α[°]の方向)に直進走行させるためには、図18(b)の各駆動輪20から伸びる矢印に示すように、各駆動輪20の進行方向を、基体10の向いている方向に対して右斜め前方向に全て揃える必要がある。
従って、操舵角度θ00、θ10、θ20、θ30は、例えば、「θ00=θ30=α[°]」、「θ10=θ20=−α[°]」と算出される。
また、この場合に、直進走行させるための各駆動輪20の線速度V0、V1、V2、V3は、「V0=V1=Vc」、「V2=V3=−Vc」と算出される。
なお、各脚部12が互いに干渉しなければ、例えば、「θ00=θ30=α[°]」、「θ10=θ20=−α−π[°]」、「V0=V2=Vc」、「V1=V3=−Vc」などの組み合わせとしても良い。
更に、線速度V0、V1、V2、V3は、上式(12)に従って、回転角速度ω0、ω1、ω2、ω3に変換される。
操舵角度θ00、θ10、θ20、θ30、及び各駆動輪20の回転角速度ω0、ω1、ω2、ω3が算出されると、次に、上記前方向への直進走行のときと同様に、回転関節14の関節モータ40を駆動する指令値と、駆動輪20の車輪モータ50を駆動する指令値とを算出する。
このようにして、各駆動輪20の操舵制御の指令値及び速度制御の指令値を算出すると、これらの指令値を各モータのドライバに入力する。そして、入力された指令値に基づき各関節モータ40及び車輪モータ50が駆動されると、これにより、脚車輪型ロボット100の各駆動輪20の操舵角度及び回転角速度が変化し、脚車輪型ロボット100は、基体10の向きを保持した状態で、その向いている方向に対して右斜め前方向に直進走行する。
なお、基体10の向きを保持した状態で、脚車輪型ロボット100を、その向いている方向に対して左斜め後方に直進走行させる場合は、上記右斜め前方向のときの各駆動輪20の回転方向を正反対とすればよい。また、左斜め前方向に直進移動させる場合は、進行方向αを「0<α<90[°]」の範囲で設定し、更に、操舵角度の符号を正反対とすればよい。また、右斜め後方に直進走行させる場合は、左斜め前方向のときの各駆動輪20の回転方向を正反対とすればよい。
次に、図18(c)に基づき、基体10の向きを保持した状態で、脚車輪型ロボット100を、その向いている方向に対して左真横方向に直進走行させる場合の無変向走行制御処理を説明する。
ここでは、脚車輪型ロボット100を、基体10の左真横方向に直進させるので、進行方向αとして「α(90(π/2))[°]」が入力され、更に、進行方向速度Vcが入力される。
そして、進行方向α[°]及び進行方向速度Vcが入力されると、各駆動輪20の操舵角度θ00、θ10、θ20、θ30、及び各駆動輪20の線速度V0、V1、V2、V3が算出される。
基体10の向きを保持した状態で、脚車輪型ロボット100を、その向いている方向に対して左真横方向(π/2[°]の方向)に直進走行させるためには、図17(c)の各駆動輪20から伸びる矢印に示すように、各駆動輪20の進行方向を左真横方向に全て揃える必要がある。
従って、操舵角度θ00、θ10、θ20、θ30は、例えば、「θ00=θ10=θ20=θ30=π/2[°]」と算出される。
また、この場合に、直進走行させるための各駆動輪20の線速度V0、V1、V2、V3は、「V0=V2=Vc」、「V1=V3=−Vc」と算出される。
なお、各脚部12が互いに干渉しなければ、例えば、「θ00=θ20=π/2[°]」、「θ10=θ30=−π/2[°]」、「V0=V1=V2=V3=Vc」などの組み合わせとしても良い。
更に、線速度V0、V1、V2、V3は、上式(12)に従って、回転角速度ω0、ω1、ω2、ω3に変換される。
操舵角度θ00、θ10、θ20、θ30、及び各駆動輪20の回転角速度ω0、ω1、ω2、ω3が算出されると、次に、上記前方向への直進走行のときと同様に、回転関節14の関節モータ40を駆動する指令値と、駆動輪20の車輪モータ50を駆動する指令値とを算出する。
このようにして、各駆動輪20の操舵制御の指令値及び速度制御の指令値を算出すると、これらの指令値を各モータのドライバに入力する。そして、入力された指令値に基づき各関節モータ40及び車輪モータ50が駆動されると、これにより、脚車輪型ロボット100の各駆動輪20の操舵角度及び回転角速度が変化し、脚車輪型ロボット100は、基体10の向きを保持した状態で、その向いている方向に対して左真横方向に直進走行する。
なお、基体10の向きを保持した状態で、脚車輪型ロボット100を、その向いている方向に対して右真横方向に直進走行させる場合は、上記左真横方向のときの各駆動輪20の回転方向を正反対とすればよい。
次に、脚車輪型ロボット100を、所定の旋回中心位置で前後移動させずに旋回させる走行制御処理(以下、超信地旋回制御処理と称す)について説明する。
CPU60は、ROM等の所定領域に格納されている制御プログラムを起動させ、その制御プログラムに従って、超信地旋回制御処理を実行する。
ここで、図19(a)及び(b)は、基体10の座標(0,0)及び座標(xc,yc)を回転中心とした場合の超信地旋回制御時の脚車輪型ロボット100の走行状態を示す図である。
なお、図19(a)及び(b)においては、基体10を上面側から見た平面において、長手方向の軸をx軸、それと直交する方向の軸をy軸とし、基体10の中心位置の座標を(x,y)=(0,0)とする。
超信地旋回制御処理は、クローラ機構を有したパワーショベルや戦車などの車両が行う超信地旋回と同等の旋回動作を脚車輪型ロボット100に行わせるものである。
ここで、超信地旋回とは、クローラ機構を有した車両が、左右のクローラを同速度で互いに反対方向に回転させることで、前後に進まず、車体の向きを変える旋回方法であり、これは、クローラ機構に限らず、左右に最低2輪の独立した駆動輪を有する車両であれば実現可能な旋回方法である。
本実施の形態においては、具体的に、超信地旋回制御指令があったときに実行され、ロボットの旋回角速度Ω、旋回中心(xc,yc)を入力として、脚車輪型ロボット100を旋回中心(xc,yc)で超信地旋回させるための、各脚部12の回転関節14(joint0)の角度(操舵角度)θ00、θ10、θ20、θ30、各脚部12の各駆動輪20の回転角速度ω0、ω1、ω2、ω3を算出し、各アクチュエータに指令を与えるものである。
脚車輪型ロボット100を超信地旋回させるためには、基体10を、旋回中心(xc,yc)でヨー軸周りに自転させたときに、各駆動輪20の操舵時のヨー軸周りの回転中心が描く円弧軌道と各駆動輪20の前記回転中心との接点における運動方向と、各駆動輪20の進行方向とが一致するように各回転関節14の関節モータ40を制御すると共に、各駆動輪20が前記運動方向に応じた回転方向に一定速度で回転するように各車輪モータ50を制御する必要がある。
まず、図19(a)に基づき、基体10の中心位置の座標(0,0)を旋回中心とした場合の超信地旋回制御処理について説明する。
この場合は、旋回角速度Ωと、旋回中心座標(0,0)とが入力される。
旋回角速度Ω及び旋回中心座標(0,0)が入力されると、下式(13)に基づき、基体10のx軸と各駆動輪20の回転中心とのなす角度φ0、φ1、φ2、φ3が算出される。

tanφ=Wt/Wb ・・・(13)

但し、上式(13)は、基体10の中心座標(0,0)を旋回中心とした場合の式である。また、上式(13)において、Wtはトレッド(車輪間隔)であり、Wbはホイールベースである。
なお、φ0〜φ3は、x軸と、各駆動輪20の回転中心とのなす角度のうち最小の角度とし、φの正方向は、駆動輪によってはΩの正方向とは異なる。
t及びWbは既知であるため(予め情報を持っておく)、上式(13)から、上記角度φ0、φ1、φ2、φ3を算出することができる。
なお、旋回中心が基体10の中心座標(0,0)であるので、角度φ0、φ1、φ2、φ3は、いずれも等角度「φ0=φ1=φ2=φ3=φ」となる。
また、基体10が旋回座標(0,0)でヨー軸周りに自転時に、各駆動輪20の操舵時のヨー軸周りの回転中心の描く円弧軌道と該回転中心との接点における運動方向は、図19(a)の各駆動輪20から伸びる矢印線に示すように、円弧軌道上の各回転中心を通る接線方向(図中の矢印線方向)となる。
各駆動輪20の回転中心に対する角度「φ0=φ1=φ2=φ3=φ」が算出されると、次に、各回転中心の運動方向と各駆動輪20の進行方向とを一致させるための操舵角度θ00、θ10、θ20、θ30を算出する。
各回転中心の運動方向と各駆動輪20の進行方向とを一致させるためには、図19(a)に示すように、各駆動輪20の進行方向と、旋回中心と回転中心とを結ぶ線分との成す角度が直角(π/2(90[°]))となるように操舵すれば良く、従って、操舵角度θ00、θ10、θ20、θ30は、「θ00=θ10=θ20=θ30=−(π/2−φ)」と算出される。
一方、下式(14)に基づき、各駆動輪20の操舵時のヨー軸周りの回転中心と旋回中心(0,0)との距離L0、L1、L2、L3が算出される。
Figure 2009008649
但し、上式(14)は、基体10の中心座標(0,0)を旋回中心とした場合の式である。
なお、トレッドWt及びホイールベースWbから、左前輪の回転中心の座標は(Wb/2,Wt/2)、右前輪の回転中心の座標は(Wb/2,−Wt/2)、左後輪の回転中心の座標は(−Wb/2,Wt/2)、右後輪の回転中心の座標は(−Wb/2,−Wt/2)と表すことができる。
なお、旋回中心が基体10の中心座標(0,0)であるので、距離L0、L1、L2、L3は、等距離「L0=L1=L2=L3=L」となる。
距離L0、L1、L2、L3が算出されると、次に、これらの距離Lと旋回角速度Ωとから、下式(15)に基づき、各駆動輪20の線速度V0、V1、V2、V3を算出する。

0=V1=V2=V3=LΩ (15)

但し、上式(15)は、基体10の中心座標(0,0)を旋回中心とした場合の式である。
ここで、先述したように、左右前輪は黒半円の目印のある方向に進行する回転方向が正回転方向となり、左右後輪は目印の無い方向に進行する回転方向が正回転方向となる。
また、各駆動輪20の向きは、図19(a)に示すようになるので、線速度V0、V1、V2、V3は、「V0=V3=−LΩ」、「V1=V2=LΩ」と算出される。
更に、線速度V0、V1、V2、V3は、上式(12)に従って、回転角速度ω0、ω1、ω2、ω3に変換される。
操舵角度θ00、θ10、θ20、θ30、及び各駆動輪20の回転角速度ω0、ω1、ω2、ω3が算出されると、次に、各駆動輪20の現在の操舵角度及び回転角速度を取得する。そして、現在の操舵角度と、上記算出した操舵角度とから回転関節14の関節モータ40を駆動する指令値を算出する。更に、現在の回転角速度と、上記算出した回転角速度とから、駆動輪20の車輪モータ50を駆動する指令値を算出する。
このようにして、各駆動輪20の操舵制御の指令値及び速度制御の指令値を算出すると、これらの指令値を各モータのドライバに入力する。そして、入力された指令値に基づき各関節モータ40及び車輪モータ50が駆動されると、これにより、脚車輪型ロボット100の各駆動輪20の操舵角度及び回転角速度が変化し、基体10の中心座標(0,0)を旋回中心として、脚車輪型ロボット100が前後移動せずにその場で旋回(超信地旋回)する。
次に、基体10の中心座標(0,0)以外の座標を旋回中心とした場合の超信地旋回制御処理について説明する。以下、この超信地旋回制御処理を、旋回中心オフセット型超信地旋回制御処理と称す。
この場合は、旋回角速度Ωと、基体10の中心座標(0,0)以外の座標である旋回中心座標(xc,yc)≠(0,0)とが入力される。
そして、旋回角速度Ω及び旋回中心座標(xc,yc)が入力されると、下式(16)に基づき、基体10のx軸と各駆動輪20の回転中心とのなす角度φ0、φ1、φ2、φ3が算出される。

tanφ0=(Wt/2−yc)/(Wb/2−xc)
tanφ1=(Wt/2+yc)/(Wb/2−xc)
tanφ2=(Wt/2−yc)/(Wb/2+xc)
tanφ3=(Wt/2+yc)/(Wb/2+xc) ・・・(16)

但し、上式(16)は、脚車輪型ロボット100の脚部12が、基体10の前方に左右一対及び後方に左右一対の計4本の場合の式である。
具体的に、入力された旋回中心座標(xc,yc)と、既知のWt及びWbとを、上式(16)に代入して、基体10のx軸と各駆動輪20の回転中心とのなす角度φ0、φ1、φ2、φ3を算出する。
なお、旋回中心が基体10の中心座標以外の座標となるので、角度φ0、φ1、φ2、φ3はそれぞれ異なる角度となる。
また、基体10が、旋回中心座標(xc,yc)でヨー軸周りに自転時に、各駆動輪20の操舵時のヨー軸周りの回転中心の描く円弧軌道と該回転中心との接点における運動方向は、図19(b)の各駆動輪20から伸びる矢印線に示すように、各円弧軌道上の各回転中心を通る接線方向(図中の矢印線方向)となる。また、旋回中心と各駆動輪20の回転中心との距離はそれぞれ異なるため、各回転中心の描く円弧軌道も異なる。
各駆動輪20の回転中心に対する角度φ0、φ1、φ2、φ3が算出されると、次に、各回転中心の運動方向と各駆動輪20の進行方向とを一致させるための操舵角度θ00、θ10、θ20、θ30を算出する。
各回転中心の運動方向と各駆動輪20の進行方向とを一致させるためには、図19(b)に示すように、各駆動輪20の回転方向と、旋回中心と回転中心とを結ぶ線分との成す角度が直角(π/2(90[°]))となるように操舵すれば良く、従って、操舵角度θ00、θ10、θ20、θ30は、「θi0=−(π/2−φi)(i=0,1,2,3)」と算出される。
一方、下式(17)に基づき、各駆動輪20の操舵時のヨー軸周りの回転中心と旋回中心(xc,yc)との距離L0、L1、L2、L3が算出される。
Figure 2009008649
先述したように、旋回中心が基体10の中心座標(0,0)以外の座標であるので、距離L0、L1、L2、L3は、それぞれ異なる距離となる。
距離L0、L1、L2、L3が算出されると、次に、これらの距離と旋回角速度Ωとから、下式(18)に基づき、各駆動輪20の線速度V0、V1、V2、V3を算出する。

|Vi|=|LiΩ| (18)

従って、線速度V0、V1、V2、V3は、「V0=−L0Ω」、「V1=L1Ω」、「V2=L2Ω」、「V3=−L3Ω」と算出される。
更に、線速度V0、V1、V2、V3は、上式(12)に従って、回転角速度ω0、ω1、ω2、ω3に変換される。
操舵角度θ00、θ10、θ20、θ30、及び各駆動輪20の回転角速度ω0、ω1、ω2、ω3が算出されると、次に、各駆動輪20の現在の操舵角度及び回転角速度を取得する。そして、現在の操舵角度と、上記算出した操舵角度とから回転関節14の関節モータ40を駆動する指令値を算出する。更に、現在の回転角速度と、上記算出した回転角速度とから、駆動輪20の車輪モータ50を駆動する指令値を算出する。
このようにして、各駆動輪20の操舵制御の指令値及び速度制御の指令値を算出すると、これらの指令値を各モータのドライバに入力する。そして、入力された指令値に基づき各関節モータ40及び車輪モータ50が駆動されると、これにより、脚車輪型ロボット100の各駆動輪20の操舵角度及び回転角速度が変化し、基体10における中心位置(0,0)以外の座標(xc,yc)を旋回中心として、脚車輪型ロボット100が旋回(超信地旋回)する。
次に、図20ないし図21に基づき、本実施の形態の動作を説明する。
ここで、図20(a)及び(b)は、脚車輪型ロボット100の走行経路の一例を示す図である。また、図21は、ロボットの重心位置の一例を示す図である。
脚車輪型ロボット100は、障害物センサ34、36によって、脚車輪型ロボット100の移動経路上に障害物(ここでは階段とする)が存在することを確認すると、ステップS100〜S106を経て、カメラ32の多点測距センサにおいて、同一の焦点位置に対する画角を変更して広範囲の測定を行う。一方、階段が存在することにより、水平レーザ26から照射された水平面レーザ光、および垂直レーザ28、30から照射された垂直面レーザ光がそれぞれ階段で反射し、カメラ32により、それら反射光を含む画像が撮影される。多点測距センサによって測定された距離情報から、脚車輪型ロボット100と階段との距離が所定内になると、ステップS108〜S114を経て、多点測距センサの画角を変更して高分解能の測定を行うと共に、ステップS300、S302を経て、カメラ32で撮影された画像が取り込まれ、取り込まれた画像から階段の特徴点が抽出される。そして、ステップS304〜S310を経て、抽出された特徴点に基づいて階段の幅および段鼻部の実座標が算出され、算出された階段の幅および段鼻部の実座標に基づいて脚先の着地位置が決定される。
さらに、ステップS312〜S316を経て、多点測距センサで測定した距離情報、および脚先センサ22、24からのセンサ信号が入力され、蹴込板までの距離および脚先と踏板の位置関係が算出される。そして、ステップS318、S320を経て、決定された着地位置および算出された両距離に基づいてモータ指令信号が生成され、生成されたモータ指令信号がドライバ44、54に出力される。これにより、駆動輪20が回転するとともに回転関節14〜18が駆動し、脚車輪型ロボット100が姿勢を適切に保ちつつ階段を乗り越える。また、状況によっては階段を回避、停止する。したがって、脚型ロボットと同様に階段への適応性が高い。
一方、脚車輪型ロボット100は、障害物センサ34、36のセンサ信号などに基づき、自己の移動経路上に何も障害物が存在しない(平地である)と判断すると、移動モードを、脚部12を用いる脚部移動モードから駆動輪20を用いる車輪走行移動モードへと切り替える。
平地では、脚車輪型ロボット100は、上記した無変向走行で移動することができる。さらに、上記した超信地旋回及び旋回中心オフセット型超信地旋回を行うことができる。また、車輪走行時及び旋回時は、脚車輪型ロボット100が膝屈曲姿勢となるように関節モータ40が制御される。
車輪走行移動モードへと切り替えられると、脚車輪型ロボット100は、脚部12の各関節モータ40を制御して膝屈曲姿勢へと移行する。そして、脚車輪型ロボット100が膝屈曲姿勢へと移行すると、各種走行制御が開始される。
まず、無変向走行制御時の脚車輪型ロボット100の動作について説明する。
ここでは、図20(a)に示すような通路を、脚車輪型ロボット100で走行移動させることとする。なお、図20(a)及び(b)は、走行経路の一部を真上から見た俯瞰図である。
図20(a)に示すように、通路は、最初、基体10の向いている方向(前方向)に直進しないと通れないほど幅が狭くなっているので、まず、通路への進入前において、通路の伸びる方向と基体10の向きとを合わせると共に、進入位置及び進入角度を調整する。
そして、無変向走行制御指令を入力し、脚車輪型ロボット100を、無変向走行制御モードへと移行させる。これにより、脚車輪型ロボット100は、CPU60において、基体10の向きを保持した状態で、目的の進行方向へと走行移動する制御を行う。
まず最初は、脚車輪型ロボット100を、前方向に直進移動させたいので、ロボットの進行方向α=0[°]、及びロボット進行方向速度Vcを入力する。これにより、各駆動輪20の操舵角度が「θ00=θ10=θ20=θ30=0[°]」と算出され、各駆動輪20の線速度が「V0=V1=V2=V3=Vc」と算出される。
更に、線速度V0、V1、V2、V3は、上式(12)に従って、回転角速度ω0、ω1、ω2、ω3に変換される。
CPU60は、操舵角度θ00、θ10、θ20、θ30、及び各駆動輪20の回転角速度ω0、ω1、ω2、ω3を算出すると、次に、角度取込I/F62を介して、現在の各駆動輪20の操舵角度及び回転角速度を取得する。ここでは、取得した操舵角度と上記算出した操舵角度との差分値を算出し、該差分値に基づき回転関節14の関節モータ40を駆動する指令値を算出する。更に、取得した現在の回転角速度と、上記算出した回転角速度との差分値を算出し、該差分値に基づき駆動輪20の車輪モータ50を駆動する指令値を算出する。
CPU60は、上記算出した、各駆動輪20の操舵制御の指令値及び速度制御の指令値を各モータのドライバに入力する。この指令値により、各関節モータ40が駆動され、各脚部12の回転関節14がヨー軸周りに回動して目標の操舵角度へと変化する。その後、各車輪モータ50が駆動され、各駆動輪20が指令値に応じた回転角速度で回転駆動する。これにより、脚車輪型ロボット100は、基体10の向きを保持した状態で、基体10の向いている方向(前方向)に通路へと進入すると共に通路内を直進走行する。
脚車輪型ロボット100が前方向にしばらく直進すると、通路は右に略直角に折れ曲がり、更に路幅も広くなるので、基体10の向きを保持した状態で、その向いている方向に対して右真横方向に直進移動するように制御する。つまり、進行方向として、α=−90(−π/2)[°]を入力し、更に、進行方向速度Vcを入力する。
これにより、操舵角度として、「θ00=θ10=θ20=θ30=α[°]」が算出され、線速度として、「V0=V2=−Vc」、「V1=V3=Vc」が算出される。
更に、線速度V0、V1、V2、V3は、上式(12)に従って、回転角速度ω0、ω1、ω2、ω3に変換される。
CPU60は、各駆動輪20の現在の操舵角度及び回転角速度を取得し、これらと上記算出した操舵角度及び回転角速度とから各指令値を算出する。この指令値により、各関節モータ40及び各車輪モータ50が駆動され、これにより、脚車輪型ロボット100は、基体10の向きを保持した状態で、その向いている方向に対して右真横方向に直進走行する。これにより、通路の曲がり角で脚車輪型ロボット100を旋回せずに、その曲がった先へと走行させることができる。
脚車輪型ロボット100が右真横方向にしばらく直進すると、通路は右斜め下方向に折れ曲がるので、今度は、基体10の向きを保持した状態で、その向いている方向に対して右斜め後ろ方向に直進移動するように制御する。つまり、進行方向として、α(通路の角度<0)[°]を入力し、更に、進行方向速度Vcを入力する。
これにより、操舵角度として、「θ00=θ30=π+α[°]」及び「θ10=θ20=−(π+α)[°]」が算出され、線速度として、「V0=V1=−Vc」及び「V2=V3=Vc」が算出される。
更に、線速度V0、V1、V2、V3は、上式(12)に従って、回転角速度ω0、ω1、ω2、ω3に変換される。
そして、各駆動輪20の現在の操舵角度及び回転角速度を取得し、これらと上記算出した操舵角度及び回転角速度とから各指令値を算出する。この指令値により、各関節モータ40及び各車輪モータ50が駆動され、これにより、脚車輪型ロボット100は、基体10の向きを保持した状態で、その向いている方向に対して右斜め後ろ方向に直進走行する。
次に、超信地旋回制御時の脚車輪型ロボット100の動作について説明する。
ここでは、図20(b)に示すような通路を、脚車輪型ロボット100で走行移動させることとする。
図20(b)に示すように、通路は、最初真っ直ぐに伸びており、その後、略直角に右に折れ曲がり、その先で行き止まりとなっている。
まず、通路の伸びる方向と基体10の向きとを合わせ、進入位置を微調整した後に、脚車輪型ロボット100を前方向に直進走行させる。これにより、脚車輪型ロボット100は、通路へと進入すると共に通路内を直進走行する。
脚車輪型ロボット100は、しばらく直進すると、やがて曲がり角へと到達するので、時計回りに旋回して、基体10の向きを脚車輪型ロボット100が進行できる向きへと変更する。
図20(b)に示す曲がり角であれば、前移動を伴う旋回動作でも十分に右折できるが、ここでは、超信地旋回により右折することとする。そのため、超信地旋回制御指令を入力し、この指令により、脚車輪型ロボット100を、超信地旋回制御モードへと移行させる。これにより、脚車輪型ロボット100は、CPU60において、前後移動を行わずに所定の旋回中心位置でロボットを旋回する制御処理を行う。
まず、旋回角速度Ω(基体10を時計回りに回転させる角速度)と、旋回中心座標(0,0)とを入力する。更に、略直角に右折させるので、旋回角度−90[°]を入力する。
旋回角速度Ω、旋回中心座標(0,0)及び旋回角度(−90[°])が入力されると、上式(13)に基づき、基体10のx軸と各駆動輪20の回転中心とのなす角度φ0、φ1、φ2、φ3が算出される。
各駆動輪20の回転中心に対する角度「φ0=φ1=φ2=φ3=φ」が算出されると、次に、各回転中心の運動方向と各駆動輪20の進行方向とを一致させるための操舵角度θ00、θ10、θ20、θ30が算出される。
具体的に、操舵角度θ00、θ10、θ20、θ30として、「θ00=θ10=θ20=θ30=−(π/2−φ)」が算出される。
また、上式(14)に基づき、各駆動輪20の操舵時のヨー軸周りの回転中心と旋回中心(0,0)との距離L0、L1、L2、L3が算出される。
旋回中心が基体10の中心座標(0,0)となっているので、距離L0、L1、L2、L3は、等距離「L0=L1=L2=L3=L」となる。
次に、距離Lと旋回角速度Ωとから、上式(15)に基づき、各駆動輪20の線速度V0、V1、V2、V3を算出する。
ここでは、脚車輪型ロボット100を、時計回りに旋回(Ω<0)させるので、線速度V0、V1、V2、V3は、「V1=V2=LΩ」、「V0=V3=−LΩ」と算出される。
更に、線速度V0、V1、V2、V3は、上式(12)に従って、回転角速度ω0、ω1、ω2、ω3に変換される。
操舵角度θ00、θ10、θ20、θ30、及び各駆動輪20の回転角速度ω0、ω1、ω2、ω3が算出されると、次に、角度取込I/F62を介して、現在の各駆動輪20の操舵角度及び回転角速度を取得する。ここでは、取得した操舵角度と上記算出した操舵角度との差分値を算出し、該差分値に基づき回転関節14の関節モータ40を駆動する指令値を算出する。更に、取得した現在の回転角速度と、上記算出した回転角速度との差分値を算出し、該差分値に基づき駆動輪20の車輪モータ50を駆動する指令値を算出する。
CPU60は、上記算出した、各駆動輪20の操舵制御の指令値及び速度制御の指令値を各モータのドライバに入力する。この指令値により、各関節モータ40が駆動され、各脚部12の回転関節14がヨー軸周りに回動して目標の操舵角度へと変化する。その後、各車輪モータ50が駆動され、各駆動輪20が指令値に応じた回転角速度で回転駆動する。これにより、脚車輪型ロボット100は、基体10の中心座標(0,0)を旋回中心として、前後移動せずにその場で時計回りに90[°]旋回(超信地旋回)する。
そして、脚車輪型ロボット100を、時計回りに90[°]旋回して右折させると、その先の通路を、前方向へと直進走行させる。
図20(b)に示すように、右折した先の通路は袋小路となっているため、脚車輪型ロボット100は、やがて通路の行き止まりへと到達する。
脚車輪型ロボット100は、これ以上先に進めないため(各種センサにより状況を把握)、180[°]旋回して通路を引き返すことになる。
ここでは、通路の幅が前後移動を伴う旋回動作(例えば、Uターン)を行えるほど広くないため、上記右折のときと同様に、超信地旋回制御モードへと移行し、超信地旋回により180[°]旋回して、脚車輪型ロボット100の向きを変更し、引き返すこととする。
図20(b)に示すように、通路幅が自転ぎりぎりの幅となっているので、脚車輪型ロボット100を最小の旋回半径で旋回させる必要がある。従って、旋回中心座標(0,0)と、旋回角速度Ω(基体10を時計回りに回転させる角速度)と、旋回角度180[°]とを入力する。なお、脚部12が通路にぶつからないように、脚車輪型ロボット100の各脚部12の姿勢を膝伸展姿勢へと変更する。
旋回中心座標(0,0)、旋回角速度Ω及び旋回角度180[°]が入力されると、上記右折のときと同様に、操舵角度θ00、θ10、θ20、θ30として、「θ00=θ10=θ20=θ30=−(π/2−φ)」が算出され、線速度V0、V1、V2、V3として、「V1=V2=LΩ」、「V0=V3=−LΩ」が算出される。
更に、線速度V0、V1、V2、V3は、上式(12)に従って、回転角速度ω0、ω1、ω2、ω3に変換される。
操舵角度θ00、θ10、θ20、θ30、及び各駆動輪20の回転角速度ω0、ω1、ω2、ω3が算出されると、各指令値が算出され、関節モータ40及び車輪モータ50が駆動される。
これにより、基体10の中心座標(0,0)を旋回中心として、脚車輪型ロボット100が前後移動せずにその場で時計回りに180[°]旋回(超信地旋回)し、真後ろ方向へと向きを変える。
ここで、脚車輪型ロボット100が、例えば、遠隔操作で人手により走行制御される場合や、自動制御で且つ基体10の後ろ側にも各種センサやカメラを備えている場合などは、無変向走行制御により、前を向いたまま真後ろに走行させて通路を引き返させることも可能である。しかし、自動制御の場合で且つ各種センサが基体10の前側にしか備わっていない場合は、基体10の向きと進行方向とを合わせる必要がある。従って、後者の場合などに、超信地旋回は有用な旋回手段となる。
次に、旋回中心オフセット型超信地旋回制御時の脚車輪型ロボット100の動作について説明する。
いま、車輪走行移動モードへと移行し、脚車輪型ロボット100の各関節モータ40が制御され、ロボットの姿勢が膝屈曲姿勢に変更されたとする。このとき、ロボットの重心が図20に示すように、基体10の中心位置の座標から外れた位置となるとする。
この場合は、重心位置が基体10の中心位置の座標(0,0)から外れているため、中心位置を旋回中心として超信地旋回を行わせると旋回がアンバランスとなり、不具合が発生する恐れがある。
このようなときに、本実施の形態の超信地旋回制御指令モードにおいては、任意の旋回中心で超信地旋回させることができるので、旋回角速度Ωを入力すると共に、基体10における、脚車輪型ロボット100の重心位置に対応する座標(xg,yg)を旋回中心座標(xc,yc)として入力する。
そして、旋回角速度Ω及び旋回中心座標(xc,yc)=(xg,yg)が入力されると、上式(16)に基づき、基体10のx軸と各駆動輪20の回転中心とのなす角度φ0、φ1、φ2、φ3が算出される。
各駆動輪20の回転中心に対する角度φ0、φ1、φ2、φ3が算出されると、次に、各回転中心の運動方向と各駆動輪20の進行方向とを一致させるための操舵角度θ00、θ10、θ20、θ30を算出する。
操舵角度θ00、θ10、θ20、θ30は、「θi0=−(π/2−φi)(i=0,1,2,3)」と算出される。
次に、上式(17)に基づき、各駆動輪20の操舵時のヨー軸周りの回転中心と旋回中心(xc,yc)との距離L0、L1、L2、L3を算出する。
距離L0、L1、L2、L3が算出されると、次に、これらの距離と旋回角速度Ωとから、上式(18)に基づき、各駆動輪20の線速度V0、V1、V2、V3を算出する。
ここでは、脚車輪型ロボット100を反時計回りに旋回(Ω>0)させるとして、線速度V0、V1、V2、V3は、「V0=−L0Ω」、「V1=L1Ω」、「V2=L2Ω」、「V3=−L3Ω」と算出される。
更に、線速度V0、V1、V2、V3は、上式(12)に従って、回転角速度ω0、ω1、ω2、ω3に変換される。
操舵角度θ00、θ10、θ20、θ30、及び各駆動輪20の回転角速度ω0、ω1、ω2、ω3が算出されると、次に、角度取込I/F62を介して、現在の各駆動輪20の操舵角度及び回転角速度を取得する。ここでは、取得した操舵角度と上記算出した操舵角度との差分値を算出し、該差分値に基づき回転関節14の関節モータ40を駆動する指令値を算出する。更に、取得した現在の回転角速度と、上記算出した回転角速度との差分値を算出し、該差分値に基づき駆動輪20の車輪モータ50を駆動する指令値を算出する。
CPU60は、上記算出した、各駆動輪20の操舵制御の指令値及び速度制御の指令値を各モータのドライバに入力する。この指令値により、各関節モータ40及び各車輪モータ50が駆動され、これにより、基体10における重心座標と対応する座標(xg,yg)を旋回中心として、脚車輪型ロボット100がバランスのとれた状態で反時計回りに超信地旋回する。
このようにして、本実施の形態では、多点測距センサの同一焦点に対する画角を変更することで、広範囲の測定および高分解能の測定を適宜切り替えて行い、測定された距離情報に基づき、脚車輪型ロボット100の移動動作を制御する。
これにより、障害物(通路の壁等を含む)までの距離を正確に把握することができるので、脚車輪型ロボット100の障害物の回避、通路内の走行等の移動動作をより確実に行うことができる。
さらに、本実施の形態では、基体10の向きを一定の方向に保持した状態で、脚車輪型ロボット100が目的の進行方向に走行するように関節モータ40及び車輪モータ50を制御する。
これにより、旋回を行わず(向きを変えず)に自由な方向へ移動できるので、各方向への素早い移動を実現できると共に、脚車輪型ロボット100の各構成部が妨げとなって旋回できないような狭くて入り組んだエリアなど、脚車輪型ロボットの向きを変更することが困難なエリアにおいても活動が可能となる。
さらに、本実施の形態では、脚車輪型ロボット100を所定の旋回中心位置で前後移動させずに旋回(超信地旋回)するように関節モータ40及び車輪モータ50を制御する。このとき、基体10における中心位置の座標を旋回中心座標とする制御(超信地旋回制御)と、基体10における中心位置以外の座標を旋回中心座標とする制御(旋回中心オフセット型超信地旋回制御)とを行うことが可能である。
これにより、基体10の中心位置を旋回中心位置とする場合は、最小の旋回半径で脚車輪型ロボットを旋回をさせることが可能である。また、基体10の中心位置以外を旋回中心位置とする場合は、基体10の中心位置と重心位置とが異なる場合などに、重心位置を旋回中心として超信地旋回させることができるので、脚車輪型ロボット100を、バランスよく超信地旋回させることが可能である。
上記第2の実施の形態において、脚車輪型ロボット100は、発明1ないし5の脚車輪型ロボットに対応し、関節モータ40は、発明1ないし3の第1アクチュエータに対応し、CPU60による、昇降制御処理、無変向走行性制御処理、超信地旋回処理、旋回中心オフセット型超信地旋回処理は、発明1ないし3の制御手段に対応している。
なお、上記第2の実施の形態においては、本発明に係る脚車輪型ロボット100の構成を、基体10の前方に左右一対及び後方に左右一対の4本の脚部12を有する構成としたが、これに限らず、基体10の中央に左右一対の脚部12を設ける構成や、3本の脚部12を対称に設ける構成、5本以上の脚部12を設ける構成など、本発明の趣旨を逸脱しない範囲で他の構成としても良い。また、多脚とした場合には、不要な脚部12を走行制御に用いないように制御するようにしても良い。
撮像画像と空間周波数の関係を説明するための図である。 レンズの焦点位置に基づいて対象物までの距離を測定する原理を説明するための図である。 2枚のレンズの位置と焦点位置の関係を示す図である。 多点測距センサの構成を示すブロック図である。 画角切換測距処理を示すフローチャートである。 多点測距処理を示すフローチャートである。 多点測距を行う動作を説明するための図である。 撮像素子112の画像をハニカム状に区分した状態を示す図である。 多点測距処理を示すフローチャートである。 脚車輪型ロボット100の正面図である。 脚車輪型ロボット100の側面図である。 障害物センサ34、36の構成を示す図である。 脚車輪型ロボット100の移動制御システムを示すブロック図である。 昇降制御処理を示すフローチャートである。 光切断法の原理を説明するための図である。 階段にレーザ光を照射した状態およびカメラ32の撮像素子の画像を示す図である。 (a)及び(b)は、脚車輪型ロボット100の車輪走行移動時の姿勢を示す図である。 無変向走行制御時の脚車輪型ロボット100の走行状態例を示す図である。 a)及び(b)は、基体10の座標(0,0)及び座標(xc,yc)を回転中心とした場合の超信地旋回制御時の脚車輪型ロボット100の走行状態を示す図である。 (a)及び(b)は、脚車輪型ロボット100の走行経路の一例を示す図である。 ロボットの重心位置の一例を示す図である。 レンズ焦点法を用いた多点測距センサの測定分解能を説明するための図である。 Hが512、hが10[mm]、Lが1000[mm]の場合に、焦点位置fの変化に対する画角θと分解能の変化を示すグラフである。
符号の説明
110a 前段レンズ
110b 後段レンズ
112 撮像素子
114 画像メモリ
116a、116b レンズ駆動アクチュエータ
118a、118b 駆動回路
120a、120b レンズ位置センサ
122 マイクロプロセッサ
100 脚車輪型ロボット
10 基体
12 脚部
14〜18 回転関節
20 駆動輪
22、24 脚先センサ
26 水平レーザ
28、30 垂直レーザ
32 カメラ
34、36 障害物センサ
40、50 モータ
42、52 エンコーダ
44、54 ドライバ
70 3軸姿勢センサ

Claims (5)

  1. 基体と、前記基体に対してヨー軸回りの自由度およびピッチ軸またはロール軸回りの自由度を有して連結された脚部と、前記脚部に回転可能に設けられた車輪と、各前記脚部を駆動するための動力を付与する第1アクチュエータと、各前記車輪を駆動するための動力を付与する第2アクチュエータと、複数の測定点までの距離を測定する多点測距センサと、前記第1アクチュエータおよび前記第2アクチュエータを制御する制御手段とを備え、前記脚部の駆動および前記車輪の回転により移動する脚車輪型ロボットであって、
    前記多点測距センサは、光学系を介して画像を撮影する撮像手段と、同一の焦点位置に対する画角が変化するように前記光学系の画角を変更する画角変更手段と、前記光学系の焦点位置を変更する焦点位置変更手段と、前記焦点位置変更手段で前記焦点位置を変更しながら前記焦点位置の異なる複数の画像を前記撮像手段から取り込む画像取込手段と、前記画像取込手段で取り込んだ各画像に対応する焦点位置を取得する焦点位置取得手段と、前記画像の一部の領域として設定された所定の第1測定領域について、前記画像取込手段で取り込んだ各画像ごとに空間周波数が所定以上の成分を抽出する第1周波数成分抽出手段と、前記第1測定領域とは異なる前記画像の一部の領域として設定された所定の第2測定領域について、前記画像取込手段で取り込んだ各画像ごとに空間周波数が所定以上の成分を抽出する第2周波数成分抽出手段と、前記第1周波数成分抽出手段で前記第1測定領域について前記各画像ごとに抽出した空間周波数成分および前記焦点位置取得手段で取得した各焦点位置に基づいて、前記第1測定領域に撮影された第1測定点までの距離を算出する第1距離算出手段と、前記第2周波数成分抽出手段で前記第2測定領域について前記各画像ごとに抽出した空間周波数成分および前記焦点位置取得手段で取得した各焦点位置に基づいて、前記第2測定領域に撮影された第2測定点までの距離を算出する第2距離算出手段とを備え、
    前記制御手段は、前記基体の向きを一定方向に保ちながら、自脚車輪型ロボットの進行方向と、前記各車輪の進行方向とが一致するように、前記第1アクチュエータおよび前記第2アクチュエータを制御することを特徴とする脚車輪型ロボット。
  2. 基体と、前記基体に対してヨー軸回りの自由度およびピッチ軸またはロール軸回りの自由度を有して連結された複数の脚部と、前記各脚部に回転可能に設けられた車輪と、各前記脚部を駆動するための動力を付与する第1アクチュエータと、各前記車輪を駆動するための動力を付与する第2アクチュエータと、複数の測定点までの距離を測定する多点測距センサと、前記第1アクチュエータおよび前記第2アクチュエータを制御する制御手段とを備え、前記脚部の駆動および前記車輪の回転により移動する脚車輪型ロボットであって、
    前記多点測距センサは、光学系を介して画像を撮影する撮像手段と、同一の焦点位置に対する画角が変化するように前記光学系の画角を変更する画角変更手段と、前記光学系の焦点位置を変更する焦点位置変更手段と、前記焦点位置変更手段で前記焦点位置を変更しながら前記焦点位置の異なる複数の画像を前記撮像手段から取り込む画像取込手段と、前記画像取込手段で取り込んだ各画像に対応する焦点位置を取得する焦点位置取得手段と、前記画像の一部の領域として設定された所定の第1測定領域について、前記画像取込手段で取り込んだ各画像ごとに空間周波数が所定以上の成分を抽出する第1周波数成分抽出手段と、前記第1測定領域とは異なる前記画像の一部の領域として設定された所定の第2測定領域について、前記画像取込手段で取り込んだ各画像ごとに空間周波数が所定以上の成分を抽出する第2周波数成分抽出手段と、前記第1周波数成分抽出手段で前記第1測定領域について前記各画像ごとに抽出した空間周波数成分および前記焦点位置取得手段で取得した各焦点位置に基づいて、前記第1測定領域に撮影された第1測定点までの距離を算出する第1距離算出手段と、前記第2周波数成分抽出手段で前記第2測定領域について前記各画像ごとに抽出した空間周波数成分および前記焦点位置取得手段で取得した各焦点位置に基づいて、前記第2測定領域に撮影された第2測定点までの距離を算出する第2距離算出手段と、を備え、
    前記制御手段は、旋回時に、前記基体を所定の回転中心位置でヨー軸周りに自転運動させたときの前記各車輪の操舵時の回転中心の描く円弧軌道と前記操舵時の回転中心との接点位置における該回転中心の運動方向と、前記各車輪の進行方向とが一致するように、前記第1アクチュエータおよび前記第2アクチュエータを制御することを特徴とする脚車輪型ロボット。
  3. 請求項2において、
    前記制御手段は、前記基体の向きを一定方向に保ちながら、自脚車輪型ロボットの進行方向と、前記各車輪の進行方向とが一致するように、前記第1アクチュエータおよび前記第2アクチュエータを制御することを特徴とする脚車輪型ロボット。
  4. 請求項1乃至3のいずれか1項において、
    前記画角変更手段で画角を所定の広角の領域に変更し、前記焦点位置変更手段、前記画像取込手段、前記焦点位置取得手段、前記第1周波数成分抽出手段、前記第2周波数成分抽出手段、前記第1距離算出手段および前記第2距離算出手段を実行して測定を行う広範囲測定手段と、
    前記画角変更手段で画角を所定の望遠の領域に変更し、前記焦点位置変更手段、前記画像取込手段、前記焦点位置取得手段、前記第1周波数成分抽出手段、前記第2周波数成分抽出手段、前記第1距離算出手段および前記第2距離算出手段を実行して測定を行う高分解能測定手段とを備えることを特徴とする多点測距センサ。
  5. 請求項1乃至4のいずれか1項において、
    前記第1距離算出手段は、前記複数の画像のうち前記第1測定領域について抽出した空間周波数の高次の成分が最も大きい画像に対応する前記焦点位置に基づいて前記第1測定点までの距離を算出し、
    前記第2距離算出手段は、前記複数の画像のうち前記第2測定領域について抽出した空間周波数の高次の成分が最も大きい画像に対応する前記焦点位置に基づいて前記第2測定点までの距離を算出することを特徴とする多点測距センサ。
JP2007270140A 2007-05-31 2007-10-17 脚車輪型ロボット Pending JP2009008649A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007270140A JP2009008649A (ja) 2007-05-31 2007-10-17 脚車輪型ロボット

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2007145565 2007-05-31
JP2007270140A JP2009008649A (ja) 2007-05-31 2007-10-17 脚車輪型ロボット

Publications (1)

Publication Number Publication Date
JP2009008649A true JP2009008649A (ja) 2009-01-15

Family

ID=40323861

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007270140A Pending JP2009008649A (ja) 2007-05-31 2007-10-17 脚車輪型ロボット

Country Status (1)

Country Link
JP (1) JP2009008649A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012046270A1 (en) * 2010-10-05 2012-04-12 Empire Technology Development Llc Generation of depth data based on spatial light pattern
JP2019158501A (ja) * 2018-03-12 2019-09-19 オムロン株式会社 外観検査システム、画像処理装置、設定装置および検査方法
CN113409387A (zh) * 2021-05-11 2021-09-17 深圳拓邦股份有限公司 一种机器人视觉定位方法及机器人

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012046270A1 (en) * 2010-10-05 2012-04-12 Empire Technology Development Llc Generation of depth data based on spatial light pattern
JP2013502558A (ja) * 2010-10-05 2013-01-24 エンパイア テクノロジー ディベロップメント エルエルシー 空間光パターンに基づく深さデータの生成
US9030466B2 (en) 2010-10-05 2015-05-12 Empire Technology Development Llc Generation of depth data based on spatial light pattern
US9746319B2 (en) 2010-10-05 2017-08-29 Empire Technology Development Llc Generation of depth data based on spatial light pattern
JP2019158501A (ja) * 2018-03-12 2019-09-19 オムロン株式会社 外観検査システム、画像処理装置、設定装置および検査方法
CN113409387A (zh) * 2021-05-11 2021-09-17 深圳拓邦股份有限公司 一种机器人视觉定位方法及机器人

Similar Documents

Publication Publication Date Title
JP5510081B2 (ja) 障害物回避支援装置、障害物回避支援方法及び移動体
JP5310285B2 (ja) 自己位置推定装置及び自己位置推定方法
US7652686B2 (en) Device for image detecting objects, people or similar in the area surrounding a vehicle
JP2009096335A (ja) 脚型ロボット
JP2009008648A (ja) 3次元距離測定装置及び脚車輪型ロボット
JP5105596B2 (ja) 自律走行移動体の走行経路決定用地図作成装置及び走行経路決定用地図作成方法
WO2010100791A1 (ja) 駐車支援装置
JP5229726B2 (ja) 遠距離視標探査カメラシステム
JP2007183432A (ja) 自動走行用マップ作成装置、及び自動走行装置。
JP4670807B2 (ja) 移動経路作成方法、自律移動体および自律移動体制御システム
JP5429986B2 (ja) 移動ロボットの遠方環境認識装置及び方法
JPH07120251A (ja) 距離測定装置
JP2009050936A (ja) 干渉判定装置および脚車輪型ロボット
JP2004120661A (ja) 移動体周辺監視装置
JP2009008649A (ja) 脚車輪型ロボット
JP2007190654A (ja) 脚車輪型ロボット
JP2009006984A (ja) 脚車輪型ロボット
JP2001066138A (ja) 計測システムおよびこの計測システムに用いられるプリズム式光路制御装置
JP2009006466A (ja) 脚車輪型ロボット
JP7353139B2 (ja) 走破可否判定装置及び移動体の制御装置
JP2009006982A (ja) 脚車輪型ロボット
JP2017166897A (ja) 物体検知システム、異常判定方法、及びプログラム
KR102381958B1 (ko) 추종 로봇 시스템
JP2008260117A (ja) 脚車輪型ロボット及び脚車輪装置
Guo et al. Approach to autonomous stair climbing for tracked robot