JP5171394B2 - 移動型ロボット - Google Patents

移動型ロボット Download PDF

Info

Publication number
JP5171394B2
JP5171394B2 JP2008138942A JP2008138942A JP5171394B2 JP 5171394 B2 JP5171394 B2 JP 5171394B2 JP 2008138942 A JP2008138942 A JP 2008138942A JP 2008138942 A JP2008138942 A JP 2008138942A JP 5171394 B2 JP5171394 B2 JP 5171394B2
Authority
JP
Japan
Prior art keywords
image
time
processing unit
movement
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008138942A
Other languages
English (en)
Other versions
JP2009285752A (ja
Inventor
龍人 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2008138942A priority Critical patent/JP5171394B2/ja
Publication of JP2009285752A publication Critical patent/JP2009285752A/ja
Application granted granted Critical
Publication of JP5171394B2 publication Critical patent/JP5171394B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Image Processing (AREA)

Description

本発明は、自律的に移動可能な移動型ロボットに係り、特に、外界の画像を取り込む視覚センサと、視覚センサによって取り込んだ画像を処理する画像制御処理部とを有する移動型ロボットに関するものである。
従来、自律的に移動可能な移動型ロボットとして、歩行型(脚式)や車輪型の移動型ロボットが知られている(例えば、特許文献1参照)。特許文献1に記載された脚式の移動型ロボットは、4足歩行可能な犬型のペットロボットであり、頭部の鼻の位置に外界の画像を取り込む視覚センサ(ビデオカメラ)を備え、ビデオカメラによって撮影したボールの画像認識結果を用いてボールとの距離を保って追いかけることでペットらしい動きを行う。ペットロボットは、静止中にはボールまでの距離の判定に問題ないが、繰り返し運動としての歩行中には、左右への大きな重心移動を必要とするため、その頭部と胴体部にはロール方向に揺れが発生する。したがって、ペットロボットは、歩行動作に伴って左に傾くと本来画面中央にあるべきボールを画面右側上部に撮影し、歩行動作に伴って右に傾くと本来画面中央にあるべきボールを画面左側上部に撮影してしまうことになる。このように撮影したタイミングによってボール位置が異なると距離を正確に判定できなくなる。そこで、このペットロボットは、ビデオカメラを制御して、歩行中に重心が例えば左右の中心にある場合にだけボールの画像を取り込むことでロール方向の揺れの影響を低減し、このとき取り込んだ画像の処理結果を距離の算出に用いることで、立ち止まることなくボールまでの距離を判定する。ペットロボットは、通常0.5秒以上の歩行周期(つまり、重心の位置が例えば左右の中心から右側または左側に傾いて復元するまでの周期)に基づいて画像を取り込み、取り込んだボール画像の面積と所定値との大小によりボールとの距離を保つ。
特開2005−161475号公報(段落0034−0043、図4)
しかしながら、特許文献1に記載された移動型ロボット(ペットロボット)は、0.5秒以上の歩行周期で1画像を取り込むため、認識すべき対象物(ボール)の位置が時間によって激しく変化する場合には画像の取り込みを充分に行うことができない。そこで、歩行周期を変えずに、取り込む画像の取込回数を増やそうとしても、特許文献1に記載された移動型ロボットは、歩行中には、左右への大きな重心移動を必要とするため、増加させた画像には周期性がなく、距離の判定に使用することはできない。そのため、移動型ロボットの行う動作を制限せざるを得なかった。
また、左右への大きな重心移動をせずに歩行する従来の移動型ロボットにおいて、取り込む画像の取込回数を単純に増やそうとする場合には、以下の問題がある。すなわち、例えば、脚式の移動型ロボットの脚部の先端が着地したときや、車輪型ロボットが段差を通過したときには、その衝撃により視覚センサが振動するため、振動した視覚センサにより取得される画像のブレが大きくなってしまう。このブレが大きい画像を用いた場合には、画像処理結果としての角度分解能や対象物の認識精度が低下してしまう。
そこで、本発明では、前記した問題を解決し、移動中の画像処理結果から画像のブレの影響を低減させつつ画像を処理するサンプリング回数を増加させることができる移動型ロボットを提供することを目的とする。
本発明は、前記目的を達成するために創案されたものであり、本発明のうち請求項1に記載の移動型ロボットは、外界の画像を取り込む視覚センサと、前記視覚センサによって取り込んだ画像を処理する画像制御処理部と、自律的に移動する機能を有する自律的移動手段と、前記視覚センサによって取り込んだ画像のブレを示す値が所定の値よりも大きくなると推定されるタイミングの情報を含む移動計画情報を記憶する記憶部と、前記移動計画情報に基づいて当該移動型ロボットの移動を制御する指令を前記自律的移動手段に出力する移動制御部とを有した移動型ロボットにおいて、前記移動計画情報を前記画像制御処理部に通知する移動計画情報通知部を備え、前記自律的移動手段は、脚部と、前記脚部を駆動する自律移動制御部とを有し、前記移動計画情報に含まれるタイミングの情報は、前記脚部の予定着地時期の情報と、前記予定着地時期の情報に予め対応付けられた画像のブレを示す値が所定の値以下である時刻と当該ロボットの移動速度との相関関係と、を含み、前記移動計画情報通知部は、前記脚部の予定着地時期の情報を前記画像制御処理部に通知する予定着地時期通知部と、前記相関関係を前記画像制御処理部に通知する速度相関通知部と、を備え、前記画像制御処理部は、前記予定着地時期の情報と前記相関関係とを取得すると共に、当該ロボットの移動中にその移動速度を取得し、前記取得した移動速度に応じて前記相関関係を用いて、前記取得した予定着地時期の情報から、前記画像のブレを示す値が所定の値以下である時刻にて、前記視覚センサによって取り込んだ画像を処理することを特徴とする。
かかる構成によれば、移動型ロボットは、移動計画情報通知部によって、視覚センサによって取り込んだ画像のブレを示す値が所定の値よりも大きくなると推定されるタイミングの情報を含む移動計画情報を画像制御処理部に通知し、画像制御処理部によって、取り込んだ画像のブレを示す値が所定の値以下になると推定される画像を処理する。したがって、移動型ロボットは、移動中の画像処理結果から画像のブレの影響を低減することができる。ここで、自律的に移動する機能を有する自律的移動手段とは、例えば、脚部、車輪、無限軌道等によるものを含む。また、取り込んだ画像のブレを示す値が所定の値よりも大きくなると推定されるタイミングは、例えば、当該移動ロボットの動作目的、動作機能、性能、自律的移動手段の種類等に応じて予め定められた規則によって求められる。
かかる構成によれば、移動型ロボットは、予定着地時期通知部によって、脚部の予定着地時期の情報を画像制御処理部に通知し、画像制御処理部によって、脚部の先端が着地する前後の、視覚センサによって取り込んだ画像のブレを示す値が所定の値以下になると推定されるタイミングの画像を処理する。したがって、移動型ロボットは、移動中の画像処理結果から画像のブレの影響を低減することができる。ここで、脚部による移動とは、例えば、歩行、走行、その場で足踏み等、脚部の先端が着地、沈み込み、蹴り上げの各動作を行うことを示す。また、着地時期は、例えば、着地の瞬間、沈み込み期間、蹴り上げ期間のように区分することができる。脚部の先端が着地する前後のタイミングは、着地時期と次の着地時期との間であることが好ましいが、着地時期において沈み込み期間から蹴り上げ期間に切り替わるタイミングであってもよい。また、取り込んだ画像を処理するタイミングを複数とする場合に、等間隔にすることが好ましい。
また、かかる構成によれば、移動型ロボットは、画像制御処理部によって、予定着地時期の情報と相関関係とを取得し、取得した移動速度に応じて相関関係を用いて、取得した予定着地時期の情報から、画像のブレを示す値が所定の値以下である時刻にて、視覚センサによって取り込んだ画像を処理する。
したがって、移動型ロボットは、脚部の先端が着地する前後であって移動速度に好適な画像を取り込むように画像取込時期を決定することで、取り込んだ画像におけるブレを低減することができる。ここで、例えば、脚部の先端が着地する直前のタイミングを画像取込時期としているときに移動速度を高めた場合には、速度変更前の画像取込時期よりもタイミングを早めることができる。
また、請求項に記載の移動型ロボットは、請求項に記載の移動型ロボットであって、前記画像制御処理部が、前記予定着地時期に基づいて、前記視覚センサによって画像を取り込む時期を示す画像取込時期を決定する画像取込計画処理部と、前記画像取込時期になったか否かを判別する画像取込時期判別部と、前記画像取込時期になったときに取込トリガを生成して前記視覚センサに出力する取込トリガ生成部と、前記画像取込時期に取り込んだ画像を処理する画像処理部とを備えることを特徴とする。
かかる構成によれば、移動型ロボットは、画像取込計画処理部によって、予定着地時期に基づいて画像取込時期を決定し、画像取込時期になったときに、取込トリガ生成部によって、取込トリガを視覚センサに出力する。したがって、脚部の先端が着地する前後の画像を取り込むように画像取込時期を決定することで、取り込んだ画像におけるブレを低減することができる。ここで、移動型ロボットが、例えば2足歩行を行う場合には、脚部の一方の足が躯体を支持して他方の足が接地していないときに、他方の足を着地する前の1以上のタイミングを画像取込時期に設定することができる。続いて、一方の足を着地する前の1以上のタイミングを画像取込時期に設定することができる。以下同様に、交互に足を着地する前の1以上のタイミングを画像取込時期に設定することができる。
また、請求項に記載の移動型ロボットは、請求項または請求項に記載の移動型ロボットであって、前記移動計画情報が、当該移動型ロボットの移動中における前記視覚センサの姿勢を示す姿勢情報として事前に測定された測定値を含み、前記移動計画情報通知部が、前記測定値を前記画像制御処理部に通知する姿勢測定値通知部をさらに備え、前記画像制御処理部が、前記予定着地時期の情報と前記測定値とを取得すると共に、前記取得した測定値と予定着地時期の情報とから推定される移動中における前記視覚センサの姿勢の推定値を求め、前記推定値が、前記視覚センサの振動を示す値が所定の値以下であるものとして予め定められた範囲内となる時期にて、前記視覚センサによって取り込んだ画像を処理することを特徴とする。
また、請求項4に記載の移動型ロボットは、外界の画像を取り込む視覚センサと、前記視覚センサによって取り込んだ画像を処理する画像制御処理部と、自律的に移動する機能を有する自律的移動手段と、前記視覚センサによって取り込んだ画像のブレを示す値が所定の値よりも大きくなると推定されるタイミングの情報を含む移動計画情報を記憶する記憶部と、前記移動計画情報に基づいて当該移動型ロボットの移動を制御する指令を前記自律的移動手段に出力する移動制御部とを有した移動型ロボットにおいて、前記移動計画情報を前記画像制御処理部に通知する移動計画情報通知部を備え、前記自律的移動手段は、脚部と、前記脚部を駆動する自律移動制御部とを有し、前記移動計画情報に含まれるタイミングの情報は、前記脚部の予定着地時期の情報であり、前記移動計画情報は、当該移動型ロボットの移動中における前記視覚センサの姿勢を示す姿勢情報として事前に測定された測定値を含み、前記移動計画情報通知部は、前記脚部の予定着地時期の情報を前記画像制御処理部に通知する予定着地時期通知部と、前記測定値を前記画像制御処理部に通知する姿勢測定値通知部と、を備え、前記画像制御処理部は、前記脚部の予定着地時期の情報に基づいて前記脚部の先端が着地する前後の、前記視覚センサによって取り込んだ画像のブレを示す値が所定の値以下になると推定されるタイミングにて、前記視覚センサによって取り込んだ画像を処理し、前記画像制御処理部は、前記予定着地時期に基づいて、前記視覚センサによって画像を取り込む時期を示す画像取込時期を決定する画像取込計画処理部と、前記画像取込時期になったか否かを判別する画像取込時期判別部と、前記画像取込時期になったときに取込トリガを生成して前記視覚センサに出力する取込トリガ生成部と、前記画像取込時期に取り込んだ画像を処理する画像処理部とを備え、前記画像取込計画処理部は、前記予定着地時期の情報と前記測定値とを取得すると共に、前記取得した測定値と予定着地時期の情報とから推定される移動中における前記視覚センサの姿勢の推定値を求め、前記推定値が、前記視覚センサの振動を示す値が所定の値以下であるものとして予め定められた範囲内となる時期を前記画像取込時期として決定することを特徴とする。
かかる構成によれば、移動型ロボットは、画像取込計画処理部によって、予定着地時期に加えて視覚センサの姿勢情報に基づいて画像取込時期を決定し、画像取込時期になったときに、取込トリガ生成部によって、取込トリガを視覚センサに出力する。画像取込計画処理部は、予定着地時期の脚部の先端が着地する前後のタイミングにおいて、姿勢情報についての推定値が、視覚センサの振動を示す値が所定の値以下である時期を画像取込時期とする。したがって、移動型ロボットは、脚部の先端が着地する前後であって視覚センサの姿勢に好適な画像を取り込むように画像取込時期を決定することで、取り込んだ画像におけるブレを低減することができる。ここで、姿勢情報は、視覚センサの姿勢として、例えばピッチ角の角速度(回転角速度)の情報を含むことができる。この角速度の場合には、その絶対値が予め定められた値以下となるように画像取込時期を決定することができる。
また、請求項に記載の移動型ロボットは、外界の画像を取り込む視覚センサと、前記視覚センサによって取り込んだ画像を処理する画像制御処理部と、自律的に移動する機能を有する自律的移動手段と、前記視覚センサによって取り込んだ画像のブレを示す値が所定の値よりも大きくなると推定されるタイミングの情報を含む移動計画情報を記憶する記憶部と、前記移動計画情報に基づいて当該移動型ロボットの移動を制御する指令を前記自律的移動手段に出力する移動制御部とを有した移動型ロボットにおいて、前記移動計画情報を前記画像制御処理部に通知する移動計画情報通知部を備え、前記自律的移動手段は、脚部と、前記脚部を駆動する自律移動制御部とを有し、前記移動計画情報に含まれるタイミングの情報は、前記脚部の予定着地時期の情報であり、前記移動計画情報通知部は、前記脚部の予定着地時期の情報を前記画像制御処理部に通知する予定着地時期通知部を備え、前記画像制御処理部は、前記脚部の予定着地時期の情報に基づいて前記脚部の先端が着地する前後の、前記視覚センサによって取り込んだ画像のブレを示す値が所定の値以下になると推定されるタイミングにて、前記視覚センサによって取り込んだ画像を処理し、前記画像制御処理部が、前記脚部の先端が着地する瞬間を起点にして画像のブレを示す値が所定の値よりも大きくなると推定される予め定められた時間範囲を示す緩衝時期になったか否かを判別する緩衝時期判別部と、前記視覚センサによって周期的に取り込んだ画像のうち前記緩衝時期以外の時期に取り込んだ画像を処理する画像処理部とを備えることを特徴とする。
かかる構成によれば、移動型ロボットは、視覚センサによって周期的に画像を取り込みつつ、緩衝時期判別部によって、画像のブレが所定の値よりも大きくなると推定される緩衝時期ではないと判別したときに、画像処理部によって、視覚センサから周期的に取り込んだ画像を処理する。したがって、移動型ロボットは、移動中の画像処理結果から画像のブレの影響を低減できる。
また、請求項に記載の移動型ロボットは、請求項に記載の移動型ロボットであって、前記緩衝時期判別部が、当該ロボットの移動中にその移動速度を取得し、当該ロボットの移動速度が速いほど短くなるように定められた複数の前記緩衝時期の候補の中から、前記取得した移動速度に応じた緩衝時期を選択し、前記選択された緩衝時期になったか否かを判別した結果を前記画像処理部に出力することを特徴とする。
かかる構成によれば、移動型ロボットは、緩衝時期判別部によって、移動速度が速いほど短くなるように定められた複数の緩衝時期の候補の中からロボットの移動速度に応じた緩衝時期を選択する。したがって、移動型ロボットは、移動速度に応じた画像処理結果から画像のブレの影響を低減できる。
本発明によれば、移動型ロボットは、移動制御部が自律的移動手段に出力する指令を生成するために保有している移動計画情報を用いて、外界の画像として、視覚センサによって取り込んだ画像のブレを示す値が所定の値以下になると推定されるタイミングにて画像を処理するので、移動中の画像処理結果から画像のブレの影響を低減することができる。また、移動型ロボットは、移動中に画像のブレを低減させつつ画像を処理するサンプリング回数を増加させることができる。その結果、移動型ロボットは、高速移動時においても、画像処理により画像中の対象物の認識や画像中の対象物までの距離情報を精度よく求めることが可能となる。
以下、図面を参照して本発明の移動型ロボット(以下「ロボット」という)を実施するための最良の形態(以下「実施形態」という)について第1実施形態と第2実施形態に分けて詳細に説明する。まず、本発明の第1および第2実施形態に係るロボットの全体構成について説明し、次いで、第1実施形態に係るロボットの要部、第2実施形態に係るロボットの要部について順次説明する。
(ロボットの全体構成)
図1は、本発明の第1および第2実施形態に係るロボットの構成を模式的に示すブロック図であり、図2は、その外観を模式的に示す図である。ここでは、自律移動型の脚式の2足歩行ロボットを一例として説明する。ロボットRは、ロボット制御装置1から入力された実行命令に従ってタスクを実行するものである。タスクには、例えば、来訪者(人物)Hを会議室などの所定の場所に案内するという内容のタスク(案内タスク)や、荷物をある人に渡すという内容のタスク(荷物配達タスク)等が存在する。図2では、ロボットRが例えば廊下等のタスク実行エリアで案内タスクを実行している様子を示している。
ロボットRは、図2に示すように、頭部R1、腕部R2、脚部R3、胴部R4および背面格納部R5を有しており、胴部R4にそれぞれ接続された頭部R1、腕部R2、脚部R3は、それぞれアクチュエータ(駆動手段)により駆動され、自律移動制御部50(図1参照)により2足歩行の制御がなされる。
ロボットRは、頭部R1、腕部R2、脚部R3、胴部R4および背面格納部R5に加えて、これら各部R1〜R5の適所に、図1に示すように、カメラC,C、画像制御処理部10、音声処理部20、主記憶部30、主制御部40、自律移動制御部50、無線通信部60、対象検知部70、周辺状態検知部80および姿勢検知部90を有する。また、ロボットRにおいて、自律移動制御部50と脚部R3とにより、自律的移動手段が構成される。
カメラ(視覚センサ)C,Cは、外界の画像として、ロボットRの前方移動方向側の映像をデジタルデータとして取り込むことができるものであり、例えば、カラーCCD(Charge-Coupled Device)カメラが使用される。カメラC,Cは、左右に平行に並んで配置され、撮影した画像は画像制御処理部10に出力される。このカメラC,Cは、頭部R1の内部に配設される。
画像制御処理部10は、カメラC,Cによって取り込んだ画像(撮影画像)を処理して、撮影画像からロボットRの周囲の状況を把握するため、周囲の障害物や人物の認識を行う部分である。画像制御処理部10の詳細については後記する。
音声処理部20は、主制御部40からの発話指令に基づいて図示しないスピーカに音声を出力したり、図示しないマイクから入力された音声データから文字情報(テキストデータ)を生成して主制御部40に出力したりするものである。
主記憶部30は、例えば、一般的なハードディスク等から構成され、ロボット制御装置1から送信された必要な情報(ローカル地図データ、会話用データなど)を記憶するものである。また、主記憶部30は、後記するように、主制御部40の各種動作を行うために必要な情報を記憶している。主記憶部30は、例えば、カメラC,Cによって取り込んだ画像のブレを示す値が所定の値よりも大きくなると推定されるタイミングの情報を含む移動計画情報を記憶する。ここで、取り込んだ画像のブレを示す値が所定の値よりも大きくなると推定されるタイミングは、例えば、ロボットRの動作目的、動作機能、性能、自律的移動手段の種類等に応じて予め定められた規則によって求められる。また、タイミングの推定自体は、移動前に予め行ってもよいし、予め定められた規則にしたがって何らかの情報の検出結果に基づいて移動中に行ってもよい。本実施形態では、取り込んだ画像のブレを示す値が所定の値よりも大きくなると推定されるタイミングの情報として脚部R3の予定着地時期の情報を、移動計画情報に含むこととした。
主制御部40は、画像制御処理部10、音声処理部20、主記憶部30、自律移動制御部50、無線通信部60、対象検知部70、周辺状態検知部80および姿勢検知部90を統括制御するものである。この主制御部40は、例えば、ロボット制御装置1と通信を行うための制御、ロボット制御装置1から取得したタスク実行命令に基づいて所定のタスクを実行するための制御、ロボットRを目的地に移動させるための制御等を行うために、種々の判断を行ったり、各部の動作のための指令を生成したりする。
自律移動制御部50は、主制御部40の指示に従い頭部R1、腕部R2、脚部R3および胴部R4を駆動するものである。この自律移動制御部50は、図示を省略するが、頭部R1の首関節を駆動させる首制御部、腕部R2の手の先の指関節を駆動させる手制御部、腕部R2の肩関節、肘関節、手首関節を駆動させる腕制御部、脚部R3に対して胴部R4を水平方向に回転駆動させる腰制御部、脚部R3の股関節、膝関節、足首関節を駆動させる足制御部を有している。これら首制御部、手制御部,腕制御部、腰制御部および足制御部は、頭部R1、腕部R2、脚部R3および胴部R4を駆動するアクチュエータに駆動信号を出力する。
無線通信部60は、ロボット制御装置1とデータの送受信を行う通信装置である。無線通信部60は、例えば、携帯電話回線やPHS(Personal Handyphone System)回線などの公衆回線や、IEEE802.11b規格に準拠するワイヤレスLANなどの、近距離無線通信を選択して利用する。
対象検知部70は、ロボットRの周囲にタグTを備える人物が存在するか否かを検知するものである。対象検知部70は、例えば、LEDから赤外光を発信し、この赤外光を受信したタグTで生成された受信報告信号を受信することにより、ロボットRから視てどの方向にタグTを備える人物が存在するかを特定する。また、対象検知部70は、タグTから取得した受信報告信号の電波強度に基づいて、タグTを備える人物までの距離を特定する。
周辺状態検知部80は、ロボットRの周辺状態を検知するものであり、床面の探索域に向かってスリット状のレーザ光や赤外線を照射して床面を撮像した画像を解析して路面状態を検出する。また、周辺状態検知部80は、床面の探索域に赤外線を照射したときの画像を解析してマークM(図2参照)を検出し、検出されたマークMの位置(座標)からマークMとロボットRとの相対的な位置関係を計算する。
姿勢検知部90は、例えば、ロボットRの向いている方向を検出するジャイロセンサや、予め設定された地図上におけるロボットRの存在する位置座標を取得するためのGPS(Global Positioning System)受信器を有している。姿勢検知部90で検知されたデータは、主制御部40に出力され、ロボットRの行動を決定するために利用される。
(第1実施形態)
次に、第1実施形態に係るロボットの要部について図3を参照(適宜図1および図2参照)して説明する。図3は、本発明の第1実施形態に係るロボットの要部を模式的に示すブロック図である。
<主制御部の構成例>
主制御部40は、図3に示すように、行動生成部41と、移動制御部42と、移動計画情報通知部43とを含んでいる。
行動生成部41は、ロボットRの移動や発話等の行動パターンを実行するための各種プログラム(モジュール)を格納すると共に、この行動パターンを実行するときに、主記憶部30を参照して、必要な情報(ローカル地図データ、会話用データなど)を行動パターンに反映するものである。行動生成部41は、各種モジュールを所定のスケジュールで実行する行動計画も管理する。モジュールの例としては、目的地移動モジュール、局所回避モジュール、配達タスク実行モジュール、案内タスク実行モジュール、人対応モジュール等がある。この行動生成部41は、画像制御処理部10から取得した画像認識結果(認識された顔の位置等)や距離情報を、ロボットRが移動するときの情報として、また、認識された人物とのコミュニケーションを取るために利用して、行動パターンを実行する。
ここで、各モジュールについて簡単に説明する。目的地移動モジュールは、ロボットRの現在位置から、例えば、予め定められたタスク実行エリア内のタスク実行位置等の目的地までの経路探索(例えばノード間の経路を探索)及び移動を行うものである。この目的地移動モジュールは、地図データと現在位置とを参照しつつ、目的地までの最短距離を求める。局所回避モジュールは、周辺状態検知部80によって、進行方向に例えば段ボール等の障害物が検知されたときに、障害物を回避する迂回経路を探索するものである。配達タスク実行モジュールは、荷物配達タスクを実行するときに動作するものであり、物品の運搬を依頼する人物(依頼人)から物品を受け取る(把持する)動作や、受け取った物品を受取人に渡す(物品を手放す)動作を実行するものである。案内タスク実行モジュールは、例えば、タスク実行エリア内の案内開始地点に来訪した来訪客を所定位置へ案内するタスクを実行するものである。人対応モジュールは、例えば、荷物配達タスクや案内タスクの実行時に所定のシナリオに基づいて、発話、姿勢の変更、腕部R2の上下移動や把持等を行うものである。
移動制御部42は、主記憶部30に記憶された移動計画情報に基づいてロボットRの移動を制御する指令を自律移動制御部50に出力するものである。本実施形態では、移動制御部42は、行動生成部41がロボットRの移動を伴う行動パターンを実行するときに、行動生成部41から移動計画情報を取得し、自律移動制御部50に指令を出す。移動計画情報は、脚部R3の予定着地時期の情報のほか、例えば、ロボットRの移動速度(目標速度)、目的地の位置情報、目的地までの経路情報等を含むことができる。
ここで、脚部R3の予定着地時期の情報とは、時刻情報として、例えば次の(1)〜(3)を含むことができる。(1)脚部R3の先端(つま先または足平または踵)が着地する瞬間t1、(2)現在時刻t0から脚部R3の先端が着地する瞬間t1までの時間間隔Δt、(3)着地する瞬間t1と、次に着地する瞬間t2までの差分(着地周期)との両方。また、脚部R3の予定着地時期の情報とは、位置情報として、例えば、着地する瞬間t1に対応した、脚部R3の先端の次回位置の位置座標を含むことができる。なお、脚部R3の先端の次回位置は1〜2歩先の歩容計画で定められる。
本実施形態では、移動計画情報には、さらに、予定着地時期の情報に予め対応付けられたカメラC,Cで撮影した画像のブレを示す値が所定の値以下である時刻と、ロボットRの移動速度との相関関係(以下、「着地−速度」相関という)を含むこととした。ここで、「着地−速度」相関は、例えば、時速2.7[km/h]の歩行時のときには画像のブレを示す値が所定の値以下である時刻は着地の瞬間からP[ms]後、時速6[km/h]の走行時のときには画像のブレを示す値が所定の値以下である時刻は着地の瞬間からQ[ms]後のように、移動速度に応じて、予め作成されたテーブルまたは所定の決定関数により算出可能となっている。
また、本実施形態では、移動計画情報には、さらに、ロボットRの移動中におけるカメラC,Cの姿勢を示す姿勢情報として事前に測定された測定値(以下、カメラ姿勢事前測定値という)を含むこととした。このカメラ姿勢事前測定値として、本実施形態では、カメラC,Cのピッチ角の角速度の情報を用いることとした。
移動制御部42は、自律移動制御部50から、脚部R3の動作状態に関する情報を取得し、ロボットRの現在の移動速度を検知する。また、移動制御部42は、行動生成部41を介して、画像制御処理部10から取得した画像認識結果を取得することで、例えば人物等の対象物との相対距離に応じてロボットRの移動速度を変更する制御を行う。
なお、移動制御部42は、自律移動制御部50に出力する指令により、脚部R3のみを制御するのではなく、頭部R1や腕部R2も制御させることで、重心移動を制御する。この移動制御部42は、姿勢検知部90から、ロボットRの姿勢に関する情報を取得し、自律移動制御部50に出力する指令に反映することで、例えば、コーナリング走行時の重心移動をスムーズにする。
移動計画情報通知部43は、移動計画情報を画像制御処理部10に通知するものである。本実施形態では、移動計画情報通知部43は、図3に示すように、予定着地時期通知部43aと、速度相関通知部43bと、姿勢測定値通知部43cとを備えている。予定着地時期通知部43aは、脚部R3の予定着地時期の情報を画像制御処理部10に通知するものである。速度相関通知部43bは、前記した「着地−速度」相関を画像制御処理部10に通知するものである。姿勢測定値通知部43cは、カメラ姿勢事前測定値を画像制御処理部10に通知するものである。なお、移動計画情報通知部43は、移動制御部42から、ロボットRの現在の移動速度の情報を取得し、画像制御処理部10に通知する。
<画像制御処理部の構成例>
画像制御処理部10は、移動計画情報通知部43から取得した脚部R3の予定着地時期の情報、「着地−速度」相関、カメラ姿勢事前測定値に基づいて、脚部R3の先端が着地する瞬間を除くタイミングにて、カメラC,Cによって取り込んだ画像を処理する。第1実施形態と第2実施形態では、カメラC,Cの制御が異なっている。第1実施形態では、カメラC,Cは、画像制御処理部10からのトリガを受けたときに、画像を取り込むように制御されるものである。なお、図3では、第2実施形態と区別するためにカメラの符号をC0,C0と表記した。この画像制御処理部10は、図3に示すように、画像取込計画処理部11と、取込時期判別部12と、取込トリガ生成部13と、画像補正処理部14と、ステレオ画像処理部15と、画像認識処理部16とを備えている。
画像取込計画処理部11は、予定着地時期に基づいて、カメラC,Cによって画像を取り込む時期を示す画像取込時期を決定するものである。本実施形態では、画像取込計画処理部11は、予定着地時期に加えて、ロボットRの移動速度およびカメラC,Cの姿勢情報に基づいて画像取込時期を決定する。
具体的には、本実施形態では、画像取込計画処理部11は、移動計画情報として、予定着地時期の情報と、「着地−速度」相関とを取得すると共に、ロボットRの移動中にその移動速度を取得し、取得した移動速度に応じて、「着地−速度」相関を用いて、取得した予定着地時期の情報から、画像のブレを示す値が所定の値以下である時刻を、画像取込時期として決定する。
また、本実施形態では、画像取込計画処理部11は、カメラ姿勢事前測定値と取得した予定着地時期の情報とから推定される、移動中におけるカメラC,Cのピッチ角の角速度の推定値を求め、推定値が、カメラC,Cの振動を示す値が所定の値以下であるものとして予め定められた範囲内となる時期を画像取込時期として決定する。
ここで、画像取込時期の一例を説明する。図4は、頭部のピッチ角の角速度の時間変化の一例を示す図である。図4に示すグラフにおいて、横軸は時間、縦軸はロボットRの頭部R1がピッチ方向に振動するときに事前に角速度センサ(姿勢検出センサ)で測定した角速度(回転角速度)の検出値を示す。一例として、ロボットRが、歩幅450mmで時速2.7[km/h]の移動速度で歩行する場合の実験結果を示す。ロボットRは、時間が200[ms]であるときに一方の足(例えば左足)を着地し、800[ms]であるときに他方の足(例えば右足)を着地する。つまり、着地周期は600[ms]となる。着地周期には、その初期に予定着地時期の期間を含んでいる。本実施形態では、ロボットRが前進するときには足の踵(先端)が接地するときを着地の瞬間といい、このとき、着地後に足平の底面のほぼ全面が床に接地し、最後につま先が離床する。なお、ロボットRが後進するときには足のつま先(先端)が接地するときを着地の瞬間とする。ただし、これに限らず、踵やつま先と同時に足平の底面のほぼ全面が床に接地する形態では、足平が接地するときを着地の瞬間とする。
図4に示すように、着地の瞬間には、振動が大きいため、角速度の絶対値は大きい。しかしながら、この着地周期の初期において角速度の絶対値が非常に小さくなるタイミングもある。図4に示す着地周期において角速度が例えば0になるタイミングは8回存在する。これらのタイミングの少なくともいずれかを、カメラC,Cの振動を示す値が所定の値以下であるものとして予め定められた範囲内となる時期とすることもできる。また、カメラC,Cの振動を示す値が所定の値以下であるものとして予め定められた範囲内となる時期を、角速度が0となる時期に限定せずに、角速度の絶対値が予め定められた値以下となるようにすれば、より多くの画像取込時期を決定することも可能である。また、複数回の画像取込時期を決定する場合には、例えば、符号301,302,303で示すようにほぼ等間隔のタイミングを画像取込時期とすることが好ましい。また、この中で特に303で示すタイミングは、一方の足の着地後において他方の足の着地直前のタイミングを示しており、移動速度が高くなって着地周期が短くなった場合においても好適に画像を取り込むことができるので、画像取込時期として最も好ましい。なお、ロボットRが、歩幅525mmで時速6[km/h]の移動速度で走行する場合には、両足とも離床する期間として80[ms]の跳躍期があり、跳躍期には床反力を受けないので、この期間に1以上の画像取込時期を設定することが好ましい。
図3に示す取込時期判別部12は、画像取込計画処理部11で決定された画像取込時期になったか否かを判別するものである。この判別結果は、取込トリガ生成部13に出力される。
取込トリガ生成部13は、画像取込時期になったときにそのことをカメラC,Cに通知して撮影させるためのトリガ(取込トリガ)を生成してカメラC,Cに出力するものである。本実施形態では、取込トリガ生成部13は、取込トリガをカメラC,Cに出力するときに、同時に別のトリガで画像認識処理部16に対して処理タイミングであることを通知する。
画像補正処理部(画像処理部)14は、画像取込時期に取り込んだ画像を処理するものである。画像補正処理部14は、カメラC,Cによって取り込んだ画像から、カメラC,Cのレンズによる歪の補正と、カメラC,Cのエピポーララインをそれぞれのカメラ画像の走査線に一致させる補正(レクティファイ)とを行うことで撮影画像を補正してステレオ画像処理部15に出力する。レンズの歪補正は、例えば、複数の直線を撮影してその画像内の線が直線になるように、5次程度の関数の近似式で中心からのずれを近似することにより行うことができる。また、画像補正処理部14は、カメラC,Cの内部パラメータ(レンズの焦点距離や、レンズの中心位置など)と外部パラメータ(カメラC,C外の3D基準点に対するレンズの主点位置など)を求めてから、それらの情報を使ってレクティファイを計算する。
ここで、画像補正の一例を簡単に説明する。図5には、市松模様を撮影した画像と、この画像の歪みを補正した画像の例を示す。平面に描かれた市松模様をカメラC,Cで正面から撮影すると、図5(a)に示すように、補正前には、左カメラ画像200Lおよび右カメラ画像200Rに樽形の歪みが生じている。図5(a)において、直線210は、左カメラ画像200Lおよび右カメラ画像200Rの同じ走査線を示している。右カメラ画像200Rでは、市松模様上の目印220の下縁が直線210に一致しているが、左カメラ画像200Lでは、目印220の下縁が直線210に一致していない。このような画像の歪みを補正すると、図5(b)に示すように、補正後には、左カメラ画像200Lおよび右カメラ画像200Rから樽形の歪みが除去される。また、図5(b)において、左右の画像の同じ走査線である直線230は、左右の画像において目印220の下縁に一致する。
図3に示すステレオ画像処理部(画像処理部)15は、画像取込時期に取り込んだ画像を処理するものである。ステレオ画像処理部15は、ステレオ処理として、左右のカメラC,Cが撮影した2枚の画像の一方を基準としてパターンマッチングを行い、左右の画像中の対応する各画素の視差を計算して視差画像を生成し、生成した視差画像および元の画像を画像認識処理部16に出力する。なお、この視差は、ロボットRから撮影された物体までの距離を表すものである。また、ステレオ画像処理部15は、左右の画像中の対応する各画素の視差を計算した結果を距離情報として主制御部40に出力する。
画像認識処理部(画像処理部)16は、画像取込時期に取り込んだ画像を処理するものである。画像認識処理部16は、ステレオ画像処理部15から出力されたデータに基づき、撮影した画像中で移動する物体(移動体)を抽出することで、移動体が人物であると推定して、人物を認識する。移動体の抽出をするために、画像認識処理部16は、過去の数フレーム(数コマ)の画像を記憶しており、最も新しいフレーム(画像)と、過去のフレーム(画像)を比較して、パターンマッチングを行い、各画素の移動量を計算し、移動量画像を生成する。そして、視差画像と、移動量画像とから、カメラC,Cから所定の距離範囲内で、移動量の多い画素がある場合に、人物がいると推定し、その所定距離範囲のみの視差画像として、移動体を抽出する。また、画像認識処理部16は、抽出した移動体の一部分の大きさ、形状などから例えば顔領域および顔の位置を認識し、画像認識結果として主制御部40に出力する。
<ロボットの動作>
第1実施形態に係るロボットRの動作について主に画像制御処理部10の動作を中心に図6を参照(適宜図3参照)して説明する。図6は、図3に示した画像制御処理部の動作を示すフローチャートである。画像制御処理部10は、移動計画情報通知部43から、脚部R3の予定着地時期を、ロボットRの移動速度およびカメラC,Cの姿勢情報と共に取得する(ステップS1)と、画像取込計画処理部11によって、画像取込時期を決定する(ステップS2)。そして、画像制御処理部10は、取込時期判別部12によって、取込時期を判別し(ステップS3)、画像取込時期になったときに、取込トリガ生成部13によって、取込トリガをカメラC,Cへ出力する(ステップS4)。これにより、カメラC,Cは、ロボットRの前方移動方向側の映像(撮影画像)を取得し、画像制御処理部10に出力する(ステップS5)。
そして、画像制御処理部10は、画像補正処理部14によって、取り込んだ画像から、カメラレンズによる歪の補正と、レクティファイとを行うことで撮影画像を補正する(ステップS6)。続いて、画像制御処理部10は、ステレオ画像処理部15によって、補正された画像に対してステレオ処理する(ステップS7)。そして、画像制御処理部10は、画像認識処理部16によって、視差画像および元の補正画像を用いて移動体としての対象物(人物)を認識し(ステップS8)、認識した対象物(人物)を画像処理結果として主制御部40の行動生成部41に出力する(ステップS9)。また、画像制御処理部10は、ステップS7またはステップS9に続いて、あるいは並行して、ステレオ画像処理部15によって算出した距離情報を主制御部40の行動生成部41に出力する。
第1実施形態によれば、ロボットRは、移動計画情報通知部43によって、脚部R3の予定着地時期の情報を画像制御処理部10に通知し、画像制御処理部10によって予定着地時期に基づいて決定された画像取込時期にカメラC,Cから画像を取り込む。したがって、画像取込時期を脚部の先端が着地する前後のタイミングとすることにより、取り込んだ画像のブレを示す値が所定の値以下になると推定される画像を処理することができる。したがって、ロボットRは、移動中の画像処理結果から画像のブレの影響を低減することができる。また、ロボットRは、画像を処理するサンプリング回数を容易に増加させることができる。
(第2実施形態)
次に、第2実施形態に係るロボットの要部について図7を参照(適宜図1、図2および図3参照)して説明する。図7は、本発明の第2実施形態に係るロボットの要部を模式的に示すブロック図である。
<主制御部の構成例>
第2実施形態では、主制御部40の構成は、第1実施形態と同様なので、同じ構成には同じ符号を付して説明を省略する。ただし、図7に示す移動計画情報通知部43Aは、図3に示した姿勢測定値通知部43cを含んでいない。すなわち、本実施形態では、移動計画情報通知部43Aは、脚部R3の予定着地時期のほかに、「着地−速度」相関やロボットRの現在の移動速度の情報を画像制御処理部10Aに通知する。
<画像制御処理部の構成例>
画像制御処理部10Aは、図7に示すように、画像補正処理部14と、ステレオ画像処理部15と、画像認識処理部16と、予定着地時期取得部17と、緩衝時期判別部18とを備えている。このうち、画像補正処理部14と、ステレオ画像処理部15と、画像認識処理部16とは、第1実施形態と同様なので説明を省略する。ただし、第2実施形態では、カメラC,Cは、周期的に画像を取り込むように制御されるものである。そのため、ステレオ画像処理部15および画像認識処理部16は、カメラC,Cによって周期的に取り込んだ画像のうち、後記する緩衝時期以外の時期に取り込んだ画像を処理する。カメラC,Cは、例えば、60[ms]間隔で画像を取り込む。なお、図7では、第1実施形態と区別するためにカメラの符号をC1,C1と表記した。
予定着地時期取得部17は、主制御部40の移動計画情報通知部43Aから、移動計画情報として予定着地時期の情報を、ロボットRの現在の移動速度の情報と共に取得し、緩衝時期判別部18に出力するものである。
緩衝時期判別部18は、脚部R3の先端が着地する瞬間を起点にして画像のブレを示す値が所定の値よりも大きくなると推定される予め定められた時間範囲を示す緩衝時期になったか否かを判別するものである。本実施形態では、緩衝時期判別部18は、ロボットRの移動中にその移動速度を取得し、ロボットRの移動速度が速いほど短くなるように定められた緩衝時期の候補の中から、取得した移動速度に応じた緩衝時期を選択し、選択された緩衝時期になったか否かを判別した結果を画像補正処理部14および画像認識処理部16に出力する。ここで、緩衝時期の候補は、例えば、テーブルとして移動速度に予め対応付けられている。例えば、移動速度が2.7[km/h]の場合には、緩衝時期を例えば、着地後3[ms]とすることができる。本実施形態では、緩衝時期判別部18は、速度相関通知部43bから取得した「着地−速度」相関を第1実施形態とは反対の観点で利用して、緩衝時期になったか否かを判別することとした。
<ロボットの動作>
第2実施形態に係るロボットRの動作について主に画像制御処理部10Aの動作を中心に図8を参照(適宜図7参照)して説明する。図8は、図7に示した画像制御処理部の動作を示すフローチャートである。画像制御処理部10Aは、予定着地時期取得部17によって、移動計画情報通知部43Aから、脚部R3の予定着地時期を、ロボットRの移動速度と共に取得する(ステップS11)。また、カメラC,Cは、ステップS11とは独立に、ロボットRの前方移動方向側の映像(撮影画像)を周期的に取得し、画像制御処理部10Aに出力し続ける(ステップS12)。また、画像制御処理部10Aの緩衝時期判別部18は、ステップS11とは独立に、緩衝時期になったか否かを判別して判別結果を、画像補正処理部14および画像認識処理部16に出力し続けている。このとき、ステップS11により、緩衝時期判別部18が予定着地時期と共に取得する移動速度が変化した場合には、緩衝時期判別部18は、その移動速度に応じた緩衝時期に切り替えて判別を続ける。これにより、緩衝時期になった場合には、画像補正処理部14および画像認識処理部16は、着地後の所定期間は緩衝時期としてサンプリングを中止する(ステップS13)。画像制御処理部10Aが緩衝時期以外に実行する以下のステップS14〜ステップS17は、前記したステップS6〜ステップS9と同じなので説明を省略する。
第2実施形態によれば、ロボットRは、カメラC,Cによって周期的に画像を取り込みつつ、移動計画情報通知部43Aによって、脚部R3の予定着地時期の情報を画像制御処理部10Aに通知し、画像制御処理部10Aによって予定着地時期に基づいて判別された緩衝時期以外の時期に、取り込んだ画像の画像処理を行う。すなわち、ロボットRは、緩衝時期に取り込んだ画像については画像処理を行わない。したがって、ロボットRは、移動中の画像処理結果から画像のブレの影響を低減することができる。また、ロボットRは、画像を処理するサンプリング回数を容易に増加させることができる。さらに、ロボットRは、画像制御処理部10AからカメラC,Cに対して取込トリガを出力する必要がない。
以上、本発明の好ましい実施形態について説明したが、本発明は前記した各実施形態に限定されるものではない。例えば、各実施形態では、画像制御処理部10(10A)に、画像処理部としての画像補正処理部14、ステレオ画像処理部15、画像認識処理部16を備えるベストモードとしたが、例えば、画像補正処理部14は必須ではない。また、各実施形態では、2台のカメラC,Cで画像を取り込むものとしたが、3台以上のカメラを用いることも可能である。例えば、3行3列に配置した9台のカメラで、中央に配置したカメラを基準カメラとして、他の8台のカメラとの間で対象物の位置(距離情報)を検出し、その8個の位置で平均をとることで、対象物の位置をより正確に検出することもできる。
また、各実施形態では、カメラC,Cによって取り込んだ画像のブレを示す値が所定の値よりも大きくなると推定されるタイミングの情報として脚部R3の予定着地時期の情報を、移動計画情報に含むこととしたが、この所定の値を複数種類設定できるようにしておいてもよい。また、第1実施形態では、画像取込計画処理部11は、移動中におけるカメラC,Cのピッチ角の角速度の推定値を、カメラ姿勢事前測定値と予定着地時期の情報とから求め、求めた推定値が、カメラC,Cの振動を示す値が所定の値以下であるものとして予め定められた範囲内となる時期を画像取込時期として決定することとしたが、この所定の値を複数種類設定できるようにしておいてもよい。
また、第1実施形態では、画像取込計画処理部11は、予定着地時期に加えて、ロボットRの移動速度およびカメラC,Cの姿勢情報に基づいて画像取込時期を決定するものとして説明したが、本発明にとって移動速度やカメラC,Cの姿勢情報は必須ではない。
また、第1実施形態では、カメラC,Cの姿勢情報をピッチ角の角速度(回転角速度)の情報として説明したが、ヨー角やロール角の角速度(回転角速度)の情報を含んでもよい。
また、第2実施形態では、緩衝時期の候補は、テーブルとして移動速度に予め対応付けられているものとしたが、移動速度を引数とする所定の関数によりその都度計算により求めるようにしてもよい。
また、第2実施形態では、緩衝時期判別部18は、予定着地時期に加えて、ロボットRの移動速度に基づいて緩衝時期になったか否かを判別するものとして説明したが、本発明にとって移動速度は必須ではない。例えば、予定着地時期に加えて、路面状態に基づいて緩衝時期になったか否かを判別することも可能である。この場合、緩衝時期の候補は、テーブルとして路面状態に応じて予め対応付けられている。そして、ロボットRは、周辺状態検知部80により、床面を撮像した画像を解析して検出した路面状態に応じて緩衝時期を選択する。具体的には、通常の廊下よりも段差の多い床や弾性の強い床であれば、緩衝時期を長くすることが可能となる。
また、各実施形態では、ロボットRを脚式の2足歩行ロボットとして説明したが、これに限らず、1足または多足で移動する歩行型のロボットで構成してもよい。さらに、移動機構としては、脚部のみならず、脚部に相当する移動機構、例えば、車輪や無限軌道等であっても構わない。第1実施形態のロボットRの変形例として、例えば車輪型のロボットである場合について図9を参照(適宜図1、図3参照)して説明する。
図9は、本発明の第1実施形態に係るロボットの変形例の要部を模式的に示すブロック図である。なお、図3に示した構成と同じ構成には、同じ符号を付して説明を省略する。移動機構R31は、例えば、複数の車輪から構成され、自律移動制御部50により駆動される。すなわち、車輪型の移動型ロボットにおいて、自律移動制御部50と移動機構R31とにより、自律的移動手段が構成される。また、主制御部40の移動制御部42は、歩行型(脚式)の1歩を指示する代わりに、車輪回転速度を指示する。また、行動生成部41は、例えば、障害物通過モジュールを備えることができる。この障害物通過モジュールは、周辺状態検知部80(図1参照)によって、進行方向に例えば段差等の障害物が検知されたときに、段差を通過するために、現在時刻から段差に到達するまでの時間に関する情報(以下、段差通過時期という)を算出するものである。この算出された段差通過時期は、カメラC,Cによって取り込んだ画像のブレを示す値が所定の値よりも大きくなると推定されるタイミングの情報として、画像制御処理部10に通知される。
移動計画情報通知部43Bは、図3に示した予定着地時期通知部43aを含んでいない。代わりに、移動計画情報通知部43Bは、段差通過時期通知部43dを含んでいる。段差通過時期通知部43dは、行動生成部41が備える障害物通過モジュールによって算出された段差通過時期を、移動制御部42を介して取得し、画像制御処理部10に通知するものである。これにより、画像制御処理部10の画像取込計画処理部11は、予定着地時期の代わりに、段差通過時期に基づいて、カメラC,Cによって画像を取り込む時期を示す画像取込時期を決定する。なお、画像取込計画処理部11は、段差通過時期に加えて、ロボットRの移動速度およびカメラC,Cの姿勢情報に基づいて画像取込時期を決定することができる。
この第1実施形態の変形例によれば、車輪型のロボットは、移動計画情報通知部43Bによって、段差通過時期の情報を画像制御処理部10に通知し、画像制御処理部10によって段差通過時期に基づいて決定された画像取込時期にカメラC,Cから画像を取り込む。したがって、段差を通過する前後のタイミングを画像取込時期とすることにより、取り込んだ画像のブレを示す値が所定の値以下になると推定される画像を処理することができる。したがって、車輪型のロボットは、移動中の画像処理結果から画像のブレの影響を低減することができると共に、画像を処理するサンプリング回数を容易に増加させることができる。
本発明の第1および第2実施形態に係るロボットの構成を模式的に示すブロック図である。 本発明の第1および第2実施形態に係るロボットの外観を模式的に示す図である。 本発明の第1実施形態に係るロボットの要部を模式的に示すブロック図である。 頭部のピッチ角の角速度の時間変化の一例を示す図である。 画像補正前後の撮影画像の一例を示す図である。 図3に示した画像制御処理部の動作を示すフローチャートである。 本発明の第2実施形態に係るロボットの要部を模式的に示すブロック図である。 図7に示した画像制御処理部の動作を示すフローチャートである。 本発明の第1実施形態に係るロボットの変形例の要部を模式的に示すブロック図である。
符号の説明
R ロボット(移動型ロボット)
R1 頭部
R2 腕部
R3 脚部
R31 移動機構
R4 胴部
R5 背面格納部
1 ロボット制御装置
10(10A) 画像制御処理部
11 画像取込計画処理部
12 取込時期判別部
13 取込トリガ生成部
14 画像補正処理部(画像処理部)
15 ステレオ画像処理部(画像処理部)
16 画像認識処理部(画像処理部)
17 予定着地時期取得部
18 緩衝時期判別部
20 音声処理部
30 記憶部
40 主制御部
41 行動生成部
42 移動制御部
43(43A,43B) 移動計画情報通知部
43a 予定着地時期通知部
43b 速度相関通知部
43c 姿勢測定値通知部
43d 段差通過時期通知部
50 自律移動制御部
60 無線通信部
70 対象検知部
80 周辺状態検知部
90 姿勢検知部
C(C0,C1) カメラ(視覚センサ)

Claims (6)

  1. 外界の画像を取り込む視覚センサと、前記視覚センサによって取り込んだ画像を処理する画像制御処理部と、自律的に移動する機能を有する自律的移動手段と、前記視覚センサによって取り込んだ画像のブレを示す値が所定の値よりも大きくなると推定されるタイミングの情報を含む移動計画情報を記憶する記憶部と、前記移動計画情報に基づいて当該移動型ロボットの移動を制御する指令を前記自律的移動手段に出力する移動制御部とを有した移動型ロボットにおいて、
    前記移動計画情報を前記画像制御処理部に通知する移動計画情報通知部を備え、
    前記自律的移動手段は、脚部と、前記脚部を駆動する自律移動制御部とを有し、
    前記移動計画情報に含まれるタイミングの情報は、
    前記脚部の予定着地時期の情報と、
    前記予定着地時期の情報に予め対応付けられた画像のブレを示す値が所定の値以下である時刻と当該ロボットの移動速度との相関関係と、を含み、
    前記移動計画情報通知部は、
    前記脚部の予定着地時期の情報を前記画像制御処理部に通知する予定着地時期通知部と、
    前記相関関係を前記画像制御処理部に通知する速度相関通知部と、を備え、
    前記画像制御処理部は、
    前記予定着地時期の情報と前記相関関係とを取得すると共に、当該ロボットの移動中にその移動速度を取得し、前記取得した移動速度に応じて前記相関関係を用いて、前記取得した予定着地時期の情報から、前記画像のブレを示す値が所定の値以下である時刻にて、前記視覚センサによって取り込んだ画像を処理することを特徴とする移動型ロボット。
  2. 前記画像制御処理部は、
    前記予定着地時期に基づいて、前記視覚センサによって画像を取り込む時期を示す画像取込時期を決定する画像取込計画処理部と、
    前記画像取込時期になったか否かを判別する画像取込時期判別部と、
    前記画像取込時期になったときに取込トリガを生成して前記視覚センサに出力する取込トリガ生成部と、
    前記画像取込時期に取り込んだ画像を処理する画像処理部とを備えることを特徴とする請求項に記載の移動型ロボット。
  3. 前記移動計画情報は、当該移動型ロボットの移動中における前記視覚センサの姿勢を示す姿勢情報として事前に測定された測定値を含み、
    前記移動計画情報通知部は、前記定値を前記画像制御処理部に通知する姿勢測定値通知部をさらに備え、
    前記画像制御処理部は、前記予定着地時期の情報と前記測定値とを取得すると共に、前記取得した測定値と予定着地時期の情報とから推定される移動中における前記視覚センサの姿勢の推定値を求め、前記推定値が、前記視覚センサの振動を示す値が所定の値以下であるものとして予め定められた範囲内となる時期にて、前記視覚センサによって取り込んだ画像を処理することを特徴とする請求項または請求項に記載の移動型ロボット。
  4. 外界の画像を取り込む視覚センサと、前記視覚センサによって取り込んだ画像を処理する画像制御処理部と、自律的に移動する機能を有する自律的移動手段と、前記視覚センサによって取り込んだ画像のブレを示す値が所定の値よりも大きくなると推定されるタイミングの情報を含む移動計画情報を記憶する記憶部と、前記移動計画情報に基づいて当該移動型ロボットの移動を制御する指令を前記自律的移動手段に出力する移動制御部とを有した移動型ロボットにおいて、
    前記移動計画情報を前記画像制御処理部に通知する移動計画情報通知部を備え、
    前記自律的移動手段は、脚部と、前記脚部を駆動する自律移動制御部とを有し、
    前記移動計画情報に含まれるタイミングの情報は、前記脚部の予定着地時期の情報であり、
    前記移動計画情報は、当該移動型ロボットの移動中における前記視覚センサの姿勢を示す姿勢情報として事前に測定された測定値を含み、
    前記移動計画情報通知部は、
    前記脚部の予定着地時期の情報を前記画像制御処理部に通知する予定着地時期通知部と、
    前記測定値を前記画像制御処理部に通知する姿勢測定値通知部と、を備え、
    前記画像制御処理部は、前記脚部の予定着地時期の情報に基づいて前記脚部の先端が着地する前後の、前記視覚センサによって取り込んだ画像のブレを示す値が所定の値以下になると推定されるタイミングにて、前記視覚センサによって取り込んだ画像を処理し、
    前記画像制御処理部は、
    前記予定着地時期に基づいて、前記視覚センサによって画像を取り込む時期を示す画像取込時期を決定する画像取込計画処理部と、
    前記画像取込時期になったか否かを判別する画像取込時期判別部と、
    前記画像取込時期になったときに取込トリガを生成して前記視覚センサに出力する取込トリガ生成部と、
    前記画像取込時期に取り込んだ画像を処理する画像処理部とを備え、
    前記画像取込計画処理部は、前記予定着地時期の情報と前記測定値とを取得すると共に、前記取得した測定値と予定着地時期の情報とから推定される移動中における前記視覚センサの姿勢の推定値を求め、前記推定値が、前記視覚センサの振動を示す値が所定の値以下であるものとして予め定められた範囲内となる時期を前記画像取込時期として決定することを特徴とする移動型ロボット。
  5. 外界の画像を取り込む視覚センサと、前記視覚センサによって取り込んだ画像を処理する画像制御処理部と、自律的に移動する機能を有する自律的移動手段と、前記視覚センサによって取り込んだ画像のブレを示す値が所定の値よりも大きくなると推定されるタイミングの情報を含む移動計画情報を記憶する記憶部と、前記移動計画情報に基づいて当該移動型ロボットの移動を制御する指令を前記自律的移動手段に出力する移動制御部とを有した移動型ロボットにおいて、
    前記移動計画情報を前記画像制御処理部に通知する移動計画情報通知部を備え、
    前記自律的移動手段は、脚部と、前記脚部を駆動する自律移動制御部とを有し、
    前記移動計画情報に含まれるタイミングの情報は、前記脚部の予定着地時期の情報であり、
    前記移動計画情報通知部は、前記脚部の予定着地時期の情報を前記画像制御処理部に通知する予定着地時期通知部を備え、
    前記画像制御処理部は、前記脚部の予定着地時期の情報に基づいて前記脚部の先端が着地する前後の、前記視覚センサによって取り込んだ画像のブレを示す値が所定の値以下になると推定されるタイミングにて、前記視覚センサによって取り込んだ画像を処理し、
    前記画像制御処理部は、
    前記脚部の先端が着地する瞬間を起点にして画像のブレを示す値が所定の値よりも大きくなると推定される予め定められた時間範囲を示す緩衝時期になったか否かを判別する緩衝時期判別部と、
    前記視覚センサによって周期的に取り込んだ画像のうち前記緩衝時期以外の時期に取り込んだ画像を処理する画像処理部とを備えることを特徴とする移動型ロボット。
  6. 前記緩衝時期判別部は、当該ロボットの移動中にその移動速度を取得し、当該ロボットの移動速度が速いほど短くなるように定められた複数の前記緩衝時期の候補の中から、前記取得した移動速度に応じた緩衝時期を選択し、前記選択された緩衝時期になったか否かを判別した結果を前記画像処理部に出力することを特徴とする請求項に記載の移動型ロボット。
JP2008138942A 2008-05-28 2008-05-28 移動型ロボット Active JP5171394B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008138942A JP5171394B2 (ja) 2008-05-28 2008-05-28 移動型ロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008138942A JP5171394B2 (ja) 2008-05-28 2008-05-28 移動型ロボット

Publications (2)

Publication Number Publication Date
JP2009285752A JP2009285752A (ja) 2009-12-10
JP5171394B2 true JP5171394B2 (ja) 2013-03-27

Family

ID=41455486

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008138942A Active JP5171394B2 (ja) 2008-05-28 2008-05-28 移動型ロボット

Country Status (1)

Country Link
JP (1) JP5171394B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6228884B2 (ja) * 2014-04-01 2017-11-08 富士ソフト株式会社 ロボット用動作計画作成システムおよび作成方法
US11560192B2 (en) * 2020-04-24 2023-01-24 Ubtech Robotics Corp Ltd Stair climbing gait planning method and apparatus and robot using the same
CN113766121B (zh) * 2021-08-10 2023-08-08 国网河北省电力有限公司保定供电分公司 基于四足机器人的保持图像稳定的装置和方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07160883A (ja) * 1993-12-09 1995-06-23 Nippon Telegr & Teleph Corp <Ntt> 人物属性検出装置
JP4558968B2 (ja) * 2001-03-06 2010-10-06 株式会社日立ハイテクインスツルメンツ 電子部品装着装置
JP4182870B2 (ja) * 2003-12-03 2008-11-19 日本ビクター株式会社 移動ロボット

Also Published As

Publication number Publication date
JP2009285752A (ja) 2009-12-10

Similar Documents

Publication Publication Date Title
JP4262196B2 (ja) 自律移動ロボット
US20090148034A1 (en) Mobile robot
JP2004299025A (ja) 移動ロボット制御装置、移動ロボット制御方法及び移動ロボット制御プログラム
WO2019128070A1 (zh) 目标跟踪方法及装置、移动设备及存储介质
KR100840427B1 (ko) 각식 이동 로봇의 제어장치
JP4815208B2 (ja) 人間追跡装置及び方法、その方法を行うためのプログラムが記録された記録媒体とその装置を備えた移動型電子機器
US8873831B2 (en) Walking robot and simultaneous localization and mapping method thereof
US7873448B2 (en) Robot navigation system avoiding obstacles and setting areas as movable according to circular distance from points on surface of obstacles
US8010231B2 (en) Communication robot
JP2008090575A (ja) 移動ロボット
Oßwald et al. Autonomous climbing of spiral staircases with humanoids
WO2016031105A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2006192563A (ja) 識別対象識別装置およびそれを備えたロボット
Doisy et al. Adaptive person-following algorithm based on depth images and mapping
KR20130073476A (ko) 이동 장치 및 이동 장치의 위치 인식 방법
KR20130049610A (ko) 이동 기기 및 보행 로봇
JP2007199965A (ja) 自律移動装置
JP2004230480A (ja) ロボット装置およびロボット制御方法、記録媒体、並びにプログラム
JP5171394B2 (ja) 移動型ロボット
JP2016057720A (ja) 移動体制御装置及び移動体
JP2009174898A (ja) 移動体および環境情報作成方法
JP2018513496A (ja) 足接地位置追随装置、その動きを制御する方法、コンピュータ実行可能なプログラム、及びそれを格納したコンピュータ読取可能な非一時的な情報記録媒体
JP2009178782A (ja) 移動体、環境地図生成装置、及び環境地図生成方法
US11926038B2 (en) Information processing apparatus and information processing method
JP2010009371A (ja) 移動ロボットおよび移動ロボット制御システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110801

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120508

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121225

R150 Certificate of patent or registration of utility model

Ref document number: 5171394

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150