JP2009255264A - 自律動作型ロボット - Google Patents

自律動作型ロボット Download PDF

Info

Publication number
JP2009255264A
JP2009255264A JP2008110191A JP2008110191A JP2009255264A JP 2009255264 A JP2009255264 A JP 2009255264A JP 2008110191 A JP2008110191 A JP 2008110191A JP 2008110191 A JP2008110191 A JP 2008110191A JP 2009255264 A JP2009255264 A JP 2009255264A
Authority
JP
Japan
Prior art keywords
unit
detection
robot
prediction data
detection signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008110191A
Other languages
English (en)
Inventor
Ryo Murakami
涼 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2008110191A priority Critical patent/JP2009255264A/ja
Publication of JP2009255264A publication Critical patent/JP2009255264A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】ロボットの一部である動作部を検出した場合に、検出した動作部を障害物と誤認せずに自律動作を継続可能にするような自律動作型ロボットを提供すること。
【解決手段】外部の環境を観察して得られた情報に基づき検出信号を出力するセンサ部と、所定動作を行う動作部と、決定した動作を動作部行わせる制御部を備えた自律動作型ロボットにおいて、制御部が、動作部の動作を決定するとともに、センサ部からの検出信号に基づき決定動作を変更する動作決定部と、予め動作部に所定動作を行わせ、駆動開始時刻および駆動終了時刻の間にセンサ部からの検出信号の変化に基づき検出予測データを作成する検出予測データ作成部を備えており、動作決定部において検出予測データ作成部により作成された検出予測データに基づきセンサ部から出力された検出信号を無効にするか否かを判断する判断部をさらに設けるようにした。
【選択図】図2

Description

本発明は、外部の環境を観察し、観察した結果に基づいて自律的な動作を行う自律動作型ロボットに関する。
近年、外部の環境を観察し、その環境に応じてその動作を自律的に変更するような自律動作型ロボットが開発されている。このような自律動作型ロボットは、例えば生産工場内などにおいて用いられ、規定された動作以外に、周囲の外部環境に応じた動作を行うことで所定の生産活動を行うことができる。
さらに、このようなロボットを、建物内部などの所定の移動領域内において、自律的な移動や自律的な動作を行わせるように構成することで、受付や案内といった作業を人間に代わって行わせることもできる。このようなロボットの一例として、特許文献1に記載のロボットシステムが知られている。このロボットシステムは、上下に駆動するアームを備えるとともに、走行ライン上に設けられた磁気テープを検知しつつ、走行(移動)を行う。そして、このようなロボットシステムにおいては、目的地に到着したことを検出すると、移動動作を停止し、アームを駆動させながら予め記憶した音声ガイドの内容を出力し、さらに、走行ライン上において障害物を検出すると、アームを含むロボット全体の動作を停止させるといった制御が行われている。
特許第3236163号公報
しかしながら、前述のようなロボットシステムは、ロボット本体に外部環境を観察させ、外部環境の状況に応じて自律的な動作を行わせているものの、駆動させる動作部(アームなど)を広く動作させることのない状況下での自律動作に限定されている。すなわち、アームなどのロボットの一部を大きく動作させると、アームなどの駆動する部分がセンサにより検出され、この駆動する部分を障害物として認識してしまうことになる。
例えば、このような自律動作型のロボットとしてヒューマノイド型のロボットを例に挙げると、手を挙げて左右に揺らす動作(いわゆる「バイバイ」を示す動作)を行う場合、動作対象となる手をセンサが検出すると、手を動作させる位置において障害物が存在すると誤認することとなる。そのため、手を左右に揺らす動作を停止したり、ロボットの自己位置を変更したりするという誤った動作を行うことになる。そのため、このような自律動作型のロボットにおいては、動作部の駆動範囲を限定して、障害物として検出されない範囲においてのみ、動作させなければならないという問題があった。
本発明は、このような問題を解決するためになされたものであり、自律動作型ロボットにおいて、ロボットの動作部を検出した場合に、検出した動作部を障害物と誤認せずに自律動作を継続可能にした自律動作型ロボットを提供することを目的とするものである。
本発明にかかる自律動作型ロボットは、外部の環境を観察し、観察して得られた情報に基づいて検出信号を出力するセンサ部と、所定の動作を行う動作部と、前記動作部の動作を決定し、決定した動作を行わせる制御部と、を備えるとともに、前記制御部が、動作部の動作を決定し、かつ、前記センサ部から出力された検出信号に基づいて、決定した動作を変更する動作決定部と、予め前記動作部に所定の動作を行わせ、駆動開始時刻から駆動終了時刻まで間にセンサ部から出力された検出信号の変化に基づいて、検出予測データを作成する検出予測データ作成部と、を備えており、前記動作決定部が、前記検出予測データ作成部により作成された検出予測データに基づいて、センサ部から出力された検出信号を無効にするか否かを判断する判断部を備えていることを特徴としている。
このように構成された自律動作型ロボットは、動作部を駆動させることによりセンサ部から出力された検出信号を考慮して予め検出予測データを作成し、この検出予測データに基づいて動作部の動作を決定することができる。詳細には、センサ部が動作部(ロボットの一部)を観察することで出力された検出信号を無効にして、動作部の動作を決定することが可能となる。したがって、ロボットの一部である動作部をセンサ部で検出しても、検出した動作部を障害物等として誤認することがなく、自律動作を継続することが可能となる。
なお、前述のような検出予測データを作成する場合は、ロボット周囲に動作するものがなく、かつ、照明などの変化も無いような、一定条件の環境下で動作部に所定の動作を行わせることが好ましい。そのような、動作部の動作以外に外部の環境が変化しない状況において、センサ部から出力された検出信号を利用することで、センサ部において動作部の動作のみを正確に検出することが可能となる。
なお、前記動作決定部が、前記動作部の動作を時系列的に指令する指令値データから構成される動作指令信号を作成する動作指令信号作成部をさらに備えていてもよい。このように、動作部の動作を時系列的に作成された指令値データにより制御することで、動作部の動作を時間ごとに正確に制御することが可能となる。
また、前述のように動作指令信号を構成した場合、前記検出予測データを、時系列的に連続した指示データから構成し、この指示データと、前記動作指令信号を構成する指令値データとが、同一の時間軸で作成されていると、より好適である。このようにすると、動作部の動作を時系列的に決定する動作指令信号と、前述の検出予測データにより検出信号を無効にする旨を指示する指示データとの時間軸が一致するため、動作部の動作を検出する時刻が正確に把握できる。
また、前記検出予測データ作成部は、予め前記動作部に所定の動作を行わせた際に時系列的に出力された検出信号のうち、所定の閾値以下の検出信号が得られた隣り合う2つの時刻を特定し、これらの時刻の間に所定の閾値以上の検出信号が得られた場合に、前記2つの時刻の間を検出期間と、検出予測期間以外の期間を未検出期間として、これらの期間に対応した指示データを作成し、作成した指示データを検出予測データとするものであってもよい。このようにすると、予め動作部に所定の動作を行わせて時系列的に検出信号を出力させる際に、検出信号の出力周期を比較的大きくすることができるため、検出予測データを作成するために必要な作業を短縮することができる。なお、ここでいう「隣り合う2つの時刻」とは、閾値以下の検出信号が得られた第1の時刻と、その時刻の次に閾値以下の検出信号が得られた第2の時刻を指すものとする。
なお、外部の環境を観察するセンサ部としては、CCDカメラなどの光学的に外部を観察する光学的検出手段、超音波を出力することにより外部の物体を認識し、その物体とロボットとの相対的な位置関係を検出する超音波検出手段、レーザを出力することにより外部の物体を認識し、ロボットと外部の物体との相対的な位置関係を検出するレーザ検出手段、のうち、少なくとも1つを含むように構成することが好ましい。このようなセンサ部により、動作部を確実に検出することが可能になるとともに、また、これらのセンサ部を用いて外部の環境を観察することで、ロボットを制御するために必要な他の情報も得ることが可能となる。なお、このようなセンサは、同じ方向における外部の環境を認識するものであってもよいが、ロボットの周囲についてできるだけ広範囲に物体を認識するように、数および配置が定められることが好ましい。
また、このようなロボットは、一箇所に固定されるものであってもよいが、移動領域内を移動可能な移動手段をさらに備えていてもよい。このように、移動手段を備えることによって、室内などを移動しつつ案内する案内ロボットや、工場で荷物運びなどの作業を行う作業ロボットなどに本技術を適用することが可能となる。このような移動手段の例としては、例えば脚式歩行により移動を行うための脚部や、回転駆動により移動を行う車輪などが用いられる。また、このような移動手段を備えている場合は、自己位置を認識する必要があるが、このような自己位置認識は、自律的に行ってもよく、また、外部に設けられたGPSなどの位置情報発信手段からロボットに対して位置情報を送信することにより行ってもよい。
以上、説明したように、本発明によると、自身の動作部を検出した場合に、検出した動作部を障害物と誤認せずに自律動作を継続させることが可能とした自律動作型ロボットを提供することができる。
発明の実施の形態1.
以下に、図1から図7を参照しつつ本発明の実施の形態1にかかる自律動作型ロボットについて説明する。この実施の形態においては、自律動作型ロボットはヒューマノイドタイプであり、人間の目に相当する位置に設けられたカメラによる画像認識機能と、人間の胸部に相当する位置に設けられた超音波センサによる物体認識機能と、人間の腹部に相当する位置に設けられたレーザスキャナによる物体認識機能と、を備えている。以下、詳細に説明する。
図1に示すように、自律動作型ロボット(以下、単にロボットという)1は、ヒューマノイド型に構成されており、頭部10、胴体部20、右腕部31、左腕部32、腰部40および右脚部51、左脚部52を備えている。
頭部10は、人間でいう目に相当する位置に、カメラ11、12を備えるとともに、その側面(人間でいう耳に相当する位置)に音声認識するための受信部13、14を備え、さらに正面下方(人間でいう口に相当する位置)に音声出力をするための音声出力部15を備えている。また、頭部10の頂上付近には、外部からロボット1に向けて送信された信号を受信するためのアンテナ16が設けられている。
カメラ11、12は、ロボット1の外部の環境を光学的に観察する光学的検出手段であり、撮像した対象物の光学的なデータをディジタル化された検出信号として出力する。出力された検出信号は、後述する図示しない制御部において受信され、この制御部においては、受信した検出信号に基づいて、認識した物体と、ロボットの頭部10との相対位置(距離および方向)の関係が三角測量の手法などにより算出される。
受信部13、14は、外部からロボット1に向けて発せられた、人間からの発話などの音声を取得可能な、いわゆる指向性を有するマイクロフォンを水平方向に複数配置したものであり、受信した音声をディジタル化された音声データとして出力する。出力された音声データは、後述する制御部内において所定のフィルタリング処理が行われた後に解析され、その内容が認識される。
音声出力部15は、制御部などで適宜作成または選択された音声データを外部の所定の方向に向けて出力する。この音声出力部から音声データを出力することにより、外部の人間との会話を行ったり、指示を出したりすることが可能となる。なお、この音声出力部にマイクロフォンなどを組み込むことで、例えば音声を出力する対象の人間の位置に基づいて、出力する音声の大きさを調節することが可能となる。
アンテナ16は、外部に設けられた設備から、ロボット1に向けて発信された情報を受信するものであり、ロボット1の位置情報やロボット周囲に存在する人間の数などの情報を適宜受信することができる。
また、頭部10は、胴体部20に対して水平な面内で左右方向に回動可能に接続されており、頭部10を回動することで観察する範囲を状況に応じて変更することができる。この頭部10を回動させる動作を、カメラ11,12により撮像した対象(例えば、外部に存在する人間の顔)に対して常に頭部10の正面を向けるように、頭部10を回動させることができる。
胴体部20は、その内部に頭部10や各腕部、脚部などを駆動するためのモータ(図示せず)およびこれらのモータ等に電力を供給するためのバッテリー(図示せず)などが収容されるほか、腕部や脚部の駆動を制御するための制御部としての制御コンピュータ200(図示せず)が内蔵されている。この制御コンピュータ200については、詳細な説明を後述するものとする。
また、胴体部20の前面には、人間でいう胸部に対応する位置において、所定の方向に超音波を発し、反射した超音波を受信して周囲に存在する物体とロボット1との相対的な位置関係を認識するための超音波センサ21と、同じくでいう腹部に相当する位置において、レーザ光を前方に照射し、反射したレーザ光を受信して周囲に存在する物体とロボット1との相対的な位置関係を認識するためのレーザスキャナ22とが設けられている。なお、これらの超音波センサ21およびレーザスキャナ22は、受信した超音波またはレーザ光に基づいてディジタル化された信号を作成し、作成した信号を前述の制御コンピュータに送信する。このように、本実施形態においては、前述のカメラ11,12および超音波センサ21、レーザスキャナ22が、本発明におけるセンサ部として作用する。
右腕部31および左腕部32は、制御部コンピュータ200に含まれる演算処理部(図示せず)によって、所定の制御プログラムに従って各腕部に含まれる関節部が駆動する量が制御され、各関節の関節駆動角度が決定されることで、所望の位置および姿勢をとることができる。なお、本実施形態においては、右腕部31および左腕部32が、前述のカメラ11,12や超音波センサ21、レーザスキャナ22により認識される範囲において駆動する動作部として作用する。
腰部40は、胴体部20の下方に設けられ、胴体部20に対して水平面上に回動可能に接続されるとともに、右脚部51、左脚部52の上端が接続される。この腰部の回動は、このロボット1が歩行により移動を行う際に、歩行動作を円滑に行うために、脚部の動作に対応して行われる。
右脚部51および左脚部52は、詳細な構造については説明を省略するが、人間の脚部と同様に、各々複数の関節軸を備え、これらの関節を駆動することにより、歩行動作によりロボット1の移動動作を可能とするものであり、本実施形態においては、これらの脚部は移動手段に対応する。そして、制御コンピュータ200に予め記憶された歩容データおよび適宜作成された移動経路にしたがって歩行動作を行う。なお、ロボット1が移動を行う際に、移動する方向に障害物等などが存在していると、移動経路を適宜修正し、その進行方向を変更することで、障害物を回避した移動を行うことができる。
次に、制御部としての制御コンピュータ200について、詳細に説明する。図2に示すように、制御コンピュータ200は、各腕部や脚部などの駆動する各構成の動作を決定する動作決定部210と、制センサ部としてのカメラ、超音波センサ、レーザスキャナから出力される検出信号を予測するための検出予測データを作成する検出予測データ作成部220と、を備えている。なお、動作決定部210は、前述のように、右腕部および左腕部のみならず、脚部や頭部といった各構成の動作をも決定するものであり、ここでは説明を簡略化するため、右腕部および左腕部についての動作を決定している例を挙げて説明するものとする。
動作決定部210は、予め記憶された、センサ部としてのカメラ11および12、超音波センサ21、レーザスキャナ22から出力される検出信号を受信し、それらの検出した内容を把握するともに、動作部の動作を選択するための動作選択部211と、選択した動作に応じて、予め記憶された所定の動作を行わせるための複数種類の動作指令信号から、適切な動作指令信号を抽出する信号抽出部212と、抽出した動作指令信号を、動作部としての右腕部31、左腕部32を動作させるためのモータに送信する信号送信部213と、を備える。
動作選択部211は、カメラなどのセンサ部から出力された検出信号を受信し、受信した検出内容を把握する受信部211aを備えている。この受信部211aは、カメラ11および12や超音波センサ21などのセンサ部から受信した検出信号に対して、所定のフィルタ処理等を行った後、画像認識や物体認識を行い、ロボット1と検出された外部の物体との位置関係を把握する。
また、動作選択部211は、判断部211bを備えており、各センサ部から受信した検出信号を無効にするか否かを判断する機能を有している。この判断部は、後述する検出予測データ作成部220から送信される検出予測データに基づいて、センサ部から受信した検出信号を無効にするか否かを判断する。そして、受信部211aで認識された情報は、判断部211bにより無効にすると判断された検出信号を考慮しないように適宜修正される。
このように構成された動作選択部211は、検出信号により得られた情報により、例えば動作部としての腕部を動作させる経路上に障害物が存在すると認識した場合は、腕部の動作を停止させるような指令を動作選択部に与えることができる。
信号抽出部212は、図示しない記憶領域内に複数記憶された、動作部を動作させるための動作指令信号データ群から、動作選択部211より受信した指令に基づいて、適切な動作指令信号を抽出する。本実施形態においては、この信号抽出部212が動作指令信号作成部に相当する。なお、前述の動作指令信号は、腕部の各関節を駆動するモータの駆動量を時系列的に指令する指令値データにより構成される。なお、本実施形態においては、右腕部31、左腕部32は各々5個のモータにより駆動されるものとし、指令値データは微小時間(例えば8.0[msec])間隔で連続した値であるものとする。
信号送信部213は、信号抽出部213で抽出した動作指令信号を、動作部としての右腕部31、左腕部32を動作させる10個のモータに出力する。これらのモータの出力により、腕部の各関節が駆動し、決定された動作を実現することができる。
また、検出予測データ作成部220は、ロボットの動作を開始させる前に、右腕部および左腕部(動作部)に所定の動作を行わせた際に、信号送信部213から動作開始時刻および動作終了時刻を受信し、これらの時刻の間におけるセンサ部からの検出信号を受信し、受信した検出信号に基づいて検出予測データを作成する。作成された検出予測データは、各動作部の動作と関連付けて記憶される。
このように、検出予測データを作成する一例について、図3および図4を用いて説明する。なお、この例では、センサ部としてレーザスキャナ22が動作部(右腕部、左腕部)を検出するタイミングを予測する例を説明する。なお、検出予測データを作成する場合は、ロボット周囲に動作するものがなく、かつ、照明などの変化も無いような、一定条件の環境下で動作部に所定の動作を行わせる。すなわち、動作部としての腕部の動作以外に、ロボット1の外部の環境が変化しない状況において、センサ部から出力された検出信号を利用して、検出予測データを作成する。
図3は、ロボットがある所定の動作を開始した時刻をT、動作を終了した時刻をTとしたときに、センサ部(レーザスキャナ22)から出力された検出信号を受信した一例である。図3に示すように、動作部を動作させる期間(時刻Tから時刻T)は、前述した指令値データと同様に、微小時間(本実施形態では8.0[msec]の間隔で区切られている。
また、このような動作部の動作期間において、センサ部が検出信号を出力する周期は指令値データの出力周期とは異なり、かつ、検出信号を受信した時刻は時刻t,t,t,tであるものとする。さらに、図3に示すように、時刻tおよびtにおいては検出した検出信号の大きさ(受光したレーザの強度)が所定の閾値Rに満たず、時刻t,tにおいて検出した検出信号の大きさが所定の閾値を超えたものとする。
このとき、検出予測データ作成部220は、受信した検出信号から、図4に示すような指示データを作成し、作成したこれらの指示データを関連付けて一つのデータとして記憶することで、検出予測データを作成する。詳細には、動作部を動作させるための指令値データの時間間隔(8.0[msec])で区切られた時刻のうち、十分な検出信号が得られなかった時刻tより以前で、時刻tに最も近い時刻(図4でいう時刻T+16.0[msec])を検出開始時刻とし、十分な検出信号が得られなかった時刻tより以前で、時刻tに最も近い時刻(図4でいう時刻T+64.0[msec])を検出終了時刻とする。このように、検出予測データ作成部は、予め前記動作部に所定の動作を行わせた際に時系列的に出力された検出信号のうち、所定の閾値以上の検出信号が得られなかった、隣り合う2つの時刻(時刻tおよび時刻t)を特定した後、これらの時刻の間に所定の閾値以上の検出信号が得られた場合に、前記2つの時刻の間を検出期間とし、検出予測期間以外の期間を未検出期間とする。
そして、これらの検出期間および未検出期間に対応した指示データを作成する。ここでは、作成する指示データの具体的な例としては、検出期間における各時刻の指示データは0、未検出期間における各時刻の指示データは1としてもよい。また、このような指示データは、動作部の動作を制御するための動作指令信号を構成する指令値データと同一の時間軸で作成する。すなわち、図5に示すように、動作部の動作を制御するための動作指令信号を構成する指令値データと同一の時間軸、かつ同一の周期(8.0[msec])で、検出予測データの指示データが作成される。なお、図5に示す指令値データは、右腕部および左腕部にそれぞれ設けられた10個のモータの駆動を指令するためのデータであり、モータの回転数や駆動時間を指令することで、モータにより駆動する各関節の駆動量を決定する。
このようにすることで、動作部が所定の動作を行う際に、センサ部(レーザスキャナ22)で動作部を検出する時間帯(検出期間)が予測できるため、この予測された時間帯にセンサ部(レーザスキャナ22)から出力された検出信号を、判断部211bにおいて無効と判断することで、動作部を障害物として誤検出することがなくなる。具体的には、動作部が動作を開始すると同時に、動作部の制御周期に同期した検出予測データを判断部211bに送信する。判断部211bにおいては、センサ部において動作部が検出されると予測される時刻に受信した検出信号を無効にするように、その時刻に受信した検出信号の出力値に、検出予測データの指示データの値(=0)を乗じて、受信した検出信号を無効にする。なお、未検出期間においては、指示データの値が1であるため、検出信号の出力値に指示データを乗じてもその値が変化することがない。
なお、このように構成されたロボット1は、動作部の複数の動作について、前述の検出予測データを自動で作成することができる。以下に、検出予測データを自動的に作成するためのプログラムの流れを、図6に示すフローチャートを用いて説明する。なお、この例においては、動作部がN種類の動作を行うものとし、予めこれらの動作を連続して行うことで、これらの動作に対応する検出予測データを作成するものとする。
まず、N種類の動作の順番を定め、これらの動作のうちi番目(i=1,2,3,...N)、の動作を選択し(STEP101)、この動作を実行するための動作指令信号を抽出する(STEP102)。そして、この動作指令信号から、動作開始時刻と動作終了時刻を読み出し、記憶領域内に一時的に記憶する(STEP103)。
そして、現在の時刻が動作開始時刻であるか否かを判断したのち(STEP104)、動作開始時刻であると判断されると、動作部を動作させるモータへ動作指令信号を送信して動作を開始すると同時に、センサ部からの検出信号の受信を開始する(STEP105)。このとき、前述において説明したように、動作指令信号の周期とは関係なく、センサ部から出力される検出周期に合わせて検出信号を受信する。
次に、動作終了時刻であるか否かを判断し(STEP106)、動作終了時刻であると判断されると、センサ部からの検出信号の受信を終了し(STEP107)、受信した検出信号から、図4に示すような、動作指令信号の周期に併せた、検出予測データを作成する(STEP108)。
そして、次の動作(i+1番目の動作)が存在するか否かを判断し(STEP109)、存在する場合はi=i+1とした後に(STEP210)、STEP101に戻って次の動作についての検出予測データを作成する。STEP109において、次の動作が存在しないと判断されれば、検出予測データを作成するプログラムを終了する。
以上、このようなフローにより、ロボット1の有する動作部の動作について、予め検出予測データを自動的に作成することができる。
また、このようにして予め作成された検出予測データを、動作部を動作させる動作指令信号と併せて出力することで、ロボットの動作中におけるロボット自身を障害物として誤検出するのをなくすことができる。このような動作部の動作中に生じる誤検出を防ぐ処理の例として、以下、頭部の10のカメラ11,12(センサ部)で外部の人間の顔を撮像しつつ、撮像した顔に対して常に頭部の正面を向けるように頭部を回動するモータを駆動させる際に、動作部として、腕部(例えば右腕部31)を動作させる(例えば右腕を挙げて左右に回動させる「バイバイ」を示すような動作をする)場合を例に挙げて説明する。なお、図7は、このような処理の流れを簡潔に示すをフローチャートである。
まず、ロボット1においては、右腕部の動作を開始する前に、予め右腕部31の動作によりセンサ部としてのカメラ11、12が右腕部の動作時において右腕部を検出するタイミングを予測するための検出予測データ(および他の動作についての検出予測データ)が作成されており、所定の記憶領域に記憶されている。
この状態で、外部からの信号もしくは自律的な判断により右腕部31の動作(「バイバイ」を示す動作)が選択されると(STEP301)、この動作を行うための動作指令信号を出力する時刻を決定し(STEP302)、この動作指令信号に関連した検出予測データを読み出す(STEP303)。
そして、動作指令信号を出力する時刻であるか否かを判断し、信号を出力する時刻であれば、動作指令信号を右腕部31を駆動させるためのモータに出力すると同時に、動作選択部の判断部211bに検出予測データを出力する。これによって、判断部211bでは、動作部(右腕部31)の動作開始時刻から動作終了時刻を認識し、この検出期間におけるセンサ部(カメラ11,12)から出力された検出信号を無効にする。
そして、動作部としての右腕部31が動作すると、判断部211bは、無効にした検出信号以外の検出信号により、右腕部の動作範囲に他の物体が存在するか否かを判断する(STEP304)。このとき、右腕部の動作範囲に障害物が存在しなければ、右腕部の動作を終了させ(STEP305)、次の動作を行う必要があるか否かを判断し(STEP306)、必要があればSTEP301に戻って次の動作を選択する。
また、STEP304において、右腕部の動作範囲に障害物が存在すると判断されれば、動作選択部311において、右腕部の動作を中止または障害物から遠ざける方向へ右腕部を移動させるといった、回避行動を選択する(STEP314)。この回避行動の選択は、取り得る回避のうち、他の障害物の有無やロボットの移動可能な移動範囲などに基づいて最も適切なものが選択される。なお、ロボットが自律的に移動を行って障害物を回避する行動を行う際には、前述の音声出力部から外部の人間に対して、ロボットが移動を行う旨の警告を発するような音声出力を行ってもよい。
そして、回避行動を行った後(STEP315)、STEP306に進んで次の動作を行う必要があるか否かを判断し、次の動作を行う必要が無ければ所定の終了処理を行った後(STEP307)、動作を終了する。
以上、説明したように、本実施形態において説明したロボット1は 動作部としての右腕部31をセンサ部としてのカメラ11,12で検出した場合に、検出した動作部を障害物と誤認せずに自律動作を継続させることが可能となる。
なお、上述した実施形態は、本発明における一実施形態であり、本発明はこれに限られるものではない。例えば、前述の実施形態においては、センサ部としてのカメラから出力される検出信号が、動作部としての右腕部が動作している間(検出期間)は無効にされているため、この間は、他のセンサ部(例えば超音波センサなど)から出力された検出信号に基づいて、動作部(右腕部)付近の障害物の有無を検出するようにしてもよい。このように、複数のセンサ部を備えるロボットの場合、検出信号が無効にされたセンサ部と、検出信号が無効にされていないセンサ部とを組み合わせることで、外部の環境を認識するように制御すると、より正確に外部環境の情報を取得することができる。
また、センサ部において、出力された検出信号が無効であるか否かを外観で判別可能とするために、各センサ部の付近にLEDランプなどの表示部を設けておき、その表示を用いて出力する検出信号が無効であるか否かを視覚的に判別するようにしてもよい。このような視覚的な表示の例としては、例えば発光色を変化させたり、点滅する速度を変更したりするといったものが挙げられる。このようにすると、検出信号が無効にされているセンサ部により外部の環境を検出されているエリアについて、周囲の人間がより注意を払って行動することができる。例えば、本発明に係るロボットが、脚部や車輪部などの移動部を備え、自律的に移動するようなタイプである場合、前述のように外観でセンサ部が無効か否かを判別可能にしていると、より安全性が高まる。
また、前述の実施形態においては、動作部としては、ロボットの腕部や脚部などが挙げられているが、本発明はこれに限られるものではない。すなわち、ロボットの頭部や胴体部に加えて、例えば腕部の先端に設けられたハンド部に把持された物体を予めロボットの一部と認識させておくことで、動作部の一部とすることもできる。このような例としては、例えばハンド部に棒状部材を把持させておき、この棒状部材を移動させるような、指揮棒を用いて演奏指揮を行うロボットや、指示棒を用いてプレゼンテーションを行う説明ロボットなどが挙げられる。
また、このようなロボットが自律的に移動可能に構成されている場合、センサ部としてのカメラや超音波センサ、レーザスキャナなどを用いた自己位置推定を行う場合がある。この場合、動作部としてのロボットの一部分を障害物と誤認することにより、不要に移動経路を変更するなどの処理を行うことがなくなる。
また、前述のセンサ部の例として、カメラなどの光学的に外部を観察する光学的検出手段を用いる場合は、検出予測データを作成する場合において、ロボットの動作部が動作を開始する前に撮像した画像と、動作開始後に撮像した画像との変化を演算処理により求め、その変化が所定の値(閾値)を超えるか否かにより、検出期間であるか否かを判断するようにしてもよい。このような画像の変化を表す尺度としては、SAD(Sum of Absolute Difference)を用いることもできる。
また、前述のセンサ部として、レーザを出力することにより外部の物体との相対的な位置関係を検出するレーザ検出手段を用いた場合、このレーザ検出手段により周囲に存在する各物体の形状についての位置データを取得し、ロボットの動作部が動作を開始する前に取得したデータと、動作開始後に取得したデータとの変化を演算処理により求め、その変化が所定の値(閾値)を超えるか否かにより、検出期間であるか否かを判断するようにしてもよい。このような場合、取得した位置データを、画像データとみなして画像認識と同様のSADを尺度として用いた処理を行ってもよい。
第1の実施の形態に係る自律動作型ロボットの全体を概略的に示す全体図である。 図1に示す自律動作型ロボットに設けられた制御コンピュータの内部構成を概略的に示すブロック図である。 図1に示す自律動作型ロボットにおける動作部が、ある所定の動作を行った際に出力される検出信号の一例を示すグラフである。 図3に示す検出信号から作成した指示データの一例を示すグラフである。 同一の時間軸かつ同一の周期で作成された、動作指令信号を構成する指令値データおよび検出予測データを構成する指示データの一例である。 図1に示す自律動作型ロボットが、検出予測データを自動で作成する際のフローの一例を示すフローチャートである。 図1に示す自律動作型ロボットが、予め作成された検出予測データを動作指令信号と併せて出力し、ロボットの動作中における検出信号の処理を行う際のフローの一例を示すフローチャートである。
符号の説明
1・・・自律動作型ロボット
11,12・・・カメラ(センサ部)
21・・・超音波センサ(センサ部)
22・・・レーザスキャナ(センサ部)
31・・・右腕部(動作部)
32・・・左腕部(動作部)
51・・・右脚部(移動手段)
52・・・左脚部(移動手段)
200・・・制御コンピュータ(制御部)
210・・・動作決定部
211・・・動作選択部
211a・・・受信部
211b・・・判断部
212・・・信号抽出部(動作指令信号作成部)
213・・・信号送信部
220・・・検出予測データ作成部

Claims (6)

  1. 外部の環境を観察し、観察して得られた情報に基づいて検出信号を出力するセンサ部と、所定の動作を行う動作部と、前記動作部の動作を決定し、決定した動作を行わせる制御部と、を備えた自律動作型ロボットであって、
    前記制御部が、
    動作部の動作を決定するとともに、前記センサ部から出力された検出信号に基づいて、決定した動作を変更する動作決定部と、
    予め前記動作部に所定の動作を行わせ、駆動開始時刻から駆動終了時刻までの間にセンサ部から出力された検出信号の変化に基づいて、検出予測データを作成する検出予測データ作成部と、を備えており、
    前記動作決定部が、前記検出予測データ作成部により作成された検出予測データに基づいて、センサ部から出力された検出信号を無効にするか否かを判断する判断部を備えていることを特徴とする自律動作型ロボット。
  2. 前記動作決定部が、前記動作部の動作を時系列的に指令する指令値データから構成される動作指令信号を作成する動作指令信号作成部をさらに備えていることを特徴とする請求項1に記載の自律動作型ロボット。
  3. 前記検出予測データが、時系列的に連続した指示データから構成されており、該指示データと、前記動作指令信号を構成する指令値データとが、同一の時間軸で作成されていることを特徴とする請求項2に記載の自律動作型ロボット。
  4. 前記検出予測データ作成部が、予め前記動作部に所定の動作を行わせた際に時系列的に出力された検出信号のうち、所定の閾値以下の検出信号が得られた隣り合う2つの時刻を特定し、これらの時刻の間に所定の閾値以上の検出信号が得られた場合に、前記2つの時刻の間を検出期間と、検出予測期間以外の期間を未検出期間として、これらの期間に対応した指示データを作成し、作成した指示データを検出予測データとすることを特徴とする請求項3に記載の自律動作型ロボット。
  5. 前記センサ部として、光学的に外部を観察する光学的検出手段と、超超音波を出力することにより外部の物体を認識し、その物体とロボットとの相対的な位置関係を検出する超音波検出手段と、レーザを出力することにより外部の物体を認識し、ロボットと外部の物体との相対的な位置関係を検出するレーザ検出手段と、のうち、少なくとも1つを含むことを特徴とする請求項1から4のいずれかに記載の自律動作型ロボット。
  6. 移動領域内を移動可能な移動手段をさらに備えていることを特徴とする請求項1から5のいずれかに記載の自律動作型ロボット。
JP2008110191A 2008-04-21 2008-04-21 自律動作型ロボット Pending JP2009255264A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008110191A JP2009255264A (ja) 2008-04-21 2008-04-21 自律動作型ロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008110191A JP2009255264A (ja) 2008-04-21 2008-04-21 自律動作型ロボット

Publications (1)

Publication Number Publication Date
JP2009255264A true JP2009255264A (ja) 2009-11-05

Family

ID=41383355

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008110191A Pending JP2009255264A (ja) 2008-04-21 2008-04-21 自律動作型ロボット

Country Status (1)

Country Link
JP (1) JP2009255264A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019230037A1 (en) 2018-05-30 2019-12-05 Sony Corporation Control apparatus, control method, robot apparatus and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019230037A1 (en) 2018-05-30 2019-12-05 Sony Corporation Control apparatus, control method, robot apparatus and program
US11803189B2 (en) 2018-05-30 2023-10-31 Sony Corporation Control apparatus, control method, robot apparatus and program

Similar Documents

Publication Publication Date Title
KR101986919B1 (ko) 충돌 회피 및 궤도 복원 기능을 가진 휴머노이드 로봇
JP2008087140A (ja) 音声認識ロボットおよび音声認識ロボットの制御方法
JP2009222969A (ja) 音声認識ロボットおよび音声認識ロボットの制御方法
JP3906743B2 (ja) 案内ロボット
JP4849244B2 (ja) 移動ロボットおよび移動速度推定方法
CN107891425B (zh) 智能双臂安全协作人机共融型机器人系统的控制方法
US7873448B2 (en) Robot navigation system avoiding obstacles and setting areas as movable according to circular distance from points on surface of obstacles
US9662788B2 (en) Communication draw-in system, communication draw-in method, and communication draw-in program
JP2008126329A (ja) 音声認識ロボットおよび音声認識ロボットの制御方法
JP2009113190A (ja) 自律動作型ロボットおよび自律動作型ロボットの動作制御方法
CN102902271A (zh) 基于双目视觉的机器人目标识别与抓取系统及方法
JP2007118129A (ja) コミュニケーションロボットおよびそれを用いた注意制御システム
JP2024023193A (ja) 情報処理装置及び情報処理方法
JP5755011B2 (ja) ロボット群制御装置および方法
JP4940698B2 (ja) 自律移動型ロボット
JP2012139798A (ja) 移動ロボット、移動ロボット用の学習システムおよび移動ロボットの行動学習方法
JP2006272471A (ja) コミュニケーションロボット
JP4315872B2 (ja) 移動ロボットの制御装置
JP4798581B2 (ja) ロボットシステム
JP2006231447A (ja) 指示位置または特定物の確認方法及び座標獲得方法並びに装置
JP3017183B1 (ja) 移動体の自動追尾照明制御システム
JP2011000656A (ja) 案内ロボット
JP2009255264A (ja) 自律動作型ロボット
JP6142307B2 (ja) 注目対象推定システムならびにロボットおよび制御プログラム
JP5115886B2 (ja) 道案内ロボット