JP2004243504A - ロボット及び該ロボットに情報提供可能な作業対象物並びに対人サービスロボット - Google Patents

ロボット及び該ロボットに情報提供可能な作業対象物並びに対人サービスロボット Download PDF

Info

Publication number
JP2004243504A
JP2004243504A JP2003038814A JP2003038814A JP2004243504A JP 2004243504 A JP2004243504 A JP 2004243504A JP 2003038814 A JP2003038814 A JP 2003038814A JP 2003038814 A JP2003038814 A JP 2003038814A JP 2004243504 A JP2004243504 A JP 2004243504A
Authority
JP
Japan
Prior art keywords
point
robot
support information
unit
work
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003038814A
Other languages
English (en)
Inventor
Mitsunori Yoneda
光徳 米田
Yoshihiko Tokunaga
吉彦 徳永
Hirotatsu Shinomiya
弘達 篠宮
Fumiaki Obayashi
史明 大林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Electric Works Co Ltd
Original Assignee
Matsushita Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Works Ltd filed Critical Matsushita Electric Works Ltd
Priority to JP2003038814A priority Critical patent/JP2004243504A/ja
Publication of JP2004243504A publication Critical patent/JP2004243504A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

【課題】本発明は、ロボット及び該ロボットに情報提供可能な作業対象物並びに人間にサービス(役務)を提供することによって生活を支援する対人サービスロボットに関する。
【解決手段】本発明に係る対人サービスロボット1は、動作を実現する駆動部17と、作業空間に予め設定され移動目標の目印であるポイントに付与された、動作を支援するための情報である動作支援情報を記憶する動作支援情報記憶部32と、ポイントで動作を実行する場合に該ポイントの動作支援情報に基づいて駆動部17を制御する制御部11とを備える。
【選択図】 図1

Description

【0001】
【発明の属する技術分野】
本発明は、ロボット及び該ロボットに情報提供可能な作業対象物並びに人間にサービス(役務)を提供することによって生活を支援する対人サービスロボットに関する。
【0002】
【従来の技術】
ロボット(人造人間)は、人間によって一部始終操作されなくても、実行すべき作業を命令することで自律的に作業を実行することができる必要がある。このために、作業を行う作業空間の地図情報、作業対象物が置かれた載置台等の家具の存在の有無や配置位置の情報、動作対象物の存在の有無や配置位置の情報及び次の動作を実行する際にロボット自身がどのような姿勢にあるかの情報等の様々な情報が必要であり、そして、これら情報に基づいて移動経路の判断、作業が可能か否かの判断及び作業手順の判断等の様々な判断も必要である。ロボットは、これら情報を収集し、これら判断を行った後に初めて命令を実行することができる。
【0003】
従来のロボットにおいて、作業空間の地図情報、家具の存在の有無や配置位置の情報及び動作対象物の存在の有無や配置位置の情報は、画像処理又は高精度な対物位置検出によって収集されている。そして、個々の動作を実行するたびにロボット自身の姿勢の情報が収集されている。また、作業が可能か否かの判断や作業手順の判断は、家具や動作対象物の形状を画像処理で認識し、作業に関するスキルベースの知識に基づいて行われている。
【0004】
作業空間の地図情報の作成については、例えば、特許文献1に開示されている。特許文献1には、ロボットの走行距離を検出する走行距離検出手段と、走行方向を検出する方向角度検出手段と、障害物及び壁面までの距離を感知する障害物感知手段とを用いて、作業空間を複数のブロックに仕分けて各ブロックの位置、大きさ及び障害物の有無の情報を収集し、収集した情報に基づいて作業空間の地図情報を作成する技術について開示されている。
【0005】
【特許文献1】
特開平9−174471号公報
【0006】
【発明が解決しようとする課題】
ところで、従来のロボットは、作業空間の地図情報、家具の存在の有無や配置位置の情報及び動作対象物の存在の有無や配置位置の情報の収集を画像処理又は高精度な対物位置検出によって行ったり、個々の動作を実行するたびにロボット自身の姿勢の情報を収集したり、そして、作業が可能か否かの判断を画像処理で認識することによって行ったりしているため、高度な情報処理能力が必要であるという問題があった。そのため、ロボットが高価になるという問題があった。
【0007】
一方、急速に進む高齢化社会を背景に家事や看護のような人間に対してサービスを提供することによって生活を支援する対人サービスロボットが要望されており、対人サービスロボットを低価格で提供する必要がある。
【0008】
本発明は、このような上記事情に鑑みて為された発明であり、高度な情報処理能力を必要とすることなくサービスを提供する人間(主人)の命令を実行可能なロボット及び対人サービスロボットを提供することを目的とする。
【0009】
そして、本発明は、ロボットの情報処理の負担をさらに軽減するためにロボットが作業を行う上で必要な情報を提供することができる、ロボットの動作の対象となる作業対象物を提供することを目的とする。
【0010】
【課題を解決するための手段】
上述の目的を達成するために、本発明の請求項1に係るロボットは、動作を実現する駆動手段と、作業空間に予め設定され移動目標の目印であるポイントに付与された、動作を支援するための情報である動作支援情報を記憶する動作支援情報記憶手段と、ポイントで動作を実行する場合に該ポイントの動作支援情報に基づいて前記駆動手段を制御する制御手段とを備える。そして、本発明の請求項10に係る、人間にサービスを提供する対人サービスロボットは、動作を実現する駆動手段と、作業空間に予め設定され移動目標の目印であるポイントに付与された、動作を支援するための情報である動作支援情報を記憶する動作支援情報記憶手段と、ポイントで動作を実行する場合に該ポイントの動作支援情報に基づいて前記駆動手段を制御する制御手段とを備える。
【0011】
このような構成のロボット及び対人サービスロボットは、ポイントで動作を実行する場合に当該ポイントに付与された動作支援情報を基づいて駆動手段を制御することによって動作を実現する。このため、動作を実行する際に従来のような画像処理や高精度な対物位置検出による状況判断等が不要となるので、このような構成のロボット及び対人サービスロボットは、簡易な情報処理能力で自律動作を実現することができる。その結果、従来に較べて低価格でロボット及び対人サービスロボットを市場に供給することができる。
【0012】
そして、本発明の請求項2に係るロボットは、請求項1に記載のロボットにおいて、前記動作支援情報記憶手段は、ポイントのポイント名を登録するポイント名フィールドと、該ポイントにおいて次に動作することができる動作内容を示す次可能動作内容を登録する次可能動作内容フィールドとを対応付けた動作支援テーブルを前記動作支援情報として記憶する。
【0013】
このような構成のロボットは、動作支援情報をテーブル形式で記憶するので、ポイント名をキーに迅速に次可能動作内容を検索することができ、ロボットは、ポイントで素早く動作を実行することができる。
【0014】
また、本発明の請求項3に係るロボットは、請求項2に記載のロボットにおいて、前記次可能動作内容フィールドには、動作を実現するために満たすべき条件に関する情報である動作条件情報も登録され得る。
【0015】
このような構成のロボットは、動作条件情報も動作支援情報記憶手段に記憶されるので、この動作条件情報に基づいて動作が可能か否かの判断や動作手順の判断等を容易に行うことができる。
【0016】
さらに、本発明の請求項4に係るロボットは、請求項1乃至請求項3の何れか1項に記載のロボットにおいて、前記制御手段は、動作を終了するたびに所定の姿勢となるように前記駆動手段をさらに制御する。
【0017】
このような構成のロボットは、動作を終了するたびに所定の姿勢にするので、次の動作を開始する前に、ロボット自身がどのような姿勢であるのか判断する必要がない。そのため、姿勢を判断するための情報収集や解析を行う必要がなく、情報処理の負担が軽減される。
【0018】
そして、本発明の請求項5に係るロボットは、請求項1乃至請求項4の何れか1項に記載のロボットにおいて、外部と通信を行うための通信手段をさらに備え、前記制御手段は、前記通信手段を用いて、前記作業空間内における動作の対象となる作業対象物から前記動作支援情報を取得する。
【0019】
このような構成のロボットは、動作支援情報を作業空間内の作業対象物から取得するので、ポイントにおける全ての動作支援情報を動作支援情報記憶手段に記憶する必要がない。そのため、動作支援情報記憶手段の記憶容量をより少なくすることができ、ロボットのコストを下げることができる。さらに、このような構成のロボットは、動作支援情報を作業空間内の作業対象物から取得するので、動作が可能か否かの判断や動作手順の判断等を行うための情報を収集するセンサが不要となり、そして、このような判断を行う情報処理も不要となる。そのため、ロボットのコストを下げることができる。
【0020】
また、本発明の請求項6に係るロボットは、請求項1乃至請求項5の何れか1項に記載のロボットにおいて、データを入力する入力手段と、入力されたデータの内容を認識するために必要な言葉を登録した辞書を記憶する辞書記憶手段と、前記作業空間内における動作の対象となる第1作業対象物の配置位置を前記ポイントと対応付けて記憶する作業環境情報記憶手段と、前記入力手段によって入力されたデータから前記辞書を用いて前記データの内容を認識する対話処理手段と、前記対話処理手段によって前記データから動作の対象となる第2作業対象物と前記第1作業対象物とが関連付けられていると認識された場合に、前記第2作業対象物を前記第1作業対象物に対応付けて前記作業環境情報記憶手段にさらに記憶させる処理手段とをさらに備える。
【0021】
このような構成のロボットは、第2作業対象物の存在の有無や配置位置を対話によって容易に把握することができる。
【0022】
一方、本発明の請求項7に係るロボットの動作の対象となる該ロボットに情報提供可能な作業対象物は、外部と通信を行うための通信手段と、ロボットの動作を支援するための情報である動作支援情報を記憶する動作支援情報記憶手段と、前記ロボットから動作支援情報を要求された場合に前記通信手段を用いて前記ロボットに前記動作支援情報記憶手段に記憶する動作支援情報を送信する制御手段とを備える。
【0023】
このような構成の作業対象物は、通信手段、動作支援情報記憶手段及び制御手段を備えて知能化されており、ロボットに動作支援情報を提供することができる。そのため、ロボットは、ポイントにおける全ての動作支援情報を動作支援情報記憶手段に記憶する必要がないから、動作支援情報記憶手段の記憶容量をより少なくすることができ、ロボットのコストを下げることができる。
【0024】
そして、本発明の請求項8に係るロボットの動作の対象となる作業対象物は、請求項7に記載の作業対象物において、状態を検出する検出手段をさらに備え、前記制御手段は、前記検出手段で検出した状態に応じた動作支援情報を送信する。
【0025】
このような構成の作業対象物は、作業対象物の状態を検出することができるので、作業対象物は、状態に応じた動作支援情報をロボットに提供することができる。
【0026】
さらに、本発明の請求項9に係るロボットの動作の対象となる作業対象物は、請求項7又は請求項8に記載の作業対象物において、物体の有無を検出する対物検出手段をさらに備え、前記制御手段は、前記対物検出手段の出力に基づいて所定の距離以内に物体がある場合には、前記動作支援情報記憶手段に記憶する動作支援情報を送信する。
【0027】
このような構成の作業対象物は、対物検出手段を備えるので近づく物体を検出することができ、所定の距離以内に近づいた場合に動作支援情報を送信することができる。このため、ロボットの移動における位置精度が低精度でも、ロボットは、動作支援情報を作業対象物から取得することができる。
【0028】
【発明の実施の形態】
以下、本発明に係る実施形態を図面に基づいて説明する。なお、各図において同一の構成については、同一の符号を付し、その説明を省略する。まず、本実施形態の構成について説明する。
(第1の実施形態の構成)
図1は、第1の実施形態における対人サービスロボットの構成を示す図である。図2は、第1の実施形態における作業空間を示す平面図である。図3は、第1の実施形態における作業環境テーブルの構成を示す図である。図4は、第1の実施形態における動作支援テーブルの構成を示す図である。
【0029】
図1において、第1の実施形態における対人サービスロボット1は、制御部11、記憶部12、音声認識部13、音声生成部14、音声入力部15、音声出力部16及び駆動部17を備えて構成される。
【0030】
音声入力部15は、主人の音声や周囲の音が入力され、この音を電気信号の音声信号に変換する回路であり、例えば、マイクロフォン等を備えて構成される。音声認識部13は、音声入力部15から入力された音声信号を周知の技術により認識してテキストデータに変換する回路である。このテキストデータは、制御部11に出力される。
【0031】
音声生成部14は、制御部11からの出力に応じて音声信号を生成して音声出力部16に出力する回路である。音声出力部16は、例えばスピーカ等の電気信号を音に変換する回路であり、音声生成部14からの音声信号に従って音声を発生させる。
【0032】
記憶部12は、対人サービスロボット1の動作に必要な各種プログラム、プログラム実行中に必要なデータ、及び、プログラム実行中に生じたデータを記憶する記憶回路であり、作業環境情報記憶部31、動作支援情報記憶部32、動作ライブラリ記憶部33、辞書記憶部34、動作計画記憶部35及び現在位置記憶部36を備える。記憶部12は、例えば、不揮発性メモリであるROM、書換え可能な不揮発性メモリであるEEPROM、ハードディスク及び揮発性メモリであるRAM等を備えて構成される。なお、これらプログラムやデータは、ハードディスク等のデータを記憶する補助記憶装置(不図示)から読み込まれ、補助記憶装置にプログラムやデータが格納されていない場合には、プログラムやデータを記憶した記憶媒体から外部記憶装置(不図示)を介してインストールされる。記憶媒体は、例えば、フレキシブルディスク、CD−ROM、CD−R及びDVD−R等であり、外部記憶装置は、例えば、フレキシブルディスクドライブ、CD−ROMドライブ、CD−Rドライブ及びDVD−Rドライブ等である。
【0033】
作業環境記憶部31は、作業を行う作業空間内を対人サービスロボット1が移動する場合に必要となる作業環境に関する情報(作業環境情報)を記憶する記憶部である。作業空間内には、例えば、対人サービスロボット1が作業空間内を移動する場合に障害となる障害物(例えば柱等)や対人サービスロボットが動作を行う場合にそれ自体対象となったり直接対象となる物(例えば、ゴミ、荷物、食事等)と関係することによって間接的に対象となったりする作業対象物(例えば、ゴミ箱、台及びテーブル等の家具、ペットの餌入れ、建具及びダストシュート等の住戸内設備等)がある。このように家具には、一般的な意味の家具のほかに直接の作業対象物が置かれる作業台等の載置台も含まれる。対人サービスロボット1は、障害物を避け、作業対象物の所に行って作業を行う必要がある。従来のロボットは、移動動作中に移動経路上における障害物を画像処理によって判断したり、作業対象物との距離をセンサで検出しながら近づいたりする等が必要であったため、高度な情報処理能力を備える必要があった。本発明は、障害物を避けられる位置や作業対象物の所で作業を行う際に適した位置等に移動目標となる目印であるポイントを設定するので、従来必要であった情報処理を簡略することができる点に一特徴がある。
【0034】
例えば、図2に示す、複数の柱101(101−1〜101−9)、ゴミ箱111、台112、テーブル113及びダストシュート114がある作業空間10において、ポイント5(5−1〜5−8)は、対人サービスロボット1が移動する際に障害物となる柱101、ゴミ箱111、台112及びテーブル113を避けられるように設定され、そして、ゴミ箱111、台112、テーブル113及びダストシュート114で適切に作業することができるように設定される。
【0035】
そして、本実施形態の対人サービスロボット1は、例えば、各ポイント5を識別するポイント名と、ポイント5の位置の座標値であるポイント座標値と、作業対象物を示す作業対象物名とを相互に対応付けた作業環境テーブルを作業環境情報として作業環境記憶部31に記憶する。本実施形態の作業環境テーブル310は、図3に示すように、ポイント名を登録するポイント名フィールド311、ポイント座標値を登録するポイント座標値フィールド312及び作業対象物名を登録する作業対象物名フィールド313の各フィールドを備え、ポイント5ごとにレコードが作成される。座標値は、例えば、作業空間平面と同一平面の或る一点を座標原点とするXY座標系の値である。XY座標系のX方向及びY方向は、本実施形態のように作業空間10が平面で矩形の場合には、作業空間10の壁方向と平行となるようにそれぞれ設定すると、各ポイント5の座標値が容易に得らることができる。
【0036】
例えば、図2に示す作業空間10の場合では、作業環境テーブル310は、図3に示すように、ポイント5の数に応じて複数のレコードが作成される。そして、作業環境テーブル310において、第1ポイント5−1のレコードでは、ポイント名フィールド311に「第1ポイント」が、ポイント座標値フィールド312に「x、y」が、作業対象物名フィールド313に「−」がそれぞれ登録される。なお、作業対象物名フィールド313における符号「−」は、当該ポイント5−1には作業対象物がないことを示す符号の一例であり、「*」や「Non」等他の符号を用いてもよい。第2ポイント5−2のレコードでは、ポイント名フィールド311に「第2ポイント」が、ポイント座標値フィールド312に「x、y」が、作業対象物名フィールド313に「−」がそれぞれ登録される。第3ポイント5−3のレコードでは、ポイント名フィールド311に「第3ポイント」が、ポイント座標値フィールド312に「x、y」が、作業対象物名フィールド313に「ゴミ箱」がそれぞれ登録される。第4ポイント5−4のレコードでは、ポイント名フィールド311に「第4ポイント」が、ポイント座標値フィールド312に「x、y」が、作業対象物名フィールド313に「台」がそれぞれ登録される。第5ポイント5−5のレコードでは、ポイント名フィールド311に「第5ポイント」が、ポイント座標値フィールド312に「x、y」が、作業対象物名フィールド313に「−」がそれぞれ登録される。第6ポイント5−6のレコードでは、ポイント名フィールド311に「第6ポイント」が、ポイント座標値フィールド312に「x、y」が、作業対象物名フィールド313に「−」がそれぞれ登録される。第7ポイント5−7のレコードでは、ポイント名フィールド311に「第7ポイント」が、ポイント座標値フィールド312に「x、y」が、作業対象物名フィールド313に「−」がそれぞれ登録される。第8ポイント5−8のレコードでは、ポイント名フィールド311に「第8ポイント」が、ポイント座標値フィールド312に「x、y」が、作業対象物名フィールド313に「ダストシュート」がそれぞれ登録される。
【0037】
動作支援情報記憶部32は、各ポイント5に付与されたロボットの動作を支援するための情報(動作支援情報)を記憶する記憶部である。本実施形態の対人サービスロボット1は、例えば、ポイント名と、当該ポイントにおいて対人サービスロボット1が次に動作することができる動作内容を示す次可能動作内容とを相互に対応付けた動作支援テーブルを動作支援情報として動作支援情報記憶部32に記憶する。本実施形態の動作支援テーブル320は、図4に示すように、ポイント名を登録するポイント名フィールド321及び次可能動作内容を登録する次可能動作内容フィールド322の各フィールドを備え、ポイントごとにレコードが作成される。
【0038】
例えば、図2に示す作業空間10の場合では、動作支援テーブル320は、図4に示すように、ポイント5の数及び各ポイント5の次可能動作内容の数に応じて複数のレコードが作成される。一つ目のレコードでは、ポイント名フィールド321に「第1ポイント」が、次可能動作内容フィールド322に「第2ポイントに移動(θ回転、mcm前進)」がそれぞれ登録される。これは、第1ポイント5−1では対人サービスロボット1が第2ポイントに移動可能であって、第2ポイントに移動する場合には、半時計回りにθ回転を行い、mcmだけ前進を行うことを示す。なお、回転の基準角度は、例えばx軸の正方向を0度とする。このように次可能動作内容には、次に動作することができる次可能動作(このレコードでは「第2ポイントに移動」)を登録するだけでなく、その動作を実現するために満たすべき条件に関する情報(動作条件情報)(このレコードでは「θ回転、mcm前進」)も登録される。従来の対人サービスロボットでは一つの動作を行って次の動作を行う際に当該次の動作が可能か否かや動作手順を判断するため、高度な情報処理が必要であった。本発明は、各ポイント5に次可能動作内容を付与するので、従来必要であった情報処理を簡略することができる点に一特徴がある。
【0039】
二つ目のレコードでは、ポイント名フィールド321に「第1ポイント」が、次可能動作内容フィールド322に「第4ポイントに移動(θ回転、mcm前進)」がそれぞれ登録される。これは、第1ポイント5−1では対人サービスロボット1が第4ポイントに移動可能であって、第4ポイントに移動する場合には、半時計回りにθ回転を行い、mcmだけ前進を行うことを示す。三つ目のレコードでは、ポイント名フィールド321に「第1ポイント」が、次可能動作内容フィールド322に「第6ポイントに移動(θ回転、mcm前進)」がそれぞれ登録される。これは、第1ポイント5−1では対人サービスロボット1が第6ポイントに移動可能であって、第6ポイントに移動する場合には、半時計回りにθ回転を行い、mcmだけ前進を行うことを示す。四つ目のレコードでは、ポイント名フィールド321に「第1ポイント」が、次可能動作内容フィールド322に「第7ポイントに移動(θ回転、mcm前進)」がそれぞれ登録される。これは、第1ポイント5−1では対人サービスロボット1が第7ポイントに移動可能であって、第7ポイントに移動する場合には、半時計回りにθ回転を行い、mcmだけ前進を行うことを示す。このように1個のポイントに複数の支援情報として次可能動作内容を付与することができ、対人サービスロボット1は、主人の命令に応じて複数の次可能動作内容から適宜選択する。
【0040】
また、5つ目のレコードでは、ポイント名フィールド321に「第2ポイント」が、次可能動作内容フィールド322に「第3ポイントに移動(θ回転、mcm前進)」がそれぞれ登録される。これは、第2ポイント5−2では対人サービスロボット1が第3ポイントに移動可能であって、第3ポイントに移動する場合には、半時計回りにθ回転を行い、mcmだけ前進を行うことを示す。
【0041】
さらに、或るレコードには、ポイント名フィールド321に「第3ポイント」が、次可能動作内容フィールド322に「ゴミ箱を持つ(高さHcm;A型取手を把持できること)」がそれぞれ登録される。これは、第3ポイント5−3では対人サービスロボット1がゴミ箱を持つことが可能であって、ゴミ箱を持つ場合には、対人サービスロボット1がA型取手を把持できることを条件に、高さHcmのところでゴミ箱を両手で持ち上げることを示す。或るレコードには、ポイント名フィールド321に「第4ポイント」が、次可能動作内容フィールド322に「荷物を持つ(高さHcm)」がそれぞれ登録される。これは、第4ポイント5−4では対人サービスロボット1が荷物を持つことが可能であって、荷物を持つ場合には、対人サービスロボット1が高さHcmの所から荷物を両手で持ち上げることを示す。或るレコードには、ポイント名フィールド321に「第6ポイント」が、次可能動作内容フィールド322に「荷物を置く(高さHcm)」がそれぞれ登録される。これは、第6ポイント5−6では対人サービスロボット1が荷物を置くことが可能であって、荷物を置く場合には、対人サービスロボット1が高さHcmの所に荷物を置くことを示す。そして、或るレコードには、ポイント名フィールド321に「第8ポイント」が、次可能動作内容フィールド322に「ゴミを捨てる(高さHcm)」がそれぞれ登録される。これは、第8ポイント5−8では対人サービスロボット1がゴミを捨てることが可能であって、ゴミを捨てる場合には、対人サービスロボット1が高さHcmのところのゴミ投入口までゴミ箱を持ち上げてゴミを捨てることを示す。
【0042】
なお、動作内容は、この例に限定されず、対人サービスロボット1が提供するサービスに応じて様々な動作がある。例えば、対人サービスロボット1が家庭用の場合には、庭に水撒く、郵便受けの郵便物を持って来る等であり、対人サービスロボット1が病院用の場合には、院内を案内する、カルテを運搬する、薬を運搬する等である。
【0043】
動作ライブラリ記憶部33は、動作ごとに作成された当該動作に応じた詳細な動きを実現する動作プログラムを纏めた動作ライブラリを記憶する。
【0044】
辞書記憶部34は、主人が発した言葉を認識するための単語、動作を認識するためのキーワード、配置位置を認識するためのキーワード、動作を実行するために必要な情報項目、必要な情報項目が不足する場合には動作を実行するために必要な情報項目(不足する情報)を主人に質問をするための質問データ、配置位置を認識するために必要な情報項目、必要な情報項目が不足する場合には配置位置を認識するために必要な情報項目(不足する情報)を主人に質問をするための質問データ等を相互に関連させて纏めた辞書を記憶する。
【0045】
単語は、例えば、動作を示す語句、使用用途を示す語句、場所や作業対象物を示す語句、及び、動作を実行するために必要な情報を示す語句等である。動作を認識するためのキーワードは、例えば、「運搬する」という動作の場合では、「運搬する」、「運ぶ」、「移送する」等の「運搬する」に関連する語句である。動作を実行するために必要な情報項目は、例えば、「運搬する」という動作の場合では、少なくとも「何を」、「どこから」、「どこへ」という情報項目である。そして、これら情報項目を「運搬する」という動作、あるいは、「運搬する」という動作を認識するためのキーワードと関連させる。質問データは、例えば、上述の「何を」に対応する情報が不足する場合には「何を運びますか?」であり、「どこから」に対応する情報が不足する場合には「どこから運びますか?」であり、「どこへ」に対応する情報が不足する場合には「どこへ運びますか?」である。
【0046】
動作計画記憶部35は、対人サービスロボット1が主人の命令を実行する際に行う動作の順番を登録した動作計画を記憶する記憶部である。本実施形態では、動作計画は、ポイント5と当該ポイント5において実行する動作とを対応付けたテーブルである。現在位置記憶部36は、対人サービスロボット1の現在居るポイント5のポイント名を記憶する。
【0047】
駆動部17は、制御部11の駆動信号に従って動く対人サービスロボット1内の各アクチュエータであり、各アクチュエータは、必要に応じて設けられた対人サービスロボット1の各関節等に設けられる。駆動部17が駆動することによって頭部、胴体部、腕部及び脚部等が動き、これによって動作が実現される。なお、駆動部17は、脚部が複数の足ではなく無限軌道やタイヤ等によって構成される場合には、これらに用いられるアクチュエータも含む。対人サービスロボット1は、一連の動きを実行することによって1つの動作を実現し、一連の動作を実行することによって1つの作業を実現して主人の命令を遂行する。
【0048】
制御部11は、例えば、マイクロプロセッサ等を備えて構成され、対人サービスロボット1の上記各部を制御する回路であり、対話処理部21、中央処理部22、駆動量判断部23及び駆動制御部24を備える。
【0049】
対話処理部21は、音声認識部13から出力されたテキストデータから辞書を用いて単語を切り出し、切り出した単語に基づき辞書を参照することによって主人の命令及び命令実行に必要な情報を解析する。テキストデータから切り出した単語だけでは、解析した命令を実行するために充分な情報が得られない場合には、不足する情報項目を主人に問う質問データを辞書から得て音声生成部14に出力する。対話処理部21は、認識した内容を中央処理部22に出力すると共に、当該内容を実行するための情報を記憶部12に記憶する。
【0050】
中央処理部22は、主人の命令の解析と命令に応じた動作の実行とを行い、実行すべき動作を駆動制御部24に出力する。
【0051】
駆動量判断部23は、駆動部17の駆動量とこの駆動量に基づいて対人サービスロボット1が移動した場合に移動方向及び移動距離とを判断する。駆動部17の駆動量は、例えば、対人サービスロボット1の各関節における角度である。移動方向は、例えば、対人サービスロボット1が方向を変更するたびに基準とする基準方向(例えばx軸の正方向)からの値を算出する。例えば、対人サービスロボットが90度の方向(即ちy軸の正方向)を向いている場合に45度回転した場合には、90度+45度=135度で移動方向は、135度となる。移動距離は、例えば、複数足の歩行で移動するロボットの場合には歩幅と歩数とから算出され、無限軌道(キャタピラ(商標))やタイヤで移動するロボットの場合には無限軌道の駆動量やタイヤの回転量から算出される。
【0052】
駆動制御部24は、中央処理部22から出力された動作に応じた動作プログラムを動作ライブラリ記憶部33の動作ライブラリから抽出し、抽出した動作プログラムに応じた駆動信号を駆動部17に出力する。動作プログラムを実行することによって対人サービスロボット1は行動するが、動作の種類によってはパラメータを動作プログラムに入力することによって動作プログラムがパラメータに応じた駆動信号を生成し、対人サービスロボット1は、パラメータに応じた動作を実現する。
【0053】
次に、本実施形態の動作について説明する。
(第1の実施形態の動作)
図5は、第1の実施形態における対人サービスロボットの動作を示すフローチャートである。
【0054】
図5において、電源が投入されると各部の初期化を行って、制御部11の中央処理部22は、作業入力の入力待ち状態となる。主人は、対人サービスロボット1に提供して欲しい作業を音声入力部15を介して対人サービスロボット1に入力する。音声が入力されると音声入力部15は、音を音声信号に変換した後に音声認識部13に出力する。制御部11の対話処理部21には、音声信号が音声認識部13によって変換されたテキストデータが入力される(S11)。なお、この説明において、対人サービスロボット1は、第1ポイントの位置に居るものとする。
【0055】
制御部11の対話処理部21は、テキストデータから単語を切り出し、切り出した単語に基づき辞書記憶部34の辞書を参照することによって主人の発した命令を解析する。対話処理部21は、解析した命令を実行することができる充分な情報がテキストデータから切り出した単語に含まれているか否かを判断する(S12)。
【0056】
判断の結果、充分な情報が含まれていない場合(No)には、対話処理部21は、辞書記憶部34の辞書を参照することによって不足する情報項目を主人に問う質問データを取り出す。そして、対話処理部21は、この取り出した質問データを音声生成部14に出力した後に処理をS11に戻す(S13)。音声生成部14は、質問データに従って音声信号を生成し、音声出力部16に出力する。音声出力部16は、音声信号に従って音声を発生する。このようにして対人サービスロボット1は、解析した命令を実行するために充分な情報が得られていない場合には、質問を主人に対して発する。そして、主人は、質問に対する答えを音声入力部15を介して対人サービスロボット1に入力する。なお、質問に対する答えを加えて改めて命令を入力してもよい。
【0057】
例えば、対人サービスロボット1に主人が「ゴミ箱を持ってゴミを捨ててください。」という命令を入力した場合に、対人サービスロボットは、ゴミ箱のゴミを捨てる場所が特定できないと判断して、「どこに捨てればよいでしょうか?」と質問を発する。そして、主人は、場所を特定するために「ダストシュートです。」と返答する。あるいは、「ゴミ箱を持ってゴミをダストシュートに捨ててください。」と命令を再入力する如く返答する。
【0058】
一方、充分な情報が得られた場合(Yes)には、解析した命令を中央処理部22に転送する。中央処理部22は、転送された命令を記憶部12に一時的に記憶する。
【0059】
次に、中央処理部22は、命令から動作を実行すべきポイント5を作業環境テーブル310から検索し、検索したポイント5と動作とを対応付けて動作計画を作成し、作成した動作計画を動作計画記憶部35に記憶する(S14)。例えば、主人に「ゴミ箱を持ってゴミをダストシュートに捨ててください。」と命じられた場合には、切り出された名詞「ゴミ箱」、「ゴミ」及び「ダストシュート」のそれぞれと一致するレコードがあるか否かを作業環境テーブル310の作業対象物名フィールド313から検索する。一致するレコードがある場合には、そのレコードのポイント名を参照して動作すべきポイント5を取得する。この例では、「ゴミ箱」に対応するポイント名が第3ポイント5−3であり、「ダストシュート」に対応するポイント名が第8ポイント5−8である。そして、中央処理部22は、第3ポイント5−3では「ゴミ箱を持つ」、第8ポイント5−8では「ゴミを捨てる」という動作計画を作成し、この動作計画を動作計画記憶部35に記憶する。
【0060】
次に、中央処理部22は、検索した動作すべきポイント5に基づいて動作支援テーブル320を参照することによって移動経路を決定する。そして、中央処理部22は、移動経路に基づいて動作計画を再作成し、再作成した動作計画を動作計画記憶部35に記憶する(S15)。
【0061】
上述の例では、主人の命令を実行するためには、現在位置記憶部36に記憶されている現在位置を出発位置としてこの出発位置である第1ポイント5−1から第3ポイント5−3に行って、そして、目標位置である第8ポイント5−8に行かなければならない。そのため、動作すべきポイント5ごとに移動経路を探索し、最終的な移動経路を探索する。
【0062】
中央処理部22は、現在位置を出発位置としてこの出発位置のポイント5から移動目標のポイント5まで行く移動経路を探索するために、まず、動作支援テーブル320の次可能動作内容フィールド322に目標位置のポイント名が登録されているレコードを検索し、そのレコードのポイント名フィールド321を参照し、登録されているポイント名を記憶部12に一時的に記憶する。中央処理部22は、参照したポイント名が出発位置のポイント名であれば、出発位置のポイント5から目標位置のポイント5までの移動経路が探索されたと判断し、記憶部12から探索したポイント名を取り出して移動経路を決定する。一方、中央処理部22は、参照したポイント名が出発位置のポイント名ではない場合には、参照したポイント名のポイント5を新たな目標位置として動作支援テーブル320の次可能動作内容フィールド322に「新たな目標位置であるポイント名のポイント5に移動」と登録されているレコードを検索し、そのレコードのポイント名フィールド321を参照する。これを参照したポイント名フィールド321に出発位置のポイント名が登録されているまで繰り返す。
【0063】
より具体的には、例えば、図4に示す動作支援テーブル320の場合では、まず、第1ポイント5−1から第3ポイント5−3まで行く移動経路を探索するために、中央処理部22は、次可能動作内容フィールド322に「第3ポイントに移動」と登録されているレコードのポイント名フィールド321を参照する。該当するレコードには、「第2ポイント」、「第5ポイント」及び「第8ポイント」がそれぞれ登録されており、各ポイント5を記憶部12に記憶する。各ポイント名は、第1ポイントではないので、「第2ポイント」、「第5に移動」及び「第8ポイント」を新たな目標位置のポイント5として次可能動作内容フィールド322に「第2ポイントに移動」、「第5ポイントに移動」及び「第8ポイントに移動」と登録されているレコードのポイント名フィールド321をそれぞれ参照する。ここで、「第2ポイントに移動」と登録されているレコードの一つにポイント名フィールド311に出発位置である「第1ポイント」を登録するレコードがあるので、中央処理部22は、第3ポイント5−3までの移動経路が探索されたと判断し、記憶部12の記憶内容を読み出すことによって、第1ポイント5−1→第2ポイント5−2→第3ポイント5−3と移動経路が決定される。
【0064】
同様に、出発位置である第3ポイント5−3から目標位置である第8ポイント5−8までの移動経路、第3ポイント5−3→第8ポイント5−8が決定され、第1ポイント5−1→第2ポイント5−2→第3ポイント5−3→第8ポイント5−8と最終的な移動経路が決定される。
【0065】
このように本発明では、次可能動作内容が登録されている次可能動作内容フィールド322を参照して移動先までの移動経路を容易に決定することができるだけでなく、移動経路が探索されれば確実に移動先まで移動することができる。そのため、本発明に係る対人サービスロボット1は、主人の命令を実行可能か否かの判断を命令を実行する前に容易に判断することができる。そして、移動元のポイント5と移動先のポイント5までの間に障害物があったとしても障害物を避けて予め各ポイント5が設定されているので、確実に障害物を避けて移動することができる。
【0066】
そして、中央処理部22は、作業すべきポイント5で作業を行うためにはそのポイントに移動する必要があるから、動作計画の第3ポイントにおける「ゴミ箱を持つ」の前に、第1ポイントでは「第2ポイントに移動」及び第2ポイントでは「第3ポイントに移動」を挿入し、動作計画の第8ポイントにおける「ゴミを捨てる」の前に、第3ポイントでは「第8ポイントに移動」を挿入し、動作計画を再計画する。
【0067】
そして、対人サービスロボット1は、命令された命令内容を実行すべく動作計画に従って動作を開始する。まず、中央処理部22は、現在位置記憶部36に記憶されている現在位置のポイント名に基づいて対人サービスロボット1の現在位置を判断する(S16)。
【0068】
次に、中央処理部22は、当該ポイント5のポイント名に基づいてポイント名フィールド321を参照することによって、動作支援テーブル320から当該ポイントに対応するレコードを検索し、検索したレコードの次可能動作内容フィールド322の次可能動作内容を取得する(S17)。
【0069】
次に、中央処理部22は、取得した次可能動作内容の次可能動作と動作計画における次に実行すべき動作とを比較し、一致する次可能動作内容を判別する(S18)。
【0070】
次に、中央処理部22は、駆動制御部24を用いて動作条件情報を考慮して次可能動作を実行し、現在位置のポイント5のポイント名を記憶部12に記憶する(S19)。即ち、中央処理部22は、判別した次可能動作内容から次可能動作と動作条件情報とを取得し、取得した次可能動作と動作条件情報とを駆動制御部24に転送する。駆動制御部24は、当該次可能動作を実行するために、動作ライブラリ記憶部33の動作ライブラリから当該次可能動作に応じた動作プログラムを取り出す。そして、駆動制御部24は、取り出した動作プログラムに作業条件情報を入力して駆動信号を生成し、駆動信号を駆動部17に出力する。動作プログラムが終了して動作が終了すると、駆動制御部24は、現在位置のポイントを記憶部12に記憶すると共に、対人サービスロボット1の姿勢を所定の初期姿勢に直し、当該動作の終了を中央処理部22に通知する。
【0071】
従来では、対人サービスロボットの周囲の状況を判断するための画像処理等高度な情報処理を行う必要があったが、本発明に係る対人サービスロボット1は、動作に必要な動作条件情報を動作支援テーブル320の次可能動作内容フィールド322から取得するので、従来必要であった高度な情報処理を必要としない。そして、従来では対人サービスロボット自体の姿勢を判断するための高度な情報処理を行う必要があったが、本発明に係る対人サービスロボット1は、動作を終了するごとに対人サービスロボット1の姿勢を所定の初期姿勢に直すので、従来必要であった高度な情報処理を必要としない。なお、所定の初期姿勢は、対人サービスロボット1自体の姿勢の判断を不要とするための姿勢であるから、どのような姿勢でもよく、例えば、Y軸方向の直立姿勢である。
【0072】
そして、この通知を受けた中央処理部22は、次の動作を実行すべく動作計画記憶部35の動作計画を参照し、まず動作計画中の動作が終了しているか否かを判断する(S20)。この判断は、例えば、S15における動作計画の再計画の際に、最後の動作の次に動作の終了を示す記号(例えば「終了」)を動作計画に追加して中央処理部22がこれを識別することにより行う。
【0073】
判断の結果、動作が終了である場合(YES)には、動作の実行を終了し、処理をS11に戻して命令の入力待ち状態となる。一方、判断の結果、動作が終了していない場合(No)には、処理をS16に戻す。
【0074】
そして、S16において、制御部11の中央処理部22は、動作計画記憶部35の動作計画テーブルを参照して、次の動作を取り出し、S17乃至S20を上述のように実行する。以後同様に、対人サービスロボット1は、動作計画テーブルの動作が終了するまで順番に動作計画テーブルから次の動作を取り出し、S17乃至S20を上述のように実行する。こうして、対人サービスロボット1は、動作計画テーブルの全動作を実行し、主人の命令を遂行する。
【0075】
例えば、上述の例のように、動作計画が、「第1ポイントでは第2ポイントに移動」→「第2ポイントでは第3ポイントに移動」→「第3ポイントではゴミ箱を持つ」→「第3ポイントでは第8ポイントに移動」→「第8ポイントではゴミを捨てる」→「終了」である場合についてS16乃至S20の処理を具体的に説明すると次の通りある。
【0076】
まず、中央処理部22は、現在位置記憶部36の記憶内容が「第1ポイント」であると判断する。中央処理部22は、動作支援テーブル320から第1ポイント5−1に対応するレコードを検索し、検索したレコードの次可能動作内容フィールド322の次可能動作内容「第2ポイントに移動(θ回転、mcm前進)」、「第4ポイントに移動(θ回転、mcm前進)」、「第6ポイントに移動(θ回転、mcm前進)」及び「第7ポイントに移動(θ回転、mcm前進)」を取得する。次に、中央処理部22は、取得した「第2ポイントに移動(θ回転、mcm前進)」、「第4ポイントに移動(θ回転、mcm前進)」、「第6ポイントに移動(θ回転、mcm前進)」及び「第7ポイントに移動(θ回転、mcm前進)」の中から動作計画における「第2ポイントに移動」と一致する次可能動作内容を判別する。そして、中央処理部22は、判別した「第2ポイントに移動(θ回転、mcm前進)」の動作条件情報θ回転、mcm前進を駆動制御部24に転送する。駆動制御部24は、「回転」の動作プログラムによってθだけ対人サービスロボット1が回転するように駆動量判断部23の出力を参照しながら駆動部17を駆動し、「前進」の動作プログラムによってmcmだけ対人サービスロボット1が前進するように駆動量判断部23の出力を参照しながら駆動部17を駆動する。駆動制御部23は、駆動量判断部23の出力に基づいてθ方向にmcmだけ前進したと判断すると、移動を停止して、現在位置であるポイント5−2のポイント名「第2ポイント」を現在位置記憶部36に記憶すると共に、対人サービスロボット1の姿勢を所定の初期姿勢に直し、第2ポイントへの移動動作の終了を中央処理部22に通知する。
【0077】
そして、この通知を受けた中央処理部22は、動作計画を参照すると動作の終了ではなく、「第2ポイントでは第3ポイントに移動」であるから、中央処理部22は、動作支援テーブル320から第2ポイント5−2に対応するレコードを検索し、検索したレコードの次可能動作内容フィールド322の次可能動作内容「第1ポイントに移動(θ20回転、m20cm前進)」、「第3ポイントに移動(θ回転、mcm前進)」、「第4ポイントに移動(θ21回転、m21cm前進)」及び「第6ポイントに移動(θ22回転、m22cm前進)」を取得する。次に、中央処理部22は、取得した「第1ポイントに移動(θ20回転、m20cm前進)」、「第3ポイントに移動(θ回転、mcm前進)」、「第4ポイントに移動(θ21回転、m21cm前進)」及び「第6ポイントに移動(θ22回転、m22cm前進)」の中から動作計画における「第3ポイントに移動」と一致する次可能動作内容を判別する。そして、中央処理部22は、判別した「第3ポイントに移動(θ回転、mcm前進)」の動作条件情報θ回転、mcm前進を駆動制御部24に転送する。駆動制御部24は、「回転」の動作プログラムによってθだけ対人サービスロボット1が回転するように駆動量判断部23の出力を参照しながら駆動部17を駆動し、「前進」の動作プログラムによってmcmだけ対人サービスロボット1が前進するように駆動量判断部23の出力を参照しながら駆動部17を駆動する。駆動制御部23は、駆動量判断部23の出力に基づいてθ方向にmcmだけ前進したと判断すると、移動を停止して、現在位置であるポイント5−3のポイント名「第3ポイント」を現在位置記憶部36に記憶すると共に、対人サービスロボット1の姿勢を所定の初期姿勢に直し、第3ポイントへの移動動作の終了を中央処理部22に通知する。なお、駆動部17が駆動制御部24からの駆動信号によって誤差なしに駆動する場合には、駆動量判断部23は、必ずしも必要ではない。
【0078】
そして、この通知を受けた中央処理部22は、動作計画を参照すると動作の終了ではなく、「第3ポイントではゴミ箱を持つ」であるから、中央処理部22は、動作支援テーブル320から第3ポイント5−3に対応するレコードを検索し、検索したレコードの次可能動作内容フィールド322の次可能動作内容「ゴミ箱を持つ(高さHcm;A型取手を把持できること)」、「第2ポイントに移動(θ30回転、m31cm前進)」、「第5ポイントに移動(θ31回転、m31cm前進)」及び「第8ポイントに移動(θ回転、mcm前進)」を取得する。次に、中央処理部22は、取得した「ゴミ箱を持つ(高さHcm;A型取手を把持できること)」、「第2ポイントに移動(θ30回転、m31cm前進)」、「第5ポイントに移動(θ31回転、m31cm前進)」及び「第8ポイントに移動(θ回転、mcm前進)」の中から動作計画における「ゴミ箱を持つ」と一致する次可能動作内容を判別する。そして、中央処理部22は、判別した「ゴミ箱を持つ(高さHcmで持つ;A型取手を把持できること)」の動作条件情報高さHcmで持つ;A型取手を把持できることを駆動制御部24に転送する。駆動制御部24は、A型取手が把持できるか否か判断した後に、「持つ」の動作プログラムによって高さHで対人サービスロボット1が持つように駆動量判断部23の出力を参照しながら駆動部17を駆動する。駆動制御部23は、「持つ」の動作プログラムが終了すると、現在位置であるポイント5−3のポイント名「第3ポイント」を現在位置記憶部36に記憶すると共に、対人サービスロボット1の姿勢を所定の初期姿勢に直し、ゴミ箱を持つ動作の終了を中央処理部22に通知する。
【0079】
従来は、ゴミ箱を持つための条件を画像処理等によって得ていたが、本発明に係る対人サービスロボット1では、このようにゴミ箱を持つための条件をポイントに付与されている次可能動作内容の動作条件情報から得るので、ゴミ箱を持てるか否かを容易に判断することができる。
【0080】
以下、同様に、中央処理部22は、動作計画の「第3ポイントでは第8ポイントに移動」及び「第8ポイントではゴミを捨てる」を実行し、ゴミを捨てる動作の終了が通知されると、中央処理部22は、動作計画を参照すると「終了」であるので、動作を終了して作業入力の入力待ち状態となる。
【0081】
ここで、対人サービスロボット1は、自律的により多くの動作を行うためには作業空間10内に常時又は比較的長時間に亘り存在する家具等の作業対象物の配置位置に関する情報だけでなく、一時的に作業空間10内に存在する荷物や食事等の作業対象物の配置位置に関する情報も保持する必要がある。そこで、一時的に存在する作業対象物の配置位置を人間との対話により取得する第1の実施形態の変形形態について説明する。
【0082】
図6は、拡張作業環境テーブルの構成を示す図である。図6において、この拡張作業環境テーブル310’は、対人サービスロボット1が一時的に作業空間10内に存在する作業対象物の配置位置に関する情報を保持するために、図3に示す作業環境テーブル310を拡張したものであり、ポイント名フィールド311、ポイント座標値フィールド312及び図3の作業対象物名フィールド313に相当する作業対象物名1フィールド313’の各フィールドに加えて、作業対象物名2フィールド314を備え、ポイントごとにレコードが作成される。作業対象物名1フィールド313’は、ダストシュート114等のように作業空間10内に常時存在する作業対象物及びゴミ箱111、台112、テーブル113等のように作業空間10内に比較的長時間に亘り存在する作業対象物の名称を登録する。作業対象物名2フィールド314は、荷物、食事等のように作業空間10内に一時的に存在する作業対象物の名称を登録する。
【0083】
主人の発話があると、音声入力部15、音声認識部13及び制御部11は、図5に示すS11乃至S13の処理と同様の処理を行った後に、制御部11は、拡張作業環境テーブル310’において、認識した作業対象物名2の配置位置に関係する作業対象物名1を登録するレコードにおける作業対象物名2フィールドにその認識した作業対象物名2を登録する。
【0084】
即ち、音声が入力されると音声入力部15は、音を音声信号に変換した後に音声認識部13に出力する。制御部11の対話処理部21には、音声信号が音声認識部13によって変換されたテキストデータが入力される。制御部11の対話処理部21は、テキストデータから単語を切り出し、切り出した単語に基づき辞書記憶部34の辞書を参照することによって主人の発した言葉を解析する。対話処理部21は、解析した内容に作業対象物名2とその配置位置との情報がテキストデータから切り出した単語から得られているか否かを判断する。判断の結果、情報が含まれてない場合には、対話処理部21は、辞書記憶部34の辞書を参照することによって不足する情報項目を主人に問う質問データを取り出す。そして、対話処理部21は、この取り出した質問データを音声生成部14に出力した後に処理を入力待ち状態に戻す。音声生成部14は、質問データに従って音声信号を生成し、音声出力部16に出力する。音声出力部16は、音声信号に従って音声を発生する。このようにして対人サービスロボット1は、解析した内容に充分な情報が含まれていない場合には、質問を主人に対して発する。そして、主人は、質問に対する答えを音声入力部15を介して対人サービスロボット1に入力する。なお、質問に対する答えを加えて改めて命令を入力してもよい。一方、充分な情報が得られた場合(Yes)には、割込みをかけて、作業対象物名2と当該作業対象物名2の配置位置を示す作業対象物名1とを中央処理部22に転送する。中央処理部22は、転送された作業対象物名1を拡張作業環境テーブル310’の作業対象物名1フィールド313’に登録するレコードを検索し、検索したレコードの作業対象物名2フィールド314に転送された作業対象物名2を登録する。
【0085】
例えば、対人サービスロボットに主人が「食事を置いておきます。」と発話すると、対人サービスロボット1は、食事の配置位置が特定できないと判断して、「食事の配置位置はどこでしょうか?」と質問を発する。そして、主人は、食事の配置位置を特定するために「台の上です。」と返答する。あるいは、「食事を台の上に置いておきます。」と命令を再入力する如く返答する。そして、中央処理部22は、拡張作業環境テーブル310’の作業対象物名1フィールド313’に「台」を登録するレコードにおける作業対象物名2フィールド314に「食事」を登録する。
【0086】
このような第1の実施形態の変形形態では、一時的に作業空間10内に存在する作業対象物の配置位置を人間との対話により取得する。このため、従来の対人サービスロボットのように画像処理によって作業対象物を認識する必要がないので、対人サービスロボット1は、高度な情報処理能力を必要としない。また、一時的に作業空間10内に存在する作業対象物の配置位置をポイントに関連付けて保持するので、当該作業対象物に対して確実に動作を実行することができる。なお、次に説明する第2の実施形態においても同様である。
【0087】
次に、別の実施形態について説明する。
(第2の実施形態の構成)
第1の実施形態における対人サービスロボット1は、動作支援情報記憶部32の動作支援情報に基づいてポイントごとに動作を行うことで主人の命令を実行したが、第2の実施形態における対人サービスロボット2は、作業対象物における動作の動作支援情報を知能化された作業対象物自体から得る実施形態である。
【0088】
図7は、第2の実施形態における対人サービスロボットの構成を示す図である。図8は、第2の実施形態における動作支援テーブルの構成を示す図である。
【0089】
図7において、第2の実施形態における対人サービスロボット2は、制御部11’、記憶部12’、音声認識部13、音声生成部14、音声入力部15、音声出力部16、駆動部17及び通信部18を備えて構成される。
【0090】
制御部11’は、例えば、マイクロプロセッサ等を備えて構成され、対人サービスロボット2の上記各部を制御する回路であり、対話処理部21、中央処理部22’、駆動量判断部23、駆動制御部24及び通信処理部25を備える。即ち、第2の実施形態における制御部11’は、第1の実施形態における制御部11に較べて中央処理部22’の動作が異なる点及び通信処理部25をさらに備える点を除き第1の実施形態と同様であるので、その説明を省略する。
【0091】
中央処理部22’の動作については、後述する。通信処理部25は、通信部18からの出力を中央処理部22’が処理できる形式に変換して中央処理部22’に出力すると共に中央処理部22’からの出力を通信部18が処理できる形式に変換して通信部18に出力する。
【0092】
記憶部12’は、対人サービスロボットの動作に必要な各種プログラム、プログラム実行中に必要なデータ、及び、プログラム実行中に生じたデータを記憶する記憶回路であり、作業環境情報記憶部31、動作支援情報記憶部32’、動作ライブラリ記憶部33、辞書記憶部34、動作計画記憶部35及び現在位置記憶部36を備える。即ち、第2の実施形態における記憶部12’は、第1の実施形態における記憶部12に較べて動作支援情報記憶部32’の記憶内容が異なる点を除き第1の実施形態と同様であるので、その説明を省略する。動作支援情報記憶部32’は、第1の実施形態における動作支援情報記憶部32と同様に、各ポイントに付与された動作支援情報を記憶する記憶部であるが、第2の実施形態では知能化作業対象物3での動作の動作支援情報を知能化作業対象物3から得るので、この知能化作業対象物3における動作の動作支援情報を記憶しない。
【0093】
即ち、動作支援情報を動作支援テーブルとして記憶する場合には、第2の実施形態における動作支援テーブル320’は、図8に示すように、次可能動作内容フィールド322に各ポイントにおける移動動作に関する次可能動作内容のみが登録されるレコードのみを備える。即ち、第2の実施形態における動作支援テーブル320’は、図4に示す第1の実施形態における動作支援テーブル320に較べて、ポイント名フィールド321に「第3ポイント」を、次可能動作内容フィールド322に「ゴミ箱を持つ(高さHcm;A型取手を把持できること)」をそれぞれ登録したレコード、ポイント名フィールド321に「第4ポイント」を、次可能動作内容フィールド322に「荷物を持つ(高さHcm)」をそれぞれ登録したレコード、ポイント名フィールド321に「第6ポイント」を、次可能動作内容フィールド322に「荷物を置く(高さHcm)」をそれぞれ登録したレコード、及び、ポイント名フィールド321に「第8ポイント」を、次可能動作内容フィールド322に「ゴミを捨てる(高さHcm)」をそれぞれ登録したレコードがない。
【0094】
通信部18は、赤外線及び電波等の伝送媒体によって通信信号を作業対象物との間で送受信する。
【0095】
次に、作業対象物の構成について説明する。図9は、第2の実施形態における作業対象物の構成を示す図である。図10は、第2の実施形態における支援情報テーブルの構成を示す図である。
【0096】
図9において、ゴミ箱、台、テーブル及びダストシュート等の、作業空間内に置かれ対人サービスロボットが動作を行う場合にそれ自体対象となったり直接対象となる物と関係することによって間接的に対象となったりする知能化作業対象物3は、制御部51、記憶部52、通信部53及び検出部54を備える。
【0097】
記憶部52は、知能化作業対象物3の動作に必要な各種プログラム、プログラム実行中に必要なデータ、及び、プログラム実行中に生じたデータを記憶する記憶回路であり、動作支援情報を記憶する動作支援情報記憶部521を備える。動作支援情報は、当該知能化作業対象物3でロボットが動作を行う場合におけるロボットの動作を支援するための情報である。本実施形態の知能化作業対象物3は、例えば、知能化作業対象物3の名前である作業対象物名と、知能化作業対象物3の状態と、当該知能化作業対象物3において対人サービスロボット2が次に動作することができる動作内容を示す次可能動作内容と、対人サービスロボット2に動作支援情報を提供する場合に何れの動作支援情報を提供すべきかを判断するための回答フラグとを相互に対応付けた支援テーブル530を動作支援情報として動作支援情報記憶部521に記憶する。本実施形態の支援テーブル530(530−1〜530−3)は、図10に示すように、作業対象物名を登録する作業対象物名フィールド531、知能化作業対象物3の状態を登録する状態フィールド532、次可能動作内容を登録する次可能動作内容フィールド533及び回答フラグを登録する回答フラグフィールド534の各フィールドを備え、知能化作業対象物3がとり得る状態ごとにレコードが作成される。
【0098】
例えば、知能化作業対象物3がゴミ箱である場合には、図10(A)に示すように、ゴミ箱の支援テーブル530−1は、作業対象物名フィールド531に「ゴミ箱」を状態フィールド532に「ゴミ投入可」を次可能動作内容フィールド533に「ゴミ箱にゴミを捨てる(高さHcm以上)」を回答フラグフィールド534に「0」をそれぞれ登録したレコードと、作業対象物名フィールド531に「ゴミ箱」を状態フィールド532に「ゴミ一杯」を次可能動作内容フィールド533に「ゴミ箱を持ってダストシュートに捨てる(高さHcm;A型取手を把持できること)」を回答フラグフィールド534に「1」をそれぞれ登録したレコードとを備える。このように次可能動作内容には、次に動作することができる次可能動作(例えば「ゴミ箱にゴミを捨てる」)を登録するだけでなく、その動作を実施するために必要な情報(動作条件情報)(例えば「Hcm以上」)も登録される。従来の対人サービスロボットでは一つの動作を行って次の動作を行う際に当該次の動作が可能か否かを判断するため、高度な情報処理が必要であった。本発明では、知能化作業対象物3に次可能動作内容を付与し、対人サービスロボット2は、後述のように知能化作業対象物3から次可能動作内容を取得するので、従来必要であった情報処理を簡略することができる点に一特徴がある。
【0099】
また、例えば、知能化作業対象物3が台である場合には、図10(B)に示すように、台の支援テーブル530−2は、作業対象物名フィールド531に「台」を状態フィールド532に「荷物有り」を次可能動作内容フィールド533に「荷物を運ぶ(B型取手を把持できること)」を回答フラグフィールド534に「0」をそれぞれ登録したレコードと、作業対象物名フィールド531に「台」を状態フィールド532に「荷物無し」を次可能動作内容フィールド533に「荷物を置く(高さHcm)」を回答フラグフィールド534に「1」をそれぞれ登録したレコードとを備える。
【0100】
さらに、例えば、知能化作業対象物3が餌入れである場合には、図10(C)に示すように、台の支援テーブル530−3は、作業対象物名フィールド531に「餌入れ」を状態フィールド532に「餌なし」を次可能動作内容フィールド533に「餌を入れる(通信可能なこと)」を回答フラグフィールド534に「1」をそれぞれ登録したレコードと、作業対象物名フィールド531に「餌入れ」を状態フィールド532に「餌有り」を次可能動作内容フィールド533に「−」を回答フラグフィールド534に「0」をそれぞれ登録したレコードとを備える。なお、次可能動作内容フィールド533における「−」は、次可能動作内容がないこと、即ち、対人サービスロボット2が次に為し得る動作がないことを示す符号であり、「*」や「Avoid」等の他の符号でもよい。
【0101】
このように各フィールドの内容は、知能化作業対象物3の属性や対人サービスロボット2が実行可能なサービス等に応じて適宜決定される。
【0102】
通信部53は、赤外線及び電波等の伝送媒体によって通信信号を対人サービスロット2との間で送受信する。
【0103】
検出部54は、次可能動作内容フィールド533の次可能動作内容に関係する知能化作業対象物3の状態を検出するセンサである。例えば、知能化作業対象物3がゴミ箱であってゴミ箱にゴミが一杯であるか否かを検出する場合には、検出部54は、所定の高さにゴミ箱の対向する側面にそれぞれ配置された発光回路及び受光回路と、受光回路で受光する発光回路からの光が所定時間に亘って遮断された場合に検出信号を出力する判断回路と備えた回路等である。また、例えば、知能化作業対象物3が台であって台上に荷物があるか否かを検出する場合には、検出部54は、物体の接触を検出する接触センサ又は物体の重量を検出する重量センサである。
【0104】
制御部51は、例えば、マイクロプロセッサ等を備えて構成され、知能化作業対象物3の上記各部を制御する回路であり、通信処理部61、支援情報処理部62及び検出出力処理部63を備える。
【0105】
通信処理部61は、通信部53からの出力を支援情報処理部62が処理できる形式に変換して支援情報処理部62に出力すると共に支援情報処理部62からの出力を通信部53が処理できる形式に変換して通信部53に出力する。検出出力処理部63は、検出部54から出力があると、その出力を支援情報処理部62が処理できる形式に変換して支援情報処理部62に出力する。
【0106】
支援情報処理部62は、検出出力処理部63の出力に応じて支援情報における回答フラグを操作する。ここで、回答フラグが「1」にセットされているレコードの次可能動作内容を対人サービスロボット2に回答するとすると、例えば、知能化作業対象物3がゴミ箱である場合には、検出部54の出力から支援情報処理部62がゴミ箱にゴミを投入可能な状態であると判断した場合には、状態フィールド532に「ゴミ投入可」が登録されているレコードにおける回答フラグを「1」にセットし、状態フィールド532に「ゴミ一杯」が登録されているレコードにおける回答フラグを「0」にセットする。一方、検出部54の出力から支援情報処理部62がゴミでゴミ箱が一杯であると判断した場合には、状態フィールド532に「ゴミ投入可」が登録されているレコードにおける回答フラグを「0」にセットし、状態フィールド532に「ゴミ一杯」が登録されているレコードにおける回答フラグを「1」にセットする。
【0107】
また、例えば、知能化作業対象物3が台である場合には、検出部54の出力から支援情報処理部62が台上に荷物があると判断した場合には、状態フィールド532に「荷物あり」が登録されているレコードにおける回答フラグを「1」にセットし、状態フィールド532に「荷物なし」が登録されているレコードにおける回答フラグを「0」にセットする。一方、検出部54の出力から支援情報処理部62が台上に荷物がないと判断した場合には、状態フィールド532に「荷物あり」が登録されているレコードにおける回答フラグを「0」にセットし、状態フィールド532に「荷物なし」が登録されているレコードにおける回答フラグを「1」にセットする。
【0108】
さらに、例えば、知能化作業対象物3が餌入れである場合には、検出部54の出力から支援情報処理部62が餌入れに餌がないと判断した場合には、状態フィールド532に「餌なし」が登録されているレコードにおける回答フラグを「1」にセットし、状態フィールド532に「餌あり」が登録されているレコードにおける回答フラグを「0」にセットする。一方、検出部54の出力から支援情報処理部62が餌入れに餌があると判断した場合には、状態フィールド532に「餌なし」が登録されているレコードにおける回答フラグを「0」にセットし、状態フィールド532に「餌あり」が登録されているレコードにおける回答フラグを「1」にセットする。
【0109】
そして、支援情報処理部62は、記憶部52の動作支援情報記憶部521に記憶されている動作支援情報から回答フラグに応じた動作支援情報を取り出して、通信処理部61に出力する。
【0110】
次に、本実施形態の動作について説明する。
(第2の実施形態の動作)
図11は、第2の実施形態における対人サービスロボット2の動作を示すフローチャートである。
【0111】
図11において、電源が投入されると各部の初期化を行って、制御部11’の中央処理部22’は、作業入力の入力待ち状態となる。主人は、対人サービスロボット2に提供して欲しい作業を音声入力部15を介して対人サービスロボット2に入力する。音声が入力されると音声入力部15は、音を音声信号に変換した後に音声認識部13に出力する。制御部11’の対話処理部21には、音声信号が音声認識部13によって変換されたテキストデータが入力される(S11)。このS11における作業が入力される処理からS15における移動経路を決定して動作計画を再計画する処理までの中央処理部22’の動作は、図5を用いて説明した第1の実施形態の動作と同様であるので、その説明を省略する。
【0112】
ここで、このS11の処理からS15の処理までの具体例を説明すると、例えば、主人にゴミを渡され「ゴミ箱にゴミを捨ててください。」と命じられた場合には、切り出した「ゴミ箱」及び「ゴミ」に基づいて作業環境テーブル310の作業対象物名フィールド313を参照することによって、中央処理部22’は、第3ポイントでは「ゴミ箱にゴミを捨てる」という動作計画を作成し、この動作計画を動作計画記憶部35に記憶する。次に、中央処理部22’は、動作支援テーブル320’を参照して、第1ポイント→第2ポイント→第3ポイントと移動経路が決定される。そして、中央処理部22’は、動作計画の第3ポイントにおける「ゴミ箱にゴミを捨てる」の前に、第1ポイントでは「第2ポイントに移動」、第2ポイントでは「第3ポイントに移動」を挿入し、動作計画を再計画する。
【0113】
そして、対人サービスロボット1は、命令された命令内容を実行すべく動作計画に従って動作を開始する。まず、中央処理部22’は、現在位置記憶部36に記憶されている現在位置ポイントに基づいて対人サービスロボット1の現在位置を判断する(S31)。
【0114】
次に、中央処理部22’は、当該ポイントのポイント名に基づいてポイント名フィールド321を参照することによって、動作支援テーブル320’から当該ポイントに対応するレコードを検索し、検索したレコードの次可能動作内容フィールド322の次可能動作内容を取得する(S32)。
【0115】
次に、中央処理部22’は、作業環境テーブル310を参照することによって現在位置のポイントが知能化作業対象物3のポイントであるか否かを判断する(S33)。判断の結果、知能化作業対象物3のポイントである場合(Yes)には、中央処理部22’は、知能化作業対象物3から動作支援情報を取得すべく、通信処理部25及び通信部18を用いて、動作支援情報を要求する旨の通信信号(支援情報要求信号)を送信する。
【0116】
この支援情報要求信号を通信部53及び通信処理部61を用いて受信した知能化作業対象物3の支援情報処理部62は、動作支援情報記憶部521に記憶されている動作支援情報を読み出して、読み出した動作支援情報を含む通信信号(支援情報返信信号)を通信部53及び通信処理部61を用いて対人サービスロボット2に返信する。より具体的には、支援情報処理部62は、動作支援情報記憶部521に記憶されている支援テーブル530から回答フラグの値が「1」であるレコードを検索し、検索したレコードの次可能動作内容フィールド533に登録されている次可能動作内容を読み出して、読み出した次可能動作内容を含む支援情報返信信号を対人サービスロボット2に返信する。
【0117】
なお、支援情報要求信号の送信出力は、知能化作業対象物3のポイントに対人サービスロボット2が居る場合に当該ポイントの知能化作業対象物3との間でのみ通信可能な出力であることが好ましい。送信出力が大きい場合には複数の知能化作業対象物3から支援情報返信信号を受信することとなり、受信した複数の支援情報返信信号から当該ポイントの知能化作業対象物3からの支援情報返信信号を判別する必要が生じるからである。一方、このような支援情報返信信号の判別が必要な場合には、例えば、知能化作業対象物3が支援情報返信信号を送信する際に支援情報返信信号に送信元の作業対象物名をIDとして含ませ、対人サービスロボット2の中央処理部22’は、受信した支援情報返信信号の作業対象物名と現在位置のポイントに対応する作業環境テーブル310の作業対象物名とが一致する支援情報返信信号を選択するようにすればよい。
【0118】
対人サービスロボット2の中央処理部22’は、この支援情報返信信号から支援情報、より具体的には次可能動作内容を取得する(S34)。
【0119】
次に、中央処理部22’は、S33と、S34を実行した場合にはS34とで取得した次可能動作内容の次可能動作と動作計画における次に実行すべき動作とを比較し、一致する次可能動作内容を判別する(S35)。
【0120】
次に、中央処理部22’は、動作条件情報を考慮して次可能動作を実行し、現在位置のポイントを記憶部12’に記憶する(S36)。即ち、中央処理部22’は、判別した次可能動作内容から次可能動作と動作条件情報とを取得し、取得した次可能動作と動作条件情報とを駆動制御部24に転送する。駆動制御部24は、当該次可能動作を実行するために、動作ライブラリ記憶部33の動作ライブラリから当該次可能動作に応じた動作プログラムを取り出す。そして、駆動制御部24は、取り出した動作プログラムに作業条件情報を入力して駆動信号を生成し、駆動信号を駆動部17に出力する。動作プログラムが終了して動作が終了すると、駆動制御部24は、現在位置のポイントを現在位置記憶部36に記憶すると共に、対人サービスロボット2の姿勢を所定の初期姿勢に直し、当該動作の終了を中央処理部22’に通知する。
【0121】
従来では、対人サービスロボットの周囲の状況を判断するための画像処理等高度な情報処理を行う必要があったが、本発明に係る対人サービスロボット2は、動作に必要な動作条件情報を動作支援テーブル320’及び知能化作業対象物3の支援テーブル530の次可能動作内容フィールド322から取得するので、従来必要であった高度な情報処理を必要としない。そして、従来では、対人サービスロボット自体の姿勢を判断するための高度な情報処理を行う必要があったが、本発明に係る対人サービスロボット2は、動作を終了するごとに対人サービスロボット2の姿勢を所定の初期姿勢に直すので、従来必要であった高度な情報処理を必要としない。
【0122】
そして、この通知を受けた中央処理部22’は、次の動作を実行すべく動作計画記憶部35の動作計画を参照し、まず動作計画中の動作が終了しているか否かを判断する(S37)。
【0123】
判断の結果、動作が終了である場合(YES)には、動作の実行を終了し、処理をS11に戻して命令の入力待ち状態となる。一方、判断の結果、動作が終了していない場合(No)には、処理をS31に戻す。
【0124】
そして、S31において、制御部11’の中央処理部22’は、動作計画記憶部35の動作計画テーブルを参照して、次の動作を取り出し、S31乃至S37の処理を上述のように実行する。以後同様に、対人サービスロボット2は、動作計画テーブルの動作が終了するまで順番に動作計画テーブルから次の動作を取り出し、S31乃至S37の処理を上述のように実行する。こうして、対人サービスロボット2は、動作計画テーブルの全動作を実行し、主人の命令を遂行する。
【0125】
例えば、上述の例の「ゴミ箱にゴミを捨てください。」の場合では、図11に示すS11乃至S15の処理を実行することによって、「第1ポイントでは第2ポイントに移動」→「第2ポイントでは第3ポイントに移動」→「第3ポイントではゴミ箱にゴミを捨てる」→「終了」の動作計画が作成される。この場合についてS31乃至S37の処理を具体的に説明すると次の通りである。
【0126】
まず、中央処理部22’は、現在位置記憶部36の記憶内容が「第1ポイント」であると判断する。中央処理部22’は、動作支援テーブル320’から第1ポイント5−1に対応するレコードを検索し、検索したレコードの次可能動作内容フィールド322の次可能動作内容「第2ポイントに移動(θ回転、mcm前進)」、「第4ポイントに移動(θ回転、mcm前進)」、「第6ポイントに移動(θ回転、mcm前進)」及び「第7ポイントに移動(θ回転、mcm前進)」を取得する。次に、中央処理部22’は、「第1ポイント」が作業環境テーブル310のポイント名フィールド311に登録されているレコードを検索し、当該レコードにおける作業対象物名フィールド312の登録内容を参照する。中央処理部22’は、当該登録内容が「−」であるから、「第1ポイント」が知能化作業対象物3のポイントではないと判断する。次に、中央処理部22は、取得した「第2ポイントに移動(θ回転、mcm前進)」、「第4ポイントに移動(θ回転、mcm前進)」、「第6ポイントに移動(θ回転、mcm前進)」及び「第7ポイントに移動(θ回転、mcm前進)」の中から動作計画における「第2ポイントに移動」と一致する次可能動作内容を判別する。そして、中央処理部22は、判別した「第2ポイントに移動(θ回転、mcm前進)」の動作条件情報θ回転、mcm前進を駆動制御部24に転送する。駆動制御部24は、「回転」の動作プログラムによってθだけ対人サービスロボット2が回転するように駆動量判断部23の出力を参照しながら駆動部17を駆動し、「前進」の動作プログラムによってmcmだけ対人サービスロボット2が前進するように駆動量判断部23の出力を参照しながら駆動部17を駆動する。駆動制御部23は、駆動量判断部23の出力に基づいてθ方向にmcmだけ前進したと判断すると、移動を停止して、現在位置であるポイント5−2のポイント名「第2ポイント」を記憶部12に記憶すると共に、対人サービスロボット2の姿勢を所定の初期姿勢に直し、第2ポイントへの移動動作の終了を中央処理部22に通知する。
【0127】
そして、この通知を受けた中央処理部22は、動作計画を参照すると動作の終了ではなく、「第2ポイントでは第3ポイントに移動」であるから、中央処理部22は、動作支援テーブル320’から第2ポイント5−2に対応するレコードを検索し、検索したレコードの次可能動作内容フィールド322の次可能動作内容「第1ポイントに移動(θ20回転、m20cm前進)」、「第3ポイントに移動(θ回転、mcm前進)」、「第4ポイントに移動(θ21回転、m21cm前進)」及び「第6ポイントに移動(θ22回転、m22cm前進)」を取得する。次に、中央処理部22’は、「第2ポイント」が作業環境テーブル310のポイント名フィールド311に登録されているレコードを検索し、当該レコードにおける作業対象物名フィールド312の登録内容を参照する。中央処理部22’は、当該登録内容が「−」であるから、「第2ポイント」が知能化作業対象物3のポイントではないと判断する。次に、中央処理部22は、取得した「第1ポイントに移動(θ20回転、m20cm前進)」、「第3ポイントに移動(θ回転、mcm前進)」、「第4ポイントに移動(θ21回転、m21cm前進)」及び「第6ポイントに移動(θ22回転、m22cm前進)」の中から動作計画における「第3ポイントに移動」と一致する次可能動作内容を判別する。そして、中央処理部22は、判別した「第3ポイントに移動(θ回転、mcm前進)」の動作条件情報θ回転、mcm前進を駆動制御部24に転送する。駆動制御部24は、「回転」の動作プログラムによってθだけ対人サービスロボット2が回転するように駆動量判断部23の出力を参照しながら駆動部17を駆動し、「前進」の動作プログラムによってmcmだけ対人サービスロボット2が前進するように駆動量判断部23の出力を参照しながら駆動部17を駆動する。駆動制御部23は、駆動量判断部23の出力に基づいてθ方向にmcmだけ前進したと判断すると、移動を停止して、現在位置であるポイント5−3のポイント名「第3ポイント」を記憶部12に記憶すると共に、対人サービスロボット1の姿勢を所定の初期姿勢に直し、第3ポイントへの移動動作の終了を中央処理部22に通知する。
【0128】
そして、この通知を受けた中央処理部22は、動作計画を参照すると動作の終了ではなく、「第3ポイントではゴミ箱にゴミを捨てる」であるから、中央処理部22は、動作支援テーブル320’から第3ポイント5−3に対応するレコードを検索し、検索したレコードの次可能動作内容フィールド322の次可能動作内容「第2ポイントに移動(θ30回転、m31cm前進)」、「第5ポイントに移動(θ31回転、m31cm前進)」及び「第8ポイントに移動(θ回転、mcm前進)」を取得する。次に、中央処理部22’は、「第3ポイント」が作業環境テーブル310のポイント名フィールド311に登録されているレコードを検索し、当該レコードにおける作業対象物名フィールド312の登録内容を参照する。中央処理部22’は、当該登録内容が「ゴミ箱」であるから、「第3ポイント」が知能化作業対象物3のポイントであると判断する。中央処理部22’は、ゴミ箱から支援情報を取得すべく、支援情報要求信号を送信する。
【0129】
この支援情報要求信号を受信したゴミ箱の支援情報処理部62は、支援テーブル530から回答フラグの値が「1」であるレコードを検索し、検索したレコードの次可能動作内容フィールド533に登録されている次可能動作内容を読み出して、読み出した次可能動作内容を含む支援情報返信信号を対人サービスロボット2に返信する。
【0130】
ここで、支援情報返信信号には、回答フラグの値に応じて「ゴミ箱にゴミを捨てる(高さHcm以上)」又は「ゴミ箱を持ってダストシュートに捨てる(高さHcm;A型取手を把持できること)」の何れか一方が含まれる。
【0131】
支援情報返信信号に「ゴミ箱にゴミを捨てる(高さHcm以上)」が含まれる場合には、対人サービスロボット2の中央処理部22’は、この支援情報返信信号から「ゴミ箱にゴミを捨てる(高さHcm以上)」を取得する。中央処理部22’は、取得した「第2ポイントに移動(θ30回転、m31cm前進)」、「第5ポイントに移動(θ31回転、m31cm前進)」、「第8ポイントに移動(θ回転、mcm前進)」及び「ゴミ箱にゴミを捨てる(高さHcm以上)」の中から動作計画における「ゴミ箱にゴミを捨てる」と一致する次可能動作内容を判別する。そして、中央処理部22は、判別した「ゴミ箱にゴミを捨てる(高さHcm以上)」の動作条件情報高さHcm以上を駆動制御部24に転送する。駆動制御部24は、「捨てる」の動作プログラムによって高さHcm以上で対人サービスロボット2が捨てるように駆動量判断部23の出力を参照しながら駆動部17を駆動する。駆動制御部23は、「捨てる」の動作プログラムが終了すると、現在位置であるポイント5−3のポイント名「第3ポイント」を記憶部12に記憶すると共に、対人サービスロボット1の姿勢を所定の初期姿勢に直し、ゴミを捨てる動作の終了を中央処理部22に通知する。中央処理部22は、動作計画を参照すると「終了」であるので、動作を終了して作業入力の入力待ち状態となる。
【0132】
一方、支援情報返信信号に「ゴミ箱を持ってダストシュートに捨てる(高さHcm;A型取手を把持できること)」が含まれる場合には、対人サービスロボット2の中央処理部22’は、この支援情報返信信号から「ゴミ箱を持ってダストシュートに捨てる(高さHcm;A型取手を把持できること)」を取得する。中央処理部22’は、取得した「第2ポイントに移動(θ30回転、m31cm前進)」、「第5ポイントに移動(θ31回転、m31cm前進)」、「第8ポイントに移動(θ回転、mcm前進)」及び「ゴミ箱を持ってダストシュートに捨てる(高さHcm;A型取手を把持できること)」の中から動作計画における「ゴミ箱にゴミを捨てる」と一致する次可能動作内容を判別する。この場合には、一致する次可能動作内容がないので、中央処理部22は、エラー処理する。エラー処理は、例えば、対人サービスロボット2が「命令を実行できません。」と発話し、主人に助けを求める。
【0133】
なお、第2の実施形態では、S33及びS34の処理において、対人サービスロボット2の現在位置が知能化作業対象物3のポイントである場合に、対人サービスロボット2が支援情報要求信号を送信して知能化作業対象物3から支援情報返信信号を受信するように構成したが、対人サービスロボット2は、ポイントごとに支援情報要求信号を送信し、支援情報返信信号の受信を一定時間待つように構成してもよい。あるいは、知能化作業対象物3が支援情報要求信号を待つことなく、支援情報返信信号を対人サービスロボット2に送信するように構成してもよい。この場合において、知能化作業対象物3は、図9に破線で示すように、対物検出部55及び制御部51内に近接判断部64をさらに備える。対物検出部55は、超音波や電波等を発信しそのエコーを受信するまでの時間を計時することによって物体の検出と物体までの距離とを検出する回路である。近接判断部64は、対物検出部55の出力に基づいて検出した物体が一定距離以内になった場合には、その旨を支援情報処理部62に出力する。支援情報処理部62は、近接判断部64から出力があると、動作支援情報記憶部521の記憶内容を参照して支援情報返信信号を通信処理部61及び通信部53を用いて送信する。
【0134】
また、第2の実施形態では、知能化作業対象物3における動作に関する次可能動作内容は、知能化作業対象物3の支援テーブル530に登録し、各ポイントにおける他のポイントへの移動に関する次可能動作内容は、対人サービスロボット2の動作支援テーブル320’に登録したが、知能化作業対象物3のポイントにおける他のポイントへの移動に関する次可能動作内容も知能化作業対象物3の支援テーブル530に登録するように構成してもよい。
【0135】
図12は、第2の実施形態の変形形態における動作支援テーブル320”の構成を示す図である。図13は、第2の実施形態の変形形態におけるゴミ箱の支援テーブルの構成を示す図である。図14は、第2の実施形態の変形形態における経路探索テーブルの構成を示す図である。
【0136】
この第2の実施形態における変形形態では、動作支援情報記憶部32’に記憶される動作支援テーブル320”は、図12に示すように、知能化作業対象物3のポイントを除くポイントに対するレコードのみを備える。そして、知能化作業対象物3のポイントにおける移動動作に関する次可能動作内容は、当該知能化作業対象物3の支援テーブル530’に登録される。例えば、図2に示す作業空間10の場合であってゴミ箱の支援テーブル530’−1は、図13に示すように、作業対象物名フィールド531に「ゴミ箱」を状態フィールド532に「ゴミ投入可」を次可能動作内容フィールド533に「ゴミを入れる(高さHcm以上)」を回答フラグフィールド534に「0」をそれぞれ登録したレコード、及び、作業対象物名フィールド531に「ゴミ箱」を状態フィールド532に「ゴミ一杯」を次可能動作内容フィールド533に「ゴミ箱を持ってダストシュートに捨てる(高さHcm;A型取手を把持できること)」を回答フラグフィールド534に「1」をそれぞれ登録したレコードに加えて、作業対象物名フィールド531に「ゴミ箱」を状態フィールド532に「−」を次可能動作内容フィールド533に「第8ポイントに移動(θ回転、mcm前進)」をそれぞれ登録したレコード、作業対象物名フィールド531に「ゴミ箱」を状態フィールド532に「−」を次可能動作内容フィールド533に「第5ポイントに移動(θ13回転、m13cm前進)」をそれぞれ登録したレコード、及び、作業対象物名フィールド531に「ゴミ箱」を状態フィールド532に「−」を次可能動作内容フィールド533に「第2ポイントに移動(θ14回転、m14cm前進)」をそれぞれ登録したレコードをさらに備える。
【0137】
この第2の実施形態の変形形態では、動作支援テーブル320”には作業空間10における全てのポイントが登録されないので、図5や図11に示すS11乃至S15の処理では、動作計画及び移動経路を決定することができない。そこで、図14に示す経路探索テーブル410を記憶部12’にさらに記憶する。
【0138】
この経路探索テーブル410は、移動先のポイント名を登録する移動先ポイント名フィールド411及び当該移動先ポイント名のポイントへ移動可能なポイントをポイント名で登録する移動元ポイント名フィールド412の各フィールドを備え、ポイントごとにレコードが作成される。例えば、図2に示す作業空間10の場合では、経路探索テーブル410は、図14に示すように、第1ポイント乃至第8ポイントに対応して8個のレコードが作成され、例えば、第1ポイントのレコードは、移動先ポイント名フィールド411に「第1ポイント」を移動元ポイント名フィールド412に「第2ポイント、第4ポイント、第6ポイント、第7ポイント」をそれぞれ登録する。
【0139】
このような経路探索テーブル410を用いた移動経路の探索について説明する。中央処理部22’は、出発位置のポイントから移動目標のポイントまで行く移動経路を探索するために、まず、経路探索テーブル410の移動先ポイント名フィールド411に移動目標のポイント名が登録されているレコードを検索し、そのレコードの移動元ポイント名フィールド412を参照し、登録されているポイント名を記憶部12に一時的に記憶する。中央処理部22’は、参照したポイント名に出発位置のポイント名があれば、移動目標のポイントまでの移動経路が探索されたと判断し、記憶部12から探索したポイント名を取り出して移動経路を決定する。一方、中央処理部22’は、参照したポイント名が出発位置のポイント名ではない場合には、参照したポイント名のポイントを新たな移動目標のポイントとして経路探索テーブル410の移動先ポイント名フィールド411に新たな移動目標としたポイント名が登録されているレコードを検索し、そのレコードの移動元ポイント名フィールド412を参照する。これを参照した移動元ポイント名フィールド412に出発位置のポイントが登録されているまで繰り返す。
【0140】
より具体的には、例えば、図14に示す経路探索テーブル410の場合であって第1ポイントから第3ポイントまで移動する移動経路を探索する場合では、中央処理部22’は、まず、経路探索テーブル410の移動先ポイント名フィールド411に「第3ポイント」が登録されているレコードを検索し、そのレコードの移動元ポイント名フィールド412を参照し、登録されている「第2ポイント、第5ポイント、第8ポイント」を記憶部12’に一時的に記憶する。中央処理部22’は、参照したポイント名に「第1ポイント」がないので、参照した第2ポイント、第5ポイント及び第8ポイント」をそれぞれ新たな移動目標のポイントとして経路探索テーブル410の移動先ポイント名フィールド411に第2ポイント、第5ポイント又は第8ポイントが登録されているレコードをそれぞれ検索し、そのレコードの移動元ポイント名フィールド412を参照する。参照した結果、移動先ポイント名フィールド411に「第5ポイント」が登録されているレコード及び移動先ポイント名フィールド411に「第8ポイント」が登録されているレコードの移動元ポイント名フィールド412には、何れも第1ポイントが登録されておらず、移動先ポイント名フィールド411に「第2ポイント」が登録されているレコードの移動元ポイント名フィールド412に出発位置である第1ポイントが登録されているので、中央処理部22’は、移動経路が探索されたと判断し、記憶部12’の記憶内容から、第1ポイント→第2ポイント→第3ポイントと移動経路を決定する。
【0141】
以上の移動経路の探索を第2の実施形態におけるS15の移動経路の探索処理の代わりに行う。また、第1の実施形態においても図14に示す経路探索テーブル410をさらに記憶部12に記憶させ、中央処理部22は、第1の実施形態におけるS15の移動経路の探索処理の代わりに上述の処理を行ってもよい。
【0142】
このような対人サービスロボット1、2では、経路探索テーブル410を備えるので、ポイント数又は各ポイントにおける次可能動作内容の数が増大したために動作支援テーブル320、320’のレコード数が増大したとしても、移動経路の探索処理を迅速に行うことができる。
【0143】
そして、第1及び第2の実施形態では、動作計画には、次可能動作だけを登録したが、動作条件情報も登録するように構成してもよい。この場合では、第1の実施形態では、S14の処理やS15の処理において、動作計画に動作条件情報も登録され、S17の処理で動作計画から次可能動作内容の取得が行われ、S18の処理を行うことなく、S19の処理が行われる。第2の実施形態では、S14の処理やS15の処理において、動作計画に動作条件情報も登録され、S31の現在位置の判断の処理を行う。そして、S33の作業対象物のポイントであるか否かの判断を行い、作業対象物のポイントである場合にはS34の処理を行い、作業対象物のポイントではない場合にはS33の処理を行う。次に、S35の処理を行うことなく、S36の処理を行う。
【0144】
また、第1及び第2の実施形態では、音声入力部15及び音声認識部13を用いて、主人の命令を音声によって入力したが、これらの代わりにキーボードやペン入力等を用いて主人の命令を直接テキストデータで入力するように構成してもよい。あるいは、例えばこれらの代わりに赤外線の通信部を備えて、キーボードやペン入力等を備えた入力端末からテキストデータを入力するように構成してもよい。
【0145】
さらに、第1及び第2の実施形態では、音声生成部14及び音声出力部16を用いて、質問データを音声によって出力したが、これらの代わりにCRTやLCD等の表示部を用いて質問データを直接テキストデータで表示出力するように構成してもよい。あるいは、例えばこれらの代わりに赤外線の通信部を備えて、表示部を備えた出力端末からテキストデータを表示出力するように構成してもよい。そして、出力端末に上述のキーボードやペン入力等をさらに備えさせて、入出力端末を構成してもよい。
【0146】
また、第1及び第2の実施形態では、対人サービスロボット1、2と主人との間で音声による対話的な情報交換を行う実施形態を説明したが、対人サービスロボット1、2同士間や対人サービスロボット1、2と知能化作業対象物3との間においても、音声による対話的な情報交換を行うように構成してもよい。
【0147】
【発明の効果】
以上説明したように、本発明の請求項1に係るロボット及び請求項10に係る対人サービスロボットは、ポイントで動作を実行する場合に当該ポイントに付与された動作支援情報を基づいて駆動手段を制御することによって動作を実現する。このため、動作を実行する際に従来のような画像処理や高精度な対物位置検出による状況判断等が不要となるので、このような構成のロボット及び対人サービスロボットは、簡易な情報処理能力で自律動作を実現することができる。その結果、従来に較べて低価格でロボット及び対人サービスロボットを市場に供給することができる。
【0148】
そして、本発明の請求項2に係るロボットは、請求項1に係るロボットの効果に加えて、動作支援情報をテーブル形式で記憶するので、ポイント名をキーに迅速に次可能動作内容を検索することができ、ロボットは、ポイントで素早く動作を実行することができる。
【0149】
また、本発明の請求項3に係るロボットは、請求項2に係るロボットの効果に加えて、動作条件情報も動作支援情報記憶手段に記憶されるので、この動作条件情報に基づいて動作が可能か否かの判断や動作手順の判断等を容易に行うことができる。
【0150】
さらに、本発明の請求項4に係るロボットは、請求項1乃至請求項3に係るロボットの効果に加えて、動作を終了するたびに所定の姿勢にするので、次の動作を開始する前に、ロボット自身がどのような姿勢であるのか判断する必要がない。そのため、姿勢を判断するための情報収集や解析を行う必要がなく、情報処理の負担が軽減される。
【0151】
そして、本発明の請求項5に係るロボットは、請求項1乃至請求項4に係るロボットの効果に加えて、動作支援情報を作業空間内の作業対象物から取得するので、ポイントにおける全ての動作支援情報を動作支援情報記憶手段に記憶する必要がない。そのため、動作支援情報記憶手段の記憶容量をより少なくすることができ、ロボットのコストを下げることができる。さらに、このような構成のロボットは、動作支援情報を作業空間内の作業対象物から取得するので、動作が可能か否かの判断や動作手順の判断等を行うための情報を収集するセンサが不要となり、そして、このような判断を行う情報処理も不要となる。そのため、ロボットのコストを下げることができる。
【0152】
また、本発明の請求項6に係るロボットは、請求項1乃至請求項5の効果に加えて、第1作業対象物に関係する第2作業対象物の存在の有無や配置位置を対話によって容易に把握することができる。
【0153】
一方、本発明の請求項7に係るロボットの動作の対象となる作業対象物は、通信手段、動作支援情報記憶手段及び制御手段を備えて知能化されており、ロボットに動作支援情報を提供することができる。そのため、ロボットは、ポイントにおける全ての動作支援情報を動作支援情報記憶手段に記憶する必要がないから、動作支援情報記憶手段の記憶容量をより少なくすることができ、ロボットのコストを下げることができる。
【0154】
そして、本発明の請求項8に係るロボットの動作の対象となる作業対象物は、請求項7に係る作業対象物の効果に加えて、作業対象物の状態を検出することができるので、作業対象物は、状態に応じた動作支援情報をロボットに提供することができる。
【0155】
さらに、本発明の請求項9に係るロボットの動作の対象となる作業対象物は、請求項7及び請求項8に係る作業対象物の効果に加えて、対物検出手段を備えるので近づく物体を検出することができ、所定の距離以内に近づいた場合に動作支援情報を送信することができる。このため、ロボットの移動における位置精度が低精度でも、ロボットは、動作支援情報を作業対象物から取得することができる。
【図面の簡単な説明】
【図1】第1の実施形態における対人サービスロボットの構成を示す図である。
【図2】第1の実施形態における作業空間を示す平面図である。
【図3】第1の実施形態における作業環境テーブルの構成を示す図である。
【図4】第1の実施形態における動作支援テーブルの構成を示す図である。
【図5】第1の実施形態における対人サービスロボットの動作を示すフローチャートである。
【図6】拡張作業環境テーブルの構成を示す図である。
【図7】第2の実施形態における対人サービスロボットの構成を示す図である。
【図8】第2の実施形態における動作支援テーブルの構成を示す図である。
【図9】第2の実施形態における作業対象物の構成を示す図である。
【図10】第2の実施形態における支援情報テーブルの構成を示す図である。
【図11】第2の実施形態における対人サービスロボット2の動作を示すフローチャートである。
【図12】第2の実施形態の変形形態における動作支援テーブル320”の構成を示す図である。
【図13】第2の実施形態の変形形態におけるゴミ箱の支援テーブルの構成を示す図である。
【図14】第2の実施形態の変形形態における経路探索テーブルの構成を示す図である。
【符号の説明】
1、2 対人サービスロボット、3 知能化作業対象物、5 ポイント、11、11’、51 制御部、12、12’、52 記憶部、13 音声認識部、14音声生成部、15 音声入力部、16 音声出力部、17 駆動部、18、53 通信部、21 対話処理部、22 、22’中央処理部、23 駆動量判断部、24 駆動制御部、25、61 通信処理部、31 作業環境情報記憶部、32、32’、521 動作支援情報記憶部、33 動作ライブラリ記憶部、34 辞書記憶部、35 動作計画記憶部、36 現在位置記憶部、54 検出部、55 対物検出部、62 支援情報処理部、63 検出出力処理部、64 近接判断部、310、310’ 作業環境テーブル、311、321 ポイント名フィールド、312 ポイント座標値フィールド、313、531 作業対象物名フィールド、313’ 作業対象物名1フィールド、314 作業対象物名2フィールド、320、320’、320” 動作支援テーブル、322、533次可能動作内容、530、530’ 支援テーブル、532 状態フィールド、534 回答フラグフィールド

Claims (10)

  1. 動作を実現する駆動手段と、
    作業空間に予め設定され移動目標の目印であるポイントに付与された、動作を支援するための情報である動作支援情報を記憶する動作支援情報記憶手段と、
    ポイントで動作を実行する場合に該ポイントの動作支援情報に基づいて前記駆動手段を制御する制御手段とを備えること
    を特徴とするロボット。
  2. 前記動作支援情報記憶手段は、ポイントのポイント名を登録するポイント名フィールドと、該ポイントにおいて次に動作することができる動作内容を示す次可能動作内容を登録する次可能動作内容フィールドとを対応付けた動作支援テーブルを前記動作支援情報として記憶すること
    を特徴とする請求項1に記載のロボット。
  3. 前記次可能動作内容フィールドには、動作を実現するために満たすべき条件に関する情報である動作条件情報も登録され得ること
    を特徴とする請求項2に記載のロボット。
  4. 前記制御手段は、動作を終了するたびに所定の姿勢となるように前記駆動手段をさらに制御すること
    を特徴とする請求項1乃至請求項3の何れか1項に記載のロボット。
  5. 外部と通信を行うための通信手段をさらに備え、
    前記制御手段は、前記通信手段を用いて、前記作業空間内における動作の対象となる作業対象物から前記動作支援情報を取得すること
    を特徴とする請求項1乃至請求項4の何れか1項に記載のロボット。
  6. データを入力する入力手段と、
    入力されたデータの内容を認識するために必要な言葉を登録した辞書を記憶する辞書記憶手段と、
    前記作業空間内における動作の対象となる第1作業対象物の配置位置を前記ポイントと対応付けて記憶する作業環境情報記憶手段と、
    前記入力手段によって入力されたデータから前記辞書を用いて前記データの内容を認識する対話処理手段と、
    前記対話処理手段によって前記データから動作の対象となる第2作業対象物と前記第1作業対象物とが関連付けられていると認識された場合に、前記第2作業対象物を前記第1作業対象物に対応付けて前記作業環境情報記憶手段にさらに記憶させる処理手段とをさらに備えること
    を特徴とする請求項1乃至請求項5の何れか1項に記載のロボット。
  7. ロボットの動作の対象となる該ロボットに情報提供可能な作業対象物において、
    外部と通信を行うための通信手段と、
    前記ロボットの動作を支援するための情報である動作支援情報を記憶する動作支援情報記憶手段と、
    前記ロボットから動作支援情報を要求された場合に前記通信手段を用いて前記ロボットに前記動作支援情報記憶手段に記憶する動作支援情報を送信する制御手段とを備えること
    を特徴とする作業対象物。
  8. 状態を検出する検出手段をさらに備え、
    前記制御手段は、前記検出手段で検出した状態に応じた動作支援情報を送信すること
    を特徴とする請求項7に記載の作業対象物。
  9. 物体の有無を検出する対物検出手段をさらに備え、
    前記制御手段は、前記対物検出手段の出力に基づいて所定の距離以内に物体がある場合には、前記動作支援情報記憶手段に記憶する動作支援情報を送信すること
    を特徴とする請求項7又は請求項8に記載の作業対象物。
  10. 動作を実現する駆動手段と、
    作業空間に予め設定され移動目標の目印であるポイントに付与された、動作を支援するための情報である動作支援情報を記憶する動作支援情報記憶手段と、ポイントで動作を実行する場合に該ポイントの動作支援情報に基づいて前記駆動手段を制御する制御手段とを備えること
    を特徴とする人間にサービスを提供する対人サービスロボット。
JP2003038814A 2003-02-17 2003-02-17 ロボット及び該ロボットに情報提供可能な作業対象物並びに対人サービスロボット Withdrawn JP2004243504A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003038814A JP2004243504A (ja) 2003-02-17 2003-02-17 ロボット及び該ロボットに情報提供可能な作業対象物並びに対人サービスロボット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003038814A JP2004243504A (ja) 2003-02-17 2003-02-17 ロボット及び該ロボットに情報提供可能な作業対象物並びに対人サービスロボット

Publications (1)

Publication Number Publication Date
JP2004243504A true JP2004243504A (ja) 2004-09-02

Family

ID=33023229

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003038814A Withdrawn JP2004243504A (ja) 2003-02-17 2003-02-17 ロボット及び該ロボットに情報提供可能な作業対象物並びに対人サービスロボット

Country Status (1)

Country Link
JP (1) JP2004243504A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008149427A (ja) * 2006-12-19 2008-07-03 Mitsubishi Heavy Ind Ltd ロボットによる物体を移動するサービスに必要な情報の取得方法と該方法を用いたロボットによる物体移動サービスシステム
JP2009269162A (ja) * 2008-04-09 2009-11-19 Yaskawa Electric Corp ロボットの制御プログラム構築方法およびロボットシステム
EP2369436A2 (en) 2010-03-26 2011-09-28 Sony Corporation Robot apparatus, information providing method carried out by the robot apparatus and computer storage media
JP2015134395A (ja) * 2014-01-17 2015-07-27 蛇の目ミシン工業株式会社 ロボット、ロボットの制御方法、及びロボットの制御プログラム
JP2018005653A (ja) * 2016-07-05 2018-01-11 富士ゼロックス株式会社 移動ロボットおよび移動制御システム
JP2020075326A (ja) * 2018-11-08 2020-05-21 トヨタ自動車株式会社 ロボット
CN112965603A (zh) * 2021-03-26 2021-06-15 南京阿凡达机器人科技有限公司 一种人机交互的实现方法和系统
JPWO2022085625A1 (ja) * 2020-10-19 2022-04-28
JP7412414B2 (ja) 2019-03-22 2024-01-12 三菱重工サーマルシステムズ株式会社 制御装置、機器制御システム、制御方法及びプログラム

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008149427A (ja) * 2006-12-19 2008-07-03 Mitsubishi Heavy Ind Ltd ロボットによる物体を移動するサービスに必要な情報の取得方法と該方法を用いたロボットによる物体移動サービスシステム
JP2009269162A (ja) * 2008-04-09 2009-11-19 Yaskawa Electric Corp ロボットの制御プログラム構築方法およびロボットシステム
EP2369436A2 (en) 2010-03-26 2011-09-28 Sony Corporation Robot apparatus, information providing method carried out by the robot apparatus and computer storage media
US8972054B2 (en) 2010-03-26 2015-03-03 Sony Corporation Robot apparatus, information providing method carried out by the robot apparatus and computer storage media
JP2015134395A (ja) * 2014-01-17 2015-07-27 蛇の目ミシン工業株式会社 ロボット、ロボットの制御方法、及びロボットの制御プログラム
CN107571262A (zh) * 2016-07-05 2018-01-12 富士施乐株式会社 移动机器人、移动控制系统以及移动控制方法
JP2018005653A (ja) * 2016-07-05 2018-01-11 富士ゼロックス株式会社 移動ロボットおよび移動制御システム
US11279031B2 (en) 2016-07-05 2022-03-22 Fujifilm Business Innovation Corp. Mobile robot, movement control system, and movement control method
CN107571262B (zh) * 2016-07-05 2022-05-17 富士胶片商业创新有限公司 移动机器人、移动控制系统以及移动控制方法
JP2020075326A (ja) * 2018-11-08 2020-05-21 トヨタ自動車株式会社 ロボット
JP7412414B2 (ja) 2019-03-22 2024-01-12 三菱重工サーマルシステムズ株式会社 制御装置、機器制御システム、制御方法及びプログラム
JPWO2022085625A1 (ja) * 2020-10-19 2022-04-28
JP7367231B2 (ja) 2020-10-19 2023-10-23 株式会社Preferred Robotics 自律走行車、制御装置及びプログラム
CN112965603A (zh) * 2021-03-26 2021-06-15 南京阿凡达机器人科技有限公司 一种人机交互的实现方法和系统

Similar Documents

Publication Publication Date Title
US7983794B2 (en) Interface apparatus and mobile robot equipped with the interface apparatus
US10170117B2 (en) User-guided teaching an object of a deictic reference to a machine
CN107000208B (zh) 库存系统中物品的机器人抓取
JP7027914B2 (ja) 移動体、荷物仕分支援方法、荷物仕分支援プログラム及び荷物仕分支援システム
JP4786519B2 (ja) ロボットによる物体を移動するサービスに必要な情報の取得方法と該方法を用いたロボットによる物体移動サービスシステム
CN100578149C (zh) 信息处理设备、便携式装置、以及信息处理方法
CN103674012B (zh) 语音定制方法及其装置、语音识别方法及其装置
EP1610221A1 (en) Information providing device, method, and information providing system
WO1999060338A1 (fr) Dispositif de traitement de donnees et systeme de navigation pour pietons utilisant ce dispositif
JP2004243504A (ja) ロボット及び該ロボットに情報提供可能な作業対象物並びに対人サービスロボット
JP2006102861A (ja) ロボットおよびロボットシステム
CN114728417A (zh) 由远程操作员触发的机器人自主对象学习
JP2019198945A (ja) 把持装置、タグが付された容器、対象物把持プログラムおよび対象物把持方法
JP7192748B2 (ja) 搬送システム、学習済みモデル生成方法、学習済みモデル、制御方法およびプログラム
JP2004042148A (ja) 移動ロボット
JP2005066745A (ja) 案内ロボットシステム
CN108733059A (zh) 一种导览方法及机器人
US20220281106A1 (en) Control platform, control system, service providing system, service providing method, and control method
JP2016101612A (ja) 物品搬送用ロボット
JP4178846B2 (ja) 自律駆動式支援装置およびプログラム
WO2019127437A1 (zh) 地图标注的方法、装置、云端服务器、终端及应用程序
KR20160116445A (ko) 지능형 공구 심부름 로봇
US20220314432A1 (en) Information processing system, information processing method, and nonvolatile storage medium capable of being read by computer that stores information processing program
US20210260753A1 (en) Training processing device, intermediation device, training system, and training processing method
WO2020008754A1 (ja) 情報処理装置、最適時間推定方法、自己位置推定方法及びプログラムを記録した記録媒体

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060509