JP2013061715A - 人物監視システム、ロボット、人物監視方法およびロボット制御プログラム - Google Patents

人物監視システム、ロボット、人物監視方法およびロボット制御プログラム Download PDF

Info

Publication number
JP2013061715A
JP2013061715A JP2011198342A JP2011198342A JP2013061715A JP 2013061715 A JP2013061715 A JP 2013061715A JP 2011198342 A JP2011198342 A JP 2011198342A JP 2011198342 A JP2011198342 A JP 2011198342A JP 2013061715 A JP2013061715 A JP 2013061715A
Authority
JP
Japan
Prior art keywords
person
robot
monitoring
monitoring target
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011198342A
Other languages
English (en)
Other versions
JP5765153B2 (ja
Inventor
Shinichi Onaka
慎一 大中
Yasuyoshi Kogure
泰美 小暮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2011198342A priority Critical patent/JP5765153B2/ja
Publication of JP2013061715A publication Critical patent/JP2013061715A/ja
Application granted granted Critical
Publication of JP5765153B2 publication Critical patent/JP5765153B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)
  • Emergency Alarm Devices (AREA)
  • Alarm Systems (AREA)

Abstract

【課題】監視対象者に対して正面側から話しかけることができ、かつ、監視対象者が建物の出入り口から出ることを防止することができる人物監視システム、ロボット、人物監視方法およびロボット制御プログラムを提供する。
【解決手段】所定エリア内に進入した移動物が監視対象者であるか否かを判定する人物判断手段21と、人物判断手段21が移動物が監視対象者であると判定した場合に、監視対象者の移動経路を推定し、推定した移動経路上に移動し、監視対象者の正面側から監視対象者に対して対話を実行するロボット30とを含む。
【選択図】図11

Description

本発明は、監視対象者が建物の出入り口から出ることを防止するための人物監視システム、ロボット、人物監視方法およびロボット制御プログラムに関する。
介護施設などに入居する認知症者は、自分の住んでいた家などに戻ろうとして、施設の外に出ようとすることがある。認知症者が施設の外に出てしまった場合、その認知症者を探すために、施設の職員が大変な労力を費やすことになる。また、認知症者が行方不明になってしまうおそれがある。
認知症者が入居する施設では、認知症者が別のフロアや施設の外に出て行かないように、何らかの対策を講じている。対策の一つとして、例えば、フロアの出入り口付近にICカードリーダを設置して、施設の職員のみが持つICカードをICカードリーダにかざさないと出入り口の扉が開かないようにして、別のフロアにつながる階段や外につながるロビーに認知症者が出られないようにする方法がある。
認知症者は、外に続く扉が開けられない場合に、自分の希望が叶わないことで不穏になったり、「なぜ外に出られないのか」などといった不満を施設職員に対して訴えたりすることがある。認知症者の場合、不満が一旦は収まったとしても、再び外に出ようとしたり不満を訴えたりすることがあるため、職員の負担が大きくなる。
施設などの出入り口から出ようとする認知症者に対して離設(施設から出て行くこと。)を思いとどまらせるためには、認知症者に話しかけて会話を行うことが有効である。
非特許文献1には、ロボットが、認知症者に対して、スケジュールに沿った行動の促しを行い、その促しに対する認知症者の行動を確認する方法が記載されている。非特許文献1に記載の方法は、ロボットが認知症者に話しかけて認知症者と何らかの会話を行ったり、離設することとは関係のない行動を認知症者に促したりすることによって、認知症者に離設願望を忘れさせて、認知症者が施設の外に出ることを防止している。
特許文献1には、特定の人物(主人)に追従して自律的に移動し、主人の状態および周囲環境にもとづいて予測した主人の危険度が所定値よりも高い場合に、危険回避動作を行う装置が記載されている。危険回避動作とは、例えば、主人が横断歩道を渡るときに右側から車両が近づいている場合には、主人の前に移動して主人を止めることにより、主人の安全を確保する動作などである。
特許文献2には、対象者の年齢および反応に応じて適切な発話を行うことができるロボットが記載されている。
特許文献3には、周囲に人を検出した場合に、検出した人の方向に本体部を向けて移動用モータを駆動させて、その人に近づくことができるロボットが記載されている。
特開2007−102488号公報 特開2009−178783号公報 特許第4556024号公報
成田拓也、二瓶美里、石渡利奈、小野田穣、小竹元基、鎌田実、大中慎一、井上剛伸、「認知症を対象とした対話型情報支援システムの開発」ヒューマンインタフェース学会、ヒューマンインタフェースシンポジウム2010、CD−ROM、p.29−34, 2010
認知症者は、遠くから話しかけられたときに、話しかけた人に近づこうとすることがある。また、後ろから話しかけられたときに、後ろを振り向こうとすることがある。そのときに、認知症者がバランスを崩して転倒したりするおそれがある。そのため、認知症者に対して話しかける場合には、健常者に対して話しかける場合と異なり、「近づいて話しかける(遠くから話しかけない)」、「後ろから話しかけない」などといった注意が必要になる。
非特許文献1に記載の方法は、認知症者がロボットの目の前にいることを前提としている。そのため、ロボットから離れたところにいる認知症者に対しては、認知症者の近くから話しかけることができない。
特許文献1に記載の装置は、主人の前に移動して主人に注意を促すことが可能であるが、装置が常に主人に追従していなければならない。また、主人のそばについて移動する必要があるので、特定の人物しか保護することができない。複数の人物を保護する必要がある場合には、人数に応じた台数の装置が必要となり、建物の中など、限られた空間での使用には適さない。
特許文献3に記載のロボットは、人を検出して、自律的にその人に近づくことができるが、人の目の前に移動する機能を備えていない。
ロボットなどの自立移動可能な装置を人の目の前に移動させることは技術的に困難な場合が多い。例えば、歩いている人の目の前にロボットを移動させるためには、随時、その人の位置および正面の方向を検知しながら、ロボットを制御しなければならない。
そこで、本発明は、監視対象者に対して正面側から話しかけることができ、かつ、監視対象者が建物の出入り口から出ることを防止することができる人物監視システム、ロボット、人物監視方法およびロボット制御プログラムを提供することを目的とする。
本発明による人物監視システムは、所定エリア内に進入した移動物が監視対象者であるか否かを判定する人物判断手段と、人物判断手段が移動物が監視対象者であると判定した場合に、監視対象者の移動経路を推定し、推定した移動経路上に移動し、監視対象者の正面側から監視対象者に対して対話を実行するロボットとを含むことを特徴とする。
本発明による人物監視システムは、所定エリア内に進入した移動物を検知した場合に、移動物を特定可能な識別情報を送信する移動物検知手段を含む検出装置と、検出装置から受信した識別情報と監視対象者情報テーブルとをもとに、識別情報で特定される移動物が監視対象者であるか否かを判定し、移動物が監視対象者である場合には、監視対象者が発見されたことを示す発見信号を送信する人物判断手段を含む端末装置と、端末装置と通信可能なロボットとを含み、ロボットは、撮像装置と音声出力装置とを備え、端末装置から発見信号を受信した場合に監視対象者の移動経路を推定する移動経路推定手段と、移動経路推定手段が推定した移動経路上の指定地点にロボットを移動させるための移動情報を生成する移動情報決定手段と、移動情報にもとづいてロボットを指定地点に移動させる移動制御手段と、撮像装置が出力する画像信号から監視対象者とロボットとの距離および監視対象者の顔の向きを判定する人物認識手段と、人物認識手段の判定結果にもとづいて、距離が予め指定された対話可能距離以下であって、監視対象者の顔がロボットの方を向いていると判断した場合に、台詞情報にもとづいた音声信号を音声出力装置から出力する対話手段とを含むことを特徴とする。
本発明によるロボットは、撮像装置と音声出力装置とを備え、端末装置から監視対象者が発見されたことを示す発見信号を受信した場合に監視対象者の移動経路を推定する移動経路推定手段と、移動経路推定手段が推定した移動経路上の指定地点にロボットを移動させるための移動情報を生成する移動情報決定手段と、移動情報にもとづいてロボットを指定地点に移動させる移動制御手段と、撮像装置が出力する画像信号から監視対象者とロボットとの距離および監視対象者の顔の向きを判定する人物認識手段と、人物認識手段の判定結果にもとづいて、距離が予め指定された対話可能距離以下であって、監視対象者の顔がロボットの方を向いていると判断した場合に、台詞情報にもとづいた音声信号を音声出力装置から出力する対話手段とを含むことを特徴とする。
本発明による人物監視方法は、人物監視システムにおける人物監視方法であって、所定エリア内に進入した移動物が監視対象者であるか否かを判定し、移動物が監視対象者であると判定した場合に、監視対象者の移動経路を推定し、推定した移動経路上にロボットを移動し、ロボットに監視対象者の正面側から監視対象者に対して対話を実行させることを特徴とする。
本発明による人物監視方法は、人物監視システムにおける人物監視方法であって、検出装置は、所定エリア内に進入した移動物を検知した場合に、移動物を特定可能な識別情報を送信し、端末装置は、検出装置から受信した識別情報と監視対象者情報テーブルとをもとに、識別情報で特定される移動物が監視対象者であるか否かを判定し、移動物が監視対象者である場合には、監視対象者が発見されたことを示す発見信号を送信し、ロボットは、端末装置から発見信号を受信した場合に監視対象者の移動経路を推定し、推定した移動経路上の指定地点にロボットを移動させるための移動情報を生成し、移動情報にもとづいてロボットを指定地点に移動させ、ロボットが備える撮像装置が出力する画像信号から監視対象者とロボットとの距離および監視対象者の顔の向きを判定し、判定の結果にもとづいて、距離が予め指定された対話可能距離以下であって、監視対象者の顔がロボットの方を向いていると判断した場合に、台詞情報にもとづいた音声信号をロボット装置が備える音声出力装置から出力することを特徴とする。
本発明によるロボット制御プログラムは、監視システムにおけるロボットを制御するためのロボット制御プログラムであって、コンピュータに、監視システム内の端末装置から発見信号を受信した場合に監視対象者の移動経路を推定する処理と、推定した移動経路上の指定地点にロボットを移動させるための移動情報を生成する処理と、移動情報にもとづいてロボット装置を指定地点に移動させる処理と、ロボット装置が備える撮像装置が出力する画像信号から監視対象者とロボットとの距離および監視対象者の顔の向きを判定する処理と、判定の結果にもとづいて、距離が予め指定された対話可能距離以下であって、監視対象者の顔がロボットの方を向いていると判断した場合に、台詞情報にもとづいた音声信号をロボット装置が備える音声出力装置から出力する処理とを実行させることを特徴とする。
本発明によれば、監視対象者に対して正面側から話しかけることができ、かつ、監視対象者が建物の出入り口から出ることを防止することができる。
本発明による人物監視システムの機能構成を示すブロック図である。 第1の実施形態におけるロボットの正面図である。 第1の実施形態におけるロボットの電気的構成の一例を示す説明図である。 コントローラ430の内部構成を示す説明図である。 ロボットを待機させるためのロボットステーションの外観を示す説明図である。 ロボットステーションが設置された建物の出入り口付近を上から見た場合の説明図である。 図6に示す建物の出入り口において認知症者が発見されたときの人物監視システムの動作を示す説明図である。 コントローラ430の動作を示すフローチャートである。 コントローラ430の移動経路推定部が推定した移動経路の一例を示す説明図である。 認知症者が推定移動経路1100上を移動し、ロボットが推定移動経路1100上の地点1101に向かうときの様子を示す説明図である。 本発明による人物監視システムの主要部を示すブロック図である。 本発明による人物監視システムの主要部を示すブロック図である。
実施形態1.
以下、本発明の第1の実施形態を図面を参照して説明する。
図1は、本発明による人物監視システムの機能構成を示すブロック図である。
本発明による人物監視システムは、ロボットを含み、建物の出入り口から出ようとする監視対象者の前にロボットを移動させて、ロボットを介して監視対象者と対話を行うことによって、監視対象者が建物の出入り口から出ることを防止する。
図1に示すように、人物監視システムは、人物検知手段101と、人物判断手段102と、移動経路推定手段103と、移動情報決定手段104と、移動制御手段105と、人物認識手段106と、対話手段107と、情報通知手段108と、帰還手段109とを含む。なお、人物検知手段101は、移動物検知手段の一例である。
人物検知手段101は、ICタグを所持する人物がICタグを検知するセンサの範囲内に入ったときに、ICタグを検知するとともに、ICタグに記憶されている人物を識別するための識別情報(以下、人物識別情報という。)を取得する。
人物判断手段102は、人物識別情報と監視対象者とを対応付けるための監視対象者情報を含む監視対象者情報テーブルを記憶する。監視対象者が複数存在する場合には、複数の監視対象者情報が監視対象者情報テーブルに登録される。
人物判断手段102は、人物識別情報と監視対象者情報テーブルとをもとに、人物検知手段101で検知された人物が監視対象者であるか否かを判断する。本実施形態では、認知症者を監視対象者とする。
移動経路推定手段103は、人物判断手段102が監視対象者であると判断した人物の移動経路の推定を行う。本実施形態では、監視対象者である認知症者が建物内の所定の出入り口に向かうことを想定して、移動経路の推定を行う。
移動経路決定手段104は、移動経路推定手段301で推定した移動経路上にロボットを移動させるために必要な移動速度および移動距離を算出する。
移動制御手段105は、移動情報決定手段104が算出した移動速度および移動距離にもとづいてロボットを移動させる。
人物認識手段106は、ロボットと監視対象者との距離を算出するとともに、監視対象者の顔がロボットの方を向いているか否かを判定する。
対話手段107は、人物認識手段106の判定結果をもとに、ロボットと監視対象者との距離が予め決められた距離以内であって、監視対象者の顔がロボットの方を向いていると判断した場合には、ロボットに発話させる。
情報通知手段108は、スタッフが所持する携帯端末などに検出通知を送信する。検出通知は、監視対象者が出入り口から出ようとしていることをスタッフに知らせるための通知である。
帰還手段109は、ロボットを所定の待機場所(ロボットステーション)に移動させる。
図2は、第1の実施形態におけるロボットの正面図である。
ロボット200は、頭部300と、胴体部400と、車輪501、502とを備える。
頭部300は、例えば、球体である。胴体部400は、円筒型であり、円筒の平面が上面(図2における上側の面)および下面になるように配置される。
頭部300は、撮像装置311、312を含む。撮像装置311、312は、頭部300の正面側に設置される。
頭部300は、胴体部400に接続される。頭部300と胴体部400とは、胴体部400の上面の中心にほぼ垂直に設置された垂直軸によって接続される。また、頭部300は、垂直軸が頭部300の中心を通るようにして胴体部400と接続される。
頭部300は、水平軸を含む。水平軸は、胴体部400と頭部300とが正面を向いた状態で左右方向にほぼ水平(垂直軸に対してほぼ90度)に設置される。また、水平軸は、頭部300の中心を通るようにして設置される。水平軸を自転させることによって、頭部300を上下に回転させることができる。また、水平軸の中央を支点にして左右に回転させることによって頭部300を左右に回転させることができる。
胴体部400は、音声入力装置410および音声出力装置420を含む。音声入力装置410および音声出力装置420は、胴体部400の正面側に設置される。
車輪501、502は、胴体部400の下面に設置される。
図3は、第1の実施形態におけるロボットの電気的構成の一例を示す説明図である。
頭部300は、撮像装置311、312の他に、アクチュエータ321、322を含む。
胴体部400は、音声入力装置410および音声出力装置420の他に、コントローラ430と、バッテリ440と、アクチュエータ451、452と、ネットワークアダプタ460とを含む。
撮像装置311、312は、例えば、CCDカメラである。撮像装置311、312は、ロボットの200の周囲の状況を撮像し、撮像した画像を画像信号としてコントローラ430に出力する。
アクチュエータ321、322は、コントローラ430の指示にもとづいて、頭部300が含む水平軸を駆動させて、頭部300を上下または左右に回転させる。
音声入力装置410は、例えば、マイクロフォンである。音声入力装置410は、監視対象者が発する音声など周囲の音声を入力し、音声データを生成する。音声入力装置410は、生成した音声データをコントローラ430に出力する。
音声出力装置420は、例えば、スピーカである。音声出力装置420は、コントローラ430から入力された音声データを、音声信号として出力する。
コントローラ430は、CPU432と、メモリ433とを含む。
コントローラ430は、ロボット200を制御する。具体的には、コントローラ430は、撮像装置311、312から入力される画像信号や、音声入力装置410から入力される音声信号にもとづいて、ロボット200の周囲の状況や監視対象者が発する音声を判断する。
コントローラ430は、その判断結果にもとづいて、その後に続くロボット200の行動を決定する。そして、コントローラ430は、その決定にもとづいて、アクチュエータ451、452を介して、車輪501、502を制御してロボット200を回転させたり移動させたりする。また、アクチュエータ321、322を介して、頭部300の水平軸を制御して頭部300を上下左右に回転させたりする。
メモリ433は、ロボットを制御するための制御プログラムを記憶する。
CPU432は、メモリ433に記憶された制御プログラムを実行し、コントローラ430の各種処理を実現する。
バッテリ440は、ロボットの動力源である。バッテリ440は、コントローラ430などに電力を供給する。
アクチュエータ451、452は、コントローラ430の指示にもとづいて、車輪501、502を回転させる。コントローラ430は、アクチュエータ451とアクチュエータ452とを介して、車輪501と車輪502とを独立に制御することによって、ロボット200を方向転換させたり、前後に移動させたりすることができる。
ネットワークアダプタ460は、ネットワーク500に接続されたパーソナルコンピュータ(PC)などの端末装置とデータの送受信を行う。
ここで、コントローラ430の構成について説明する。図4は、コントローラ430の内部構成を示す説明図である。
コントローラ430は、通信部4301と、音声認識部4302と、人物認識部4303と、ステーション認識部4304と、移動経路推定部4305と、移動情報決定部4306と、行動決定部4307と、制御部4308と、音声合成部4309と、出力部4310とを含む。
なお、図1における移動経路推定手段103は、移動経路推定部4305に相当する。移動情報決定手段104は、移動情報決定部4306に相当する。移動制御手段105は、行動決定部4307および制御部4308に相当する。人物認識手段106は、人物認識部4303に相当する。対話手段107は、行動決定部4307、音声認識部4302、音声合成部4309および出力部4310に相当する。情報通知手段108は、行動決定部4307および通信部4301に相当する。帰還手段109は、行動決定部4307、ステーション認識部4304および制御部4308に相当する。
通信部4301は、ネットワークアダプタ460を介してデータの送受信を行う。通信部4301は、監視対象者が発見されたことを示す発見信号を受信した場合には、受信した発見信号を行動決定部4307に出力する。また、通信部4301は、行動決定部4307から入力された情報、例えば、監視対象者の検出通知を、ネットワークアダプタ460を介してネットワーク500に送出する。
音声認識部4302は、音声入力装置410を介して、監視対象者が話した音声を認識し、監視対象者が話した内容を音声認識結果として行動決定部4307に出力する。
人物認識部4303は、撮像装置311、312から入力される画像信号にもとづいて、人物を検出し、検出した人物までの距離を算出する。また、人物認識部4303は、検出した人物がロボット200の方を向いているか否かを判定する。本実施形態では、人物認識部4303は、検出した人物の正面顔を認識した場合に、その人物がロボット200の方を向いていると判断する。
ステーション認識部4304は、撮像装置311、312から入力される画像信号にもとづいて、ロボット200とロボットステーションとの相対位置関係を算出する。
移動経路推定部4305は、監視対象者の移動経路を推定する。
移動情報決定部4306は、移動経路推定部4305が推定した推定移動経路上にロボット200を移動させるための移動速度と移動距離を算出する。移動情報決定部4306は、算出結果を含む移動情報を行動決定部4307に出力する。
行動決定部4307は、ステーション認識部4304や移動情報決定部4306などから入力した情報にもとづいて、制御部4308に動作指示を出力する。
制御部4308は、行動決定部4307から入力した動作指示にもとづいて、アクチュエータ321、322、451、452を駆動させる。
音声合成部4309は、行動決定部4307から入力した台詞情報をもとに、合成音声データを生成して、出力部4310に出力する。台詞情報とは、「こんにちは」などの台詞を含む情報である。
出力部4310は、音声合成部4309から入力した合成音声データを、音声出力装置420を介して、音声信号として出力する。
図5は、ロボット200を待機させるためのロボットステーション600の外観を示す説明図である。
図5(a)は、ロボットステーション600の正面図である。図5(b)は、ロボットステーション600の側面図である。
ロボットステーション600は、台座部610と、灯台部620とを含む。
灯台部610は、ロボット200を乗せるための台である。図5(c)は、ロボット200が台座部610に乗った状態のロボットステーション600の側面図である。
灯台部620の正面側には、4つのLEDが設置される。ロボット200のステーション認識部4304は、灯台部620に設置された4つのLEDの灯りを検知し、4つのLEDの配置の形状、大きさから、灯台部620とロボット200との相対位置関係を算出する。ロボット200は、ロボットステーション600上から他の場所に移動した場合でも、ステーション認識部4304が算出した相対位置関係をもとに、ロボットステーション600に戻ることができる。
なお、本実施形態では、灯台部620に4つのLEDを設置しているが、LEDは灯台部620にいくつ設置してもよい。また、LEDの配置は、図5に示すレイアウトに限られない。
次に、人物監視システムの動作を説明する。
図6は、ロボットステーション600が設置された建物の出入り口付近を上から見た場合の説明図である。
本実施形態では、図6に示すように、ロボットステーション600を建物の出入り口1300の手前に設置する。そして、ロボットステーション600にロボット200を待機させる。なお、ロボットステーション600は、建物の出入り口以外の場所に設置されてもよい。
図7は、図6に示す建物の出入り口において認知症者が発見されたときの人物監視システムの動作を示す説明図である。
人物監視システムの各手段101〜110を実現するために、図7に示すように、ロボット200およびロボットステーション600の他に、エキサイタ701、702、703と、アクセスポイント900と、PC1000とを設置する。
エキサイタ701、702、703は、認知症者が所持するタグ800を検知するための検出装置(センサ)であって、例えば、無線ICタグリーダなどである。
エキサイタ701〜703は、ロボットステーション600の手前の位置に配置され、天井などに設置される。図7に示す検知領域711、712、713は、エキサイタ701、702、703のタグの検知可能範囲を表す。
タグ800は、例えば、ICタグである。タグ800は、無線LANなどの通信機能を備え、アクセスポイント900を介してPC1000と通信可能に接続されている。
タグ800は、記憶部(図示せず)を備え、人物識別情報を記憶部に記憶する。人物識別情報は、タグ800を所持する人物を識別するための情報である。
アクセスポイント900は、中継装置である。アクセスポイント900は、ネットワークを介してPC1000と接続され、タグ800とPC1000との間で送受信されるデータを中継する。
PC1000は、無線LANなどの通信機能を備えた端末装置であって、ロボット200と通信可能に接続されている。
PC1000は、人物識別情報を解析するための制御ソフトウェアを備える。PC1000は、制御ソフトウェアを実行させることによって、人物識別情報の解析処理を行う。また、PC1000は、監視対象者情報テーブルを記憶する。
図7に示すように、タグ800を所持した認知症者が検知領域712に進入した場合、エキサイタ702によってタグ800が検知される。
エキサイタ702は、タグ800を検知すると、タグ800に対して人物識別情報の発信指示を送信する。
タグ800は、エキサイタから発信指示を受信すると、人物識別情報を記憶部から読み出す。そして、発信指示の送信元のエキサイタを特定可能な情報を付加した人物識別情報を、アクセスポイント900を介してPC1000に送信する。
PC1000は、タグ800からから人物識別情報を受信すると、受信した人物識別情報を解析し、解析結果に対応した処理を行う。
具体的には、PC1000は、人物識別情報と監視対象者情報テーブルとをもとに、タグ800に対応する人物(タグ800を所持する人物)を特定して、その人物が監視対象者(認知症者)であるか否か判定する。また、どのエキサイタでタグ800が検知されたかを判定する。そして、タグ800に対応する人物が認知症者である場合には、PC1000は、認知症者が発見されたことを示す情報と、認知症者が発見された検知領域を示す情報とを含む発見信号をロボット200に送出する。
なお、図1における人物検知手段101は、エキサイタ701〜703およびタグ800によって実現される。また、人物判断手段102は、PC1000の制御ソフトウェアによって実現される。
次に、発見信号を受信したロボット200の動作を説明する。
図8は、ロボット200のコントローラ430の動作を示すフローチャートである。
コントローラ430は、PC1000からの発見信号を受信するまで、ロボットステーション600上でロボット200を待機させる(ステップS801)。
コントローラ430は、PC1000から発見信号を受信する。コントローラ430は、検知領域で認知症者が発見されたと判断し(ステップS802)、認知症者の移動経路を推定する(ステップS803)。
コントローラ430は、推定した移動経路上にロボット200を移動させるための速度と距離を算出する。そして、コントローラ430は、算出結果にもとづいて、アクチュエータ451、452を介して車輪501、502を駆動させて、ロボット200を認知症者の前に移動させる(ステップS804)。また、コントローラ430は、ロボット200の正面側が認知症者の方向を向くように、ロボット200を回転させる。
ここで、ステップS804におけるコントローラ430の移動速度および移動距離の算出処理について説明する。
図9は、コントローラ430の移動経路推定部4305が推定した移動経路(以下、推定移動経路という。)の一例を示す説明図である。
本実施形態では、移動経路推定部4305は、発見された認知症者が建物の出入り口に向かうと想定し、移動経路の始点を認知症者が発見された検知領域の中心に設定し、終点を出入り口の中心に設定して、移動経路を推定する。図9の矢印(推定移動経路1100)は、検知領域712で発見された認知症者の推定移動経路を示す。
図10は、認知症者である人1200が推定移動経路1100上を移動し、ロボット200が推定移動経路1100上の地点1101に向かうときの様子を示す説明図である。図10に示すように、本実施形態では、推定移動経路に対して垂直方向にロボット200を移動させて、ロボット200を推定移動経路上に到達させる。
ここで、人1200の歩く速さをv、ロボット200の移動速度をV、ロボット200と人1200との距離をL、ロボット200の進行方向と、ロボット200と人1200とを結ぶ直線とのなす角度をθとする。
コントローラ430の移動情報決定部4306は、ロボット200が人1200から十分な距離を保持した状態で地点1101に到達できるように、ロボット200の移動速度Vを算出する。具体的には、人が地点1101からl手前の地点1102に到達する前にロボット200が地点1101に到達できるように、ロボット200の移動速度Vを算出する。
0<v<V(Lsinθ−l)/(Lcosθ+Vt)…式(1)
式(1)は、「人1200が地点1102に到達する前にロボット200を地点1101に到達させる」という条件を表した数式である。移動情報決定部4306は、式(1)で示す条件を満たすような移動速度Vを算出する。
なお、tは、地点1101においてロボット200の正面が人物の方向を向くように、ロボット200を回転させるときに要する時間である。つまり、ロボット200を90度回転させるときに要する時間である。
ロボットステーション600および検知領域711〜713の配置によって決定されるLおよびθ、人物の歩く速さv、ロボット200の回転時間tおよび距離lは、ロボット200が備える記憶装置に固定値として予め記憶させておけばよい。
人物の歩く速さvは、例えば、秒速1mである。回転時間tは、ロボットの種類に依存するが、例えば、1秒である。距離lは、1m以上に設定することが望ましい。
移動情報決定部4306は、式(1)を満たす移動速度Vと、地点1101までの移動距離(Lcosθ)とを算出して、算出結果を含む移動情報を行動決定部4307に出力する。
ステップS804の後、コントローラ430は、撮像装置311、312から入力した画像信号を解析して、認知症者までの距離を算出する。そして、ロボット200と認知症者との距離が予め定められた対話可能距離以下であって、かつ、入力した画像信号から認知症者の正面顔を認識することができた場合は(ステップS805のYes)、コントローラ430は、ロボット200に認知症者との対話を実行させる(ステップS806)。対話可能距離は、ロボット200が、音声入力装置410および音声出力装置420を介して認知症者との対話を行うことができる距離である。
ステップS805において、コントローラ430は、一定時間経過しても、ロボット200と認知症者との距離が対話可能距離以下にならない場合、または、入力した画像信号から認知症者の正面顔を認識することができない場合は(ステップS805のNo)、ステップS807の処理に移行する。
ここで、ステップS806において、コントローラ430がロボット200に認知症者との対話を実行させる処理について説明する。
コントローラ430の行動決定部4307は、人物認識部4303からステップS805の条件が成立したことを通知された場合、音声合成部4309に台詞情報とともに動作指示を出力する。
音声合成部4309は、行動決定部4307から入力した台詞情報をもとに、合成音声データを生成する。音声合成部4309は、生成した合成音声データを出力部4310に出力する。出力部4310は、入力した合成音声データを音声出力装置420を介して、音声信号として出力する。このようにして、コントローラ430は、ロボット200に認知症者に対する話しかけを実行させることができる。
認知症者がロボット200からの話しかけに応答すると、音声認識部4302は、認知症者が話した音声を認識し、音声認識結果を行動決定部4307に出力する。
行動決定部4307は、音声認識部4302から音声認識結果を入力すると、次の台詞情報を音声合成部4309に出力する。行動決定部4307は、音声認識部4302から音声認識結果を入力するたびに、予め定められた台詞の順番に従って、次の台詞情報を記憶装置から読み出して音声合成部4309に出力する。本実施形態では、認知症者との対話の最後の台詞に「どうもありがとうございました。またお会いしましょう。それではどうぞお部屋にお戻りください」を設定する。
ステップS806の後、コントローラ430は、ロボット200をロボットステーション600上に移動させる(ステップS807)。
ここで、ステップS807において、コントローラ430がロボットステーション600上にロボット200を移動させる処理について説明する。
コントローラ430の行動決定部4307は、ステップS806の後、ステーション認識部4304に対して、ロボットステーション600の灯台部620の検出指示を出力する。それと同時に制御部4308に動作指示を出力し、ロボット200を一定時間ごとに一定角度内で回転させる。
ステーション認識部4304は、灯台部の検出指示を入力すると、灯台部620の検出処理を開始する。ステーション認識部4304は、ロボットステーション600の灯台部620のLEDの灯りを検出すると、ロボット200とロボットステーション600との間の相対位置関係を算出し、相対位置関係を示す情報(以下、相対位置関係情報という。)を行動決定部4307に出力する。
行動決定部4307は、相対位置関係情報にもとづいて、ロボットステーション600上にロボット200を移動させるための動作指示を制御部4308に出力する。これにより、ロボットステーション600上にロボット200を移動させることができる。
行動決定部4307は、ロボットステーション600上にロボット200を移動させた後、制御部4308に動作指示を出力し、ロボット200の背面が灯台部620に向くように、つまり、ロボット200の正面が灯台部620と正反対の方向を向くように、ロボット200を回転させる。
ステップS807の後、コントローラ430は、再び、ステップS801〜807の処理を繰り返す。
以上に説明したように、本実施形態では、建物の出入り口から出ようとする認知症者の前にロボット200を移動させて、ロボット200を介して認知症者と対話を行い、認知症者に部屋に戻るように促している。そのため、認知症者が建物の出入り口から出ることを防止することができる。また、認知症者と対話をすることによって、認知症者に対して離設を思いとどまらせることができる。
また、認知症者に近づいて認知症者の正面から話しかけるようにしているので、認知症者に対して離れた場所から話しかけたり、正面以外から話しかけたりする場合に比べて、認知症者を転倒させる危険性が小さい。
また、ロボット200を介して認知症者に話しかけを行うだけでなく、スタッフに対して、認知症者が出入り口から出ようとしていることを通知することができるので、建物の出入り口から出ようする認知症者の存在をスタッフに認識させることができる。
なお、本実施形態では、ICタグを検知する検知領域を設定して認知症者の位置を特定しているが、建物のしかるべき場所にカメラなどのセンサを設置して、検知領域において認知症者の位置を特定した後も、認知症者とロボットとの位置を随時検出するようにしてもよい。そのような形態を実現するには、認知症者とロボットとの位置をカメラやセンサなどからロボット200に随時通知させるようにすればよい。また、ロボット200のコントローラ430に、ロボット200と認知症者との位置関係にもとづいて、認知症者の移動距離を随時推定し、認知症者の前に移動するための速度と距離を随時計算してロボットを移動させる機能を持たせるようにすればよい。
また、ロボット200が、認知症者との対話を記録し、記録した対話内容をスタッフに送信する機能を備えていてもよい。そのような形態を実現するには、行動決定部4307が、音声認識結果をロボット200の記憶装置に格納するようにすればよい。また、行動決定部4307が、記憶装置に格納した音声認識結果を、通信部4301を介してスタッフが所持する携帯端末などに送信すればよい。
また、認知症者を発見した時点で、スタッフに通知する機能を備えていてもよい。そのような形態を実現するには、PC1000が、検知領域で検出された人物が認知症者であると判断した場合に、スタッフが所持する携帯端末などに検出通知を送信するようにすればよい。
また、検知領域を出入り口のすぐ手前に設置し、その領域で認知症者を検出した場合には、PC1000が、施設から認知症者が出た可能性が高いことを示す通知を、スタッフが所持する携帯端末などに送信するようにしてもよい。
図11および図12は、本発明による人物監視システムの主要部を示すブロック図である。
図11に示すように、人物監視システムは、所定エリア内に進入した移動物が監視対象者であるか否かを判定する人物判断手段21(図1に示す人物判断手段102に相当。)と、人物判断手段21が移動物が監視対象者であると判定した場合に、監視対象者の移動経路を推定し、推定した移動経路上に移動し、監視対象者の正面側から監視対象者に対して対話を実行するロボット30(図7に示すロボット200に相当。)とを含む。
また、図12に示すように、人物監視システムは、所定エリア内に進入した移動物を検知した場合に、移動物を特定可能な識別情報を送信する移動物検出手段11(図1に示す人物検知手段101に相当。)を含む検出装置10(図7に示すエキサイタ701〜703に相当。)と、検出装置10から受信した識別情報と監視対象者情報テーブルとをもとに、識別情報で特定される移動物が監視対象者であるか否かを判定し、移動物が監視対象者である場合には、監視対象者が発見されたことを示す発見信号を送信する人物判断手段21(図1に示す人物判断手段102に相当。)を含む端末装置20(図7に示すPC1000に相当。)と、端末装置20と通信可能なロボット30(図7に示すロボット200に相当。)とを含み、ロボット30は、撮像装置36(図3に示す撮像装置311、312に相当。)と音声出力装置37(図3に示す音声出力装置420に相当。)とを備え、端末装置20から発見信号を受信した場合に監視対象者の移動経路を推定する移動経路推定手段31(図1に示す移動経路推定手段103に相当。)と、移動経路推定手段31が推定した移動経路上の指定地点にロボットを移動させるための移動情報を生成する移動情報決定手段32(図1に示す移動情報決定手段104に相当。)と、移動情報にもとづいてロボットを指定地点に移動させる移動制御手段33(図1に示す移動制御手段105に相当。)と、撮像装置36が出力する画像信号から監視対象者とロボットとの距離および監視対象者の顔の向きを判定する人物認識手段34(図1に示す人物認識手段106に相当。)と、人物認識手段34の判定結果にもとづいて、距離が予め指定された対話可能距離以下であって、監視対象者の顔がロボットの方を向いていると判断した場合に、台詞情報にもとづいた音声信号を音声出力装置37から出力する対話手段35(図1に示す対話手段107に相当。)とを含む。
上記の実施形態には、以下のような人物監視システムも開示されている。
(1)移動情報決定手段32は、移動経路上を移動する監視対象者と指定地点との距離が予め指定した距離以下になる前に、ロボット30を指定地点に到達させることができる移動速度を移動情報に設定する人物監視システム。
(2)ロボット30は、該ロボット30と通信可能に接続された携帯端末に、監視対象者が検出されたことを示す検出通知を送信する情報通知手段(図1に示す情報通知手段108に相当。)を含む人物監視システム。
(3)人物判断手段21は、移動物に付されたICタグが送信する識別情報にもとづいて移動物が監視対象者であるか否かを判定する人物監視システム。
上記の実施形態には、以下のようなロボットも開示されている。
(4)撮像装置36と音声出力装置37を備え、端末装置20から監視対象者が発見されたことを示す発見信号を受信した場合に監視対象者の移動経路を推定する移動経路推定手段31と、移動経路推定手段31が推定した移動経路上の指定地点にロボットを移動させるための移動情報を生成する移動情報決定手段32と、移動情報にもとづいてロボットを指定地点に移動させる移動制御手段33と、撮像装置36が出力する画像信号から監視対象者とロボットとの距離および監視対象者の顔の向きを判定する人物認識手段34と、人物認識手段34の判定結果にもとづいて、距離が予め指定された対話可能距離以下であって、監視対象者の顔がロボットの方を向いていると判断した場合に、台詞情報にもとづいた音声信号を音声出力装置37から出力する対話手段35とを含むロボット。
(5)ロボット30と通信可能に接続された携帯端末に、監視対象者が検出されたことを示す検出通知を送信する情報通知手段を含むロボット。
10 検出装置
11、101 移動物検知手段
20 端末装置
21、102 人物判断手段
30、200 ロボット
31、103 移動経路推定手段
32、104 移動情報決定手段
33、105 移動制御手段
34、106 人物認識手段
35、107 対話手段
36、311、312 撮像装置
37、420 音声出力装置
108 情報通知手段
109 帰還手段
300 頭部
321、322 アクチュエータ
400 胴体部
410 音声入力装置
430 コントローラ
432 CPU
433 メモリ
440 バッテリ
451、452 アクチュエータ
460 ネットワークアダプタ
500 ネットワーク
600 ロボットステーション
610 台座部
620 灯台部
701、702、703 エキサイタ
711、712、713 検知領域
800 タグ
900 アクセスポイント
1000 PC
1100 推定移動経路
1200 人
1300 出入り口
4301 通信部
4302 音声認識部
4303 人物認識部
4304 ステーション認識部
4305 移動経路推定部
4306 移動情報決定部
4307 行動決定部
4308 制御部
4309 音声合成部
4310 出力部

Claims (10)

  1. 所定エリア内に進入した移動物が監視対象者であるか否かを判定する人物判断手段と、
    前記人物判断手段が前記移動物が監視対象者であると判定した場合に、前記監視対象者の移動経路を推定し、推定した前記移動経路上に移動し、前記監視対象者の正面側から前記監視対象者に対して対話を実行するロボットとを含む
    ことを特徴とする人物監視システム。
  2. 所定エリア内に進入した移動物を検知した場合に、前記移動物を特定可能な識別情報を送信する移動物検知手段を含む検出装置と、
    前記検出装置から受信した前記識別情報と監視対象者情報テーブルとをもとに、前記識別情報で特定される移動物が監視対象者であるか否かを判定し、前記移動物が監視対象者である場合には、前記監視対象者が発見されたことを示す発見信号を送信する人物判断手段を含む端末装置と、
    前記端末装置と通信可能なロボットとを含み、
    前記ロボットは、
    撮像装置と音声出力装置とを備え、
    前記端末装置から前記発見信号を受信した場合に前記監視対象者の移動経路を推定する移動経路推定手段と、
    前記移動経路推定手段が推定した前記移動経路上の指定地点に前記ロボットを移動させるための移動情報を生成する移動情報決定手段と、
    前記移動情報にもとづいて前記ロボットを前記指定地点に移動させる
    移動制御手段と、
    前記撮像装置が出力する画像信号から前記監視対象者と前記ロボットとの距離および前記監視対象者の顔の向きを判定する人物認識手段と、
    前記人物認識手段の判定結果にもとづいて、前記距離が予め指定された対話可能距離以下であって、前記監視対象者の顔が前記ロボットの方を向いていると判断した場合に、台詞情報にもとづいた音声信号を前記音声出力装置から出力する対話手段とを含む
    ことを特徴とする人物監視システム。
  3. 移動情報決定手段は、
    移動経路上を移動する監視対象者と指定地点との距離が予め指定した距離以下になる前に、ロボットを前記指定地点に到達させることができる移動速度を移動情報に設定する
    請求項2に記載の人物監視システム。
  4. ロボットは、
    該ロボットと通信可能に接続された携帯端末に、監視対象者が検出されたことを示す検出通知を送信する情報通知手段を含む
    請求項1から請求項3のうちのいずれか1項に記載の人物監視システム。
  5. 人物判断手段は、
    移動物に付されたICタグが送信する識別情報にもとづいて前記移動物が監視対象者であるか否かを判定する
    請求項1から請求項4のうちのいずれか1項に記載の人物監視システム。
  6. 撮像装置と音声出力装置とを備え、
    端末装置から監視対象者が発見されたことを示す発見信号を受信した場合に前記監視対象者の移動経路を推定する移動経路推定手段と、
    前記移動経路推定手段が推定した前記移動経路上の指定地点にロボットを移動させるための移動情報を生成する移動情報決定手段と、
    前記移動情報にもとづいて前記ロボットを前記指定地点に移動させる移動制御手段と、
    前記撮像装置が出力する画像信号から前記監視対象者と前記ロボットとの距離および前記監視対象者の顔の向きを判定する人物認識手段と、
    前記人物認識手段の判定結果にもとづいて、前記距離が予め指定された対話可能距離以下であって、前記監視対象者の顔が前記ロボットの方を向いていると判断した場合に、台詞情報にもとづいた音声信号を前記音声出力装置から出力する対話手段とを含む
    ことを特徴とするロボット。
  7. ロボットと通知可能に接続された携帯端末に、監視対象者が検知されたことを示す検出通知を送信する情報通知手段を含む
    請求項6に記載のロボット。
  8. 人物監視システムにおける人物監視方法であって、
    所定エリア内に進入した移動物が監視対象者であるか否かを判定し、
    前記移動物が監視対象者であると判定した場合に、前記監視対象者の移動経路を推定し、推定した前記移動経路上にロボットを移動し、前記ロボットに前記監視対象者の正面側から前記監視対象者に対して対話を実行させる
    ことを特徴とする人物監視方法。
  9. 人物監視システムにおける人物監視方法であって、
    検出装置は、所定エリア内に進入した移動物を検知した場合に、前記移動物を特定可能な識別情報を送信し、
    端末装置は、前記検出装置から受信した前記識別情報と監視対象者情報テーブルとをもとに、前記識別情報で特定される移動物が監視対象者であるか否かを判定し、前記移動物が監視対象者である場合には、前記監視対象者が発見されたことを示す発見信号を送信し、
    ロボットは、
    前記端末装置から発見信号を受信した場合に前記監視対象者の移動経路を推定し、
    推定した前記移動経路上の指定地点に前記ロボットを移動させるための移動情報を生成し、
    前記移動情報にもとづいて前記ロボットを前記指定地点に移動させ、
    前記ロボットが備える撮像装置が出力する画像信号から前記監視対象者と前記ロボットとの距離および前記監視対象者の顔の向きを判定し、
    前記判定の結果にもとづいて、前記距離が予め指定された対話可能距離以下であって、前記監視対象者の顔が前記ロボットの方を向いていると判断した場合に、台詞情報にもとづいた音声信号を前記ロボット装置が備える前記音声出力装置から出力する
    ことを特徴とする人物監視方法。
  10. 監視システムにおけるロボットを制御するためのロボット制御プログラムであって、
    コンピュータに、
    前記監視システム内の端末装置から監視対象者が発見されたことを示す発見信号を受信した場合に前記監視対象者の移動経路を推定する処理と、
    推定した前記移動経路上の指定地点に前記ロボットを移動させるための移動情報を生成する処理と、
    前記移動情報にもとづいて前記ロボット装置を前記指定地点に移動させる処理と、
    前記ロボット装置が備える撮像装置が出力する画像信号から前記監視対象者と前記ロボットとの距離および前記監視対象者の顔の向きを判定する処理と、
    前記判定の結果にもとづいて、前記距離が予め指定された対話可能距離以下であって、前記監視対象者の顔が前記ロボットの方を向いていると判断した場合に、台詞情報にもとづいた音声信号を前記ロボット装置が備える前記音声出力装置から出力する処理とを実行させる
    ことを特徴とするロボット制御プログラム。
JP2011198342A 2011-09-12 2011-09-12 人物監視システム、ロボット、人物監視方法およびロボット制御プログラム Active JP5765153B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011198342A JP5765153B2 (ja) 2011-09-12 2011-09-12 人物監視システム、ロボット、人物監視方法およびロボット制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011198342A JP5765153B2 (ja) 2011-09-12 2011-09-12 人物監視システム、ロボット、人物監視方法およびロボット制御プログラム

Publications (2)

Publication Number Publication Date
JP2013061715A true JP2013061715A (ja) 2013-04-04
JP5765153B2 JP5765153B2 (ja) 2015-08-19

Family

ID=48186354

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011198342A Active JP5765153B2 (ja) 2011-09-12 2011-09-12 人物監視システム、ロボット、人物監視方法およびロボット制御プログラム

Country Status (1)

Country Link
JP (1) JP5765153B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018008358A (ja) * 2016-07-15 2018-01-18 株式会社日立製作所 制御装置、制御システム、および制御方法
JP2019162714A (ja) * 2016-08-29 2019-09-26 Groove X株式会社 音源の方向を認識するロボット
JP2019219509A (ja) * 2018-06-20 2019-12-26 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
IT201800007934A1 (it) * 2018-08-07 2020-02-07 Universita' Degli Studi Di Siena Metodo per generare un segnale di consapevolezza di un robot collaborativo e relativo sistema hardware
WO2020174609A1 (ja) * 2019-02-27 2020-09-03 本田技研工業株式会社 可動式ロボットおよびその制御方法
JP2021013964A (ja) * 2019-07-10 2021-02-12 株式会社国際電気通信基礎技術研究所 ロボット、ロボット制御プログラムおよびロボット制御方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050151842A1 (en) * 2004-01-09 2005-07-14 Honda Motor Co., Ltd. Face image acquisition method and face image acquisition system
JP2007102488A (ja) * 2005-10-04 2007-04-19 Toyota Motor Corp 自律移動装置
JP2009110495A (ja) * 2007-04-12 2009-05-21 Panasonic Corp 自律移動型装置、自律移動型装置用の制御装置および自律移動型装置用のプログラム
JP2009181271A (ja) * 2008-01-30 2009-08-13 Secom Co Ltd 移動ロボット
JP2009222969A (ja) * 2008-03-17 2009-10-01 Toyota Motor Corp 音声認識ロボットおよび音声認識ロボットの制御方法
US20110115634A1 (en) * 2007-08-21 2011-05-19 Nec Corporation Behavior monitoring system and behavior monitoring method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050151842A1 (en) * 2004-01-09 2005-07-14 Honda Motor Co., Ltd. Face image acquisition method and face image acquisition system
JP2007102488A (ja) * 2005-10-04 2007-04-19 Toyota Motor Corp 自律移動装置
JP2009110495A (ja) * 2007-04-12 2009-05-21 Panasonic Corp 自律移動型装置、自律移動型装置用の制御装置および自律移動型装置用のプログラム
US20110115634A1 (en) * 2007-08-21 2011-05-19 Nec Corporation Behavior monitoring system and behavior monitoring method
JP2009181271A (ja) * 2008-01-30 2009-08-13 Secom Co Ltd 移動ロボット
JP2009222969A (ja) * 2008-03-17 2009-10-01 Toyota Motor Corp 音声認識ロボットおよび音声認識ロボットの制御方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018008358A (ja) * 2016-07-15 2018-01-18 株式会社日立製作所 制御装置、制御システム、および制御方法
JP2019162714A (ja) * 2016-08-29 2019-09-26 Groove X株式会社 音源の方向を認識するロボット
US11376740B2 (en) 2016-08-29 2022-07-05 Groove X, Inc. Autonomously acting robot that recognizes direction of sound source
JP2019219509A (ja) * 2018-06-20 2019-12-26 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
JP7176244B2 (ja) 2018-06-20 2022-11-22 カシオ計算機株式会社 ロボット、ロボットの制御方法及びプログラム
IT201800007934A1 (it) * 2018-08-07 2020-02-07 Universita' Degli Studi Di Siena Metodo per generare un segnale di consapevolezza di un robot collaborativo e relativo sistema hardware
WO2020174609A1 (ja) * 2019-02-27 2020-09-03 本田技研工業株式会社 可動式ロボットおよびその制御方法
JPWO2020174609A1 (ja) * 2019-02-27 2021-10-07 本田技研工業株式会社 可動式ロボットおよびその制御方法
JP7157234B2 (ja) 2019-02-27 2022-10-19 本田技研工業株式会社 可動式ロボットおよびその制御方法
JP2021013964A (ja) * 2019-07-10 2021-02-12 株式会社国際電気通信基礎技術研究所 ロボット、ロボット制御プログラムおよびロボット制御方法
JP7258438B2 (ja) 2019-07-10 2023-04-17 株式会社国際電気通信基礎技術研究所 ロボット、ロボット制御プログラムおよびロボット制御方法

Also Published As

Publication number Publication date
JP5765153B2 (ja) 2015-08-19

Similar Documents

Publication Publication Date Title
JP5765153B2 (ja) 人物監視システム、ロボット、人物監視方法およびロボット制御プログラム
JP4455417B2 (ja) 移動ロボット、プログラム及びロボット制御方法
JP5366048B2 (ja) 情報提供システム
JP4257230B2 (ja) 移動ロボット
JP4976903B2 (ja) ロボット
US11467581B2 (en) Autonomous moving body for moving between floors using an elevator, control program of autonomous moving body, method of controlling autonomous moving body, and system server for controlling autonomous moving body from remote place
EP3421401B1 (en) Elevator system and method of intent deduction for an elevator system
EP3450372A1 (en) Spoken command interface
US11932512B2 (en) Methods and architectures for end-to-end robot integration with elevators and building systems
JP2009166184A (ja) ガイドロボット
JP4764377B2 (ja) 移動型ロボット
JP5552710B2 (ja) ロボットの移動制御システム、ロボットの移動制御プログラムおよびロボットの移動制御方法
JP2012203646A (ja) 流れ状態判別装置、流れ状態判別方法、流れ状態判別プログラムおよびそれらを用いたロボット制御システム
US20220308556A1 (en) Delivery robot and notification method
EP3882200A1 (en) Robot concierge
US11368497B1 (en) System for autonomous mobile device assisted communication
JP6886645B2 (ja) エレベータの利用者サポートシステム
CN113401741A (zh) 对机器人和协作机器人的专业化、个性化和增强电梯呼叫
JP6722408B2 (ja) エレベータの利用者サポートシステム
JP6754099B2 (ja) エレベータのドア制御システム
JP7434635B1 (ja) 情報処理装置、情報処理方法及びプログラム
JP2020009201A (ja) 案内ロボットシステム及びその制御方法
WO2024166674A1 (ja) ロボットおよびロボットの制御方法
JP7397228B1 (ja) 情報処理装置、情報処理方法、プログラム及び情報処理システム
JP7258438B2 (ja) ロボット、ロボット制御プログラムおよびロボット制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150519

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150601

R150 Certificate of patent or registration of utility model

Ref document number: 5765153

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150