JP7157234B2 - 可動式ロボットおよびその制御方法 - Google Patents
可動式ロボットおよびその制御方法 Download PDFInfo
- Publication number
- JP7157234B2 JP7157234B2 JP2021501455A JP2021501455A JP7157234B2 JP 7157234 B2 JP7157234 B2 JP 7157234B2 JP 2021501455 A JP2021501455 A JP 2021501455A JP 2021501455 A JP2021501455 A JP 2021501455A JP 7157234 B2 JP7157234 B2 JP 7157234B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- action
- target person
- child
- event
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 51
- 230000009471 action Effects 0.000 claims description 124
- 238000011156 evaluation Methods 0.000 claims description 11
- 230000004044 response Effects 0.000 claims description 8
- 230000007423 decrease Effects 0.000 claims description 5
- 238000004891 communication Methods 0.000 description 52
- 238000012545 processing Methods 0.000 description 48
- 230000008569 process Effects 0.000 description 30
- 230000033001 locomotion Effects 0.000 description 22
- 238000003384 imaging method Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 12
- 230000008859 change Effects 0.000 description 7
- 238000005406 washing Methods 0.000 description 7
- 238000013459 approach Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 6
- 238000012544 monitoring process Methods 0.000 description 6
- 230000002747 voluntary effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 3
- 230000008450 motivation Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000011010 flushing procedure Methods 0.000 description 2
- 230000006698 induction Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 239000000344 soap Substances 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Description
可動式のロボットであって、
対象人物へ促す行動を決定する決定手段と、
前記決定手段により決定された行動を提示する提示手段と、
前記ロボットを移動させる駆動手段と
を備え、
前記対象人物は、子供であり、
前記駆動手段は、前記提示手段により前記行動を提示した上で、当該行動を行う場所へ向かって前記ロボットの移動を開始させ、
前記提示手段は、前記子供による前記行動の完了を検知したことに応じて、前記行動の実行に対する前記子供の評価を行い、
前記評価は、音声または画像の表示より行われる。
[システム概要]
本発明の第1の実施形態として、対人用の可動式コミュニケーションロボット(以下、単に「ロボット」)が、人物とコミュニケーションを行い、その人物に対して所定の動作を誘導する形態について説明する。ここでのコミュニケーションの対象となる人物は、育児の対象となる児童を例に挙げて説明するが、これに限定するものではない。
(ハードウェア構成)
図1は、本実施形態に係るロボット100のハードウェア構成の例を示す図である。ロボット100が備える制御部110は、CPU(Central Processing Unit)111、HDD(Hard Disc Drive)112、およびRAM(Random Access Memory)113を含んで構成される。CPU111は、HDD112に格納されたプログラムを読み出して実行することにより、以下に示す各種処理を制御する。HDD112は、不揮発性の記憶領域であり、各種処理に対応するプログラムが格納される。RAM113は、揮発性の記憶領域であり、例えば、ワークメモリなどとして利用される。なお、制御部110は、ASIC(Application Specific Integrated Circuit)や専用回路などから構成されてもよい。
図2は、本実施形態に係るロボット100のソフトウェア構成の例を示す図である。本実施形態において、各処理部はCPU111がHDD112等に格納されたプログラムを読み出して実行することにより実現される。また、各DB(データベース)は、HDD112に構成される。
本実施形態に係るロボット100が対応するイベントについて説明する。本実施形態において、ロボット100は、対象となる人物(以下、対象人物)について、所定のタイミングや何らかの状態を検知した際に所定の動作を促す処理を行う。ここでの所定の動作を「イベント」と称する。
本実施形態に係るロボット100は、イベントの実行を対象人物に促す際には、複数の手法を用いてよい。例えば、促す手法としては、音声、画像(お手本)の提示、場所への誘導(先導)などが挙げられる。促す手法は、対象人物やイベントの種類、促しの程度(強度)などに応じて、組み合わせたり、変化させたりしてもよい。例えば、音声の音量を変化させたり、声色を変化させたりしてもよい。また、促しを開始してからの経過時間に応じて、手法を変化させてもよい。
ロボット100のマップ作成部205は、撮像部115、センサ部122等にて取得された周辺情報を用いて、動作する空間のマップを作成する。例えば、一定時間が経過するごとに、これらの周辺情報を再収集し、マップを更新するようにしてもよい。例えば、家具の配置が変更になった場合には、その変更後の状態に応じて、マップ情報を更新してよい。更に、マップ作成部205は、通信部123を介した外部からの情報(地図情報や位置情報など)を取得してマッピングを行うようにしてもよい。また、マップ作成部205は、各領域に存在する物体を検知して、その領域の用途を対応付けるような構成であってもよい。例えば、便器が存在する領域であればその領域をトイレとして対応付けてもよく、浴槽がある領域は浴室として対応付けてもよい。領域の用途が特定できない場合には、ユーザーにより設定を受け付けるような構成であってもよい。
(誘導処理)
図4は、本実施形態に係るロボット100の誘導処理のフローチャートである。本実施形態において、本処理フローは、ロボット100のCPU111がHDD112に記憶されたプログラムを読み出して実行することにより実現される。各処理工程は、例えば、図1の部位や図2の処理部が協働して実現されるが、ここでは説明を簡略化するために、処理主体をロボット100として包括的に説明する。
図5は、本実施形態に係るロボット100の誘導の例を説明するための図である。ここでは、イベントとして、「トイレ(行き)」→「手洗い(行き)」→「所定位置への移動」の一連の流れを例に挙げて説明する。また、所定の位置は、一連のイベントが発生する際に位置していた場所(図5の例では「共有スペース」)として説明する。
図6は、本実施形態に係る、イベントを対象人物が実行したことの行動履歴に対する行動履歴解析処理のフローチャートである。本実施形態において、本処理フローは、ロボット100のCPU111がHDD112に記憶されたプログラムを読み出して実行することにより実現される。本処理は、一定間隔ごとに実行されてもよいし、一定量の行動履歴情報が記録されたタイミングにて実行されてもよい。
本実施形態に係るユーザーが利用可能な画面の例について説明する。例えば、上述した対象人物が児童である場合に、その親が各画面を利用することができる。なお、以下に示す画面は、専用のアプリケーションにより実現されてもよいし、他のアプリケーション(例えば、メールアプリやSNS(Social Networking Service)アプリ)などと連携して実現されてもよい。また、各アプリケーションは、外部装置、例えばスマートフォンなどの携帯端末(不図示)にて搭載されてもよい。
本発明の第2の実施形態として、ロボットが、対象人物とコミュニケーションを行うことにより、他の人物の行動をサポートする形態について説明する。ここでのコミュニケーションの対象となる人物は、第1の実施形態と同様、育児の対象となる児童を例に挙げて説明するが、これに限定するものではない。また、第1の実施形態と共通する構成については、説明を省略し、差異のみを説明する。
図9は、本実施形態に係るロボット100のソフトウェア構成の例を示す図である。本実施形態において、各処理部はCPU111がHDD112等に格納されたプログラムを読み出して実行することにより実現される。また、各DB(データベース)は、HDD112に構成される。
図10は、本実施形態に係るロボット100の動作の例を説明するための図である。ここでは、ある空間1000において、対象人物(ここでは、児童1001)とその他の人物(ここでは、児童の親1002)が存在し、ロボット100は、児童1001とコミュニケーションをとっているものとする。一方、親1002は、個別に何らかの作業を行っているものとする。
本実施形態に係るユーザーが利用可能な画面の例について説明する。例えば、上述した対象人物が児童である場合に、その親が各画面を利用することができる。なお、以下に示す画面は、専用のアプリケーションにより実現されてもよい。
図12は、本実施形態に係るロボット100の誘導処理のフローチャートである。本実施形態において、本処理フローは、ロボット100のCPU111がHDD112に記憶されたプログラムを読み出して実行することにより実現される。各処理工程は、例えば、図1の部位や図9の処理部が協働して実現されるが、ここでは説明を簡略化するために、処理主体をロボット100として包括的に説明する。
図13は、本実施形態に係る退避動作の処理を示すフローチャートである。本処理は、図12のS1205の工程に相当する。
1.上記実施形態のロボット(例えば、100)は、
可動式のロボットであって、
対象人物へ促す行動を決定する決定手段(例えば、110、203)と、
前記決定手段により決定された行動を提示する提示手段(例えば、110、203)と、
前記ロボットを移動させる駆動手段(例えば、110、121)と
を備え、
前記駆動手段は、前記提示手段により前記行動を提示した上で、当該行動を行う場所へ向かって前記ロボットの移動を開始させる。
前記決定手段は、前記受け付け手段にて受け付けた指定に基づいて、行動を決定する。
前記決定手段は、前記管理手段にて管理したスケジュールに基づいて、促す行動を決定する。
可動式のロボット(例えば、100)の制御方法であって、
対象人物へ促す行動を決定する決定工程と、
前記決定工程にて決定された行動を提示する提示工程と、
前記ロボットを移動させる移動工程と
を有し、
前記移動工程では、前記提示工程により前記行動を提示した上で、当該行動を行う場所へ向かって前記ロボットの移動を開始させる。
Claims (9)
- 可動式のロボットであって、
対象人物へ促す行動を決定する決定手段と、
前記決定手段により決定された行動を提示する提示手段と、
前記ロボットを移動させる駆動手段と
を備え、
前記対象人物は、子供であり、
前記駆動手段は、前記提示手段により前記行動を提示した上で、当該行動を行う場所へ向かって前記ロボットの移動を開始させ、
前記提示手段は、前記子供による前記行動の完了を検知したことに応じて、前記行動の実行に対する前記子供の評価を行い、
前記評価は、音声または画像の表示より行われることを特徴とするロボット。 - 前記提示手段は、前記決定手段にて決定した行動の種類に応じて出力する音を変化させることを特徴とする請求項1に記載のロボット。
- 前記駆動手段は、前記提示手段により前記行動を提示したことに伴って前記対象人物が行動を開始したことを検知した場合に、当該行動を行う場所への誘導を開始することを特徴とする請求項1または2に記載のロボット。
- 前記提示手段は、前記対象人物の正面に移動した上で前記行動を提示することを特徴とする請求項1乃至3のいずれか一項に記載のロボット。
- 行動の指定を受け付ける受け付け手段を更に有し、
前記決定手段は、前記受け付け手段にて受け付けた指定に基づいて、行動を決定することを特徴とする請求項1乃至4のいずれか一項に記載のロボット。 - 前記受け付け手段にて受け付けた行動のスケジュールを管理する管理手段を更に有し、
前記決定手段は、前記管理手段にて管理したスケジュールに基づいて、促す行動を決定することを特徴とする請求項5に記載のロボット。 - 前記提示手段は、前記対象人物が前記行動を行う場所への到達を検知したことに応じて、前記行動に関する情報を提示することを特徴とする請求項1乃至6のいずれか一項に記載のロボット。
- 前記対象人物の属性に応じて、前記ロボットが提供可能な動作が増減することを特徴とする請求項1乃至7のいずれか一項に記載のロボット。
- 可動式のロボットの制御方法であって、
対象人物へ促す行動を決定する決定工程と、
前記決定工程にて決定された行動を提示する提示工程と、
前記ロボットを移動させる移動工程と
を有し、
前記対象人物は、子供であり、
前記移動工程では、前記提示工程により前記行動を提示した上で、当該行動を行う場所へ向かって前記ロボットの移動を開始させ、
前記ロボットにより、前記子供による前記行動の完了を検知したことに応じて、前記行動の実行に対する前記子供の評価を行い、
前記評価は、音声または画像の表示より行われることを特徴とするロボットの制御方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/007562 WO2020174609A1 (ja) | 2019-02-27 | 2019-02-27 | 可動式ロボットおよびその制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020174609A1 JPWO2020174609A1 (ja) | 2021-10-07 |
JP7157234B2 true JP7157234B2 (ja) | 2022-10-19 |
Family
ID=72239660
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021501455A Active JP7157234B2 (ja) | 2019-02-27 | 2019-02-27 | 可動式ロボットおよびその制御方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7157234B2 (ja) |
WO (1) | WO2020174609A1 (ja) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013061715A (ja) | 2011-09-12 | 2013-04-04 | Nec Corp | 人物監視システム、ロボット、人物監視方法およびロボット制御プログラム |
WO2013046563A1 (ja) | 2011-09-29 | 2013-04-04 | パナソニック株式会社 | 自律移動装置、自律移動方法、及び、自律移動装置用のプログラム |
WO2017217192A1 (ja) | 2016-06-14 | 2017-12-21 | Groove X株式会社 | 涼しさを求める自律行動型ロボット |
-
2019
- 2019-02-27 WO PCT/JP2019/007562 patent/WO2020174609A1/ja active Application Filing
- 2019-02-27 JP JP2021501455A patent/JP7157234B2/ja active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013061715A (ja) | 2011-09-12 | 2013-04-04 | Nec Corp | 人物監視システム、ロボット、人物監視方法およびロボット制御プログラム |
WO2013046563A1 (ja) | 2011-09-29 | 2013-04-04 | パナソニック株式会社 | 自律移動装置、自律移動方法、及び、自律移動装置用のプログラム |
WO2017217192A1 (ja) | 2016-06-14 | 2017-12-21 | Groove X株式会社 | 涼しさを求める自律行動型ロボット |
Also Published As
Publication number | Publication date |
---|---|
JPWO2020174609A1 (ja) | 2021-10-07 |
WO2020174609A1 (ja) | 2020-09-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11544274B2 (en) | Context-based digital assistant | |
WO2015146824A1 (ja) | 対話型家電システム、サーバ装置、対話型家電機器、家電システムが対話を行なうための方法、当該方法をコンピュータに実現させるためのプログラムを格納した不揮発性のコンピュータ読み取り可能なデータ記録媒体 | |
KR102655147B1 (ko) | 상호작용 애니메이션 캐릭터 헤드 시스템 및 방법 | |
CN110313153A (zh) | 智能数字助理系统 | |
CN110139732A (zh) | 具有环境控制特征的社交机器人 | |
US20140038489A1 (en) | Interactive plush toy | |
CN104584096A (zh) | 由智能数字助理进行的中断的上下文相关处理 | |
KR20060131929A (ko) | 공통 대화 관리 시스템에 의한 복수의 애플리케이션을구동하기 위한 방법 | |
CN109541950A (zh) | 智能家居设备的控制方法、装置和设备 | |
US10444970B1 (en) | Contextual state-based user interface format adaptation | |
CN106200359A (zh) | 闹钟提醒方法、装置和终端 | |
JP6559079B2 (ja) | 対話型家電システム、および発話者との対話に基づいてメッセージを出力するためにコンピュータが実行する方法 | |
CA3211438A1 (en) | Systems and methods for machine learning-based emergency egress and advisement | |
JP7157234B2 (ja) | 可動式ロボットおよびその制御方法 | |
JP7222064B2 (ja) | 可動式ロボットおよびその制御方法 | |
CN106325518A (zh) | 用于虚拟现实设备的声音监测方法、装置及虚拟现实设备 | |
CN111602168A (zh) | 信息处理装置、信息处理方法和记录介质 | |
Barricelli et al. | A multi-modal approach to creating routines for smart speakers | |
KR20230047434A (ko) | 어시스턴트 디바이스(들)의 주변 감지에 기초한 어시스턴트 액션(들) 추론하기 | |
JPWO2019146188A1 (ja) | 情報処理装置および情報処理方法 | |
JP5447930B2 (ja) | 遊戯システム及び遊戯装置 | |
Pettersson et al. | Interactive Technologies for Elderly Care | |
JP2018161709A (ja) | 対話制御システムおよび対話制御装置 | |
JP2023141463A (ja) | 機器の制御装置、機器の制御方法及びプログラム | |
CN108733197A (zh) | 一种时间管理方法以及时间管理终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210406 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220602 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220912 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221006 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7157234 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |