JPWO2020174608A1 - 可動式ロボットおよびその制御方法 - Google Patents

可動式ロボットおよびその制御方法 Download PDF

Info

Publication number
JPWO2020174608A1
JPWO2020174608A1 JP2021501454A JP2021501454A JPWO2020174608A1 JP WO2020174608 A1 JPWO2020174608 A1 JP WO2020174608A1 JP 2021501454 A JP2021501454 A JP 2021501454A JP 2021501454 A JP2021501454 A JP 2021501454A JP WO2020174608 A1 JPWO2020174608 A1 JP WO2020174608A1
Authority
JP
Japan
Prior art keywords
robot
target person
information
event
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021501454A
Other languages
English (en)
Other versions
JP7222064B2 (ja
Inventor
直秀 小川
直秀 小川
薫 鳥羽
薫 鳥羽
渉 瀬下
渉 瀬下
山川 浩
浩 山川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JPWO2020174608A1 publication Critical patent/JPWO2020174608A1/ja
Application granted granted Critical
Publication of JP7222064B2 publication Critical patent/JP7222064B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

可動式のロボットであって、前記ロボットを移動させる駆動手段と、対象人物へ情報を提供する提供手段と、前記ロボットの動作を制御する制御手段とを備え、前記制御手段は、前記提供手段により前記情報を提供している際に所定のタイミングとなった場合、前記対象人物から離れるように前記駆動手段を制御する。

Description

本発明は、可動式ロボットおよびその制御方法に関する。特に、主に子供を対象とした育児用の可動式ロボットの制御技術に関する。
従来、子供などとコミュニケーションをとりながら、その相手をするロボットが知られている。例えば、特許文献1では、子供の遊び相手をするロボットが開示されている。
特開2004−234890号公報
例えば、子供自身が遊びの最中において、その時間管理を行うことは難しく、特に予め決められた終了時間にスムーズに遊びを終了することは難しい。
そこで、本発明は、ある行動を対象人物に終了させる際のスムーズな切り替えをサポートすることを目的とする。
上記課題を解決するために本願発明は以下の構成を有する。すなわち、
可動式のロボットであって、
前記ロボットを移動させる駆動手段と、
対象人物へ情報を提供する提供手段と、
前記ロボットの動作を制御する制御手段と、
を備え、
前記制御手段は、前記提供手段により前記情報を提供している際に所定のタイミングとなった場合、前記対象人物から離れるように前記駆動手段を制御する。
本発明により、ある行動を対象人物に終了させる際のスムーズな切り替えをサポートすることが可能となる。
添付図面は明細書に含まれ、その一部を構成し、本発明の実施の形態を示し、その記述と共に本発明の原理を説明するために用いられる。
本発明に係るロボットのハードウェア構成の例を示す図。 第1の実施形態に係るロボットのソフトウェア構成の例を示す図。 第1の実施形態に係るイベントの例を説明するための図。 第1の実施形態に係るロボットの誘導動作の処理を示すフローチャート。 第1の実施形態に係るロボットの誘導の例を説明するための図。 第1の実施形態に係る行動履歴解析処理を示すフローチャート。 第1の実施形態に係るイベントのスケジュール設定の画面の構成例を示す図。 第1の実施形態に係るイベント完了後の通知の例を説明するための図。 第2の実施形態に係るロボットのソフトウェア構成の例を示す図。 第2の実施形態に係るロボットの動作の例を説明するための図。 第2の実施形態に係る設定画面の構成例を示す図。 第2の実施形態に係るロボットの動作の処理を示すフローチャート。 第2の実施形態に係るロボットの退避動作の処理を示すフローチャート。
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでするものでなく、また実施形態で説明されている特徴の組み合わせの全てが発明に必須のものとは限らない。実施形態で説明されている複数の特徴うち二つ以上の特徴が任意に組み合わされてもよい。また、同一若しくは同様の構成には同一の参照番号を付し、重複した説明は省略する。
<第1の実施形態>
[システム概要]
本発明の第1の実施形態として、対人用の可動式コミュニケーションロボット(以下、単に「ロボット」)が、人物とコミュニケーションを行い、その人物に対して所定の動作を誘導する形態について説明する。ここでのコミュニケーションの対象となる人物は、育児の対象となる児童を例に挙げて説明するが、これに限定するものではない。
また、本実施形態では、ロボットと児童とのコミュニケーションが行われる場所を所定の空間(例えば、家庭内や共有スペース)などを想定して説明を行う。
[ロボットの構成]
(ハードウェア構成)
図1は、本実施形態に係るロボット100のハードウェア構成の例を示す図である。ロボット100が備える制御部110は、CPU(Central Processing Unit)111、HDD(Hard Disc Drive)112、およびRAM(Random Access Memory)113を含んで構成される。CPU111は、HDD112に格納されたプログラムを読み出して実行することにより、以下に示す各種処理を制御する。HDD112は、不揮発性の記憶領域であり、各種処理に対応するプログラムが格納される。RAM113は、揮発性の記憶領域であり、例えば、ワークメモリなどとして利用される。なお、制御部110は、ASIC(Application Specific Integrated Circuit)や専用回路などから構成されてもよい。
更に、本実施形態に係るロボット100は、外部との情報のインターフェースとなる各種部位を備える。以下に示す部位は、制御部110による制御に基づいて動作する。音声入力部114は、外部からの音声情報を取得する部位であり、例えば、マイクなどが含まれる。撮像部115は、周辺の画像情報を取得する部位であり、例えば、カメラなどが含まれる。電源部116は、ロボット100の電源を供給する部位であり、バッテリーに相当する。音声出力部117は、外部への音声情報を出力するための部位であり、例えば、スピーカーなどが含まれる。画像表示部118は、画像情報を出力するための部位であり、ディスプレイなどが含まれる。操作部119は、ロボットに対するユーザー操作を行うための部位である。画像表示部118と操作部119は、例えば、入力装置としても機能するタッチパネルディスプレイとしてまとめて構成されてもよい。
報知部120は、各種情報を外部に報知するための部位であり、例えば、LED(Light Emitting Diode)などの発光部であってもよいし、音声出力部117と一体となっていてもよい。駆動部121は、ロボット100の移動を行う部位であり、例えば、アクチュエーターやタイヤ、モーター、エンジンなどが含まれていてよい。センサ部122は、外部環境の情報を取得するための各種センサを含む。センサとしては、例えば、温度センサ、湿度センサ、赤外線センサ、深度センサ、ライダー(LiDAR: Light Detection and Ranging)などが含まれてよく、取得すべき情報に応じてセンサが設けられてよい。通信部123は、ネットワーク(不図示)を介して外部装置と通信を行うための部位であり、通信方式や通信プロトコルなどは特に限定するものではない。また、通信部123には、自身の位置情報を検知するためのGPS(Global Positioning System)が含まれてもよい。
なお、図1の構成例では、各部位をそれぞれ1つのブロックにて示しているが、ロボット100の機能や構造に併せて、物理的に複数個所に各部位が分けて設置されてよい。また、例えば、電源部116などはロボット100から着脱可能に構成されてもよいし、新たな機能を提供するための部位を増設するためのインターフェースを備えてもよい。
なお、ロボット100の外観は特に限定するものでは無いが、例えば、コミュニケーション対象として想定する人物(例えば、児童)に応じて構成されていてよい。また、ロボットの材質やサイズなども特に限定するものではない。
(ソフトウェア構成)
図2は、本実施形態に係るロボット100のソフトウェア構成の例を示す図である。本実施形態において、各処理部はCPU111がHDD112等に格納されたプログラムを読み出して実行することにより実現される。また、各DB(データベース)は、HDD112に構成される。
スケジュール設定部201は、所定のタイミングにて実行されるべきイベントをスケジュールとして設定する部位である。ここでのスケジュールは、通信部123を介して外部から設定が行われてもよいし、操作部119を介してロボット100側にて設定されてもよい。スケジュール設定部201は、スケジュールを設定するための画面を提供する。この画面の例については、図7を用いて後述する。スケジュール管理部202は、スケジュール設定部201にて設定されたスケジュールをスケジュールDB213にて管理する。また、スケジュール管理部202は、所定のイベントを行うべきタイミングになった際に、イベント処理部203に通知する。
イベント処理部203は、スケジュールに設定されたイベントが行われるべきタイミングや、センサ部122等にて検知した事象に応じて、各種イベントの処理を行う。イベントの詳細については、図3等を用いて後述する。イベント管理部204は、各種イベントに関する処理をイベント情報DB211にて管理する。また、イベントの処理に必要な情報を提供する。
マップ作成部205は、ロボット100が動作を行う空間のマップを作成する。マップは、ロボット100が備えるセンサ部122や撮像部115にて取得された情報に基づいて作成されてもよいし、通信部123を介して外部から取得された地図情報に基づいて作成されてもよい。マップ管理部206は、マップ作成部205にて作成されたマップを、マップ情報DB212にて管理する。また、マップ管理部206は、処理すべきイベントに応じて、マップ情報を提供する。
履歴処理部207は、発生したイベントに伴って、人物が行った動作を記録、管理する。ここでの行動履歴は行動履歴DB214にて管理される。通信処理部208は、外部との情報のやり取りを行う。例えば、通信処理部208は、行動履歴DB214に蓄積された行動履歴情報を外部へ提示してもよいし、イベントに関する指示を外部から受け付けてもよい。
[イベント]
本実施形態に係るロボット100が対応するイベントについて説明する。本実施形態において、ロボット100は、対象となる人物(以下、対象人物)について、所定のタイミングや何らかの状態を検知した際に所定の動作を促す処理を行う。ここでの所定の動作を「イベント」と称する。
図3は、本実施形態に係るイベントを説明するための図である。本実施形態に係るロボット100は、イベントの実行を対象人物に促すために、そのイベントを行う位置へ誘導を行う。例えば、イベントとして、「トイレ(行き)」を例に挙げて説明する。「トイレ(行き)」は、発生タイミングを、対象人物がトイレに行きたい動作を検知したことをトリガーとする。ここでの検知は、例えば、対応するフレーズ(例えば、「トイレ」)を、音声入力部114を介して受信することで検知してもよいし、所定の時間間隔ごとに対象人物に問い合わせを行い、その応答から判断してもよい。もしくは、後述するように、予めスケジュールされたタイミングにて実行してもよい。イベント「トイレ(行き)」を行うと判定された場合、予め保持していたマップ情報に基づいて、対象人物を目的地(この例では、トイレ)へ誘導する。
また、イベントは単一の動作に限定するものではなく、例えば、「トイレ(行き)」→「手洗い(行き)」→「所定位置への移動」といった、一連の流れにて構成されてもよい。また、イベントは必ずしも領域間(部屋間)の移動を伴うものである必要はなく、現在位置する領域内で行われるものであってもよい。
また、イベントは、対象人物の属性に応じて、設定可能な内容が変化してもよい。例えば、年齢に応じて、スケジュールに設定可能なイベントが変化してもよい。もしくは、過去の行動履歴に応じて、設定可能なイベントが増減してもよい。イベントの設定は、外部装置を介してユーザーが行えるような構成であってもよい。例えば、対象人物が児童である場合に、その親が、実行させたい動作をイベントとして設定してよい。この時の設定としては、動作を行わせる時間や場所などを設定してもよい。設定の例については、図7等を用いて後述する。
[イベントの実行を促す手法]
本実施形態に係るロボット100は、イベントの実行を対象人物に促す際には、複数の手法を用いてよい。例えば、促す手法としては、音声、画像(お手本)の提示、場所への誘導(先導)などが挙げられる。促す手法は、対象人物やイベントの種類、促しの程度(強度)などに応じて、組み合わせたり、変化させたりしてもよい。例えば、音声の音量を変化させたり、声色を変化させたりしてもよい。また、促しを開始してからの経過時間に応じて、手法を変化させてもよい。
また、イベントを行う場所への誘導においては、ロボット100が場所の方向を向いたり、場所の情報を示したりしてよい。更には、誘導を開始した後の対象人物の状態に応じて、促す動作を切り替えてよい。具体的には、誘導を開始してから一定時間が経過しても対象人物が行動(移動)を開始しない場合は、対象人物に近づいていって、その周りを回ったり、新たな画像や音声を出力したりしてもよい。
[マッピング動作]
ロボット100のマップ作成部205は、撮像部115、センサ部122等にて取得された周辺情報を用いて、動作する空間のマップを作成する。例えば、一定時間が経過するごとに、これらの周辺情報を再収集し、マップを更新するようにしてもよい。例えば、家具の配置が変更になった場合には、その変更後の状態に応じて、マップ情報を更新してよい。更に、マップ作成部205は、通信部123を介した外部からの情報(地図情報や位置情報など)を取得してマッピングを行うようにしてもよい。また、マップ作成部205は、各領域に存在する物体を検知して、その領域の用途を対応付けるような構成であってもよい。例えば、便器が存在する領域であればその領域をトイレとして対応付けてもよく、浴槽がある領域は浴室として対応付けてもよい。領域の用途が特定できない場合には、ユーザーにより設定を受け付けるような構成であってもよい。
[処理フロー]
(誘導処理)
図4は、本実施形態に係るロボット100の誘導処理のフローチャートである。本実施形態において、本処理フローは、ロボット100のCPU111がHDD112に記憶されたプログラムを読み出して実行することにより実現される。各処理工程は、例えば、図1の部位や図2の処理部が協働して実現されるが、ここでは説明を簡略化するために、処理主体をロボット100として包括的に説明する。
S401にて、ロボット100は、対象人物の状態監視を行う。本実施形態では、状態監視は、対象人物とコミュニケーションを行っている状態にて行われているものとする。ここでのコミュニケーションは、音声によるインタラクションにて行われてもよいし、ゲームなどを対象人物と行うことで行われてもよい。
S402にて、ロボット100は、処理すべきイベントが発生したか否かを判定する。ここでのイベントの発生の起因は、スケジュール管理部202にて管理されているスケジュールに設定された所定のタイミングにて行われてもよいし、対象人物の監視結果から得られた状態の変化に応じて判定されてもよい。または、外部装置(不図示)から通信部123を介してイベント発生の指示を受け付けたことに起因してもよい。イベントが発生したと判定された場合(S402にてYES)S403へ進み、発生していないと判定された場合(S402にてNO)S401へ戻り、状態監視を継続する。
S403にて、ロボット100は、イベントが実行される位置を特定し、マップ情報と自身の位置から、移動経路を決定する。マップ情報は、予め作成され、マップ情報DB212にて保持されているものとする。また、イベントが実施される位置とマップ情報の各位置は対応付けられているものとする。
S404にて、ロボット100は、S403にて決定された位置(目的地)に対して、対象人物の誘導を開始する。このとき、誘導を開始したタイミングの情報や開始したイベントの内容は、行動履歴DB214に記録される。ロボット100は、誘導を開始する際に、対象人物に対してイベントの内容を通知する。例えば、「トイレへ行きましょう」といった音声にて通知した上で、トイレの場所へ向けて移動を開始(先導)する。また、ロボット100は、誘導を開始するとともに、例えば、撮像部115により対象人物の行動の動画を記録する。ここでの記録は、動画の代わりに、一定時間間隔おきに取得される静止画像であってもよい。
S405にて、ロボット100は、誘導を開始した後に、対象人物が目的地に対して移動を開始したか否かを判定する。ここでの判定は、センサ部122等にて取得される情報に基づいて判定される。移動を開始したと判定された場合は(S405にてYES)S407へ進み、移動を開始していないと判定された場合は(S405にてNO)S406へ進む。
S406にて、ロボット100は、誘導方法の切り替えを行う。例えば、誘導時の音量を変化させてもよいし、声色を変化させてもよい。または、対象人物(特に児童)が興味を持つような画像を表示してもよいし、対象人物の周辺にて何らかの促し動作(回転や周回、回り込み)などを行うようにしてもよい。一定の誘導動作を行った後、S405へ戻る。
S407にて、ロボット100は、対象人物が目的地へ到達したか否かを判定する。目的地に到達したと判定した場合(S407にてYES)S409へ進み、到達していないと判定した場合(S407にてNO)S408へ進む。
S408にて、ロボット100は、対象人物の状態に応じて誘導方法の更新を行う。例えば、対象人物が目的地までの移動経路から外れた場合には、正しい経路へ誘導するような通知を行うようにしてもよい。このとき、ロボット100は、対象人物に近づいて行った上で通知を行ってもよいし、経路上にて通知を行うような構成であってもよい。そして、S407へ戻る。
S409にて、ロボット100は、対象人物が目的地へ到達したことに伴って、誘導を終了する。このとき、誘導に要した時間の情報などを行動履歴DB214に記録してよい。
S410にて、ロボット100は、イベントに関する情報を提示する。例えば、実行させたいイベントが「手洗い」であれば、石鹸を使うことや、洗った後は手を拭くことなどを通知する。ここでの提示は、音声で行われてもよいし、手本となる画像を表示してもよい。
S411にて、ロボット100は、対象人物によるイベントが正常に完了したか否かを判定する。例えば、センサ部122や撮像部115にて取得される情報に基づいて、イベントに対応する動作を行ったか否かを判定してもよいし、対象人物にイベントに対応する動作を行ったか否かを確認するような構成でもよい。具体的には、音声入力部114や撮像部115にて取得される情報に基づいて、トイレの水が流されたことを確認してもよい。もしくは、センサ部122や撮像部115に対して手洗い後の手をかざしてもらい、ちゃんと手洗いができたか否かを確認するような構成であってもよい。イベントが正常に完了した場合は(S411にてYES)、S412へ進み、完了していない場合は(S411にてNO)S413へ進む。
S412にて、ロボット100は、イベントに関する動作を行った対象人物に対してその行動の評価を行う。例えば、動作を行った対象人物(ここでは、児童)を音声にて褒めたり、喜んでいるキャラクターの画像を表示したりするなどしてよい。また、この時の結果を行動履歴DB214に保持してよい。その後、本処理フローを終了する。
S413にて、ロボット100は、イベントに関する動作を、対象人物に行うように促す動作を行う。例えば、対象人物を音声にて応援したり、励ますような画像を表示したりするなどしてよい。その後、S411へ戻る。なお、促し動作を複数回繰り返したり、一定時間が経過したりした場合には、本処理フローを終了してもよい。
また、ここでは、イベントが終了したことに応じて本処理フローを終了した構成としたが、例えば、イベントが一連の動作により構成されている場合などには、繰り返し本処理フローを継続してよい。
また、イベントが完了したことを、通信部123を介して外部装置へ通知するようにしてもよい。例えば、対象人物が児童である場合には、その親に対して幼児ができた行動を通知するようにしてもよい。通知方法の例については、図8を用いて後述する。
また、S411のイベントが正常に完了したことを判定する際や、S412にて動作の評価を行う場合には、他の装置と連携するような構成であってもよい。例えば、イベントが歯磨きである場合には、歯ブラシに搭載されたセンサなどの結果を取得し、その結果から適切に歯磨きができたか否かを判定してもよい。または、きちんと水道を止められたか否かの判定や、扉を閉められたか否かの判定などが行われてもよい。または、歯磨きなどのイベントなどにおいては、その動作を行った時間が所定の時間(閾値)よりも短い場合には、きちんと磨けていないものとして、その旨を対象人物に通知してもよい。
[誘導例]
図5は、本実施形態に係るロボット100の誘導の例を説明するための図である。ここでは、イベントとして、「トイレ(行き)」→「手洗い(行き)」→「所定位置への移動」の一連の流れを例に挙げて説明する。また、所定の位置は、一連のイベントが発生する際に位置していた場所(図5の例では「共有スペース」)として説明する。
上述したように、マップ情報とイベントを行うべき場所の情報とは予め対応付けて保持されているものとする。また、マップ情報においては、領域間の接続部(扉など、部屋間の出入り口)などの情報も登録されているものとする。図5の例では、共有スペースにてロボット100と対象人物(児童500)が何らかのコミュニケーションをとっている状態を用いて説明する。
まず、ロボット100は、自身の現在位置を適時保持しているものとする。この状態において、児童500に対して促すべきイベントの発生を検知すると、イベントに応じた場所への経路を決定する。ここでは、各領域(部屋)の境界付近を中継地点(通過ポイント)として、経路を決定する。なお、経路の決定は、一連のイベントについてまとめて決定してもよいし、イベントごとに決定してもよい。経路が決定した後、イベントに関する動作行うように児童500に対して通知する。本例では、トイレに行くことを通知した上で、その場所まで誘導する旨を通知する。
そして、ロボット100は、児童500の誘導を開始する。図5の例の場合、ロボット100は、まず、中継地点Aへ移動し、児童500の状態を確認する。このとき、例えば、ロボット100は児童500に対して正面を向いたりすることで、動作を促す。児童500が行動を開始していることを検知したら、ロボット100は、続いて、中継地点Bへと移動する。そして、ロボット100は、中継地点Bにて、その場所がトイレ(目的地)である旨を通知する。なお、児童500がロボット100より先に目的地に到達している場合には、率先して動作を行っていることを褒めたりするような音声や画像を出力するようにしてもよい。
更に、ロボット100は、音声入力部114によりトイレの水が流されたことを検知したり、撮像部115によりトイレの扉が閉じられたりしたことを検知したことなどに基づいて、動作が完了したことを検知する。ここでも、児童500が率先して、求められる動作(例えば、水を流す、扉を閉める、など)を行った場合にはそれを評価する出力を行ってよいし、逆に行っていない場合には、その動作を促すようにしてもよい。
続いて、ロボット100は、イベント「手洗い(行き)」を促すために、中継位置Cへの誘導を開始する。その後、手洗いが正常に行われたことを検知した後、イベント「所定位置への移動」を行うために、中継位置D、中継位置Eへと移動および誘導を行う。
なお、誘導は、対象人物の動作状態に応じて、経路が変更・更新されてもよい。また、誘導中の対象人物の動作状態に応じて、対象人物に近づいたりしてもよい。したがって、当初決定した目的地までの経路は、状況に応じて修正されてよい。また、対象人物の動作によっては、中継地点にて停止する必要はない。もしくは、対象人物がいる位置から所定の範囲内に存在しつつ誘導を行うような構成であってもよい。この場合は、対象人物と同じ速度もしくは略同じ速度にて並走するような動作であってもよい。
(行動履歴解析処理)
図6は、本実施形態に係る、イベントを対象人物が実行したことの行動履歴に対する行動履歴解析処理のフローチャートである。本実施形態において、本処理フローは、ロボット100のCPU111がHDD112に記憶されたプログラムを読み出して実行することにより実現される。本処理は、一定間隔ごとに実行されてもよいし、一定量の行動履歴情報が記録されたタイミングにて実行されてもよい。
ここでは、本処理フローはロボット100が行うものとして説明するが、この構成に限定するものではなく、例えば、行動履歴DB214に行動履歴情報を定期的に外部サーバー(不図示)へ通信処理部208が送信し、外部サーバー側で行ってもよい。その場合は、ロボット100は解析結果を外部サーバーから取得し、その結果に応じて以降のイベントの処理を変更してもよい。
S601にて、ロボット100は、解析する対象人物の行動履歴情報を取得する。ここでは、履歴処理部207が行動履歴DB214に記録された行動履歴情報の中から対象となる情報を取得する。
S602にて、ロボット100は、取得した各行動履歴の評価を集計する。例えば、各行動履歴には、行動に要した時間、実行の有無などが記録されており、この情報を集計する。集計により、行動の変遷や所要時間などが特定可能となる。
S603にて、ロボット100は、集計結果に応じて、対象人物にポイントを付与する。なお、ここでの評価は、ポイントに限らず、年齢に応じたランクや、イベントごとの習熟度などを設定してもよい。付与するポイントは、動作に応じた時間や実行回数などに対して予め基準を設けておき、これに従って設定してもよい。
S604にて、ロボット100は、付与されたポイントに応じて、新たに設定が可能となるイベントを特定する。ここで特定されたイベントは、例えば、イベントをスケジュールする際に選択肢として出力されることとなる。逆に、習熟度が高い場合などには、低年齢向けのイベントは選択肢に表示されないような制御を行ってもよい。
S605にて、ロボット100は、付与されたポイントに応じて、ロボット100が出力可能な動作を特定する。ここで特定された動作は、例えば、これまで表示されていなかった画像やメッセージを、以降のイベントの完了時に出力される動作が該当する。そのため、例えば、ポイントが上がるに従って、対象人物に対して新たなキャラクターの画像を表示するようにしてもよいし、これまでとは異なる誉め言葉を出力するようにしてもよい。そして、本処理フローを終了する。
上記処理により、対象人物の成長や行動履歴に従って、ロボット100が行う動作が更新されていくこととなる。
[画面例]
本実施形態に係るユーザーが利用可能な画面の例について説明する。例えば、上述した対象人物が児童である場合に、その親が各画面を利用することができる。なお、以下に示す画面は、専用のアプリケーションにより実現されてもよいし、他のアプリケーション(例えば、メールアプリやSNS(Social Networking Service)アプリ)などと連携して実現されてもよい。また、各アプリケーションは、外部装置、例えばスマートフォンなどの携帯端末(不図示)にて搭載されてもよい。
図7は、対象人物に実行を促すイベントのスケジュールを設定するための画面の例を示す。設定画面700において、イベント設定701、時間設定702、および経過報告設定703を含む。イベント設定701は、促したいイベントを指定する設定項目であり、例えば、プルダウンにて選択できるような構成であってよい。また、上述したように、ここで選択可能なイベントは、過去の行動履歴に応じて変化してよい。時間設定702は、イベントを促したい時間を指定する設定項目である。ここでは、時間にて指定されているが、例えば、ある状態を検知した場合、などを選択できるような構成であってもよい。経過報告設定703は、イベントを促している最中やその完了時点での情報の報告を行うか否かを設定する設定項目である。ここでは、ON/OFFが設定できるように構成されている。なお、図7の設定画面700の構成は一例であり、他の設定項目が設定できてもよいし、更に詳細な設定が可能であってもよい
図8は、本実施形態に係る経過報告を行う場合の通知画面800の構成例を示す。通知画面800は、設定画面700の通知報告設定703にて「ON」が設定される場合に行われるものとする。
通知画面800において、イベント内容801、イベント日時802、イベント中画像803、および評価804が表示される。イベント内容には、行ったイベント名が表示される。イベント日時802には、イベントを行った時間が表示される。イベント中画像803には、イベントを行っている際の対象人物の画像が表示される。なお、ここでは、動画が表示されてもよい。評価804には、イベントを行った結果の評価が示される。なお、図8の通知画面800の構成は一例であり、他の情報が含まれてもよいし、ユーザーが通知する内容を設定できるような構成であってもよい。
以上、本実施形態により、対象人物(例えば、子供)とコミュニケーションをとりながら、対象人物の自主的な行動をサポートすることが可能となる。
<第2の実施形態>
本発明の第2の実施形態として、ロボットが、対象人物とコミュニケーションを行うことにより、他の人物の行動をサポートする形態について説明する。ここでのコミュニケーションの対象となる人物は、第1の実施形態と同様、育児の対象となる児童を例に挙げて説明するが、これに限定するものではない。また、第1の実施形態と共通する構成については、説明を省略し、差異のみを説明する。
(ソフトウェア構成)
図9は、本実施形態に係るロボット100のソフトウェア構成の例を示す図である。本実施形態において、各処理部はCPU111がHDD112等に格納されたプログラムを読み出して実行することにより実現される。また、各DB(データベース)は、HDD112に構成される。
スケジュール設定部901は、ロボット100に実行させる動作をスケジュールとして設定するする部位である。ここでのスケジュールは、通信部123を介して外部から設定が行われてもよいし、操作部119を介して設定されてもよい。スケジュール設定部901は、スケジュールを設定するための画面を提供する。この画面の例については、図11を用いて後述する。スケジュール管理部902は、スケジュール設定部901にて設定されたスケジュールをスケジュールDB913にて管理する。
コンテンツ処理部903は、コンテンツをコンテンツDB911から読み出して、外部に提供する。ここでのコンテンツは、例えば、音楽であってもよいし、動画であってもよい。もしくは、対象人物との一緒に行うゲームなどであってもよい。ロボット100が、画像などの情報を出力するのみではなく、例えば、子供が主体的に行う動作(例えば、音読)を聞く動作を行い、その動作に対するリアクションを行うようにしてもよい。また、本実施形態に係るコンテンツは、1または複数のセクションから構成されていてもよい。例えば、コンテンツが動画である場合に、5分毎のセクション(シーン)から構成されていてよい。この場合、セクション間は区切りとして扱うことが可能である。コンテンツ管理部904は、各種コンテンツをコンテンツDB911にて管理する。また、コンテンツ管理部904は、コンテンツ処理部903に、コンテンツの処理に必要な情報を提供する。
マップ作成部905は、ロボット100が動作を行う空間のマップを作成する。マップは、ロボット100が備えるセンサ部122や撮像部115にて取得された情報に基づいて作成されてもよいし、通信部123を介して外部から取得された地図情報に基づいて作成されてもよい。本実施形態においては、マップには、対象人物とコミュニケーションを行う領域(範囲)や、充電位置などの情報を含むものとする。マップ管理部906は、マップ作成部205にて作成されたマップを、マップ情報DB912にて管理する。
履歴処理部907は、対象人物とのコミュニケーションを行った履歴などの情報を記録、管理する。ここでの履歴情報は、履歴情報DB914にて管理される。通信処理部908は、外部との情報のやり取りを行う。例えば、通信処理部908は、行動履歴DB214に蓄積された行動履歴情報を外部へ提示してもよいし、コンテンツに関する指示を外部から受け付けてもよい。退避制御部909は、所定のタイミングにて、対象人物からロボット100を退避させる動作を制御する。本実施形態に係る退避動作の詳細については後述する。状態監視部910は、対象人物の状態を、撮像部115やセンサ部122から得られる情報に基づいて監視、判断し、その状態に応じた動作を行う。
[動作例]
図10は、本実施形態に係るロボット100の動作の例を説明するための図である。ここでは、ある空間1000において、対象人物(ここでは、児童1001)とその他の人物(ここでは、児童の親1002)が存在し、ロボット100は、児童1001とコミュニケーションをとっているものとする。一方、親1002は、個別に何らかの作業を行っているものとする。
また、空間1000には、ロボット100の充電位置1003と、ロボット100と児童1001がコミュニケーションをとるための領域1004とが予めマップ情報にて設定されているものとする。なお、領域1004の範囲は、特に限定するものではなく、空間1000全体としてもよいし、所定の物体(例えば、危険物)などがある範囲を除くように設定されてもよい。
ロボット100は、例えば親1002から指定された設定に基づき、児童1001とコミュニケーションを行う。コミュニケーションでは、コンテンツDB911にて保持された各種コンテンツを提供する。本実施形態では、このコミュニケーションにおいて、コンテンツの提供と並行して、ロボット100は、対象人物(本例では、児童1001)の状態監視を行う。例えば、ロボット100は、撮像部115やセンサ部122などから取得される情報に基づき、児童1001がロボット100とコミュニケーションをとれているか否かを判定する。具体的には、児童1001からの応答がない場合や寝息を立てている場合などは、コミュニケーションが完了した状態であると判定してよい。この場合には、コンテンツの提供を停止したり、親1002へ通知したりするような構成であってもよい。
また、ロボット100は、領域1004から離れるような行動をしていないかの監視を行う。例えば、ロボット100とのコミュニケーションを中断し、他の場所へ移動したり、親1002が意図しない場所へ移動したりする場合が挙げられる。このような状態を検知した場合には、例えば、親1002に通知したり、領域1004に戻るように促す動作を実行したりしてもよい。
また、ロボット100は、児童1001とコミュニケーションを行っている最中(コンテンツを提供している最中)に、所定のタイミングとなった場合、そのコミュニケーションを中断した上で、児童1001から離れる動作を行う。ここでの離れる動作は、例えば、充電位置1003に移動したり、親1002の近くへ移動したりすることで行われる。
[画面例]
本実施形態に係るユーザーが利用可能な画面の例について説明する。例えば、上述した対象人物が児童である場合に、その親が各画面を利用することができる。なお、以下に示す画面は、専用のアプリケーションにより実現されてもよい。
図11は、ロボット100に対して、対象人物とコミュニケーションを行わせる際の設定画面の例を示す。設定画面1100において、コミュニケーションを行う時間設定1101およびコミュニケーション終了時の動作設定1102を含む。時間設定1101は、コミュニケーションを行う時間の設定を行う。ここでは、時間間隔もしくは開始からの連続時間にて設定できる例を示している。これらの設定は、例えば、プルダウンにて設定可能であってもよい。動作設定1102は、所定のコミュニケーション終了時のロボット100の動作を指定するための設定項目である。ここでは、充電地点(図10の例の場合は充電位置1003)への移動、もしくは、大人の元(図10の例の場合は親1002の周辺)への移動が選択できるものとする。なお、大人の元への移動については、例えば、ロボット100は、撮像部115やセンサ部122から得られる情報に基づいて、周辺の大人(所定の人物)を検知し、その周辺に移動する。なお、図11の設定画面1100の構成は一例であり、他の設定項目が設定できてもよいし、更に詳細な設定が可能であってもよい。例えば、必要に応じて、親1002が、ロボット100によるコミュニケーションの時間を延長するような指示を受け付けることができてもよい。
[処理フロー]
図12は、本実施形態に係るロボット100の誘導処理のフローチャートである。本実施形態において、本処理フローは、ロボット100のCPU111がHDD112に記憶されたプログラムを読み出して実行することにより実現される。各処理工程は、例えば、図1の部位や図9の処理部が協働して実現されるが、ここでは説明を簡略化するために、処理主体をロボット100として包括的に説明する。
S1201にて、ロボット100は、対象人物の監視を開始する。ここでの監視は、コミュニケーションの相手となる対象人物を認識し、その動作をセンサ部122等による情報の収集を行う。この場合、ロボット100は、対象人物の正面に移動するような動作を行ってよい。
S1202にて、ロボット100は、コンテンツの提供を開始する。ここで提供されるコンテンツは、対象人物(本例では児童)からの指定を受け付けてもよいし、他のユーザー(例えば、児童の親)から受け付けてもよい。このとき、ロボット100は、選択可能なコンテンツを提示してもよい。
S1203にて、ロボット100は、対象人物とのコミュニケーションが正常に行われているか否かを判定する。例えば、提供しているコンテンツに対して、対象人物が何かしらの反応を示している場合や、問いかけに対して返事をする場合には、正常にコミュニケーションが行われているものとする。ここでは、センサ部122等により得られた情報に基づいて判定してよい。コミュニケーションが正常であると判定された場合は(S1203にてYES)S1204へ進み、正常でないと判定された場合は(S1203にてNO)S1206へ進む。
S1204にて、ロボット100は、所定のタイミングに達したか否かを判定する。本実施形態において、ここでの所定のタイミングは、図11に示した設定画面1100の時間設定1101にて設定した時間に対応する。所定のタイミングに達したと判定された場合は(S1204にてYES)S1205へ進み、達していないと判定された場合は(S1204にてNO)S1203へ戻る。
S1205にて、ロボット100は、退避動作を行う。退避動作の処理の詳細は、図13を用いて後述する。本工程の処理が完了した後、本処理フローを終了する。
S1206にて、ロボット100は、コミュニケーションが正常でないと判定された原因が、対象人物が所定領域から外部に移動したことであるか否かを判定する。所定領域とは、例えば、図10の領域1004に相当する。所定領域からの移動であると判定された場合は(S1206にてYES)S1207へ進み、所定領域からの移動でないと判定された場合は(S1206にてNO)S1209へ進む。
S1207にて、ロボット100は、対象人物に対し所定領域への誘導動作を行う。ここでの誘導動作は、例えば、音声にて通知するような方法でもよいし、対象人物の近くに移動した上で、所定領域へ案内するような動作であってもよい。もしくは、誘導用のコンテンツを表示したりするような動作であってもよい。ここでの誘導動作は、一定時間継続してよい。
S1208にて、ロボット100は、誘導動作の後、対象人物が所定領域内へ移動したか否かを判定する。ここでは、センサ部122等による情報に基づいて、対象人物が所定領域内にいるか否かを検知する。所定位置へ移動したと判定された場合(S1208にてYES)S1203へ戻る。この場合、コンテンツの提供が継続され、ロボット100と対象人物とのコミュニケーションが試みられる。所定位置へ移動していないと判定された場合(S1208にてNO)S1209へ進む。
S1209にて、ロボット100は、対象人物とのコミュニケーションを中断し、所定のユーザー(例えば、児童の親)に対して中断通知を行う。ここでの通知方法は、音声にて通知してもよいし、通知先となる人物の周辺に移動した上で通知を行ってもよい。または、中断した理由に応じて通知方法を切り替えてもよい。例えば、対象人物が寝てしまったことを検知した場合には、音量を落とした上で親の周辺に近づいて通知をしてもよい。もしくは、何らかの緊急事態などにより中断した場合には、音量を上げて通知してもよい。その後、本処理フローを終了する。
なお、S1209の通知動作が完了した後は、中断した理由に応じて、その後の動作を切り替えてもよい。例えば、充電位置などの所定の位置に移動するような構成であってもよいし、寝ている場合には対象人物の周辺に移動して、その状態を見守る動作を行ってもよい。
(退避動作)
図13は、本実施形態に係る退避動作の処理を示すフローチャートである。本処理は、図12のS1205の工程に相当する。
S1301にて、ロボット100は、対象人物に対してコミュニケーションの終了を予告する。ここでの予告は、終了までの残り時間を示してもよいし、カウントダウンのような方法で行ってもよい。もしくは、終了が近づくことを示唆するような音楽を出力してもよい。
S1302にて、ロボット100は、現在提供しているコンテンツの直近の区切りに達したか否かを判定する。上述したように、本実施形態では、コンテンツは1または複数のセクションにて構成されており、そのセクション間の区切りに達した時点をコミュニケーションの終了タイミングとする。なお、コンテンツの種類によって、区切りの設定方法は変化してよい。コンテンツの区切りに達したと判定された場合(S1302にてYES)S1303へ進む。コンテンツの区切りに達していないと判定された場合(S1302にてNO)S1301へ戻る。なお、S1301に戻った場合の予告は、前回の予告と変更してもよい。
S1303にて、ロボット100は、提供していたコンテンツを終了させる。この時の終了方法は、徐々に音声を小さくしていくように終了してもよいし、区切りにて瞬断するように終了させてもよい。
S1304にて、ロボット100は、対象人物の周囲から離れるように移動を開始する。ここでの移動先は、例えば、図10の充電位置1003など予め設定された位置でよい。
S1305にて、ロボット100は、移動中に対象人物が接近してきたか否かを判定する。ここでは、センサ部122等により得られた情報に基づいて、対象人物の接近を判定してよい。対象人物の接近を検知した場合(S1305にてYES)S1306へ進み、接近を検知していない場合(S1305にてNO)S1307へ進む。
S1306にて、ロボット100は、対象人物に対して、コミュニケーションは終了したことを伝達するための動作を行う。例えば、ロボット100が、充電が必要になったことを通知するような表示を行ってもよい。この場合において、実際に電源部116の電力の残容量が低下している必要はない。もしくは、ロボット100は、寝ているような音声やリアクションを行うような構成であってもよい。その後、S1307へ進む。
S1307にて、ロボット100は、対象人物とのコミュニケーションが終了したことを、所定のユーザー(例えば、児童の親)に対して通知する。ここでの通知方法は、音声にて通知してもよい。その後、本処理フローを終了し、図12へ戻る。
なお、上記の例では、設定したタイミングにてコミュニケーション(コンテンツの提供)を終了する例を示したが、これに限定するものではない。例えば、設定したタイミングにてなった際に、所定の人物(例えば、親)の周辺に移動するように誘導した上で、ロボットと児童との1対1のコミュニケーションから、ロボットと複数の人物による、1対多のコミュニケーションが行われるように切り替えてもよい。この場合には、新たなコンテンツを提供するような構成であってもよい。
また、上記の例では、時間指定にて、コミュニケーションを継続、中断するタイミングを指定したが、これに限定するものではない。例えば、撮像部115やセンサ部122等から取得される情報に基づいて、所定のイベントが発生したことを検知した時点を指定できるような構成であってもよい。例えば、共有スペースに特定の人物が入ってきた時点を指定できてもよい。具体的には、家に父親が帰ってきた時点を指定できてもよい。もしくは、母親が子供を呼んだことを検知したタイミングを指定できてもよい。
また、ロボット100が対象人物とのコミュニケーションを行う時間を、予め決定された規則性のあるスケジュールに応じて決定してもよい。例えば、ある家庭における一日のスケジュールを設定しておき、その中で夕食前までのある期間をコミュニケーション可能な時間として決定してもよい。
また、コミュニケーションを開始する際には、ロボット100から対象人物に接近し、提供可能なコンテンツがあることを提示してもよい。
以上、本実施形態により、ある行動を対象人物に終了させる際のスムーズな切り替えをサポートすることが可能となる。
<実施形態のまとめ>
1.上記実施形態のロボット(例えば、100)は、
可動式のロボットであって、
前記ロボットを移動させる駆動手段(例えば、121)と、
対象人物へ情報を提供する提供手段(例えば、117、118)と、
前記ロボットの動作を制御する制御手段(例えば、110)と、
を備え、
前記制御手段は、前記提供手段により前記情報を提供している際に所定のタイミングとなった場合、前記対象人物から離れるように前記駆動手段を制御する。
この実施形態により、ある行動を対象人物に終了させる際のスムーズな切り替えをサポートすることが可能となる。
2.上記実施形態では、前記情報は、複数のセクションにより構成され、
前記所定のタイミングは、前記複数のセクションの区切りに達したタイミングである。
この実施形態により、適切なタイミングにて、行動の終了を行うことができる。
3.上記実施形態では、前記対象人物の状態を検知する検知手段(例えば、114、115)を更に有し、
前記所定のタイミングは、前記検知手段にて前記対象人物が所定の状態になったタイミングである。
この実施形態により、対象人物の状態に応じて、行動の終了を行うことができる。
4.上記実施形態では、前記所定の状態は、前記対象人物が寝ている状態である。
この実施形態により、対象人物が寝ている状態になった際には、情報の提供を終了することができる。
5.上記実施形態では、前記制御手段は、前記対象人物から離れるように移動している際に、前記検知手段により前記対象人物の接近を検知した場合、前記提供手段にて所定の情報を提供させる。
この実施形態により、対象人物からロボットが離れている際についてきた場合には、その状況に応じた情報の提供を行うことができる。
6.上記実施形態では、前記所定の情報は、当該ロボットが充電中であることを示す情報である。
この実施形態により、ロボットは充電が必要であることを示すことで、対象人物がロボットから離れやすくなることが可能となる。
7.上記実施形態では、前記制御手段は、前記対象人物から離れるタイミングを、段階的に前記提供手段にて通知させる。
この実施形態により、対象人物がロボットからスムーズに離れやすくなることが可能となる。
8.上記実施形態では、前記制御手段は、前記対象人物から離れる際に、所定の位置へ移動するように制御する。
この実施形態により、対象人物から離れる際に、予め規定された位置へロボットを退避させることが可能となる。
9.上記実施形態では、前記所定の位置は、前記ロボットに対して充電が行われる位置である。
この実施形態により、対象人物から離れる際に、ロボットの充電が可能な位置へ退避することが可能となる。
10.上記実施形態では、前記所定のタイミングは、前記提供手段にて提供していた情報に応じて異なる。
この実施形態により、対象人物に対して提供していた情報に応じて、当該対象人物から離れるタイミングを規定することが可能となる。
11.上記実施形態では、前記対象人物の行動履歴を取得する取得手段(例えば、907、914)を更に有し、
前記所定のタイミングは、前記対象人物の行動履歴に応じて異なる。
この実施形態により、対象人物の過去の行動履歴に応じた、当該対象人物から離れるタイミングを規定することが可能となる。
12.上記実施形態では、前記提供手段により提供される情報の選択を前記対象人物から受け付ける受け付け手段(例えば、119、903)を更に有する。
この実施形態により、対象人物の好みの情報を提供することができる。
13.上記実施形態では、前記対象人物は、子供である。
この実施形態により、対象人物を子供として、コミュニケーションを提供することができる。
14.上記実施形態のロボット(例えば、100)の制御方法は、
可動式のロボットの制御方法であって、
前記ロボットを移動させる移動工程と、
対象人物へ情報を提供する提供工程と
を有し、
前記提供工程により前記情報を提供している際に所定のタイミングとなった場合、前記移動工程において、前記対象人物から離れるように制御される。
この実施形態により、ある行動を対象人物に終了させる際のスムーズな切り替えをサポートすることが可能となる。
発明は上記の実施形態に制限されるものではなく、発明の要旨の範囲内で、種々の変形・変更が可能である。

Claims (14)

  1. 可動式のロボットであって、
    前記ロボットを移動させる駆動手段と、
    対象人物へ情報を提供する提供手段と、
    前記ロボットの動作を制御する制御手段と、
    を備え、
    前記制御手段は、前記提供手段により前記情報を提供している際に所定のタイミングとなった場合、前記対象人物から離れるように前記駆動手段を制御することを特徴とするロボット。
  2. 前記情報は、複数のセクションにより構成され、
    前記所定のタイミングは、前記複数のセクションの区切りに達したタイミングであることを特徴とする請求項1に記載のロボット。
  3. 前記対象人物の状態を検知する検知手段を更に有し、
    前記所定のタイミングは、前記検知手段にて前記対象人物が所定の状態になったタイミングであることを特徴とする請求項1または2に記載のロボット。
  4. 前記所定の状態は、前記対象人物が寝ている状態であることを特徴とする請求項3に記載のロボット。
  5. 前記制御手段は、前記対象人物から離れるように移動している際に、前記検知手段により前記対象人物の接近を検知した場合、前記提供手段にて所定の情報を提供させることを特徴とする請求項3に記載のロボット。
  6. 前記所定の情報は、当該ロボットが充電中であることを示す情報であることを特徴とする請求項5に記載のロボット。
  7. 前記制御手段は、前記対象人物から離れるタイミングを、段階的に前記提供手段にて通知させることを特徴とする請求項1乃至6のいずれか一項に記載のロボット。
  8. 前記制御手段は、前記対象人物から離れる際に、所定の位置へ移動するように制御することを特徴とする請求項1乃至7のいずれか一項に記載のロボット。
  9. 前記所定の位置は、前記ロボットに対して充電が行われる位置であることを特徴とする請求項8に記載のロボット。
  10. 前記所定のタイミングは、前記提供手段にて提供していた情報に応じて異なることを特徴とする請求項1乃至9のいずれか一項に記載のロボット。
  11. 前記対象人物の行動履歴を取得する取得手段を更に有し、
    前記所定のタイミングは、前記対象人物の行動履歴に応じて異なることを特徴とする請求項1乃至10のいずれか一項に記載のロボット。
  12. 前記提供手段により提供される情報の選択を前記対象人物から受け付ける受け付け手段を更に有することを特徴とする請求項1乃至11のいずれか一項に記載のロボット。
  13. 前記対象人物は、子供であることを特徴とする請求項1乃至12のいずれか一項に記載のロボット。
  14. 可動式のロボットの制御方法であって、
    前記ロボットを移動させる移動工程と、
    対象人物へ情報を提供する提供工程と
    を有し、
    前記提供工程により前記情報を提供している際に所定のタイミングとなった場合、前記移動工程において、前記対象人物から離れるように制御されることを特徴とするロボットの制御方法。
JP2021501454A 2019-02-27 2019-02-27 可動式ロボットおよびその制御方法 Active JP7222064B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/007561 WO2020174608A1 (ja) 2019-02-27 2019-02-27 可動式ロボットおよびその制御方法

Publications (2)

Publication Number Publication Date
JPWO2020174608A1 true JPWO2020174608A1 (ja) 2021-09-30
JP7222064B2 JP7222064B2 (ja) 2023-02-14

Family

ID=72238488

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021501454A Active JP7222064B2 (ja) 2019-02-27 2019-02-27 可動式ロボットおよびその制御方法

Country Status (2)

Country Link
JP (1) JP7222064B2 (ja)
WO (1) WO2020174608A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016220174A (ja) * 2015-05-26 2016-12-22 株式会社東芝 家電制御方法及び家電制御装置
JP2018176383A (ja) * 2017-04-19 2018-11-15 パナソニックIpマネジメント株式会社 相互作用装置、相互作用方法、相互作用プログラム及びロボット

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016220174A (ja) * 2015-05-26 2016-12-22 株式会社東芝 家電制御方法及び家電制御装置
JP2018176383A (ja) * 2017-04-19 2018-11-15 パナソニックIpマネジメント株式会社 相互作用装置、相互作用方法、相互作用プログラム及びロボット

Also Published As

Publication number Publication date
WO2020174608A1 (ja) 2020-09-03
JP7222064B2 (ja) 2023-02-14

Similar Documents

Publication Publication Date Title
US11148296B2 (en) Engaging in human-based social interaction for performing tasks using a persistent companion device
AU2014236686B2 (en) Apparatus and methods for providing a persistent companion device
US20170206064A1 (en) Persistent companion device configuration and deployment platform
KR20190079669A (ko) 환경 제어 특징을 갖는 소셜 로봇
KR102655147B1 (ko) 상호작용 애니메이션 캐릭터 헤드 시스템 및 방법
WO2016011159A9 (en) Apparatus and methods for providing a persistent companion device
JP6559079B2 (ja) 対話型家電システム、および発話者との対話に基づいてメッセージを出力するためにコンピュータが実行する方法
CN111602168A (zh) 信息处理装置、信息处理方法和记录介质
JP7222064B2 (ja) 可動式ロボットおよびその制御方法
JP7157234B2 (ja) 可動式ロボットおよびその制御方法
US20170269906A1 (en) Technologies for physical programming
WO2009090373A1 (en) Time-out device
WO2015178396A1 (ja) 装置、情報端末、装置の制御方法
JP5990311B2 (ja) サーバ、報知方法、プログラム、制御対象機器、及び報知システム
JPWO2019146188A1 (ja) 情報処理装置および情報処理方法
KR20210033667A (ko) 비대칭 대화 인터페이스를 제공하는 휴대용 단말기
KR20210033693A (ko) 비대칭 대화 인터페이스를 제공하는 휴대용 단말기의 동작 방법
KR20210033650A (ko) 비대칭 대화 인터페이스를 제공하는 휴대용 단말기
KR20210033658A (ko) 비대칭 대화 인터페이스를 제공하는 휴대용 단말기
KR20210033702A (ko) 비대칭 대화 인터페이스를 제공하는 휴대용 단말기의 동작 프로그램
KR20210033681A (ko) 휴대단말기 간의 비대칭 대화 방법을 실행시키기 위한 프로그램
KR20210033672A (ko) 비대칭 대화 인터페이스를 제공하는 휴대용 단말기의 동작 방법
KR20210033676A (ko) 휴대용 단말기를 이용한 비대칭 대화 방법
KR20210033747A (ko) 비대칭 대화 인터페이스를 제공하는 휴대용 단말기의 동작 프로그램 기록매체
KR20210033740A (ko) 비대칭 대화 인터페이스를 제공하는 휴대용 단말기의 동작 프로그램

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210402

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220916

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230202

R150 Certificate of patent or registration of utility model

Ref document number: 7222064

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150