JPWO2020202354A1 - コミュニケーションロボットおよびその制御方法、情報処理サーバならびに情報処理方法 - Google Patents

コミュニケーションロボットおよびその制御方法、情報処理サーバならびに情報処理方法 Download PDF

Info

Publication number
JPWO2020202354A1
JPWO2020202354A1 JP2021511728A JP2021511728A JPWO2020202354A1 JP WO2020202354 A1 JPWO2020202354 A1 JP WO2020202354A1 JP 2021511728 A JP2021511728 A JP 2021511728A JP 2021511728 A JP2021511728 A JP 2021511728A JP WO2020202354 A1 JPWO2020202354 A1 JP WO2020202354A1
Authority
JP
Japan
Prior art keywords
user
communication
robot
state
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021511728A
Other languages
English (en)
Other versions
JP7208361B2 (ja
Inventor
直秀 小川
薫 鳥羽
渉 瀬下
山川 浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JPWO2020202354A1 publication Critical patent/JPWO2020202354A1/ja
Application granted granted Critical
Publication of JP7208361B2 publication Critical patent/JP7208361B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Manipulator (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)

Abstract

コミュニケーションロボットであって、第1ユーザの状態を識別する識別手段と、遠隔から第1ユーザとコミュニケーションをとる第2ユーザの状態を示す状態情報を外部装置から受信する受信手段と、第1ユーザの状態と第2ユーザの状態とに基づいて第1ユーザと第2ユーザとのコミュニケーションが可能であるかを判定する判定手段と、第1ユーザに情報を提供する提供手段と、を有し、提供手段は、第1ユーザと第2ユーザとのコミュニケーションが可能であると判定された場合に、第1ユーザと第2ユーザとのコミュニケーションを提案する情報を第1ユーザに提供する。

Description

本発明は、コミュニケーションロボットおよびその制御方法、情報処理サーバならびに情報処理方法に関する。
従来、ユーザとコミュニケーションをとることが可能なコミュニケーションロボットが知られている。このようなコミュニケーションロボットには、ロボットを注視したり、話しかけたりしているユーザとのインタラクション状態に応じて、ユーザへの介入(インタラクションに引き込む)タイミングや介入の仕方を制御するものがある(特許文献1)。
特開2013−237124号公報
しかしながら、特許文献1で開示されるロボットはユーザとロボット間でのコミュニケーションを前提としており、ユーザと遠隔のユーザ(遠隔ユーザ)がコミュニケーションを行うために、ロボットがユーザに介入することは考慮されていない。すなわち、ユーザと遠隔ユーザとが円滑にコミュニケーションをとるために、ロボットによる介入タイミングや介入の仕方を制御する技術は知られていない。
本発明は、上記課題に鑑みてなされ、その目的は、ユーザと遠隔ユーザのコミュニケーションをとるための介入行動を制御可能な技術を提供することである。
本発明によれば、
コミュニケーションロボットであって、
第1ユーザの状態を識別する識別手段と、
遠隔から前記第1ユーザとコミュニケーションをとる第2ユーザの状態を示す状態情報を外部装置から受信する受信手段と、
前記第1ユーザの状態と前記第2ユーザの状態とに基づいて前記第1ユーザと前記第2ユーザとのコミュニケーションが可能であるかを判定する判定手段と、
前記第1ユーザに情報を提供する提供手段と、を有し、
前記提供手段は、前記第1ユーザと前記第2ユーザとのコミュニケーションが可能であると判定された場合に、前記第1ユーザと前記第2ユーザとのコミュニケーションを提案する情報を前記第1ユーザに提供する、
ことを特徴とするコミュニケーションロボットが提供される。
本発明によれば、ユーザと遠隔ユーザのコミュニケーションをとるための介入行動を制御になる。
添付図面は明細書に含まれ、その一部を構成し、本発明の実施の形態を示し、その記述と共に本発明の原理を説明するために用いられる。
本発明の実施形態1に係るコミュニケーションシステムの一例を示す図 実施形態1に係るコミュニケーションロボットの機能構成例を示すブロック図 実施形態1に係るコミュニケーションロボットのソフトウェア構成の一例を示すブロック図 実施形態1に係るユーザ状態テーブルの一例を示す図 実施形態1に係るコミュニケーション制御処理の一連の動作を示すフローチャート 実施形態1に係る履歴処理の一連の動作を示すフローチャート 実施形態1に係るユーザ状態に係る設定画面の一例を示す図 実施形態1に係るコミュニケーションロボットが介入するユーザ状態を選択する選択画面の一例を示す図 実施形態2に係るコミュニケーションシステムの一例を示す図 実施形態2に係る情報処理サーバの機能構成例を示すブロック図 実施形態2に係るコミュニケーションロボットのソフトウェア構成の一例を示すブロック図 実施形態2に係る情報処理サーバのソフトウェア構成の一例を示すブロック図 実施形態2に係る情報処理サーバにおけるコミュニケーション制御処理の一連の動作を示すフローチャート 実施形態2に係るコミュニケーションロボットにおけるコミュニケーション制御処理の一連の動作を示すフローチャート
以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものでするものでなく、また実施形態で説明されている特徴の組み合わせの全てが発明に必須のものとは限らない。実施形態で説明されている複数の特徴うち二つ以上の特徴が任意に組み合わされてもよい。また、同一若しくは同様の構成には同一の参照番号を付し、重複した説明は省略する。
(実施形態1)
[システム概要]
本実施形態では、対人用の可動式コミュニケーションロボット(以下、単に「ロボット」)が、ユーザと遠隔にいるユーザとがコミュニケーションを行えるように、ユーザの状態に応じてユーザに介入する形態について説明する。ここでロボットがインタラクションを行うユーザ(単に対象ユーザともいう)は、育児の対象となる児童(子供)である場合を例に説明する。また、遠隔にいるユーザ(単に遠隔ユーザともいう)は、対象ユーザとは離れた家・場所にいる祖父母である場合を例に説明する。しかし、本実施形態はこれに限定されるものではなく、対象ユーザと遠隔ユーザとが友人同士である場合など他の人物のコミュニケーションにも適用可能である。また、本実施形態では、ロボットと児童とのコミュニケーションが行われる場所を所定の空間(例えば、子供部屋や共有スペースなどの家庭内の空間)を想定して説明する。また、遠隔ユーザが滞在する場所を所定の遠隔の空間(例えば、祖父母の家庭内の共有スペースや滞在先の空間)として説明する。
図1は、本実施形態に係るコミュニケーションシステム10の一例を示している。本システムでは、所定の空間にロボット100と対象ユーザ110とが存在し、ロボット100が対象ユーザ110とインタラクションを行う。ロボット100はネットワーク120を介して遠隔ユーザ160が用いる装置150(例えばモバイルデバイス)と通信することができる。すなわち、対象ユーザ110と遠隔ユーザ160とは、ロボット100と装置150とを介してコミュニケーションを行うことができる。なお、本実施形態では、遠隔ユーザ160が用いる装置150は例えばスマートフォンであるが、これに限らず、パーソナルコンピュータ、テレビ、タブレット端末、スマートウォッチ、ゲーム機などを含んでよい。また、装置150の代わりに可動式コミュニケーションロボットが存在し、対象ユーザ110と遠隔ユーザ160とが2つのコミュニケーションロボットを介してコミュニケーションを行ってもよい。
[ロボットの機能構成例]
図2は、本実施形態に係るロボット100の機能構成例を示すブロック図である。ロボット100が備える制御部210は、1つ以上のCPU(Central Processing Unit)211と、HDD(Hard Disc Drive)212と、RAM(Random Access Memory)213とを含んで構成される。CPU211は、HDD212に格納されたプログラムを読み出して実行することにより、以下に示す各種処理を制御する。HDD212は、不揮発性の記憶領域であり、各種処理に対応するプログラムが格納される。なお、HDDの代わりに半導体メモリが用いられてもよい。RAM213は、揮発性の記憶領域であり、例えば、ワークメモリなどとして利用される。なお、制御部210は、GPU(Graphics Processing Unit)やASIC(Application Specific Integrated Circuit)、あるいは専用回路などから構成されてもよい。
更に、本実施形態に係るロボット100は、外部との情報のインターフェースとなる各種部位を備える。以下に示す各部位は、制御部210による制御に基づいて動作する。音声入力部214は、外部からの音声情報を取得する部位であり、例えば、マイクなどが含まれる。音声入力部214は、本実施形態では例えば、通話を行うために対象ユーザの発話情報を取得する。撮像部215は、ユーザや周辺の画像情報を取得する部位であり、例えば、カメラなどが含まれる。本実施形態では例えば、動画通話を行うために対象ユーザを撮影した画像を取得する。
電源部216は、ロボット100の電源を供給する部位であり、バッテリーに相当する。音声出力部217は、外部への音声情報を出力するための部位であり、例えば、スピーカーなどが含まれる。音声出力部217は、本実施形態では例えば、遠隔ユーザの発話を出力する。画像表示部218は、画像情報を出力するための部位であり、ディスプレイなどが含まれる。画像表示部218は、本実施形態では例えば、動画通話を行うために遠隔ユーザの画像を表示する。操作部219は、ロボットに対するユーザー操作を行うための部位である。画像表示部218と操作部219は、例えば、入力装置としても機能するタッチパネルディスプレイとしてまとめて構成されてもよい。
報知部220は、各種情報を外部に報知するための部位であり、例えば、LED(Light Emitting Diode)などの発光部であってもよいし、音声出力部217と一体となっていてもよい。駆動部121は、ロボット100の移動を行う部位であり、例えば、アクチュエーターやタイヤ、モーター、エンジンなどが含まれていてよい。センサ部222は、外部環境の情報を取得するための各種センサを含む。センサとしては、例えば、温度センサ、湿度センサ、赤外線センサ、深度センサ、ライダー(LiDAR: Light Detection and Ranging)などが含まれてよく、取得すべき情報に応じてセンサが設けられてよい。また、撮像部215がセンサ部222に含まれてもよい。通信部223は、ネットワーク120を介して外部装置(例えば遠隔ユーザの用いる装置150や外部サーバ)と通信を行うための部位であり、通信方式や通信プロトコルなどは特に限定するものではない。また、通信部223には、自身の位置情報を検知するためのGPS(Global Positioning System)が含まれてもよい。
なお、図2の構成例では、各部位をそれぞれ1つのブロックにて示しているが、ロボット100の機能や構造に併せて、物理的に複数個所に各部位が分けて設置されてよい。また、例えば、電源部216などはロボット100から着脱可能に構成されてもよいし、新たな機能を提供するための部位を増設するためのインターフェースを備えてもよい。
なお、ロボット100の外観は特に限定するものでは無いが、例えば、コミュニケーション対象として想定する人物(例えば、児童)に応じて構成されていてよい。また、ロボットの材質やサイズなども特に限定するものではない。
[ロボットのソフトウェア構成]
図3は、本実施形態に係るロボット100のソフトウェア構成の例を示す図である。本実施形態において、各処理部はCPU211がHDD212等に格納されたプログラムを読み出して実行することにより実現される。また、各DB(データベース)は、HDD212に構成される。なお、ソフトウェア構成は本実施形態の例示的な構成例を示しており、ファームウェア、OS、ミドルウェア、フレームワークなどの各ソフトウェア構成は省略している。
ユーザ状態識別部301は、センサ部222、撮像部215、音声入力部214からの情報や、外部から受信した情報に基づき、対象ユーザのユーザ状態を識別する部位である。ここでのユーザ状態については、図4を参照して後述する。なお、ユーザ状態は全てがユーザ状態識別部301によって識別されなくてもよく、ユーザ状態の一部は、通信部223を介して外部から設定が行われてもよいし、操作部219を介してロボット100側にて設定されてもよい。ユーザ状態DB313は、ユーザ状態テーブルを格納する。ユーザ状態テーブルについては、図4を参照して詳述するが、識別されたユーザ状態と、ユーザ状態に応じて対象ユーザと遠隔ユーザとの間で行われるコミュニケーション内容との対応関係を定義している。ユーザ状態処理部302は、ユーザ状態識別部301にて識別されたユーザ状態と、ユーザ状態DB310に記憶されるユーザ状態テーブルとを用いて、識別されたユーザ状態に対して行われるコミュニケーション内容を特定する。
ユーザ状態の識別は周期的に行われてよい。ユーザ状態識別部301は、周期的に識別した対象ユーザのユーザ状態と、識別した場所および時間とを、対象ユーザの行動履歴として行動履歴DB312に格納する。周期的に対象ユーザのユーザ状態を識別する場合に、図4に示すユーザ状態が識別できない場合には、ユーザ状態を「未識別」などとして格納する。
マップ管理部303は、ロボット100が動作を行う空間のマップを作成し、周期的に更新する。マップは、ロボット100が備えるセンサ部222や撮像部215にて取得された情報に基づいて作成されてもよいし、通信部223を介して外部から取得されたローケーション情報に基づいて作成されてもよい。マップ管理部303は、作成または更新したマップを、マップ情報DB311に格納する。また、マップ管理部303は、識別されたユーザ状態に応じて、マップ情報を提供する。
通信処理部304は、外部との情報のやり取りを行う。例えば、通信処理部304は、遠隔ユーザの状態を示す状態情報を受信したり、対象ユーザと遠隔ユーザとがコミュニケーションを行うための音声通話又は動画通話のデータを送受信したりする。あるいは、対象ユーザについて識別されたユーザ状態を示す状態情報を外部装置に送信してもよい。
遠隔ユーザ状態取得部305は、遠隔ユーザのユーザ状態を示す状態情報をネットワーク120を介して取得する。また、遠隔ユーザのユーザ状態の取得は周期的に行われてよい。周期的に取得される遠隔ユーザのユーザ状態は、遠隔ユーザの行動履歴として行動履歴DB312に格納されてもよい。
コミュニケーション制御部306は、ユーザ状態識別部301で識別される対象ユーザのユーザ状態と、遠隔ユーザ状態取得部305で取得される遠隔ユーザのユーザ状態とに基づいて、対象ユーザに介入する。そして、対象ユーザと遠隔ユーザとの間のコミュニケーション(音声通話または動画通話)を開始させるように制御する。コミュニケーション制御部306による処理は、コミュニケーション制御処理として後述する。
行動履歴処理部307は、行動履歴DB312に格納される周期的な対象ユーザのユーザ状態に基づいて、対象ユーザのユーザ状態のパターンを識別する(すなわちパターン識別手段として機能する)。また、遠隔ユーザのユーザ状態が行動履歴DB312に格納される場合、周期的な遠隔ユーザのユーザ状態に基づいて、遠隔ユーザのユーザ状態のパターンを識別してもよい。移動制御部308は、識別されたユーザ状態等に応じて、ロボットをコミュニケーションが行われる場所に移動させるように制御する。
[ユーザ状態]
上述のように、本実施形態のロボットは、対象ユーザと遠隔ユーザとがコミュニケーションを行うことができるように、対象ユーザが所定のユーザ状態である場合にユーザに介入し、遠隔ユーザとのコミュニケーションを提案する。ロボットが対象ユーザに介入するために考慮するユーザ状態の一例について説明する。
図4は、本実施形態に係るユーザ状態とそれぞれのユーザ状態に関連付けられるコミュニケーションの内容とを表す、ユーザ状態テーブル400を示している。ユーザ状態テーブル400は、ユーザ状態401、発生タイミング402、コミュニケーション内容403、およびコミュニケーション場所404とで構成される。ユーザ状態401はユーザ状態を識別する名称であり、発生タイミング402は、ロボット100が対応するユーザ状態を識別するタイミングを示す。コミュニケーション内容403は、対応するユーザ状態において行われるコミュニケーションの内容の例を示しており、コミュニケーション場所404は、対応するコミュニケーションが行われる場所を示す。
「強い感情が表れている」ユーザ状態は、対象ユーザ(子供)が泣いているまたは怒鳴っている状態である。ロボット100は、このユーザ状態を、例えば音声情報に基づいて識別する。このユーザ状態と関連付けられているコミュニケーション内容は(泣いている又は怒鳴っている子供に)祖父母が話しかけるものである。遠隔ユーザである祖父母がロボットを介して対象ユーザに介入して、対象ユーザに話しかけることができれば、対象ユーザの気持ちを落ちつけたり、素直に話をするきっかけとなる。ロボットは、このコミュニケーションを、対象ユーザ(子供)の現在位置において行う。
「学習・練習開始」のユーザ状態は、例えば子供が音読、楽器の練習、踊りの練習を開始した状態である。ロボット100は、例えば、ロボット100の操作部219または子供の両親の端末を介して、学習・練習を開始したことが入力された場合に、この状態を識別する。ロボット100が子供の周辺にいる場合、ロボット100が音声情報や画像情報に基づいて子供の行動を認識することにより、この状態を識別してもよい。このユーザ状態に対するコミュニケーション内容は、例えば子供の動きや発話を祖父母が確認するものである。遠隔ユーザである祖父母がロボットを介して対象ユーザに介入して、音読を聞いてあげたり、練習を見守ってあげることができれば、親に代わって又は親に加わって子供の練習を支援することができる。ロボット100は、このコミュニケーションを例えば対象ユーザ(子供)の現在位置において行う。
「就寝直前」のユーザ状態は、対象ユーザが所定の就寝前の行動をとった後にベットに入った状態である。ロボット100は、音声情報や画像情報などに基づいて、所定の時間帯に子供が歯磨きをしてトイレを済ませるような所定の就寝前行動をとったことを識別した場合、当該ユーザ状態を識別する。このユーザ状態に対するコミュニケーション内容は、例えば祖父母による発話(読み聞かせ)である。遠隔ユーザである祖父母がロボット介して対象ユーザに介入して、読み聞かせをすることができれば、読み聞かせの機会を増やしたり親の労力を軽減することができる。ロボット100は、このコミュニケーションを共有スペースまたは子供部屋において行う。
「出かける直前」のユーザ状態は、対象ユーザが所定の外出前の行動をとったときであり、その後、玄関に向かう状態である。ロボット100は、音声情報や画像情報などに基づいて、所定の時間帯に子供が歯磨きをして所定の持ち物を準備するような所定の外出行動をとったことを識別した場合、当該ユーザ状態を識別する。このユーザ状態に対するコミュニケーション内容は、例えば祖父母による送り出しの挨拶である。遠隔ユーザである祖父母がロボット介して対象ユーザに介入して、送り出しの挨拶をすることができれば、一言元気づけるなど親の代わりに又は親に加えて子供を送り出すことができる。ロボット100は、このコミュニケーションを玄関で行う。
「帰宅直前」のユーザ状態は、対象ユーザが自宅周辺まで帰宅した状態である。ロボット100は、通信部223を介して、対象ユーザが所持するGPS信号を所定頻度で受信して対象ユーザの移動軌跡を取得し、その移動軌跡が自宅から所定距離の範囲に近づいた場合にこのユーザ状態を識別する。このユーザ状態に対するコミュニケーション内容は、例えば祖父母による帰宅を迎える挨拶である。このときロボット100は、対象ユーザに介入するために玄関に移動し、待機する。遠隔ユーザである祖父母がロボット介して対象ユーザに介入して、迎え入れる挨拶をすることができれば、親不在の場合であっても親の代わりに子供を迎え入れることができ、子供の寂しさを低減することができる。ロボット100は、このコミュニケーションを玄関で行う。
そのほか、ユーザ状態には、例えば「テレビ視聴中」や「コミュニケーション希望の意思表示中」などが含まれてよい。「テレビ視聴中」のユーザ状態は、対象ユーザがテレビを見ている状態である。この状態は比較的リラックスした状態であり遠隔ユーザである祖父母が入ってきて会話を行うことが可能な場合がある。また、ロボット100は、例えば、ロボット100の操作部219または子供の両親の端末を介して、(所定の時間などに)コミュニケーションを希望することが入力された場合に、「コミュニケーション希望の意思表示中」の状態を識別する。これらの状態のコミュニケーション内容は、対象ユーザと遠隔ユーザとが例えば通常の会話を行うものになる。例えば、コミュニケーション希望の意思表示は、例えば、子供の両親の端末に表示される、図7に示す操作画面から設定することができる。ラジオボタン701を押下することによって現時点でコミュニケーション可能であることを設定したり、「20:00から21:00まで」コミュニケーション可能であることを設定する。両親の端末で入力された情報はロボット100の通信部223によって受信され、その後、ユーザ状態の判定に用いられる。設定された時間情報は、遠隔ユーザの装置に送信されてもよい。
また、上述の説明では、ユーザ状態として、コミュニケーション可能な状態のみを示した。しかし、「食事中」、「入浴中」、「就寝中」などのコミュニケーション不可能な状態を含んでもよい。
さらに、ロボットが識別するユーザ状態は、対象ユーザの属性に応じてその状態が異なってもよい。例えば、年齢に応じて、「出かける直前」と「帰宅直前」と「学習・練習開始」のユーザ状態のみをロボットが識別するように設定してもよい。識別するユーザ状態の選択は、例えばロボット100の操作部219または子供の両親の端末を介して行えるような構成であってもよい。例えば、図8に示すユーザ状態選択画面800のように、リストされるユーザ状態802のそれぞれに対してチェックマーク801を付与することにより、ロボット100が処理対象とするユーザ状態を設定してもよい。
[遠隔ユーザのユーザ状態]
本実施形態では、ロボット100は、上述した対象ユーザのユーザ状態を識別した場合に、遠隔ユーザのユーザ状態を取得して、遠隔ユーザのユーザ状態を考慮する。本実施形態では、説明を簡単にするために、遠隔ユーザのユーザ状態は、コミュニケーション可能な状態、または所定の時間帯にコミュニケーション可能な状態のみであるものとする。このようなユーザ状態は、遠隔ユーザの用いる装置150上で図7に示す操作画面と同様の操作画面によって設定される。もちろん、遠隔ユーザ側にロボット100と同様のロボットが存在し、当該ロボットによって遠隔ユーザのユーザ状態が識別されてもよい。この場合、例えば遠隔ユーザのテレビを視聴している状態を識別している場合には遠隔ユーザがコミュニケーション可能である。
[コミュニケーションの提案]
本実施形態に係るロボット100は、対象ユーザのユーザ状態と、遠隔ユーザのユーザ状態とを考慮して、コミュニケーション可能であると判定した場合に、対象ユーザに遠隔ユーザとのコミュニケーションを提案する情報を提供する。コミュニケーションを提案する情報の提供は、音声、画像の提示によりなされてよい。これらの音声や画像には、コミュニケーションを行う相手方の名前や、コミュニケーション内容を表す情報を含んでよい。コミュニケーション内容を表す情報は、ユーザ状態が「出かける直前」であれば、例えば「おばあさんから挨拶があるよ」との情報を含む。また、ユーザ状態が「強い感情が表れている」であれば、「おばあさんが声をかけてくれるよ」などと、ユーザ状態に応じて異なる内容を含む。
また、ロボット100は、対象ユーザにコミュニケーションを提案するために対象ユーザに介入する場合、対象人物に近づいていって、その周りを回ったり、ユーザ状態に応じて予め決められた画像や音声を報知部220により報知してもよい。
[マッピング動作]
ロボット100のマップ管理部303は、撮像部215、センサ部222等にて取得された周辺情報を用いて、動作する空間のマップを作成する。例えば、一定時間が経過するごとに、これらの周辺情報を再収集し、マップを更新するようにしてもよい。例えば、家具の配置が変更になった場合には、その変更後の状態に応じて、マップ情報を更新してよい。更に、マップ管理部303は、通信部223を介して外部からの情報(地図情報や位置情報など)を取得してマッピングを行うようにしてもよい。また、マップ管理部303は、各領域に存在する物体を検知して、その領域の用途を対応付けるような構成であってもよい。例えば、ベッドが存在する領域であればその領域を寝室として対応付けてもよく、おもちゃや机がある領域は子供部屋として対応付けてもよい。領域の用途が特定できない場合には、ユーザにより設定を受け付けるような構成であってもよい。
[コミュニケーション制御処理]
図5は、本実施形態に係るロボット100のコミュニケーション制御処理の一連の動作を示すフローチャートである。本実施形態において、本処理は、ロボット100のCPU211がHDD212に記憶されたプログラムを読み出して実行することにより実現される。各処理工程は、例えば、図2の部位や図3の処理部が協働して実現されるが、ここでは説明を簡略化するために、処理主体をロボット100として包括的に説明する。
S501において、ロボット100は、対象ユーザの状態監視を行う。本実施形態では、状態監視は、例えば、対象ユーザが撮像部215の視界に入る範囲や対象ユーザの行動音を収集可能な範囲で対象ユーザが行動する状態で行われる。ロボット100は、対象ユーザの状態監視をより行い易いように移動しながら情報を収集してもよい。
S502において、ロボット100は、ユーザが所定のユーザ状態であるかを判定する。ロボット100が識別する所定のユーザ状態は、図4について上述したユーザ状態であり、ロボット100は図4を参照して説明したそれぞれの方法により、各ユーザ状態を識別する。ロボット100は、所定のユーザ状態が識別された場合(S502にてYES)にはS503へ進み、そうでない場合(S502にてNO)にはS501へ戻って、状態監視を継続する。
S503において、ロボット100は、遠隔ユーザのユーザ状態を取得する。まず、ロボット100は、例えば、S502において識別されたユーザ状態を示す状態情報を遠隔ユーザの用いる装置150に送信してもよいし、遠隔ユーザのユーザ状態を要求するリクエスト情報を装置150に送信してもよい。ロボット100は、遠隔ユーザの装置150が上記情報に応答して送信した、遠隔ユーザのユーザ状態を示す状態情報を取得する。
S504において、ロボット100は、識別された対象ユーザのユーザ状態と遠隔ユーザのユーザ状態とに基づいて、対象ユーザと遠隔ユーザとのコミュニケーションが可能であるかを判定する。例えば、ロボット100は、識別された対象ユーザのユーザ状態と遠隔ユーザのユーザ状態とが共にコミュニケーション可能なユーザ状態である場合に、対象ユーザと遠隔ユーザとはコミュニケーションが可能であると判定する。本実施形態の例では、図4に示した対象ユーザのユーザ状態はコミュニケーション可能な状態である。このため、遠隔ユーザが図7に示した操作画面でコミュニケーション可能に設定していれば、対象ユーザと遠隔ユーザとはコミュニケーション可能であると判定される。ロボット100は、コミュニケーション可能と判定した場合(S504にてYES)にはS505へ進み、そうでない場合(S504にてNO)には本処理を終了する。
S505において、ロボット100は、コミュニケーションを行う場所に移動する。例えば、ロボット100は、対象ユーザが近くにいない場合には対象ユーザのいる場所に移動する。また、識別されたユーザ状態のコミュニケーション場所が特定の場所である(すなわち対象ユーザの現在位置でない)場合、当該特定の場所へ移動する。例えば、識別された対象ユーザのユーザ状態が「出かける直前」や「帰宅直前」である場合、ロボット100はコミュニケーション場所である「玄関」に移動する。すなわち、ロボット100は、識別された対象ユーザのユーザ状態に応じて、異なるコミュニケーション場所に移動することができる。
S506において、ロボット100は、対象ユーザにコミュニケーションを提案する。具体的には、ロボット100は、対象ユーザが所定の距離以下に近づいたことに応じて、コミュニケーションを提案する情報を画像表示部218に表示あるいは音声出力部217から音声として出力する。具体的なコミュニケーションの提案については、上述した通り、ユーザ状態に応じて異なるコミュニケーション内容を含む。ロボット100は、対象ユーザからの提案に対する応答を受け付けるように待機する。例えば、ロボット100は、提案に対する応答は「コミュニケーションする」と「コミュニケーションしない」とのいずれかを、タッチパネルへ接触や音声により受け付ける。
S507において、ロボット100は、対象ユーザがコミュニケーションの提案を受け入れたかを判定する。ロボット100は、提案に対する応答が「コミュニケーションする」である場合、対象ユーザが提案を受け入れたと判定(S507にてYES)してS508へ進む。一方、提案に対する応答が「コミュニケーションしない」(あるいはタイムアウトであってもよい)である場合(S507にてNO)、本処理を終了する。
S508において、ロボット100は、遠隔ユーザの装置150へ通話開始要求を送信し、装置150からの通話開始要求に対する応答を待つ。遠隔ユーザの装置150は、通話開始要求を受信すると、音声情報等を用いて遠隔ユーザに通話開始要求の到着を報知(すなわち遠隔ユーザへ介入)して、遠隔ユーザによる通話開始を受け入れを待つ。ロボット100が送信する通話開始要求は、対象ユーザのユーザ状態や、コミュニケーション内容を含んでよい。このため、遠隔ユーザの装置150は、対象ユーザのユーザ状態やコミュニケーション内容を提示してコミュニケーションを提案したうえで、「コミュニケーションする」と「コミュニケーションしない」との選択を遠隔ユーザから受け付ける。この場合、遠隔ユーザは対象ユーザのユーザ状態を確認したうえでコミュニケーションを開始することができる。
S509において、ロボット100は、装置150からの通話開始要求に対する応答を受信すると、装置150側で通話開始要求が受け入れられたかを判定する。ロボット100は、当該応答が通話開始要求を受け入れる応答である場合(S509においてYES)には、S510へ進み、当該応答が通話開始要求を受け入れる応答でない場合(S509においてNO)には本処理を終了する。
S510において、ロボット100は、対象ユーザと遠隔ユーザとの間の音声通話または動画通話を開始し、ユーザ状態に応じたコミュニケーション内容が実施される。コミュニケション内容の実施において、ロボット100は、撮像部215および音声入力部214と、遠隔ユーザの用いる装置150とから入力される音声通話または動画通話を用いる。
画像を用いたコミュニケーションを行う場合、対象ユーザは、プライベートな空間が映り込む背景画像を変更する(背景を消したり、他の画像に差し替える)ように操作部219から予め設定することができる。ロボット100は、背景画像の変更が設定されている場合には、コミュニケーション内容の実施において送信される動画像の背景を変更したうえで、変更した動画像を遠隔ユーザ側へ送信する。また、送信される動画像の変更は、背景画像の変更に限らず、ユーザ領域をアバタに変更してもよい。この場合、ロボット100は対象ユーザを撮像した画像から対象ユーザの動きを認識して、アバタの動きに反映してもよい。更に、送信される画像の変更に限らず、対象ユーザの発話する音声を他の声に変換したり、周囲音を削減して送信するようにしてもよい。このようにすることで、対象ユーザの生活空間がありのままに伝わってしまうとユーザが不快に感じる要素を、適切に調整することができる。すなわち、伝わる情報を調整して、対象ユーザと遠隔ユーザとの間のコミュニケーションをより円滑で快適なものにすることができる。
さらに、対象ユーザは、背景やアバタの設定は、場所ごとにあるいはコミュニケーション内容ごと異なる設定を行うことができるようにしてもよい。このようにすれば、対象ユーザは気になる空間やコミュニケーションごとに対象ユーザの情報の露出度合いを最適化することができる。
なお、上述の例は対象ユーザ側から発信される音声または動画像について説明したが、遠隔ユーザ側から発信される音声または動画像を遠隔ユーザによる設定に応じて、変更してもよい。例えば、遠隔ユーザを撮影した動画像の背景を変更したり、音声を変更したりしてもよい。この場合、遠隔ユーザによる設定をロボット100が受信したうえで、受信した音声や動画像に変更を加えて提示してもよいし、ロボット100は遠隔ユーザが用いる装置側で変更された音声または動画像を受信して提示するようにしてもよい。
S511において、ロボット100は、通話が終了されるかを判定する。例えば、ロボット100の操作部219から終了操作を受け付けた場合、通話を終了すると判定して本処理を終了し、そうでない場合、S510における通話を継続する。
[履歴処理]
図6は、本実施形態のロボット100における履歴処理を示すフローチャートである。本実施形態において、本処理は、ロボット100のCPU211がHDD212に記憶されたプログラムを読み出して実行することにより実現される。各処理工程は、例えば、図2の部位や図3の処理部が協働して実現されるが、ここでは説明を簡略化するために、処理主体をロボット100として包括的に説明する。
S601において、ロボット100は、解析する対象ユーザの、例えば2週間、1か月、6か月などの期間の行動履歴情報を行動履歴DB312から取得する。S602において、ロボット100は、対象ユーザの例えば時間帯における行動パターンを抽出する。ロボット100は、例えば、「就寝直前」や「出かける直前」、「帰宅直前」といったユーザ状態がそれぞれ特定の時間近傍、および特定の場所で識別されるようなパターンを抽出する。
S603において、ロボット100は、抽出された行動パターンの特定の場所と特定の場所とを所定のユーザ状態の発生タイミングやコミュニケーション場所を予測するための情報として行動履歴DB312に格納する。
ロボット100は、格納された情報を参照して、上述したS501のユーザ状態を監視する場所を変更して、より確実にユーザ状態を判定できるようにしてもよい。すなわち、ユーザ状態の発生を予想して適切な場所に先回りし、より的確にユーザに介入する(コミュニケーションを提案する)ことができるようになる。
また、ロボット100は、例えば「出かける直前」、「帰宅直前」といったユーザ状態について、特定の時間と特定の場所とが抽出されている場合には、コミュニケーションの開始を簡略化してもよい。すなわち、ロボット100は、予定時間にコミュニケーションの場所に移動して、対象ユーザと遠隔ユーザのユーザ状態が共にコミュニケーション可能であれば、S507の提案の受け入れととS509の通話の受け入れの確認を省略してコミュニケーションを開始してもよい。このようにすれば、一言挨拶を交わすようなコミュニケーションを容易に開始することができるようになる。
以上説明したように、本実施形態では、ユーザと遠隔ユーザのコミュニケーションをとるための介入行動を制御可能になる。
(実施形態2)
以下、本発明に係る実施形態2について説明する。実施形態1では、識別した対象ユーザのユーザ状態と、遠隔ユーザのユーザ状態とに基づいて両者のコミュニケーションが可能であるかの判定を、ロボット100が判定する例について説明した。これに対し、実施形態2では、上記両者のコミュニケーションが可能であるかの判定を情報処理サーバで行う例について説明する。なお、実施形態の説明では、同一の参照番号は同一または実質的に同一の機能を果たすものとし、重複する説明は省略して相違点について重点的に説明する。
図9は、本実施形態に係るコミュニケーションシステム90の一例を示している。実施形態1の構成に加えて、情報処理サーバ900が追加されている。ロボット100はネットワーク120を介してデータを情報処理サーバ900と送受信する。また、遠隔ユーザ160が用いる装置150も情報処理サーバ900とデータを送受信する。
[ロボットおよび情報処理サーバの機能構成例]
本実施形態のロボット100の機能構成例は、実施形態1と同様である。図10は、情報処理サーバ900の機能構成例を示すブロック図である。制御部1010は、1つ以上のCPU(Central Processing Unit)1011と、HDD(Hard Disc Drive)1012と、RAM(Random Access Memory)1013とを含んで構成される。CPU1011は、HDD1012に格納されたプログラムを読み出して実行することにより、以下に示す各種処理を制御する。HDD1012は、不揮発性の記憶領域であり、各種処理に対応するプログラムが格納される。なお、HDDの代わりに半導体メモリが用いられてもよい。RAM1013は、揮発性の記憶領域であり、例えば、ワークメモリなどとして利用される。なお、制御部1010は、GPU(Graphics Processing Unit)やASIC(Application Specific Integrated Circuit)、あるいは専用回路などから構成されてもよい。また、制御部1010の各構成要素が仮想化された構成であってもよい。
電源部1014は、情報処理サーバ900に外部からの電源を供給する部位である。通信部1015は、ネットワーク120を介してロボット100や遠隔ユーザの用いる装置150と通信を行うための部位であり、通信方式や通信プロトコルなどは特に限定するものではない。
[ロボット100のソフトウェア構成]
図11は、本実施形態に係るロボット100のソフトウェア構成の例を示す図である。本実施形態において、各処理部はCPU211がHDD212等に格納されたプログラムを読み出して実行することにより実現される。また、各DB(データベース)は、HDD212に構成される。なお、ソフトウェア構成は本実施形態の実施に必要な構成例のみを示しており、ファームウェア、OS、ミドルウェア、フレームワークなどの各ソフトウェア構成は省略している。
ユーザ状態識別部301は、センサ部222、撮像部215、音声入力部214からの情報や、外部から受信した情報に基づき、対象ユーザのユーザ状態を識別する部位である。ユーザ状態については、図4において上述したものと同一である。なお、ユーザ状態は全てがユーザ状態識別部301によって識別されなくてもよく、ユーザ状態の一部は、通信部223を介して外部から設定が行われてもよいし、操作部219を介してロボット100側にて設定されてもよい。ユーザ状態DB313は、ユーザ状態テーブルを格納する。ユーザ状態テーブルについては、実施形態と同様である、ユーザ状態DB313は、ロボット100において更新されると情報処理サーバ900のユーザ状態DBと同期され、実質的に同一のデータが保持される。ユーザ状態識別部301によって識別されたユーザ状態は、ユーザ状態を示す状態情報として情報処理サーバ900に送信される。
ユーザ状態の識別は周期的に行われてよい。ユーザ状態識別部301は、周期的に識別した対象ユーザのユーザ状態と、識別した場所および時間とを、対象ユーザの行動履歴として行動履歴DB312に格納する。周期的に対象ユーザのユーザ状態を識別する場合に、図4に示すユーザ状態が識別できない場合には、ユーザ状態を「未識別」などとして格納する。
通信処理部304は、外部との情報のやり取りを行う。例えば、通信処理部304は、情報処理サーバ900との間でやり取りするデータを送受信したり、対象ユーザと遠隔ユーザとがコミュニケーションを行うための音声通話又は動画通話のデータを送受信したりする。
簡易コミュニケーション制御部1101は、情報処理サーバ900からコミュニケーションを提案する情報を受信して、対象ユーザに介入する。そして、対象ユーザと遠隔ユーザとの間のコミュニケーション(音声通話または動画通話)を開始させるように制御する。簡易コミュニケーション制御部1101による処理は、簡易コミュニケーション制御処理として後述する。
なお、マップ管理部303、行動履歴処理部307、移動制御部308および各DBは、それぞれ実施形態1と実質的に同一である。各DBは、情報処理サーバ900側のユーザ状態DB1210、マップ情報DB1211及び行動履歴DB1212と同期され、実質的に同一のデータが保持される。
[情報処理サーバのソフトウェア構成]
図12は、本実施形態に係る情報処理サーバ900のソフトウェア構成の例を示す図である。本実施形態において、各処理部はCPU1011がHDD1012等に格納されたプログラムを読み出して実行することにより実現される。また、各DB(データベース)は、HDD1012に構成される。なお、ソフトウェア構成は本実施形態の実施に必要な構成例のみを示しており、ファームウェア、OS、ミドルウェア、フレームワークなどの各ソフトウェア構成は省略している。
ユーザ状態取得部1201は、ロボット100からのユーザ状態を示す状態情報を取得する部位である。なお、ロボット100においてユーザ状態の一部が外部から設定された場合であっても、当該設定されたユーザ状態を示す状態情報が情報処理サーバ900に送信される。ユーザ状態DB1210は、ユーザ状態テーブルを格納する。このユーザ状態DB1210は、ロボット100のユーザ状態DBと同期される。ユーザ状態処理部1202は、ユーザ状態取得部1201にて取得された対象ユーザのユーザ状態と、ユーザ状態DB1210に記憶されるユーザ状態テーブルとを用いて、ユーザ状態に対して行われるコミュニケーション内容を特定する。
通信処理部1204は、ロボット100および遠隔ユーザの用いる装置150との情報のやり取りを行う。例えば、通信処理部1204は、遠隔ユーザの状態を示す状態情報を受信したり、対象ユーザと遠隔ユーザとがコミュニケーションを行うための音声通話又は動画通話のデータを送受信したりする。あるいは、対象ユーザについて識別されたユーザ状態を示す状態情報を外部装置に送信してもよい。
遠隔ユーザ状態取得部1205は、遠隔ユーザのユーザ状態を示す状態情報をネットワーク120を介して取得する。コミュニケーション制御部1206は、ユーザ状態取得部1201で識別される対象ユーザのユーザ状態と、遠隔ユーザ状態取得部1205で取得される遠隔ユーザのユーザ状態とに基づいて、ロボットが対象ユーザに介入するようロボット100を制御する。そして、対象ユーザと遠隔ユーザとの間のコミュニケーション(音声通話または動画通話)を開始させるようにロボット100を制御する。コミュニケーション制御部1206による処理は、コミュニケーション制御処理として後述する。
[ユーザ状態]
上述のように、本実施形態では、情報処理サーバ900が、対象ユーザと遠隔ユーザとがコミュニケーションを行うことが可能であるかを判定したうえで、ロボット100に対象ユーザに介入させて、遠隔ユーザとのコミュニケーションを提案する。しかしながら、ロボット100が識別する対象ユーザのユーザ状態は実施形態1と同様である。
[遠隔ユーザのユーザ状態]
本実施形態では、情報処理サーバ900は、対象ユーザの所定のユーザ状態が識別された場合に、遠隔ユーザのユーザ状態を取得して、遠隔ユーザのユーザ状態を考慮する。本実施形態では、実施形態1と同様、遠隔ユーザのユーザ状態は、コミュニケーション可能な状態、または所定の時間帯にコミュニケーション可能な状態のみであるものとする。このようなユーザ状態は、遠隔ユーザの用いる装置150上で図7に示す操作画面と同様の操作画面によって設定される。もちろん、遠隔ユーザ側にロボット100と同様のロボットが存在し、当該ロボットによって遠隔ユーザのユーザ状態が識別されてもよい。
[コミュニケーションを提案する手法]
本実施形態に係る情報処理サーバ900は、対象ユーザのユーザ状態と、遠隔ユーザのユーザ状態とを考慮して、コミュニケーション可能であると判定した場合に、ロボット100に、対象ユーザに遠隔ユーザとのコミュニケーションを提案する情報を送信する。ロボット100は、情報処理サーバ900から受信した情報に基づいて、対象ユーザに遠隔ユーザとのコミュニケーションを提案する情報を提供する。コミュニケーションを提案する情報は、実施形態1と同様に提供される。
[コミュニケーション制御処理]
図13は、本実施形態に係る情報処理サーバ900におけるコミュニケーション制御処理の一連の動作を示すフローチャートである。本実施形態において、本処理は、情報処理サーバ900のCPU1011がHDD1012に記憶されたプログラムを読み出して実行することにより実現される。各処理工程は、例えば、図10の部位や図12の処理部が協働して実現されるが、ここでは説明を簡略化するために、処理主体を情報処理サーバ900として包括的に説明する。
S1301において、情報処理サーバ900は、ロボット100が識別した対象ユーザのユーザ状態を示す状態情報を取得する。S1302において、情報処理サーバ900は、取得したユーザ状態が所定のユーザ状態であるかを判定する。所定のユーザ状態は、図4について上述したユーザ状態である。情報処理サーバ900は、取得したユーザ状態が所定のユーザ状態であると判定した場合(S1302にてYES)にはS1303へ進み、そうでない場合(S1302にてNO)にはS1301へ戻る。
S1303において、情報処理サーバ900は、遠隔ユーザのユーザ状態を取得する。まず、情報処理サーバ900は、、例えば、S1302において識別されたユーザ状態を示す状態情報を遠隔ユーザの用いる装置150に送信してもよいし、遠隔ユーザのユーザ状態を要求するリクエスト情報を装置150に送信してもよい。情報処理サーバ900は、遠隔ユーザの装置150が上記情報に応答して送信した、遠隔ユーザのユーザ状態を示す状態情報を取得する。
S1304において、情報処理サーバ900は、、取得した対象ユーザのユーザ状態と遠隔ユーザのユーザ状態とに基づいて、対象ユーザと遠隔ユーザとのコミュニケーションが可能であるかを判定する。例えば、情報処理サーバ900は、対象ユーザのユーザ状態と遠隔ユーザのユーザ状態とが共にコミュニケーション可能なユーザ状態である場合に、対象ユーザと遠隔ユーザとはコミュニケーションが可能であると判定する。本実施形態の例では、図4に示した対象ユーザのユーザ状態はコミュニケーション可能な状態である。このため、遠隔ユーザが図7に示した操作画面でコミュニケーション可能に設定していれば、対象ユーザと遠隔ユーザとはコミュニケーション可能であると判定される。情報処理サーバ900は、コミュニケーション可能と判定した場合(S1304にてYES)にはS1305へ進み、そうでない場合(S1304にてNO)には本処理を終了する。
S1305において、情報処理サーバ900は、ロボット100が対象ユーザにコミュニケーションを提案するための提案情報を、ロボット100に送信する。提案情報は、ユーザ状態に応じて異なるコミュニケーション内容を含む。
S1306において、情報処理サーバ900は、対象ユーザがコミュニケーションの提案を受け入れたかを判定する。例えば、情報処理サーバ900は、対象ユーザによる応答を示す応答情報をロボット100から受信する。そして、応答情報が「コミュニケーションする」である場合、対象ユーザが提案を受け入れたと判定(S1306にてYES)してS1307へ進む。一方、提案に対する応答が「コミュニケーションしない」(あるいはタイムアウトであってもよい)である場合(S1306にてNO)、本処理を終了する。
S1307において、情報処理サーバ900は、遠隔ユーザの装置150へ通話開始要求を送信し、装置150からの通話開始要求に対する応答を待つ。遠隔ユーザの装置150は、通話開始要求を受信すると、音声情報等を用いて通話開始要求の到着を報知(すなわち遠隔ユーザへ介入)して、遠隔ユーザによる通話開始を受け入れを待つ。情報処理サーバ900が送信する通話開始要求は、対象ユーザのユーザ状態や、コミュニケーション内容を含んでよい。このため、遠隔ユーザの装置150は、対象ユーザのユーザ状態やコミュニケーション内容を提示してコミュニケーションを提案したうえで、「コミュニケーションする」と「コミュニケーションしない」との選択を遠隔ユーザから受け付ける。この場合、遠隔ユーザは対象ユーザのユーザ状態を確認したうえでコミュニケーションを開始することができる。
S1308において、情報処理サーバ900は、装置150からの通話開始要求に対する応答を受信すると、装置150側で通話開始要求が受け入れられたかを判定する。情報処理サーバ900は、当該応答が通話開始要求を受け入れる応答である場合(S1308においてYES)には、S1309へ進み、当該応答が通話開始要求を受け入れる応答でない場合(S1308においてNO)には本処理を終了する。
S1309において、情報処理サーバ900は、対象ユーザと遠隔ユーザとの間の音声通話または動画通話を開始し、ユーザ状態に応じたコミュニケーション内容が実施される。コミュニケション内容の実施において、情報処理サーバ900は、ロボット100の撮像部215および音声入力部214と、遠隔ユーザの用いる装置150とから入力される音声通話または動画通話を用いる。
画像を用いたコミュニケーションを行う場合、情報処理サーバ900は、対象ユーザのプライベートな空間が映り込む背景画像を変更(背景を消したり、他の画像に差し替える)することができる。例えば、情報処理サーバ900は、ロボット100の操作部219で予め設定された設定情報をロボット100から取得して背景画像を変更する。情報処理サーバ900は、背景画像を変更する設定情報を取得している場合には、ロボット100から送信される動画像の背景を変更したうえで、変更した動画像を遠隔ユーザ側へ送信する。
また、送信される動画像の変更は、背景画像の変更に限らず、ユーザ領域をアバタに変更してもよい。この場合、情報処理サーバ900は対象ユーザを撮像した画像から対象ユーザの動きを認識して、アバタの動きに反映してもよい。更に、送信される画像の変更に限らず、対象ユーザの発話する音声を他の声に変換したり、周囲音を削減して送信するようにしてもよい。このようにすることで、対象ユーザの生活空間がありのままに伝わってしまうとユーザが不快に感じる要素を、適切に調整することができる。すなわち、伝わる情報を調整して、対象ユーザと遠隔ユーザとの間のコミュニケーションをより円滑で快適なものにすることができる。
さらに、対象ユーザは、背景やアバタの設定は、場所ごとにあるいはコミュニケーション内容ごと異なる設定を行うことができるようにしてもよい。このようにすれば、対象ユーザは気になる空間やコミュニケーションごとに対象ユーザの情報の露出度合いを最適化することができる。
なお、上述の例は対象ユーザ側から発信される音声または動画像について説明したが、遠隔ユーザ側から発信される音声または動画像を遠隔ユーザによる設定に応じて、変更してもよい。例えば、遠隔ユーザを撮影した動画像の背景を変更したり、音声を変更したりしてもよい。この場合、遠隔ユーザによる設定を情報処理サーバ900が受信したうえで、受信した音声や動画像に変更を加えて提示してもよい。また、情報処理サーバ900は遠隔ユーザが用いる装置側で変更された音声または動画像を受信してロボット100に送信するようにしてもよい。
S1310において、情報処理サーバ900は、通話が終了されるかを判定する。例えば、ロボット100から終了要求を受け付けた場合、通話を終了すると判定して本処理を終了し、そうでない場合、S1309における通話を継続する。
[簡易コミュニケーション制御処理]
図14は、本実施形態に係るロボット100における簡易コミュニケーション制御処理の一連の動作を示すフローチャートである。本実施形態において、本処理は、ロボット100のCPU211がHDD212に記憶されたプログラムを読み出して実行することにより実現される。各処理工程は、例えば、図2の部位や図3の処理部が協働して実現されるが、ここでは説明を簡略化するために、処理主体をロボット100として包括的に説明する。
S1401において、ロボット100は、対象ユーザの状態監視を行う。S1402において、ロボット100は、所定のユーザ状態を識別すると、ユーザ状態を示す状態情報を情報処理サーバ900に送信する。
S1403において、ロボット100は、情報処理サーバ900から提案情報を受信する。すなわち、情報処理サーバ900では対象ユーザと遠隔ユーザとがコミュニケーション可能であると判定したことを意味する。
S1404において、ロボット100は、コミュニケーションを行う場所に移動する。例えば、ロボット100は、対象ユーザが近くにいない場合には対象ユーザのいる場所に移動する。また、識別されたユーザ状態のコミュニケーション場所が特定の場所である(すなわち対象ユーザの現在位置でない)場合、当該特定の場所へ移動する。例えば、提案情報に含まれるユーザ状態が「出かける直前」や「帰宅直前」である場合、ロボット100はコミュニケーション場所である「玄関」に移動する。すなわち、ロボット100は、識別された対象ユーザのユーザ状態に応じて、異なるコミュニケーション場所に移動することができる。
S1405において、ロボット100は、情報処理サーバ900からの提案情報に基づき、対象ユーザにコミュニケーションを提案する。具体的には、ロボット100は、対象ユーザが所定の距離以下に近づいたことに応じて、コミュニケーションを提案する情報を画像表示部218に表示あるいは音声出力部217から音声として出力する。具体的なコミュニケーションの提案については、上述した通り、ユーザ状態に応じて異なるコミュニケーション内容を含む。ロボット100は、対象ユーザからの提案に対する応答を受け付けるように待機する。ロボット100は、提案に対する応答は「コミュニケーションする」と「コミュニケーションしない」とのいずれかを、タッチパネルへ接触や音声により受け付けるものとする。
S1406において、ロボット100は、コミュニケーションの提案に対する対象ユーザの応答を、情報処理サーバ900に送信する。S1407において、ロボット100は、情報処理サーバ900から通話開始要求を受信する。S1408において、ロボット100は、対象ユーザと遠隔ユーザとの間の音声通話または動画通話を開始し、ユーザ状態に応じたコミュニケーション内容が実施される。S1409において、ロボット100は、通話が終了されるかを判定する。例えば、ロボット100の操作部219から終了操作を受け付けた場合、通話を終了すると判定して情報処理サーバ900に通話終了要求を送信して本処理を終了する。そうでない場合、S1408における通話を継続する。
以上説明したように、本実施形態では、ユーザと遠隔ユーザのコミュニケーションをとるための介入行動を制御可能になる。
<実施形態のまとめ>
1.上記実施形態のコミュニケーションロボット(例えば100)は、
第1ユーザの状態を識別する識別手段(例えば301、S502)と、
遠隔から前記第1ユーザとコミュニケーションをとる第2ユーザの状態を示す状態情報を外部装置から受信する受信手段(例えば304、S503)と、
前記第1ユーザの状態と前記第2ユーザの状態とに基づいて前記第1ユーザと前記第2ユーザとのコミュニケーションが可能であるかを判定する判定手段(例えば306)と、
前記第1ユーザに情報を提供する提供手段(例えば217、218、306、S506)と、を有し、
前記提供手段は、前記第1ユーザと前記第2ユーザとのコミュニケーションが可能であると判定された場合に、前記第1ユーザと前記第2ユーザとのコミュニケーションを提案する情報を前記第1ユーザに提供する。
この実施形態によれば、ユーザと遠隔ユーザのコミュニケーションをとるための介入行動を制御可能なコミュニケーションロボットを提供することが可能になる。
2.上記実施形態のコミュニケーションロボットは、
前記提供手段により提供された情報に対する前記第1ユーザからの応答を受け付ける受付手段(例えば214、219、S507)と、
前記第1ユーザと前記第2ユーザとの間の音声通話又は動画通話を制御する通話制御手段(例えば304、S510)と、を更に有し、
前記通話制御手段は、前記第1ユーザからの応答が前記第1ユーザと前記第2ユーザとのコミュニケーションを開始することを示す場合、第2ユーザの用いる装置と前記コミュニケーションロボットとを介した音声通話又は動画通話を開始させる(例えばS510)。
この実施形態によれば、コミュニケーションロボットの介入により、対象ユーザと遠隔ユーザとが通話ベースのコミュニケーションを所望に開始することができる。
3.上記実施形態のコミュニケーションロボットでは、
前記通話制御手段は、前記第1ユーザからの応答が前記第1ユーザと前記第2ユーザとのコミュニケーションを開始することを示す場合、前記第2ユーザの用いる装置へコミュニケーションの開始要求を送信(例えばS508)し、前記第2ユーザの用いる装置により前記開始要求が受け入れられない場合には、前記第2ユーザの用いる装置と前記コミュニケーションロボットとを介した音声通話又は動画通話を開始させない(例えばS509)。
この実施形態によれば、遠隔ユーザの都合を最終的に確認したうえでコミュニケーションを開始することができる。
4.上記実施形態のコミュニケーションロボットでは、
前記提供手段により提供される情報は、前記第1ユーザと前記第2ユーザとの間で行うコミュニケーション内容を更に含み、
前記提供手段は、識別された前記第1ユーザの状態に応じて、前記コミュニケーション内容を異ならせる(例えばS506)。
この実施形態によれば、ユーザはどのようなコミュニケーションを行うためにロボットによって介入されたかを容易に把握することができる。
5.上記実施形態のコミュニケーションロボットでは、
前記第1ユーザと前記第2ユーザとの間のコミュニケーション内容は予め操作手段を介して設定可能である(図8)。
この実施形態によれば、遠隔ユーザとのコミュニケーションの内容を対象ユーザに合わせて設定することができる。
6.上記実施形態のコミュニケーションロボットでは、
前記コミュニケーション内容は、音声通話又は動画通話を用いて前記第2ユーザによって前記第1ユーザの帰宅を迎える、あるいは前記第1ユーザの送り出すコミュニケーションである(図4)。
この実施形態によれば、遠隔ユーザである祖父母がロボットを介して対象ユーザに介入して、対象ユーザに話しかけることにより、親不在の場合であっても親の代わりに子供を迎え入れたり送り出すことができ、子供の寂しさを低減することができる。
7.上記実施形態のコミュニケーションロボットでは、
前記コミュニケーション内容は、音声通話又は動画通話を用いて前記第2ユーザが泣いている前記第1ユーザに話しかけるコミュニケーションである(図4)。
この実施形態によれば、遠隔ユーザである祖父母がロボットを介して対象ユーザに介入して、対象ユーザに話しかけることにより、対象ユーザの気持ちを落ちつけたり、素直に話をするきっかけとなる。
8.上記実施形態のコミュニケーションロボットでは、
前記コミュニケーション内容は、音声通話又は動画通話を用いて前記第1ユーザが行う動きまたは発話を前記第2ユーザが確認するコミュニケーションである(図4)。
この実施形態によれば、遠隔ユーザである祖父母がロボットを介して対象ユーザに介入して、音読を聞いてあげたり、練習を見守ってあげることにより、親に代わって又は親に加わって子供の練習を支援することができる。
9.上記実施形態のコミュニケーションロボットでは、
前記コミュニケーション内容は、音声通話を用いて前記第2ユーザによる発話を前記第1ユーザが聞くコミュニケーションである(図4)。
この実施形態によれば、遠隔ユーザである祖父母がロボット介して対象ユーザに介入して、読み聞かせをすることにより、読み聞かせの機会を増やしたり親の労力を軽減することができる。
10.上記実施形態のコミュニケーションロボットは、
前記第1ユーザが前記コミュニケーションロボットを介してコミュニケーションを行う場所に前記コミュニケーションロボットを移動させる移動制御手段(例えば308)を更に有し、
前記移動制御手段は、前記第1ユーザの状態に応じて予め定められたコミュニケーションを行う場所に前記コミュニケーションロボットを移動させる。
この実施形態によれば、対象ユーザに介入してコミュニケーションを提案する場所に、コミュニケーションロボットが自律的に移動することができる。
11.上記実施形態のコミュニケーションロボットは、
周期的に収集される前記第1ユーザの状態を示す状態情報を記憶する記憶手段と、
前記記憶手段に記憶された状態情報に基づいて前記第1ユーザの状態のパターンを識別するパターン識別手段(例えば307)と、を更に有し、
前記移動制御手段は、前記第1ユーザの状態のパターンから予想される前記第1ユーザの状態に応じて、前記コミュニケーションロボットを前記場所に移動させる。
この実施形態によれば、定期的に発生するようなユーザ状態のパターンに基づいて、対象ユーザに介入してコミュニケーションを提案する場所に、コミュニケーションロボットが自律的に移動することができる。
12.上記実施形態のコミュニケーションロボットでは、
前記第1ユーザは子供である。
この実施形態によれば、子供と遠隔ユーザとのコミュニケーションを支援したり、親の育児の負担を軽減するコミュニケーションロボットを実現することができる。
13.上記実施形態のコミュニケーションロボットでは、
前記第2ユーザは、前記第1ユーザの祖父母である。
この実施形態によれば、家庭内のユーザと遠隔の祖父母とのコミュニケーションを支援するコミュニケーションロボットを実現することができる。
14.上記実施形態のコミュニケーションロボットは、
前記第2ユーザの装置は、第2ユーザの状態を識別することが可能なロボットである。
この実施形態によれば、遠隔ユーザのユーザ状態もロボットにより識別することができる。
15.上記実施形態におけるコミュニケーションロボット(例えば100)の制御方法は、
第1ユーザの状態を識別する識別工程(例えばS502)と、
遠隔から前記第1ユーザとコミュニケーションをとる第2ユーザの状態を示す状態情報を外部装置から受信する受信工程(例えばS503)と、
前記第1ユーザの状態と前記第2ユーザの状態とに基づいて前記第1ユーザと前記第2ユーザとのコミュニケーションが可能であるかを判定する判定工程(例えばS504)と、
前記第1ユーザに情報を提供する提供工程(例えばS506)と、を有し、
前記提供工程では、前記第1ユーザと前記第2ユーザとのコミュニケーションが可能であると判定された場合に、前記第1ユーザと前記第2ユーザとのコミュニケーションを提案する情報を前記第1ユーザに提供する。
この実施形態によれば、ユーザと遠隔ユーザのコミュニケーションをとるための介入行動を制御可能なコミュニケーションロボットの制御方法を提供することが可能になる。
16.上記実施形態における情報処理サーバ(例えば900)は、
コミュニケーションロボットからの第1ユーザの状態に関する情報を取得する第1取得手段(例えば1201)と、
遠隔から前記第1ユーザとコミュニケーションをとる第2ユーザの用いる装置からの、前記第2ユーザの状態に関する情報を取得する第2取得手段(例えば1205)と、
前記第1ユーザの状態と前記第2ユーザの状態とに基づいて前記第1ユーザと前記第2ユーザとのコミュニケーションが可能であるかを判定する判定手段(例えば1206)と、
前記コミュニケーションロボットから前記第1ユーザに提供するための情報を、前記コミュニケーションロボットへ送信する送信手段(例えば1204)と、を有し、
前記送信手段は、前記第1ユーザと前記第2ユーザとのコミュニケーションが可能であると判定された場合に、前記第1ユーザと前記第2ユーザとのコミュニケーションを提案する情報を前記コミュニケーションロボットへ送信する。
この実施形態によれば、ユーザと遠隔ユーザのコミュニケーションをとるための介入行動を制御可能な情報処理サーバを提供することが可能になる。
17.上記実施形態における情報処理サーバによって実行される情報処理方法は、
コミュニケーションロボットからの第1ユーザの状態に関する情報を取得する第1取得工程(例えばS1301)と、
遠隔から前記第1ユーザとコミュニケーションをとる第2ユーザの用いる装置からの、前記第2ユーザの状態に関する情報を取得する第2取得工程(例えばS1303)と、
前記第1ユーザの状態と前記第2ユーザの状態とに基づいて前記第1ユーザと前記第2ユーザとのコミュニケーションが可能であるかを判定する判定工程(例えばS1304)と、
前記コミュニケーションロボットから前記第1ユーザに提供するための情報を、前記コミュニケーションロボットへ送信する送信工程(例えばS1305)と、を有し、
前記送信工程では、前記第1ユーザと前記第2ユーザとのコミュニケーションが可能であると判定された場合に、前記第1ユーザと前記第2ユーザとのコミュニケーションを提案する情報を前記コミュニケーションロボットへ送信する。
この実施形態によれば、ユーザと遠隔ユーザのコミュニケーションをとるための介入行動を制御可能な情報処理方法を提供することが可能になる。
発明は上記の実施形態に制限されるものではなく、発明の要旨の範囲内で、種々の変形・変更が可能である。

Claims (17)

  1. コミュニケーションロボットであって、
    第1ユーザの状態を識別する識別手段と、
    遠隔から前記第1ユーザとコミュニケーションをとる第2ユーザの状態を示す状態情報を外部装置から受信する受信手段と、
    前記第1ユーザの状態と前記第2ユーザの状態とに基づいて前記第1ユーザと前記第2ユーザとのコミュニケーションが可能であるかを判定する判定手段と、
    前記第1ユーザに情報を提供する提供手段と、を有し、
    前記提供手段は、前記第1ユーザと前記第2ユーザとのコミュニケーションが可能であると判定された場合に、前記第1ユーザと前記第2ユーザとのコミュニケーションを提案する情報を前記第1ユーザに提供する、ことを特徴とするコミュニケーションロボット。
  2. 前記提供手段により提供された情報に対する前記第1ユーザからの応答を受け付ける受付手段と、
    前記第1ユーザと前記第2ユーザとの間の音声通話又は動画通話を制御する通話制御手段と、を更に有し、
    前記通話制御手段は、前記第1ユーザからの応答が前記第1ユーザと前記第2ユーザとのコミュニケーションを開始することを示す場合、第2ユーザの用いる装置と前記コミュニケーションロボットとを介した音声通話又は動画通話を開始させる、ことを特徴とする請求項1に記載のコミュニケーションロボット。
  3. 前記通話制御手段は、前記第1ユーザからの応答が前記第1ユーザと前記第2ユーザとのコミュニケーションを開始することを示す場合、前記第2ユーザの用いる装置へコミュニケーションの開始要求を送信し、前記第2ユーザの用いる装置により前記開始要求が受け入れられない場合には、前記第2ユーザの用いる装置と前記コミュニケーションロボットとを介した音声通話又は動画通話を開始させない、ことを特徴とする請求項2に記載のコミュニケーションロボット。
  4. 前記提供手段により提供される情報は、前記第1ユーザと前記第2ユーザとの間で行うコミュニケーション内容を更に含み、
    前記提供手段は、識別された前記第1ユーザの状態に応じて、前記コミュニケーション内容を異ならせる、ことを特徴とする請求項1から3のいずれか1項に記載のコミュニケーションロボット。
  5. 前記第1ユーザと前記第2ユーザとの間のコミュニケーション内容は予め操作手段を介して設定可能である、ことを特徴とする請求項4に記載のコミュニケーションロボット。
  6. 前記コミュニケーション内容は、音声通話又は動画通話を用いて前記第2ユーザによって前記第1ユーザの帰宅を迎える、あるいは前記第1ユーザの送り出すコミュニケーションである、ことを特徴とする請求項4または5に記載のコミュニケーションロボット。
  7. 前記コミュニケーション内容は、音声通話又は動画通話を用いて前記第2ユーザが泣いている前記第1ユーザに話しかけるコミュニケーションである、ことを特徴とする請求項4または5に記載のコミュニケーションロボット。
  8. 前記コミュニケーション内容は、音声通話又は動画通話を用いて前記第1ユーザが行う動きまたは発話を前記第2ユーザが確認するコミュニケーションである、ことを特徴とする請求項4または5に記載のコミュニケーションロボット。
  9. 前記コミュニケーション内容は、音声通話を用いて前記第2ユーザによる発話を前記第1ユーザが聞くコミュニケーションである、ことを特徴とする請求項4または5に記載のコミュニケーションロボット。
  10. 前記第1ユーザが前記コミュニケーションロボットを介してコミュニケーションを行う場所に前記コミュニケーションロボットを移動させる移動制御手段を更に有し、
    前記移動制御手段は、前記第1ユーザの状態に応じて予め定められたコミュニケーションを行う場所に前記コミュニケーションロボットを移動させる、ことを特徴とする請求項1から9のいずれか1項に記載のコミュニケーションロボット。
  11. 周期的に収集される前記第1ユーザの状態を示す状態情報を記憶する記憶手段と、
    前記記憶手段に記憶された状態情報に基づいて前記第1ユーザの状態のパターンを識別するパターン識別手段と、を更に有し、
    前記移動制御手段は、前記第1ユーザの状態のパターンから予想される前記第1ユーザの状態に応じて、前記コミュニケーションロボットを前記場所に移動させる、ことを特徴とする請求項10に記載のコミュニケーションロボット。
  12. 前記第1ユーザは子供である、ことを特徴とする請求項1から11のいずれか1項に記載のコミュニケーションロボット。
  13. 前記第2ユーザは、前記第1ユーザの祖父母である、ことを特徴とする請求項1から12のいずれか1項に記載のコミュニケーションロボット。
  14. 前記第2ユーザの装置は、第2ユーザの状態を識別することが可能なロボットである、ことを特徴とする請求項1から13のいずれか1項に記載のコミュニケーションロボット。
  15. コミュニケーションロボットの制御方法であって、
    第1ユーザの状態を識別する識別工程と、
    遠隔から前記第1ユーザとコミュニケーションをとる第2ユーザの状態を示す状態情報を外部装置から受信する受信工程と、
    前記第1ユーザの状態と前記第2ユーザの状態とに基づいて前記第1ユーザと前記第2ユーザとのコミュニケーションが可能であるかを判定する判定工程と、
    前記第1ユーザに情報を提供する提供工程と、を有し、
    前記提供工程では、前記第1ユーザと前記第2ユーザとのコミュニケーションが可能であると判定された場合に、前記第1ユーザと前記第2ユーザとのコミュニケーションを提案する情報を前記第1ユーザに提供する、ことを特徴とするコミュニケーションロボットの制御方法。
  16. 情報処理サーバであって、
    コミュニケーションロボットからの第1ユーザの状態に関する情報を取得する第1取得手段と、
    遠隔から前記第1ユーザとコミュニケーションをとる第2ユーザの用いる装置からの、前記第2ユーザの状態に関する情報を取得する第2取得手段と、
    前記第1ユーザの状態と前記第2ユーザの状態とに基づいて前記第1ユーザと前記第2ユーザとのコミュニケーションが可能であるかを判定する判定手段と、
    前記コミュニケーションロボットから前記第1ユーザに提供するための情報を、前記コミュニケーションロボットへ送信する送信手段と、を有し、
    前記送信手段は、前記第1ユーザと前記第2ユーザとのコミュニケーションが可能であると判定された場合に、前記第1ユーザと前記第2ユーザとのコミュニケーションを提案する情報を前記コミュニケーションロボットへ送信する、ことを特徴とする情報処理サーバ。
  17. 情報処理サーバによって実行される情報処理方法であって、
    コミュニケーションロボットからの第1ユーザの状態に関する情報を取得する第1取得工程と、
    遠隔から前記第1ユーザとコミュニケーションをとる第2ユーザの用いる装置からの、前記第2ユーザの状態に関する情報を取得する第2取得工程と、
    前記第1ユーザの状態と前記第2ユーザの状態とに基づいて前記第1ユーザと前記第2ユーザとのコミュニケーションが可能であるかを判定する判定工程と、
    前記コミュニケーションロボットから前記第1ユーザに提供するための情報を、前記コミュニケーションロボットへ送信する送信工程と、を有し、
    前記送信工程では、前記第1ユーザと前記第2ユーザとのコミュニケーションが可能であると判定された場合に、前記第1ユーザと前記第2ユーザとのコミュニケーションを提案する情報を前記コミュニケーションロボットへ送信する、ことを特徴とする情報処理方法。
JP2021511728A 2019-03-29 2019-03-29 コミュニケーションロボットおよびその制御方法、情報処理サーバならびに情報処理方法 Active JP7208361B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/014263 WO2020202354A1 (ja) 2019-03-29 2019-03-29 コミュニケーションロボットおよびその制御方法、情報処理サーバならびに情報処理方法

Publications (2)

Publication Number Publication Date
JPWO2020202354A1 true JPWO2020202354A1 (ja) 2021-11-04
JP7208361B2 JP7208361B2 (ja) 2023-01-18

Family

ID=72666167

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021511728A Active JP7208361B2 (ja) 2019-03-29 2019-03-29 コミュニケーションロボットおよびその制御方法、情報処理サーバならびに情報処理方法

Country Status (2)

Country Link
JP (1) JP7208361B2 (ja)
WO (1) WO2020202354A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0476698A (ja) * 1990-07-13 1992-03-11 Toshiba Corp 画像監視装置
WO1999067067A1 (fr) * 1998-06-23 1999-12-29 Sony Corporation Robot et systeme de traitement d'information
JP2016184980A (ja) * 2016-07-26 2016-10-20 カシオ計算機株式会社 通信装置およびプログラム
JP2018092528A (ja) * 2016-12-07 2018-06-14 国立大学法人電気通信大学 チャットシステム、管理装置、端末装置、宛先選択支援方法および宛先選択支援プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0476698A (ja) * 1990-07-13 1992-03-11 Toshiba Corp 画像監視装置
WO1999067067A1 (fr) * 1998-06-23 1999-12-29 Sony Corporation Robot et systeme de traitement d'information
JP2016184980A (ja) * 2016-07-26 2016-10-20 カシオ計算機株式会社 通信装置およびプログラム
JP2018092528A (ja) * 2016-12-07 2018-06-14 国立大学法人電気通信大学 チャットシステム、管理装置、端末装置、宛先選択支援方法および宛先選択支援プログラム

Also Published As

Publication number Publication date
WO2020202354A1 (ja) 2020-10-08
JP7208361B2 (ja) 2023-01-18

Similar Documents

Publication Publication Date Title
AU2014236686B2 (en) Apparatus and methods for providing a persistent companion device
CN106297781B (zh) 控制方法和控制器
WO2016052018A1 (ja) 家電管理システム、家電、リモコン装置、ロボット
US20180048750A1 (en) Audio/video wearable computer system with integrated projector
JP2017010176A (ja) 機器特定方法、機器特定装置及びプログラム
JP2019521449A (ja) 永続的コンパニオンデバイス構成及び配備プラットフォーム
WO2017141530A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US10809715B2 (en) Apparatus, robot, method, and recording medium
WO2019035359A1 (ja) 対話型電子機器、コミュニケーションシステム、方法、およびプログラム
JP7031578B2 (ja) 情報処理装置、情報処理方法およびプログラム
CN110178159A (zh) 具有集成式投影仪的音频/视频可穿戴式计算机系统
WO2020202354A1 (ja) コミュニケーションロボットおよびその制御方法、情報処理サーバならびに情報処理方法
WO2020202353A1 (ja) コミュニケーションロボットおよびその制御方法、情報処理サーバならびに情報処理方法
JP6897696B2 (ja) サーバ、方法、およびプログラム
WO2020095714A1 (ja) 情報処理装置および方法、並びに、プログラム
JP2023130822A (ja) 機器システム、撮像装置、表示方法
JPWO2021229692A5 (ja)
WO2024070550A1 (ja) システム、電子機器、システムの制御方法、及びプログラム
JP7279706B2 (ja) 情報処理装置、情報処理システム、情報処理方法及び情報処理プログラム
TWI592894B (zh) 傳送排程人形玩偶圖像和信息的傳送端裝置、伺服器、系統和方法
CN112060084A (zh) 一种智能互动系统
WO2022067372A1 (en) Virtual and physical social robot with humanoid features
CN113765756A (zh) 家庭终端的通信方法、终端及存储介质
CN113765755A (zh) 家庭终端的通信方法、终端及存储介质
JP2020061050A (ja) コミュニケーションシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220722

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230105

R150 Certificate of patent or registration of utility model

Ref document number: 7208361

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150