JP6564484B1 - 同室感コミュニケーションシステム - Google Patents

同室感コミュニケーションシステム Download PDF

Info

Publication number
JP6564484B1
JP6564484B1 JP2018056835A JP2018056835A JP6564484B1 JP 6564484 B1 JP6564484 B1 JP 6564484B1 JP 2018056835 A JP2018056835 A JP 2018056835A JP 2018056835 A JP2018056835 A JP 2018056835A JP 6564484 B1 JP6564484 B1 JP 6564484B1
Authority
JP
Japan
Prior art keywords
robot
unit
control device
information
avatar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018056835A
Other languages
English (en)
Other versions
JP2019168971A (ja
Inventor
栗原 聡
聡 栗原
聖 須賀
聖 須賀
村田 直樹
直樹 村田
哲史 上野
哲史 上野
陽司 清田
陽司 清田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lifull Co Ltd
Original Assignee
Lifull Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lifull Co Ltd filed Critical Lifull Co Ltd
Priority to JP2018056835A priority Critical patent/JP6564484B1/ja
Application granted granted Critical
Publication of JP6564484B1 publication Critical patent/JP6564484B1/ja
Publication of JP2019168971A publication Critical patent/JP2019168971A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】複数のユーザが3次元的な位置の認識を共有して、同じ空間にいるような感覚を得ることができるコミュニケーションシステムを提供する。【解決手段】同室感コミュニケーションシステムは、ロボットと、ロボットと通信可能な第1制御装置と、第1制御装置と通信可能な第2制御装置と、を備える同室感コミュニケーションシステムであって、第1制御装置は、ロボットの第1撮影部により撮影された画像を表示する第1表示部と、アバターの表示態様を制御する情報の入力を受け付ける入力部と、を有し、第2制御装置は、第2撮影部と、第2撮影部により撮影された画像に基づき、ロボットの3次元位置を検出する検出部と、第2撮影部により撮影された画像を表示し、第1制御装置から受信した表示態様を制御する情報に基づいて、検出部により検出された3次元位置にアバターを表示する第2表示部と、を有する。【選択図】図1

Description

本発明は、同室感コミュニケーションシステムに関する。
従来、遠隔地にいるユーザの音声と画像を取得し、音声、表情及び身振りによってコミュニケーションが取れるようにするシステムが用いられている。
例えば、下記非特許文献1には、複数のカメラと、各ユーザの周囲に配置された複数のディスプレイとを備え、ユーザの移動が反映されるように、複数のディスプレイにユーザの映像を表示するシステムが開示されている。
平田圭二、外8名、「Basic design of video communication system enabling users to move around in share space」、IEICE transactions on electronics、2009年11月1日、第E92‐C巻、第11号、p.1387−1395
しかしながら、カメラにより撮影されたユーザの画像をディスプレイに表示する場合、遠隔地にいるユーザが同じ空間にいるような感覚を得ることは難しい。例えば、非特許文献1に記載の技術では、遠隔地にいるユーザがディスプレイ上に現れたような感覚が得られるものの、3次元的な位置の認識を共有することは難しく、同じ空間にいるような感覚を得ることは難しい。
そこで、本発明は、複数のユーザが3次元的な位置の認識を共有して、同じ空間にいるような感覚を得ることができる同室感コミュニケーションシステムを提供する。
本発明の一態様に係る同室感コミュニケーションシステムは、ロボットと、ロボットと通信可能な第1制御装置と、第1制御装置と通信可能な第2制御装置と、を備える同室感コミュニケーションシステムであって、ロボットは、第1撮影部を有し、第1制御装置は、第1撮影部により撮影された画像を表示する第1表示部と、アバターの表示態様を制御する情報の入力を受け付ける入力部と、を有し、第2制御装置は、第2撮影部と、第2撮影部により撮影された画像に基づき、ロボットの3次元位置を検出する検出部と、第2撮影部により撮影された画像を表示し、検出部によりロボットの3次元位置が検出された場合に、第1制御装置から受信した表示態様を制御する情報に基づいて、検出部により検出された3次元位置にアバターを表示する第2表示部と、を有する。
この態様によれば、第1ユーザが用いる第1制御装置は、ロボットの第1撮影部により撮影された第2ユーザの画像を表示し、第1ユーザからアバターの表示態様を制御する情報の入力を受け付ける。第2ユーザの用いる第2制御装置は、ロボットの3次元位置に第1ユーザによって表示態様が制御されるアバターを表示する。このように、第1ユーザ及び第2ユーザは、ロボットにより3次元的な位置の認識を共有することができ、同じ空間にいるような感覚を得ることができる。
上記態様において、ロボットは、自走部を有し、入力部は、自走部によるロボットの自走を制御する情報の入力を受け付けてもよい。
この態様によれば、第1ユーザが用いる第1制御装置によって、ロボットの自走を制御することで、第1ユーザが所望する位置から画像を撮影することができ、第1ユーザが第2ユーザと同じ部屋を移動する感覚を第1ユーザ及び第2ユーザ双方に与えることができる。
上記態様において、入力部は、アバターの身振りを制御する情報の入力を受け付けてもよい。
この態様によれば、アバターによって現実空間における方向を指し示したり、資料の特定の箇所を指し示したりすることができ、ボディランゲージを用いたコミュニケーションを図ることができる。
上記態様において、入力部は、アバターの表情を制御する情報の入力を受け付けてもよい。
この態様によれば、アバターの表情を変化させることができ、アバターが3Dモデルの場合であっても、人とコミュニケーションを取っているような感覚を与えることができる。
上記態様において、表示態様を制御する情報は、文字情報及び画像情報の少なくともいずれかを含み、第2表示部は、アバターに関連付けて、文字情報及び画像情報の少なくともいずれかを表示してもよい。
この態様によれば、第2制御装置を用いる第2ユーザに対して、文字情報及び画像情報の少なくともいずれかを提示することができ、同室で資料の説明が行われている感覚を与える等、各種情報を用いたコミュニケーションを図ることができる。
上記態様において、入力部は、文字情報及び画像情報の少なくともいずれかの入力を受け付けてもよい。
この態様によれば、予め用意された文字情報及び画像情報のみならず、第1制御装置を用いる第1ユーザによって入力される文字情報及び画像情報の少なくともいずれかを、第2制御装置を用いる第2ユーザに対して提示することができる。
上記態様において、ロボットは、マニピュレータを有し、入力部は、マニピュレータを制御する情報の入力を受け付けてもよい。
この態様によれば、第1ユーザが用いる第1制御装置によって、ロボットのマニピュレータを制御することで、ロボットの近傍に置かれた物をロボットにより能動的に操作することができ、第1ユーザ及び第2ユーザによって、共通の物理的対象を操作することができるようになる。
上記態様において、第2制御装置は、検出部によりロボットの3次元位置が検出された場合に、第1制御装置に対して表示態様を制御する情報の送信を要求する要求部をさらに有してもよい。
この態様によれば、第2制御装置によってロボットの3次元位置が検出された場合に、自動的に対応するアバターが表示され、ロボットと他のユーザとを同一視する感覚を与えることができる。
本発明の他の態様に係る同室感コミュニケーションシステムは、第1ロボットと、第1ロボットと通信可能な第1制御装置と、第2ロボットと、第2ロボット及び第1制御装置と通信可能な第2制御装置と、を備える同室感コミュニケーションシステムであって、第1ロボットは、第1撮影部を有し、第2ロボットは、第2撮影部を有し、第1制御装置は、第1撮影部により撮影された画像に基づき、第2ロボットの3次元位置を検出する第1検出部と、第1撮影部により撮影された画像を表示し、第1検出部により第2ロボットの3次元位置が検出された場合に、第2制御装置から受信した第2アバターの表示態様を制御する情報に基づいて、第1検出部により検出された3次元位置に第2アバターを表示する第1表示部と、第1アバターの表示態様を制御する情報の入力を受け付ける第1入力部と、を有し、第2制御装置は、第2撮影部により撮影された画像に基づき、第1ロボットの3次元位置を検出する第2検出部と、第2撮影部により撮影された画像を表示し、第2検出部により第1ロボットの3次元位置が検出された場合に、第1制御装置から受信した第1アバターの表示態様を制御する情報に基づいて、第2検出部により検出された3次元位置に第1アバターを表示する第2表示部と、第2アバターの表示態様を制御する情報の入力を受け付ける第2入力部と、を有する。
この態様によれば、第1ユーザが用いる第1制御装置は、第1ロボットの第1撮影部により撮影された第2ロボットの画像を表示し、第1ユーザから第1アバターの表示態様を制御する情報の入力を受け付ける。第2ユーザが用いる第2制御装置は、第2ロボットの第2撮影部により撮影された第1ロボットの画像を表示し、第2ユーザから第2アバターの表示態様を制御する情報の入力を受け付ける。そして、第1制御装置は、第2ロボットの3次元位置に第2ユーザによって表示態様が制御される第2アバターを表示し、第2制御装置は、第1ロボットの3次元位置に第1ユーザによって表示態様が制御される第1アバターを表示する。このように、第1ユーザ及び第2ユーザは、第1ロボット及び第2ロボットにより3次元的な位置の認識を共有することができ、同じ空間にいるような感覚を得ることができる。
本発明によれば、複数のユーザが3次元的な位置の認識を共有して、同じ空間にいるような感覚を得ることができる同室感コミュニケーションシステムが提供される。
本発明の第1実施形態に係る同室感コミュニケーションシステムの機能ブロックを示す図である。 第1実施形態に係る第1制御装置の物理的構成を示す図である。 第1実施形態に係る第2制御装置の物理的構成を示す図である。 第1実施形態に係るロボットの外観を示す図である。 第1実施形態に係る第2制御装置により表示されるアバターの例を示す図である。 第1実施形態に係る第1制御装置により実行される処理のフローチャートである。 第1実施形態に係る第2制御装置により実行される処理のフローチャートである。 本発明の第2実施形態に係る同室感コミュニケーションシステムの機能ブロックを示す図である。 第2実施形態に係る第1制御装置により実行される処理のフローチャートである。
以下、本発明の一側面に係る実施の形態(以下、「本実施形態」と表記する。)を、図面に基づいて説明する。なお、各図において、同一の符号を付したものは、同一又は同様の構成を有する。
[第1実施形態]
図1は、本発明の第1実施形態に係る同室感コミュニケーションシステム1の機能ブロックを示す図である。同室感コミュニケーションシステム1は、第1の場所L1で第1制御装置10を用いる第1ユーザと、第2の場所L2で第2制御装置20を用いる第2ユーザとの間でコミュニケーションを行うシステムである。第1の場所L1と第2の場所L2は、物理的に離れた場所であってよいが、必ずしも遠隔地である必要はなく、同一の建物内の別の部屋であってもよい。
同室感コミュニケーションシステム1は、例えば物件の内覧を行う場合に用いることができる。その場合、第2の場所L2は、賃貸される物件や販売される物件の部屋であり、第1の場所L1にいる第1ユーザが、第2の場所L2の内覧に訪れた第2ユーザをロボット30により案内することとなる。また、同室感コミュニケーションシステム1は、第1の場所L1にいる第1ユーザと、第2の場所L2にいる第2ユーザとの間で、不動産の賃貸借契約等の契約を行う場合に用いることができる。また、同室感コミュニケーションシステム1は、第1の場所L1にいる第1ユーザが、第2の場所L2にいる第2ユーザに対して、第2の場所L2のインテリアコーディネートを行う場合に用いることができる。さらに、同室感コミュニケーションシステム1は、第1の場所L1にいる第1ユーザと、第2の場所L2にいる第2ユーザとの会議に用いたり、第1ユーザが第2のユーザに対して講義や仕事のレクチャーを行うために用いたりすることができる。
本実施形態では、第1の場所L1に第1制御装置10を用いる第1ユーザがおり、第2の場所L2に第2制御装置20を用いる第2ユーザと、ロボット30とがいる。ここで、第1制御装置10及びロボット30は、インターネット等の通信ネットワークNを介して互いに通信可能に構成される。また、第1制御装置10及び第2制御装置20は、通信ネットワークNを介して互いに通信可能に構成される。なお、第2制御装置20及びロボット30も、インターネット等の通信ネットワークN又は近距離無線通信等により互いに通信可能に構成されてもよい。なお、第1の場所L1に複数の第1制御装置10を用いる複数の第1ユーザがいて、第2の場所L2に複数の第1ユーザに対応する複数のロボット30がいてもよいし、第2の場所L2に複数の第2制御装置20を用いる複数の第2ユーザがいてもよい。
ロボット30は、第1撮影部31と、自走部32と、マニピュレータ33と、マーカ35とを備える。第1撮影部31は、任意のカメラで構成されてよく、例えば全方位を撮影可能な全天球カメラであったり、立体画像を撮影することができるステレオカメラであったりしてよい。
自走部32は、ロボット30を移動させる構成であり、例えばモータと、車輪又は無限軌道とを含んでよい。自走部32によるロボット30の自走は、第1制御装置10により制御される。
マニピュレータ33は、物を操作する機械的な構成であり、例えばロボットハンドであってよい。マニピュレータ33は、第1制御装置10により制御される。
マーカ35は、ロボット30の3次元位置を検出するための符号であり、いわゆるAR(Augmented Reality)マーカであってよい。また、マーカ35は、任意の方向から認識できるような円筒形のARマーカであってよい。
第1制御装置10は、第1表示部10fと、入力部10eとを少なくとも備える。第1表示部10fは、ロボット30の第1撮影部31により撮影され、通信ネットワークNを介して受信した画像を表示する。第1表示部10fは、ヘッドマウントディスプレイであってよく、第1撮影部31により撮影される画像をリアルタイムで動画として表示してよい。第1撮影部31の撮影範囲に第2ユーザが含まれる場合、第1表示部10fは、第2ユーザの挙動を動画として表示してよい。第1制御装置10を用いる第1ユーザは、第1の場所L1にいながら、仮想的に第2の場所L2にいるかのような感覚を得ることができる。
入力部10eは、後述するアバターの表示態様を制御する情報の入力を受け付ける。入力部10eは、ジャイロセンサ、タッチパネル及び物理的なキー等で構成されてよい。ここで、ジャイロセンサは、第1表示部10fがヘッドマウントディスプレイで構成される場合、ヘッドマウントディスプレイに設けられて、第1ユーザの頭の向きを検出してよい。また、ジャイロセンサは、第1ユーザによって把持されるコントローラに設けられてよく、第1ユーザの腕の姿勢、すなわち腕の各関節の角度を検出してよい。
入力部10eは、アバターの身振りを制御する情報の入力を受け付けてよい。アバターの身振りを制御する情報は、ヘッドマウントディスプレイに設けられたジャイロセンサにより入力されてよく、第1ユーザの頭の向きに応じて、アバターの頭の向きを制御する情報であってよい。また、アバターの身振りを制御する情報は、第1ユーザによって把持されるコントローラに設けられたジャイロセンサにより入力されてよく、第1ユーザの腕の姿勢に応じて、アバターの腕の姿勢を制御する情報であってよい。また、入力部10eは、アバターの指の態様を制御する情報の入力を受け付けてよく、例えば、指を自然に開いた態様とする情報や、人差し指により物を指し示す態様とする情報を受け付けてよい。これにより、アバターによって現実空間における方向を指し示したり、資料の特定の箇所を指し示したりすることができ、ボディランゲージを用いたコミュニケーションを図ることができる。
入力部10eは、アバターの表情を制御する情報の入力を受け付けてよい。アバターの身振りを制御する情報は、タッチパネル及び物理的なキー等で入力されてよく、例えば、喜怒哀楽の表情を指定する情報を含んでよい。これにより、アバターの表情を変化させることができ、アバターが3Dモデルの場合であっても、人とコミュニケーションを取っているような感覚を与えることができる。
第2制御装置20は、第2撮影部20iと、検出部21と、第2表示部20fと、要求部22とを少なくとも備える。第2撮影部20iは、任意のカメラで構成されてよく、例えば、第2制御装置20を用いる第2ユーザの頭部に設けられて、第2ユーザの視界と撮影範囲が重なるように設けられてよい。
検出部21は、第2撮影部20iにより撮影された画像に基づき、ロボット30の3次元位置を検出する。検出部21は、ロボット30に備えられたマーカ35を認識し、マーカ35の3次元位置を検出してよい。ここで、マーカ35の3次元位置は、ロボット30の3次元位置と同一視されてよい。なお、検出部21は、第2撮影部20iにより撮影された画像に基づき、マーカレスでロボット30の3次元位置を検出してもよい。その場合、検出部21は、ロボット30の特徴点を認識し、特徴点の3次元位置に基づいて、ロボット30の3次元位置を検出してもよい。
第2表示部20fは、第2撮影部20iにより撮影された画像を表示し、検出部21によりロボット30の3次元位置が検出された場合に、第1制御装置10から受信したアバターの表示態様を制御する情報に基づいて、検出部21により検出された3次元位置にアバターを表示する。第2表示部20fは、第1制御装置10により入力されたアバターの身振りを制御する情報や、アバターの表情を制御する情報に基づいて、第1制御装置10を用いる第1ユーザが所望する身振りや表情を示すアバターを表示してよい。第2表示部20fは、第2の場所L2の環境やロボット30を、アバターと同時に視認できる透過型ヘッドマウントディスプレイであってよい。第2撮影部20iの撮影範囲にロボット30が含まれる場合、第2表示部20fは、検出部21により検出されたロボット30の3次元位置に追随するように、アバターをリアルタイムで表示してよい。第2制御装置20を用いる第2ユーザは、第2の場所L2という現実空間にアバターという仮想人物がいるかのような複合現実(Mixed Reality:MR)の感覚を得ることができる。
アバターの表示態様を制御する情報は、文字情報及び画像情報の少なくともいずれかを含んでよく、第2表示部20fは、アバターに関連付けて、第1制御装置10から受信した文字情報及び画像情報の少なくともいずれかを表示してよい。ここで、文字情報及び画像情報は、アバターによって提示されるように表示されてよく、例えばアバターが資料を提示するように文字情報及び画像情報をポップアップさせて表示したり、アバターが板書しているように文字情報を表示したり、アバターが現実空間にポインタを設置しているようにポインタの画像情報やポインタの3Dモデルを表示したりしてよい。これにより、第2制御装置20を用いる第2ユーザに対して、文字情報及び画像情報の少なくともいずれかを提示することができ、同室で資料の説明が行われている感覚を与える等、各種情報を用いたコミュニケーションを図ることができる。また、この場合、第1制御装置10の入力部10eは、文字情報及び画像情報の少なくともいずれかの入力を受け付けてよい。これにより、予め用意された文字情報及び画像情報のみならず、第1制御装置10を用いる第1ユーザによって入力される文字情報及び画像情報の少なくともいずれかを、第2制御装置20を用いる第2ユーザに対して提示することができる。
要求部22は、検出部21によりロボット30の3次元位置が検出された場合に、第1制御装置10に対してアバターの表示態様を制御する情報の送信を要求する。要求部22は、検出部21によってロボット30に備えられたマーカ35が認識され、マーカ35の3次元位置が検出された場合に、マーカ35の画像と、予め登録された画像とを照合して、照合結果が正しい場合に、第1制御装置10に対してアバターの表示態様を制御する情報の送信を要求してよい。要求部22を備えることで、第2制御装置20によってロボット30の3次元位置が検出された場合に、自動的に対応するアバターが表示されることとなり、ロボット30と他のユーザとを同一視する感覚を与えることができる。
図2は、第1実施形態に係る第1制御装置10の物理的構成を示す図である。第1制御装置10は、演算装置に相当するCPU(Central Processing Unit)10aと、記憶部に相当するRAM(Random Access Memory)10bと、記憶部に相当するROM(Read only Memory)10cと、通信部10dと、入力部10eと、第1表示部10fと、音声入力部10gと、音声出力部10hとを有する。これらの各構成は、バスを介して相互にデータ送受信可能に接続される。なお、本例では第1制御装置10が一台のコンピュータで構成される場合について説明するが、第1制御装置10は、複数のコンピュータを用いて実現されてもよい。
CPU10aは、RAM10b又はROM10cに記憶されたプログラムの実行に関する制御やデータの演算、加工を行う制御部である。CPU10aは、ロボット30から受信した画像を第1表示部10fに表示させたり、入力部10eにより入力されるアバターの表示態様を制御する情報を第2制御装置20に送信したりするプログラム(同室感コミュニケーションプログラム)を実行する演算装置である。CPU10aは、入力部10eや通信部10dから種々の入力データを受け取り、入力データの演算結果を第1表示部10fに表示したり、RAM10bに格納したりする。
RAM10bは、記憶部のうちデータの書き換えが可能なものであり、例えば半導体記憶素子で構成されてよい。RAM10bは、CPU10aが実行する同室感コミュニケーションプログラムや、アバターに関連付けて表示する文字情報及び画像情報といったデータを記憶する。
ROM10cは、記憶部のうちデータの読み出しが可能なものであり、例えば半導体記憶素子で構成されてよい。ROM10cは、例えば同室感コミュニケーションプログラムや、書き換えが行われないデータを記憶する。
通信部10dは、第1制御装置10を外部機器に接続するインターフェースである。通信部10dは、第2制御装置20及びロボット30と、例えばインターネットやLAN(Local Area Network)により接続されて、第2制御装置20から音声情報を受信し、第2制御装置20に対して音声情報及びアバターの表示態様を制御する情報を送信し、ロボット30から第1撮影部31により撮影された画像を受信してよい。
入力部10eは、アバターの表示態様を制御する情報や、文字情報及び画像情報の入力を受け付けるものであり、例えば、ジャイロセンサ、タッチパネル及び物理的なキー等を含んでよい。
第1表示部10fは、CPU10aによる演算結果を視覚的に表示するものであり、例えば、LCD(Liquid Crystal Display)が設けられたヘッドマウントディスプレイにより構成されてよい。
音声入力部10gは、マイクロフォンで構成されてよく、第1ユーザの音声を電気的な音声情報に変換する。音声入力部10gにより入力された音声情報は、通信部10dにより第2制御装置20に送信されてよい。
音声出力部10hは、スピーカーで構成されてよく、通信部10dで受信した音声情報を再生する。音声出力部10hは、第2制御装置20により入力された音声情報を出力してよい。
同室感コミュニケーションプログラムは、RAM10bやROM10c等のコンピュータによって読み取り可能な記憶媒体に記憶されて提供されてもよいし、通信部10dにより接続される通信ネットワークNを介して提供されてもよい。第1制御装置10では、CPU10aが同室感コミュニケーションプログラムを実行することにより、図1を用いて説明した様々な動作が実現される。なお、これらの物理的な構成は例示であって、必ずしも独立した構成でなくてもよい。例えば、第1制御装置10は、CPU10aとRAM10bやROM10cが一体化したLSI(Large-Scale Integration)を備えていてもよい。
図3は、第1実施形態に係る第2制御装置20の物理的構成を示す図である。第2制御装置20は、演算装置に相当するCPU20aと、記憶部に相当するRAM20bと、記憶部に相当するROM20cと、通信部20dと、入力部20eと、第2表示部20fと、音声入力部20gと、音声出力部20hと、第2撮影部20iとを有する。これらの各構成は、バスを介して相互にデータ送受信可能に接続される。なお、本例では第2制御装置20が一台のコンピュータで構成される場合について説明するが、第2制御装置20は、複数のコンピュータを用いて実現されてもよい。
CPU20aは、RAM20b又はROM20cに記憶されたプログラムの実行に関する制御やデータの演算、加工を行う制御部である。CPU20aは、第2撮影部20iにより撮影した画像に基づいてロボット30の3次元位置を検出したり、第2撮影部20iにより撮影した画像にアバターを重ねて第2表示部20fに表示させたりするプログラム(同室感コミュニケーションプログラム)を実行する演算装置である。CPU20aは、入力部20eや通信部20dから種々の入力データを受け取り、入力データの演算結果を第2表示部20fに表示したり、RAM20bに格納したりする。
RAM20bは、記憶部のうちデータの書き換えが可能なものであり、例えば半導体記憶素子で構成されてよい。RAM20bは、CPU20aが実行する同室感コミュニケーションプログラムや、マーカ35の照合に用いる画像情報といったデータを記憶する。
ROM20cは、記憶部のうちデータの読み出しが可能なものであり、例えば半導体記憶素子で構成されてよい。ROM20cは、例えば同室感コミュニケーションプログラムや、書き換えが行われないデータを記憶する。
通信部20dは、第2制御装置20を外部機器に接続するインターフェースである。通信部20dは、少なくとも第1制御装置10と、例えばインターネットやLAN(Local Area Network)により接続されて、第1制御装置10から音声情報及びアバターの表示態様を制御する情報を受信し、第1制御装置10に対して音声情報を送信してよい。
入力部20eは、第2ユーザからの入力を受け付けるものであり、例えば、タッチパネル及び物理的なキー等を含んでよい。
第2表示部20fは、CPU20aによる演算結果を視覚的に表示するものであり、例えば、LCDが設けられたヘッドマウントディスプレイにより構成されてよい。また、第2表示部20fは、第2の場所L2の環境やロボット30を、アバターと同時に視認できる透過型ヘッドマウントディスプレイであってよい。もっとも、第2表示部20fは、非透過型ヘッドマウントディスプレイであってもよく、第2撮影部20iにより撮影される第2の場所L2の画像と、アバターとを表示するものであってもよい。
音声入力部20gは、マイクロフォンで構成されてよく、第2ユーザの音声を電気的な音声情報に変換する。音声入力部20gにより入力された音声情報は、通信部20dにより第1制御装置10に送信されてよい。
音声出力部20hは、スピーカーで構成されてよく、通信部20dで受信した音声情報を再生する。音声出力部20hは、第1制御装置10により入力された音声情報を出力してよい。
第2撮影部20iは、任意のカメラで構成されてよく、例えば、第2表示部20fをヘッドマウントディスプレイで構成する場合、ヘッドマウントディスプレイに設けられて、第2ユーザの視界と撮影範囲が重なるように設けられてよい。
同室感コミュニケーションプログラムは、RAM20bやROM20c等のコンピュータによって読み取り可能な記憶媒体に記憶されて提供されてもよいし、通信部20dにより接続される通信ネットワークNを介して提供されてもよい。第2制御装置20では、CPU20aが同室感コミュニケーションプログラムを実行することにより、図1を用いて説明した様々な動作が実現される。なお、これらの物理的な構成は例示であって、必ずしも独立した構成でなくてもよい。例えば、第2制御装置20は、CPU20aとRAM20bやROM20cが一体化したLSIを備えていてもよい。
図4は、第1実施形態に係るロボット30の外観を示す図である。ロボット30は、第1撮影部31、自走部32及びマーカ35を備える。なお、本例では、図示していないが、ロボット30は、マニピュレータ33を備えてもよい。
自走部32は、モータ及び車輪を含んでよい。第1制御装置10の入力部10eは、自走部32によるロボット30の自走を制御する情報の入力を受け付けてよく、第1制御装置10を用いる第1ユーザは、第1撮影部31により撮影される画像を確認しながら、所望の方向にロボット30を移動させることができる。第1ユーザが用いる第1制御装置10によって、ロボット30の自走を制御することで、第1ユーザが所望する位置から画像を撮影することができ、第1ユーザが第2ユーザと同じ部屋を移動する感覚を第1ユーザ及び第2ユーザ双方に与えることができる。これにより、例えば第2ユーザの動作が視認しづらい場合に、第2ユーザの動作が視認しやすい位置にロボット30を移動させたり、ロボット30によって第2ユーザを先導したり、第2ユーザに追従したりすることができる。
また、ロボット30がマニピュレータ33を備える場合、マニピュレータ33はロボットハンドを含んでよい。第1制御装置10の入力部10eは、マニピュレータ33を制御する情報の入力を受け付けてよく、第1制御装置10を用いる第1ユーザは、第1撮影部31により撮影される画像を確認しながら、マニピュレータ33によって任意の物を操作することができる。第1ユーザが用いる第1制御装置10によって、ロボット30のマニピュレータ33を制御することで、第2の場所L2に置かれた物をロボット30により能動的に操作することができ、第1ユーザ及び第2ユーザによって、共通の物理的対象を操作することができるようになる。また、マニピュレータ33によって第2ユーザの健康状態を診断したり、手術を行ったりすることもできる。
図5は、第1実施形態に係る第2制御装置20により表示されるアバターAの例を示す図である。第2制御装置20は、検出部21によってマーカ35の3次元位置を検出し、第2表示部20fによって、ロボット30に重畳するようにアバターAを表示する。本例において、アバターAは、半透明の3Dモデルであり、ロボット30のマーカ35や第1撮影部31に重畳するように表示されている。また、アバターAは、第2の場所L2の背景に重畳するように表示されている。なお、アバターAは、3Dモデルに限られず、第1制御装置10を用いる第1ユーザの全身画像であったり、第1ユーザの顔画像と3Dモデルとを組み合わせたものであったりしてもよい。また、アバターAは、必ずしも半透明でなくてもよく、ロボット30を覆い、ロボット30を上書きするように表示されてもよい。
本実施形態に係る同室感コミュニケーションシステム1によれば、第1ユーザが用いる第1制御装置10は、ロボット30の第1撮影部31により撮影されたロボット30の視点からの第2ユーザの画像を表示し、第1ユーザからアバターAの表示態様を制御する情報の入力を受け付ける。第2ユーザの用いる第2制御装置20は、ロボット30の3次元位置に第1ユーザによって表示態様が制御されるアバターAを表示する。このように、第1ユーザ及び第2ユーザは、ロボット30により3次元的な位置の認識を共有することができ、同じ空間にいるような感覚を得ることができる。
図6は、第1実施形態に係る第1制御装置10により実行される処理のフローチャートである。同図では、同室感コミュニケーションシステム1により実行される処理のうち、第1制御装置10により実行される処理のフローチャートを示している。第1制御装置10により実行される処理は、主にアバターの表示態様を制御する情報の入力を受け付けて、第2制御装置20に送信する処理である。また、第1制御装置10により実行される処理は、第2制御装置20により入力された音声を出力する処理、文字情報や画像情報の入力を受け付けて第2制御装置20に送信する処理、ロボット30の自走を制御する情報の入力を受け付けてロボット30に送信する処理及びロボット30のマニピュレータ33を制御する情報の入力を受け付けてロボット30に送信する処理を含んでよい。以下では、第1制御装置10により実行される処理の一例を示す。
はじめに、第1制御装置10の第1表示部10fにロボット30の第1撮影部31で撮影された画像を表示する(S10)。そして、第1制御装置10の音声出力部10hにより、第2制御装置20の音声入力部20gに入力された音声を出力する(S11)。なお、本例に示した音声出力のタイミングは一例に過ぎず、第1制御装置10の音声入力部10g及び音声出力部10hと、第2制御装置20の音声入力部20g及び音声出力部20hとによる音声情報の入出力は、任意のタイミングで行われてよい。
次に、第1制御装置10の入力部10eによって、アバターの身振りを制御する情報、表情を制御する情報の入力を受け付ける(S12)。そして、アバターの身振りを制御する情報、表情を制御する情報を第2制御装置20に送信する(S13)。なお、本例で示したアバターの身振りを制御する情報、表情を制御する情報の入力を受け付けるタイミングと、送信するタイミングは一例に過ぎず、第1制御装置10は、任意のタイミングでアバターの身振りを制御する情報、表情を制御する情報の入力を受け付けてよいし、当該情報を第2制御装置20に送信してよい。また、第1制御装置10は、アバターの身振りを制御する情報及び表情を制御する情報以外のアバターの表示態様を制御する情報を受け付けて、第2制御装置20に送信してもよい。
その後、第1制御装置10の入力部10eによって、文字情報及び画像情報の少なくともいずれかの入力を受け付ける(S14)。そして、文字情報及び画像情報の少なくともいずれかを第2制御装置20に送信する(S15)。なお、本例で示した文字情報及び画像情報の入力を受け付けるタイミングと、送信するタイミングは一例に過ぎず、第1制御装置10は、任意のタイミングで文字情報及び画像情報の入力を受け付けてよいし、当該情報を第2制御装置20に送信してよい。また、第1制御装置10によって文字情報及び画像情報の入力を受け付け、第2制御装置20に送信する処理は、必ずしも実行されなくてもよく、省略可能である。
また、第1制御装置10の入力部10eによって、ロボット30の自走を制御する情報の入力を受け付ける(S16)。そして、自走を制御する情報をロボット30に送信する(S17)。なお、本例で示したロボット30の自走を制御する情報の入力を受け付けるタイミングと、送信するタイミングは一例に過ぎず、第1制御装置10は、任意のタイミングでロボット30の自走を制御する情報の入力を受け付けてよいし、当該情報をロボット30に送信してよい。
さらに、第1制御装置10の入力部10eによって、ロボット30のマニピュレータ33を制御する情報の入力を受け付ける(S18)。そして、マニピュレータ33を制御する情報をロボット30に送信する(S19)。なお、本例で示したロボット30のマニピュレータ33を制御する情報の入力を受け付けるタイミングと、送信するタイミングは一例に過ぎず、第1制御装置10は、任意のタイミングでロボット30のマニピュレータ33を制御する情報の入力を受け付けてよいし、当該情報をロボット30に送信してよい。
なお、ステップS11、ステップS12〜S13、ステップS14〜S15、ステップS16〜S17及びステップS18〜S19は、それぞれ順不同で任意のタイミングで実行されてよいし、必ずしも実行されなくてもよい。
図7は、第1実施形態に係る第2制御装置20により実行される処理のフローチャートである。同図では、同室感コミュニケーションシステム1により実行される処理のうち、第2制御装置20により実行される処理のフローチャートを示している。第2制御装置20により実行される処理は、主にロボット30の3次元位置にアバターを表示する処理である。また、第2制御装置20により実行される処理は、第1制御装置10により入力された音声を出力する処理、ロボット30のマーカ35と登録された画像を照合する処理、第1制御装置10に対してアバターの表示態様を制御する情報の送信を要求する処理及び文字情報や画像情報を第1制御装置10から受信してアバターに関連付けて表示する処理を含んでよい。以下では、第2制御装置20により実行される処理の一例を示す。
はじめに、第2制御装置20の第2撮影部20iにより、第2の場所L2の画像を撮影する(S20)。そして、第2制御装置20の要求部22は、マーカ35と登録された画像が一致するか否かを判定し、一致しない場合(S21:NO)、引き続き第2撮影部20iにより画像を撮影する(S20)。一方、マーカ35と登録された画像が一致する場合(S21:YES)、第2制御装置20の検出部21により、画像に基づいてマーカ35を認識し、マーカ35に基づいてロボット30の3次元位置を検出する(S22)。また、第2制御装置20の要求部22により、第1制御装置10に対してアバターの表示態様を制御する情報の送信を要求する(S23)。
その後、第2制御装置20は、第1制御装置10から、アバターの身振りを制御する情報、表情を制御する情報を受信する(S24)。そして、第2制御装置20の第2表示部20fにより、ロボット30の3次元位置にアバターを表示する(S25)。
また、第2制御装置20は、第1制御装置10から、文字情報及び画像情報の少なくともいずれかを受信する(S26)。そして、第2表示部20fにより、文字情報及び画像情報の少なくともいずれかをアバターに関連付けて表示する(S27)。なお、本例で示した文字情報及び画像情報を受信するタイミングは一例に過ぎず、第2制御装置20は、文字情報及び画像情報を受信しない場合もあるし、マーカ35が照合された後の任意のタイミングで文字情報及び画像情報を受信してよい。
なお、ステップS24〜S25及びステップS26〜S27は、それぞれ順不同で任意のタイミングで実行されてよいし、必ずしも実行されなくてもよい。
[第2実施形態]
図8は、本発明の第2実施形態に係る同室感コミュニケーションシステム1Aの機能ブロックを示す図である。本実施形態に係る同室感コミュニケーションシステム1Aは、第1の場所L1で第1制御装置10Aを用いる第1ユーザと、第2の場所L2で第2制御装置20Aを用いる第2ユーザとが、第3の場所L3に置かれた第1ロボット30A及び第2ロボット30Bを用いてコミュニケーションを行うシステムである。第1の場所L1、第2の場所L2及び第3の場所L3は、互いに物理的に離れた場所であってよいが、必ずしも遠隔地である必要はなく、同一の建物内の別の部屋であってもよい。
本実施形態では、第1の場所L1に第1制御装置10Aを用いる第1ユーザがおり、第2の場所L2に第2制御装置20Aを用いる第2ユーザがおり、第3の場所L3に第1ロボット30A及び第2ロボット30Bがいる。ここで、第1制御装置10A及び第1ロボット30Aは、インターネット等の通信ネットワークNを介して互いに通信可能に構成される。また、第1制御装置10A及び第2制御装置20Aは、通信ネットワークNを介して互いに通信可能に構成される。また、第2制御装置20A及び第2ロボット30Bは、通信ネットワークNを介して互いに通信可能に構成される。なお、第1ロボット30A及び第2ロボット30Bも、インターネット等の通信ネットワークN又は近距離無線通信等により互いに通信可能に構成されてもよい。なお、第1の場所L1に第1制御装置10Aを用いる複数の第1ユーザがいて、第3の場所L3に複数の第1ユーザに対応する複数の第1ロボット30Aがいてもよいし、第2の場所L2に第2制御装置20Aを用いる複数の第2ユーザがいて、第3の場所L3に複数の第2ユーザに対応する複数の第2ロボット30Bがいてもよい。
第1ロボット30Aは、第1撮影部31Aと、自走部32と、マニピュレータ33と、第1マーカ35Aとを備える。第1撮影部31A、自走部32、マニピュレータ33及び第1マーカ35Aの構成は、第1実施形態に係るロボット30の第1撮影部31、自走部32、マニピュレータ33及びマーカ35の構成と同様であってよく、詳細な説明を省略する。
第2ロボット30Bは、第2撮影部31Bと、自走部32と、マニピュレータ33と、第2マーカ35Bとを備える。第2撮影部31B、自走部32、マニピュレータ33及び第2マーカ35Bの構成は、第1実施形態に係るロボット30の第1撮影部31、自走部32、マニピュレータ33及びマーカ35の構成と同様であってよく、詳細な説明を省略する。
第1制御装置10Aは、第1検出部11と、第1表示部10fと、第1入力部10eとを備える。第1検出部11は、第1ロボット30Aの第1撮影部31Aにより撮影された画像に基づき、第2ロボット30Bの3次元位置を検出する。第1検出部11は、第1撮影部31Aにより撮影された画像に基づいて、第2ロボット30Bの第2マーカ35Bの3次元位置を検出してよい。
第1表示部10fは、第1撮影部31Aにより撮影された画像を表示し、第1検出部11により第2ロボット30Bの3次元位置が検出された場合に、第2制御装置20Aから受信した第2アバターの表示態様を制御する情報に基づいて、第1検出部11により検出された3次元位置に第2アバターを表示する。すなわち、第1制御装置10Aを用いる第1ユーザは、第1ロボット30Aの視点で第3の場所L3を視認し、第2ロボット30Bに重畳する第2アバターによって、第2制御装置20Aを用いる第2ユーザの身振りや表情を確認することができる。なお、第1表示部10fの構成は、第1実施形態に係る第1制御装置10の第1表示部10fと同様であってよい。第1制御装置10Aを用いる第1ユーザは、第1の場所L1にいながら、第3の場所L3にいるかのような仮想現実の感覚を得ることができる。
第1入力部10eは、第1アバターの表示態様を制御する情報の入力を受け付ける。ここで、第1アバターは、第1制御装置10Aを用いる第1ユーザの身振りや表情を表すものである。なお、第1入力部10eの構成は、第1実施形態に係る第1制御装置10の入力部20eと同様であってよい。
なお、第1制御装置10Aの物理的構成は、第1実施形態に係る第1制御装置10の物理的構成と同様であってよい。
第2制御装置20Aは、第2検出部21と、第2表示部20fと、第2入力部20eとを備える。第2検出部21は、第2ロボット30Bの第2撮影部31Bにより撮影された画像に基づき、第1ロボット30Aの3次元位置を検出する。第2検出部21は、第2撮影部31Bにより撮影された画像に基づいて、第1ロボット30Aの第1マーカ35Aの3次元位置を検出してよい。
第2表示部20fは、第2撮影部31Bにより撮影された画像を表示し、第2検出部21により第1ロボット30Aの3次元位置が検出された場合に、第1制御装置10Aから受信した第1アバターの表示態様を制御する情報に基づいて、第2検出部21により検出された3次元位置に第1アバターを表示する。すなわち、第2制御装置20Aを用いる第2ユーザは、第2ロボット30Bの視点で第3の場所L3を視認し、第1ロボット30Aに重畳する第1アバターによって、第1制御装置10Aを用いる第1ユーザの身振りや表情を確認することができる。なお、第2表示部20fの構成は、第1実施形態に係る第1制御装置10の第1表示部10fと同様であってよい。第2制御装置20Aを用いる第2ユーザは、第2の場所L2にいながら、第3の場所L3にいるかのような仮想現実の感覚を得ることができる。
第2入力部20eは、第2アバターの表示態様を制御する情報の入力を受け付ける。ここで、第2アバターは、第2制御装置20Aを用いる第2ユーザの身振りや表情を表すものである。なお、第2入力部20eの構成は、第1実施形態に係る第1制御装置10の入力部20eと同様であってよい。
なお、第2制御装置20Aの物理的構成は、第1実施形態に係る第1制御装置10の物理的構成と同様であってよい。
図9は、第2実施形態に係る第1制御装置10Aにより実行される処理のフローチャートである。同図では、同室感コミュニケーションシステム1Aにより実行される処理のうち、第1制御装置10Aにより実行される処理のフローチャートを示している。なお、第2制御装置20Aにより実行される処理は、第1制御装置10Aにより実行される処理と同様であるため、詳細な説明を省略する。また、第2実施形態に係る第1制御装置10A又は第2制御装置20Aにより実行される処理には、第1実施形態に係る第1制御装置10により実行される処理や、第1実施形態に係る第2制御装置20により実行される処理を適宜組み合わせることができる。第1制御装置10Aにより実行される処理は、主に第2ロボット30Bの3次元位置に第2アバターを表示し、第1アバターの表示態様を制御する情報の入力を受け付けて第2制御装置20Aに送信する処理である。また、第1制御装置10Aにより実行される処理は、第2制御装置20Aにより入力された音声を出力する処理、第2ロボット30Bの第2マーカ35Bと登録された画像を照合する処理、第2制御装置20Aに対して第2アバターの表示態様を制御する情報の送信を要求する処理、文字情報や画像情報を第2制御装置20Aから受信して第2アバターに関連付けて表示する処理、文字情報や画像情報の入力を受け付けて第2制御装置20Aに送信する処理、第1ロボット30Aの自走を制御する情報の入力を受け付けて第1ロボット30Aに送信する処理及び第1ロボット30Aのマニピュレータを制御する情報の入力を受け付けて第1ロボット30Aに送信する処理を含んでよい。以下では、第1制御装置10Aにより実行される処理の一例を示す。
はじめに、第1制御装置10Aの第1表示部10fに第1ロボット30Aの第1撮影部31Aで撮影された画像を表示する(S30)。そして、第1制御装置10Aの第1入力部10eによって、第1ロボット30Aの自走を制御する情報の入力を受け付ける(S31)。そして、自走を制御する情報を第1ロボット30Aに送信する(S32)。なお、本例で示した第1ロボット30Aの自走を制御する情報の入力を受け付けるタイミングと、送信するタイミングは一例に過ぎず、第1制御装置10Aは、任意のタイミングで第1ロボット30Aの自走を制御する情報の入力を受け付けてよいし、当該情報を第1ロボット30Aに送信してよい。
第1制御装置10Aは、第1検出部11により、第1ロボット30Aの第1撮影部31Aで撮影された画像に基づいて、第2ロボット30Bの第2マーカ35Bを認識し、第2マーカ35Bに基づいて第2ロボット30Bの3次元位置を検出する(S33)。
第1制御装置10Aは、第2マーカ35Bと登録された画像が一致するか否かを判定し、一致しない場合(S34:NO)、第1ロボット30Aにより撮影された画像を表示し(S30)、第1ロボット30Aの自走を制御して(S31,S32)、第2マーカ35Bに基づいて他のロボットの3次元位置を検出する(S33)。一方、第2マーカ35Bと登録された画像が一致する場合(S34:YES)、第1制御装置10Aは、第2制御装置20Aから、第2アバターの身振りを制御する情報、表情を制御する情報を受信する(S35)。そして、第1制御装置10Aの第1表示部10fにより、第2ロボット30Bの3次元位置に第2アバターを表示する(S36)。
また、第1制御装置10Aは、第1制御装置10Aの音声出力部により、第2制御装置20Aの音声入力部に入力された音声を出力する(S37)。なお、本例に示した音声出力のタイミングは一例に過ぎず、第1制御装置10Aの音声入力部及び音声出力部と、第2制御装置20Aの音声入力部及び音声出力部とによる音声情報の入出力は、任意のタイミングで行われてよい。
次に、第1制御装置10Aの第1入力部10eによって、第1アバターの身振りを制御する情報、表情を制御する情報の入力を受け付ける(S38)。そして、第1アバターの身振りを制御する情報、表情を制御する情報を第2制御装置20Aに送信する(S39)。なお、本例で示した第1アバターの身振りを制御する情報、表情を制御する情報の入力を受け付けるタイミングと、送信するタイミングは一例に過ぎず、第1制御装置10Aは、任意のタイミングで第1アバターの身振りを制御する情報、表情を制御する情報の入力を受け付けてよいし、当該情報を第2制御装置20Aに送信してよい。また、第1制御装置10Aは、第1アバターの身振りを制御する情報及び表情を制御する情報以外の第1アバターの表示態様を制御する情報を受け付けて、第2制御装置20Aに送信してもよい。
なお、ステップS31〜S32、ステップS35〜S36、ステップS37及びステップS38〜S39は、それぞれ順不同で任意のタイミングで実行されてよいし、必ずしも実行されなくてもよい。
同室感コミュニケーションシステム1Aによれば、第1ユーザが用いる第1制御装置10Aによって、第1ロボット30Aの第1撮影部31Aにより撮影された第2ロボット30Bの画像を表示し、第1ユーザから第1アバターの表示態様を制御する情報の入力を受け付ける。また、第2ユーザが用いる第2制御装置20Aによって、第2ロボット30Bの第2撮影部31Bにより撮影された第1ロボット30Aの画像を表示し、第2ユーザから第2アバターの表示態様を制御する情報の入力を受け付ける。そして、第1制御装置10Aは、第2ロボット30Bの3次元位置に第2ユーザによって表示態様が制御される第2アバターを表示し、第2制御装置20Aは、第1ロボット30Aの3次元位置に第1ユーザによって表示態様が制御される第1アバターを表示する。このように、第1ユーザ及び第2ユーザは、第1ロボット30A及び第2ロボット30Bにより3次元的な位置の認識を共有することができ、同じ空間にいるような感覚を得ることができる。
以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。
例えば、第1実施形態に係る第1制御装置10を用いる第1ユーザをボットに置き換えて、第1制御装置10から第2制御装置20に送信される音声情報及びアバターの表示態様を制御する情報と、第1制御装置10からロボット30に送信される自走を制御する情報とを、第1制御装置10により実行されるボットプログラムにより生成することとしてもよい。
1…同室感コミュニケーションシステム、1A…同室感コミュニケーションシステム、10…第1制御装置、10A…第1制御装置、10a…CPU、10b…RAM、10c…ROM、10d…通信部、10e…入力部、10f…第1表示部、10g…音声入力部、10h…音声出力部、11…第1検出部、20…第2制御装置、20A…第2制御装置、20a…CPU、20b…RAM、20c…ROM、20d…通信部、20e…入力部、20f…第2表示部、20g…音声入力部、20h…音声出力部、20i…第2撮影部、21…検出部、22…要求部、30…ロボット、30A…第1ロボット、30B…第2ロボット、31…第1撮影部、31A…第1撮影部、31B…第2撮影部、32…自走部、33…マニピュレータ、35…マーカ、35A…第1マーカ、35B…第2マーカ、A…アバター、L1…第1の場所、L2…第2の場所、L3…第3の場所、N…通信ネットワーク

Claims (16)

  1. ロボットと、前記ロボットと通信可能な第1制御装置と、前記第1制御装置と通信可能な第2制御装置と、を備える同室感コミュニケーションシステムであって、
    前記ロボットは、第1撮影部を有し、
    前記第1制御装置は、
    前記第1撮影部により撮影された画像を表示する第1表示部と、
    アバターの表示態様を制御する情報の入力を受け付ける入力部と、を有し、
    前記第2制御装置は、
    第2撮影部と、
    前記第2撮影部により撮影された画像に基づき、前記ロボットの3次元位置を検出する検出部と、
    前記第2撮影部により撮影された画像を表示し、前記検出部により前記ロボットの3次元位置が検出された場合に、前記第1制御装置から受信した前記表示態様を制御する情報に基づいて、前記検出部により検出された3次元位置に前記アバターを表示する第2表示部と、を有し、
    前記表示態様を制御する情報は、文字情報及び画像情報の少なくともいずれかを含み、
    前記第2表示部は、前記アバターに関連付けて、前記文字情報及び前記画像情報の少なくともいずれかを表示する、
    同室感コミュニケーションシステム。
  2. 前記ロボットは、自走部を有し、
    前記入力部は、前記自走部による前記ロボットの自走を制御する情報の入力を受け付ける、
    請求項1に記載の同室感コミュニケーションシステム。
  3. 前記入力部は、前記アバターの身振りを制御する情報の入力を受け付ける、
    請求項1又は2に記載の同室感コミュニケーションシステム。
  4. 前記入力部は、前記アバターの表情を制御する情報の入力を受け付ける、
    請求項1から3のいずれか一項に記載の同室感コミュニケーションシステム。
  5. 前記入力部は、前記文字情報及び前記画像情報の少なくともいずれかの入力を受け付ける、
    請求項1から4のいずれか一項に記載の同室感コミュニケーションシステム。
  6. 前記ロボットは、マニピュレータを有し、
    前記入力部は、前記マニピュレータを制御する情報の入力を受け付ける、
    請求項1からのいずれか一項に記載の同室感コミュニケーションシステム。
  7. 前記第2制御装置は、前記検出部により前記ロボットの3次元位置が検出された場合に、前記第1制御装置に対して前記表示態様を制御する情報の送信を要求する要求部をさらに有する、
    請求項1からのいずれか一項に記載の同室感コミュニケーションシステム。
  8. ロボットと、前記ロボットと通信可能な第1制御装置と、前記第1制御装置と通信可能な第2制御装置と、を備える同室感コミュニケーションシステムであって、
    前記ロボットは、第1撮影部を有し、
    前記第1制御装置は、
    前記第1撮影部により撮影された画像を表示する第1表示部と、
    アバターの表示態様を制御する情報の入力を受け付ける入力部と、を有し、
    前記第2制御装置は、
    第2撮影部と、
    前記第2撮影部により撮影された画像に基づき、前記ロボットの3次元位置を検出する検出部と、
    前記第2撮影部により撮影された画像を表示し、前記検出部により前記ロボットの3次元位置が検出された場合に、前記第1制御装置から受信した前記表示態様を制御する情報に基づいて、前記検出部により検出された3次元位置に前記アバターを表示する第2表示部と、を有し、
    前記第2制御装置は、前記検出部により前記ロボットの3次元位置が検出された場合に、前記第1制御装置に対して前記表示態様を制御する情報の送信を要求する要求部をさらに有する、
    同室感コミュニケーションシステム。
  9. 前記ロボットは、自走部を有し、
    前記入力部は、前記自走部による前記ロボットの自走を制御する情報の入力を受け付ける、
    請求項8に記載の同室感コミュニケーションシステム。
  10. 前記入力部は、前記アバターの身振りを制御する情報の入力を受け付ける、
    請求項8又は9に記載の同室感コミュニケーションシステム。
  11. 前記入力部は、前記アバターの表情を制御する情報の入力を受け付ける、
    請求項8から10のいずれか一項に記載の同室感コミュニケーションシステム。
  12. 前記表示態様を制御する情報は、文字情報及び画像情報の少なくともいずれかを含み、
    前記第2表示部は、前記アバターに関連付けて、前記文字情報及び前記画像情報の少なくともいずれかを表示する、
    請求項8から11のいずれか一項に記載の同室感コミュニケーションシステム。
  13. 前記入力部は、前記文字情報及び前記画像情報の少なくともいずれかの入力を受け付ける、
    請求項12に記載の同室感コミュニケーションシステム。
  14. 前記ロボットは、マニピュレータを有し、
    前記入力部は、前記マニピュレータを制御する情報の入力を受け付ける、
    請求項8から13のいずれか一項に記載の同室感コミュニケーションシステム。
  15. 第1ロボットと、前記第1ロボットと通信可能な第1制御装置と、第2ロボットと、前記第2ロボット及び前記第1制御装置と通信可能な第2制御装置と、を備える同室感コミュニケーションシステムであって、
    前記第1ロボットは、第1撮影部を有し、
    前記第2ロボットは、第2撮影部を有し、
    前記第1制御装置は、
    前記第1撮影部により撮影された画像に基づき、前記第2ロボットの3次元位置を検出する第1検出部と、
    前記第1撮影部により撮影された画像を表示し、前記第1検出部により前記第2ロボットの3次元位置が検出された場合に、前記第2制御装置から受信した第2アバターの表示態様を制御する情報に基づいて、前記第1検出部により検出された3次元位置に前記第2アバターを表示する第1表示部と、
    第1アバターの表示態様を制御する情報の入力を受け付ける第1入力部と、を有し、
    前記第2制御装置は、
    前記第2撮影部により撮影された画像に基づき、前記第1ロボットの3次元位置を検出する第2検出部と、
    前記第2撮影部により撮影された画像を表示し、前記第2検出部により前記第1ロボットの3次元位置が検出された場合に、前記第1制御装置から受信した前記第1アバターの表示態様を制御する情報に基づいて、前記第2検出部により検出された3次元位置に前記第1アバターを表示する第2表示部と、
    前記第2アバターの表示態様を制御する情報の入力を受け付ける第2入力部と、を有し、
    前記第1アバターの表示態様を制御する情報は、文字情報及び画像情報の少なくともいずれかを含み、
    前記第2表示部は、前記第1アバターに関連付けて、前記文字情報及び前記画像情報の少なくともいずれかを表示する、
    同室感コミュニケーションシステム。
  16. 第1ロボットと、前記第1ロボットと通信可能な第1制御装置と、第2ロボットと、前記第2ロボット及び前記第1制御装置と通信可能な第2制御装置と、を備える同室感コミュニケーションシステムであって、
    前記第1ロボットは、第1撮影部を有し、
    前記第2ロボットは、第2撮影部を有し、
    前記第1制御装置は、
    前記第1撮影部により撮影された画像に基づき、前記第2ロボットの3次元位置を検出する第1検出部と、
    前記第1撮影部により撮影された画像を表示し、前記第1検出部により前記第2ロボットの3次元位置が検出された場合に、前記第2制御装置から受信した第2アバターの表示態様を制御する情報に基づいて、前記第1検出部により検出された3次元位置に前記第2アバターを表示する第1表示部と、
    第1アバターの表示態様を制御する情報の入力を受け付ける第1入力部と、を有し、
    前記第2制御装置は、
    前記第2撮影部により撮影された画像に基づき、前記第1ロボットの3次元位置を検出する第2検出部と、
    前記第2撮影部により撮影された画像を表示し、前記第2検出部により前記第1ロボットの3次元位置が検出された場合に、前記第1制御装置から受信した前記第1アバターの表示態様を制御する情報に基づいて、前記第2検出部により検出された3次元位置に前記第1アバターを表示する第2表示部と、
    前記第2アバターの表示態様を制御する情報の入力を受け付ける第2入力部と、を有し、
    前記第2制御装置は、前記第2検出部により前記第1ロボットの3次元位置が検出された場合に、前記第1制御装置に対して前記第1アバターの表示態様を制御する情報の送信を要求する要求部をさらに有する、
    同室感コミュニケーションシステム。
JP2018056835A 2018-03-23 2018-03-23 同室感コミュニケーションシステム Active JP6564484B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018056835A JP6564484B1 (ja) 2018-03-23 2018-03-23 同室感コミュニケーションシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018056835A JP6564484B1 (ja) 2018-03-23 2018-03-23 同室感コミュニケーションシステム

Publications (2)

Publication Number Publication Date
JP6564484B1 true JP6564484B1 (ja) 2019-08-21
JP2019168971A JP2019168971A (ja) 2019-10-03

Family

ID=67692208

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018056835A Active JP6564484B1 (ja) 2018-03-23 2018-03-23 同室感コミュニケーションシステム

Country Status (1)

Country Link
JP (1) JP6564484B1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11792353B2 (en) * 2020-12-07 2023-10-17 Avaya Management L.P. Systems and methods for displaying users participating in a communication session

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2720886A1 (en) * 2010-11-12 2012-05-12 Crosswing Inc. Customizable virtual presence system
JP5791082B2 (ja) * 2012-07-30 2015-10-07 国立大学法人横浜国立大学 画像合成装置、画像合成システム、画像合成方法およびプログラム
JP6647711B2 (ja) * 2016-03-16 2020-02-14 国立大学法人電気通信大学 ビデオチャットロボットシステム、手渡し遊び制御方法および手渡し遊び制御プログラム

Also Published As

Publication number Publication date
JP2019168971A (ja) 2019-10-03

Similar Documents

Publication Publication Date Title
JP7409692B2 (ja) 対話型拡張現実表示を表示するためのシステム、方法、及び媒体
CN104364753B (zh) 用于突出显示活动界面元素的方法
CN108885521A (zh) 跨环境共享
US20130050069A1 (en) Method and system for use in providing three dimensional user interface
US10254847B2 (en) Device interaction with spatially aware gestures
JP6722786B1 (ja) 空間情報管理装置
US20120167014A1 (en) Visual surrogate for indirect experience and apparatus and method for providing the same
US10296359B2 (en) Interactive system control apparatus and method
US20190240573A1 (en) Method for controlling characters in virtual space
US10514755B2 (en) Glasses-type terminal and control method therefor
CN113289327A (zh) 移动终端的显示控制方法及装置、存储介质及电子设备
JP6381361B2 (ja) データ処理装置、データ処理システム、データ処理装置の制御方法、並びにプログラム
JP2013037454A (ja) 姿勢判定方法、プログラム、装置、システム
Park et al. New design and comparative analysis of smartwatch metaphor-based hand gestures for 3D navigation in mobile virtual reality
JP6822413B2 (ja) サーバ装置及び情報処理方法、並びにコンピュータ・プログラム
JP6564484B1 (ja) 同室感コミュニケーションシステム
JP2018112894A (ja) システムおよび制御方法
LIU et al. A preliminary study of kinect-based real-time hand gesture interaction systems for touchless visualizations of hepatic structures in surgery
Lenz et al. Nimbro wins ana avatar xprize immersive telepresence competition: Human-centric evaluation and lessons learned
WO2023230290A1 (en) Devices, methods, and graphical user interfaces for user authentication and device management
KR20150044243A (ko) 손 아바타를 이용한 콘텐츠 제어가능 전자학습 장치 및 방법
Ahn et al. SPRinT: A mixed approach to a hand-held robot interface for telepresence
GB2535730A (en) Interactive system control apparatus and method
US20220331967A1 (en) Management server, remote operation system, remote operation method, and storage medium
TW201913298A (zh) 可顯示實體輸入裝置即時影像之虛擬實境系統及其控制方法

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20180423

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190131

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190131

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190322

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190726

R150 Certificate of patent or registration of utility model

Ref document number: 6564484

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250